JP2012065107A - Portable terminal apparatus - Google Patents

Portable terminal apparatus Download PDF

Info

Publication number
JP2012065107A
JP2012065107A JP2010206959A JP2010206959A JP2012065107A JP 2012065107 A JP2012065107 A JP 2012065107A JP 2010206959 A JP2010206959 A JP 2010206959A JP 2010206959 A JP2010206959 A JP 2010206959A JP 2012065107 A JP2012065107 A JP 2012065107A
Authority
JP
Japan
Prior art keywords
terminal device
mobile terminal
unit
authentication
mobile phone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010206959A
Other languages
Japanese (ja)
Inventor
Yoshihiko Higami
義彦 樋上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010206959A priority Critical patent/JP2012065107A/en
Publication of JP2012065107A publication Critical patent/JP2012065107A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a portable terminal apparatus that easily and conveniently performs authentication.SOLUTION: A portable terminal apparatus 1 includes a determination section 102 for determining that the portable terminal apparatus is held, an imaging section 15 for capturing an image, a storage section 200 for storing an image, and an authentication section 103 for performing authentication by matching the image captured by the imaging section 15 with the image stored beforehand in the storage section. When the determination section 102 determines that the portable terminal apparatus 1 is held, the imaging section 15 starts imaging and the authentication section 103 authenticates the image captured by the imaging section 15 on the basis of the image stored beforehand in the storage section 200.

Description

本発明は、携帯電話機やPDA(Personal Digital Assistant)等の携帯端末装置に関するものである。   The present invention relates to a mobile terminal device such as a mobile phone or a PDA (Personal Digital Assistant).

従来、携帯端末装置には、紛失や置き忘れなどにより携帯電話機が他人の手に渡った際に、携帯電話機が不正使用されないように、セキュリティ機能が設けられている。かかるセキュリティ機能として、ユーザからの入力を受け付けないロック機能などが設けられる。ロック機能が設定された状態において、たとえば、ユーザによるボタン押下などの入力操作が検出されると、顔認証およびパスワード認証が行われる。顔認証またはパスワード認証に成功すると、ロック状態が解除され、一方、顔認証およびパスワード認証に失敗すると、ロック状態が維持される(たとえば、特許文献1)。   2. Description of the Related Art Conventionally, a mobile terminal device is provided with a security function so that a mobile phone is not illegally used when the mobile phone reaches another person's hand due to loss or misplacement. As such a security function, a lock function that does not accept input from the user is provided. In the state where the lock function is set, for example, when an input operation such as a button press by the user is detected, face authentication and password authentication are performed. If the face authentication or password authentication is successful, the lock state is released. On the other hand, if the face authentication and password authentication fails, the lock state is maintained (for example, Patent Document 1).

特開2009−296112号公報JP 2009-296112 A

しかしながら、上記の構成によれば、ロックを解除するためには、認証を開始するための特別な入力操作をユーザが行わなければならず、煩わしい。   However, according to the above configuration, in order to release the lock, the user has to perform a special input operation for starting authentication, which is troublesome.

また、ユーザが表示面に触れて入力操作を行う静電式タッチパネルを搭載した携帯電話機では、手袋をした手で表示面に触れても入力ができない。このような場合には、手袋をわざわざ外してから、表示面を操作しなければならず、不便である。   In addition, in a mobile phone equipped with an electrostatic touch panel in which a user touches the display surface to perform an input operation, input is not possible even if the user touches the display surface with a gloved hand. In such a case, it is inconvenient because the display surface must be operated after the gloves are removed.

本発明は、かかる課題に鑑みてなされたものであり、簡単かつ便利に認証を行える携帯端末装置を提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a mobile terminal device that can perform authentication simply and conveniently.

本発明の携帯端末装置は、携帯端末装置において、当該携帯端末装置が持たれたことを判断する判断部と、画像を撮影する撮影部と、画像を記憶する記憶部と、前記撮影部により撮影された画像と前記記憶部に予め記憶された画像とを照合することにより認証を行う認証部と、を備える。ここで、前記判断部により当該携帯端末装置が持たれたことが判断された場合、前記撮影部は撮影を開始し、前記認証部は前記記憶部に予め記憶された画像に基づいて前記撮影部により撮影された画像の認証を行う。   The portable terminal device according to the present invention is a portable terminal device, in which a determination unit that determines that the portable terminal device is held, an imaging unit that captures an image, a storage unit that stores an image, and an imaging by the imaging unit. An authentication unit that performs authentication by collating the image that has been stored with the image stored in advance in the storage unit. Here, when it is determined by the determination unit that the portable terminal device is held, the photographing unit starts photographing, and the authentication unit is based on an image stored in advance in the storage unit. Authenticate images taken by.

本態様に係る携帯端末装置において、前記判断部は、当該携帯端末装置に作用する加速度に基づいて当該携帯端末装置が持たれたか否かを判断し得る。   In the mobile terminal device according to this aspect, the determination unit can determine whether or not the mobile terminal device is held based on an acceleration acting on the mobile terminal device.

本態様に係る携帯端末装置において、前記判断部は、当該携帯端末装置に作用する加速度および当該携帯端末装置における照度に基づき、当該携帯端末装置が持たれたか否かを判断し得る。   In the mobile terminal device according to this aspect, the determination unit can determine whether or not the mobile terminal device is held based on acceleration acting on the mobile terminal device and illuminance in the mobile terminal device.

また、前記判断部は、当該携帯端末装置に作用する加速度、および当該携帯端末装置への被検出物の近接の有無に基づき、当該携帯端末装置が持たれたか否かを判断し得る。   The determination unit may determine whether or not the mobile terminal device is held based on acceleration acting on the mobile terminal device and whether or not an object to be detected is close to the mobile terminal device.

さらに、前記判断部は、当該携帯端末装置に作用する加速度、当該携帯端末装置における前記照度、および当該携帯端末装置への被検出物の近接の有無に基づき、当該携帯端末装置が持たれたか否かを判断し得る。   Further, the determination unit determines whether the portable terminal device is held based on acceleration acting on the portable terminal device, the illuminance in the portable terminal device, and whether or not an object to be detected is in proximity to the portable terminal device. It can be judged.

本態様に係る携帯端末装置において、当該携帯端末装置への入力を受ける入力部と、前記入力部への入力を無効にするキーガード機能を設定および解除する機能制御部と、をさらに備え得る。ここで、前記機能制御部は、前記認証部による認証が成功した場合、前記キーガード機能を解除する。   The mobile terminal device according to this aspect may further include an input unit that receives an input to the mobile terminal device, and a function control unit that sets and cancels a key guard function that invalidates the input to the input unit. Here, the function control unit cancels the key guard function when authentication by the authentication unit is successful.

この場合、前記判断部は、当該携帯端末装置が置かれることを判断し、前記機能制御部は、前記判断部により当該携帯端末装置が置かれることが判断されると、前記キーガード機能を設定し得る。   In this case, the determination unit determines that the mobile terminal device is placed, and the function control unit sets the key guard function when the determination unit determines that the mobile terminal device is placed. Can do.

本態様に係る携帯端末装置において、当該携帯端末装置への入力を受ける入力部と、前記入力部への入力を無効にするキーガード機能を設定および解除する機能制御部と、をさらに備え得る。ここで、前記判断部は、当該携帯端末装置が置かれることを判断し、前記機能制御部は、前記認証部による認証が成功すると、前記キーガード機能を解除し、前記判断部により当該携帯端末装置が置かれることが判断されると、前記キーガード機能を設定する。   The mobile terminal device according to this aspect may further include an input unit that receives an input to the mobile terminal device, and a function control unit that sets and cancels a key guard function that invalidates the input to the input unit. Here, the determination unit determines that the mobile terminal device is placed, and the function control unit cancels the key guard function when the authentication by the authentication unit is successful, and the determination unit performs the mobile terminal. If it is determined that the device is placed, the key guard function is set.

この場合、前記判断部は、当該携帯端末装置に作用する加速度に基づいて当該携帯端末装置が置かれるか否かを判断し得る。   In this case, the determination unit can determine whether or not the mobile terminal device is placed based on the acceleration acting on the mobile terminal device.

また、前記判断部は、当該携帯端末装置に作用する加速度および当該携帯端末装置における照度に基づき、当該携帯端末装置が置かれるか否かを判断し得る。   Moreover, the said determination part can determine whether the said portable terminal device is placed based on the acceleration which acts on the said portable terminal device, and the illumination intensity in the said portable terminal device.

さらに、前記判断部は、当該携帯端末装置に作用する加速度、および当該携帯端末装置への被検出物の近接の有無に基づき、当該携帯端末装置が置かれるか否かを判断し得る。   Furthermore, the determination unit can determine whether or not the mobile terminal device is placed based on acceleration acting on the mobile terminal device and whether or not an object to be detected approaches the mobile terminal device.

本態様に係る携帯端末装置において、表示部と、前記表示部を制御する表示制御部と、をさらに備え得る。ここで、前記表示制御部は、前記認証部による認証が成功した場合、前記表示部を点灯させる。   The mobile terminal device according to this aspect may further include a display unit and a display control unit that controls the display unit. Here, when the authentication by the authentication unit is successful, the display control unit turns on the display unit.

本態様に係る携帯端末装置において、表示部と、前記表示部を制御する表示制御部と、をさらに備え得る。ここで、前記表示制御部は、前記判断部により当該携帯端末装置が持たれたことが判断されると、前記表示部に顔認証に係る画像を表示させる。   The mobile terminal device according to this aspect may further include a display unit and a display control unit that controls the display unit. Here, the display control unit causes the display unit to display an image related to face authentication when the determination unit determines that the portable terminal device is held.

実施の形態に係る携帯電話機の外観構成を示す図である。It is a figure which shows the external appearance structure of the mobile telephone which concerns on embodiment. 実施の形態に係る携帯電話機の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the mobile telephone which concerns on embodiment. 実施の形態に係るキーガード機能に関する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence regarding the key guard function which concerns on embodiment. 実施の形態に係るキーガード機能を解除する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which cancels | releases the key guard function which concerns on embodiment. 実施の形態に係る携帯電話機の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the mobile telephone which concerns on embodiment. 実施の形態に係る携帯電話機の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the mobile telephone which concerns on embodiment. 実施の形態に係るキーガード機能を解除する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which cancels | releases the key guard function which concerns on embodiment. 実施の形態に係るキーガード機能を解除する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which cancels | releases the key guard function which concerns on embodiment.

以下、本発明の実施の形態について、図面を参照して説明する。図1は携帯電話機1の外観構成を示す図である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an external configuration of the mobile phone 1.

携帯電話機1は、正面および背面を含むキャビネット10を有する。キャビネット10の正面には、ディスプレイ11が配されている。   The mobile phone 1 has a cabinet 10 including a front surface and a back surface. A display 11 is arranged on the front surface of the cabinet 10.

ディスプレイ11は、画像を表示する表示部であって、液晶パネル11aと液晶パネル11aを照明するパネルバックライト11bにより構成されている。液晶パネル11aの表示面11cが外部に現れ、ディスプレイ11の表示面11c側にタッチセンサ12(図2参照)が配されている。なお、ディスプレイ11は、有機ELなど他の表示素子により構成されてもよい。   The display 11 is a display unit that displays an image, and includes a liquid crystal panel 11a and a panel backlight 11b that illuminates the liquid crystal panel 11a. The display surface 11c of the liquid crystal panel 11a appears outside, and the touch sensor 12 (see FIG. 2) is arranged on the display surface 11c side of the display 11. In addition, the display 11 may be comprised by other display elements, such as organic EL.

タッチセンサ12は透明なシート状を有しており、タッチセンサ12を透してディスプレイ11の表示面11cを見ることができる。タッチセンサ12は、マトリクス状に配された第1透明電極と第2透明電極とを備えている。タッチセンサ12は、これら透明電極間の静電容量の変化を検出することによって、ユーザに触られた表示面11c上の位置を検出し、その位置に応じた位置信号を後述のCPUへ出力する。なお、タッチセンサ12は、静電容量式のタッチセンサ12に限られず、超音波式、感圧式等のタッチセンサ12であってもよい。   The touch sensor 12 has a transparent sheet shape, and the display surface 11 c of the display 11 can be seen through the touch sensor 12. The touch sensor 12 includes a first transparent electrode and a second transparent electrode arranged in a matrix. The touch sensor 12 detects a position on the display surface 11c touched by the user by detecting a change in capacitance between the transparent electrodes, and outputs a position signal corresponding to the position to a CPU described later. . The touch sensor 12 is not limited to the capacitive touch sensor 12 and may be an ultrasonic touch sensor 12 or a pressure sensitive touch sensor 12.

キャビネット10の正面には、マイクロホン(以下、「マイク」と略す)13およびスピーカ14が配されている。ユーザは、スピーカ14からの音声を耳で捉え、マイク13に対して音声を発することにより通話を行うことができる。   A microphone (hereinafter abbreviated as “microphone”) 13 and a speaker 14 are arranged on the front surface of the cabinet 10. The user can make a call by capturing the sound from the speaker 14 with his / her ear and emitting the sound to the microphone 13.

キャビネット10の正面には、カメラモジュール15(図2参照)のレンズ窓15aが配されている。レンズ窓15aから被写体の画像がカメラモジュール15に取り込まれる。   A lens window 15a of the camera module 15 (see FIG. 2) is disposed on the front surface of the cabinet 10. An image of the subject is taken into the camera module 15 from the lens window 15a.

図2は、携帯電話機1の全体構成を示すブロック図である。   FIG. 2 is a block diagram showing the overall configuration of the mobile phone 1.

本実施の形態の携帯電話機1は、上述した各構成要素の他、CPU100、メモリ200、映像エンコーダ301、音声エンコーダ302、通信モジュール303、バックライト駆動回路304、映像デコーダ305、音声デコーダ306、加速度センサ307および近接センサ308を備えている。   The mobile phone 1 according to the present embodiment includes a CPU 100, a memory 200, a video encoder 301, an audio encoder 302, a communication module 303, a backlight drive circuit 304, a video decoder 305, an audio decoder 306, acceleration in addition to the above-described components. A sensor 307 and a proximity sensor 308 are provided.

カメラモジュール15は、CCD等の撮像素子を有し、画像を撮影する撮影部を含む。カメラモジュール15は、撮像素子から出力された撮像信号をデジタル化し、その撮像信号にガンマ補正等の各種補正を施して映像エンコーダ301へ出力する。映像エンコーダ301は、カメラモジュール15からの撮像信号にエンコード処理を施してCPU100へ出力する。   The camera module 15 has an image sensor such as a CCD, and includes a photographing unit for photographing an image. The camera module 15 digitizes the image signal output from the image sensor, performs various corrections such as gamma correction on the image signal, and outputs the image signal to the video encoder 301. The video encoder 301 performs an encoding process on the imaging signal from the camera module 15 and outputs it to the CPU 100.

マイク13は、集音した音声を音声信号に変換して音声エンコーダ302へ出力する。音声エンコーダ302は、マイク13からのアナログの音声信号をデジタルの音声信号に変換するとともに、デジタルの音声信号にエンコード処理を施してCPU100へ出力する。   The microphone 13 converts the collected sound into a sound signal and outputs the sound signal to the sound encoder 302. The audio encoder 302 converts an analog audio signal from the microphone 13 into a digital audio signal, encodes the digital audio signal, and outputs the digital audio signal to the CPU 100.

通信モジュール303は、CPU100からの音声信号や画像信号、テキスト信号などを無線信号に変換し、アンテナ303aを介して基地局へ送信する。また、アンテナ30
3aを介して受信した無線信号を音声信号や画像信号、テキスト信号などに変換してCPU100へ出力する。
The communication module 303 converts an audio signal, an image signal, a text signal, and the like from the CPU 100 into a radio signal and transmits it to the base station via the antenna 303a. The antenna 30
The radio signal received via 3a is converted into an audio signal, an image signal, a text signal, etc., and output to the CPU 100.

バックライト駆動回路304は、CPU100からの制御信号に応じた電圧信号をパネルバックライト11bに供給する。パネルバックライト11bは、バックライト駆動回路304からの電圧信号により点灯し、液晶パネル11aを照明する。   The backlight drive circuit 304 supplies a voltage signal corresponding to the control signal from the CPU 100 to the panel backlight 11b. The panel backlight 11b is turned on by a voltage signal from the backlight driving circuit 304 and illuminates the liquid crystal panel 11a.

映像デコーダ305は、CPU100からの映像信号を液晶パネル11aで表示できるアナログ若しくはデジタルの映像信号に変換し、液晶パネル11aに出力する。液晶パネル11aは、映像信号に応じた画像を表示面11c上に表示する。   The video decoder 305 converts the video signal from the CPU 100 into an analog or digital video signal that can be displayed on the liquid crystal panel 11a, and outputs it to the liquid crystal panel 11a. The liquid crystal panel 11a displays an image corresponding to the video signal on the display surface 11c.

音声デコーダ306は、CPU100からの音声信号にデコード処理を施し、さらにアナログの音声信号に変換してスピーカ14に出力する。また、音声デコーダ306は、CPU100からの着信音やアラーム音等の各種報知音の音信号、および音声信号にデコード処理を施し、さらにアナログの音信号に変換してスピーカ14へ出力する。スピーカ14は、音声デコーダ306からの音声信号や音信号に基づいて音声や報知音などを再生する。   The audio decoder 306 performs a decoding process on the audio signal from the CPU 100, converts the audio signal into an analog audio signal, and outputs the analog audio signal to the speaker 14. Also, the audio decoder 306 performs decoding processing on the sound signals of various notification sounds such as ringtones and alarm sounds from the CPU 100, and audio signals, converts them into analog sound signals, and outputs them to the speaker 14. The speaker 14 reproduces sound, notification sound, and the like based on the sound signal and sound signal from the sound decoder 306.

加速度センサ307は、3軸加速度センサであり、図1のX軸方向、Y軸方向およびZ軸方向の3方向に生じる加速度を検出するように配されている。加速度センサ307は、検出した加速度に応じた加速度信号をCPU100へ出力する。   The acceleration sensor 307 is a three-axis acceleration sensor, and is arranged to detect acceleration generated in the three directions of the X-axis direction, the Y-axis direction, and the Z-axis direction in FIG. The acceleration sensor 307 outputs an acceleration signal corresponding to the detected acceleration to the CPU 100.

近接センサ308は、携帯電話機1の背面に被検出物が近接したこと、および携帯電話機1の背面の近傍に被検出物が存在していることを検出するための近接検出部である。被検出物が近接または近傍に存在することにより静電容量が増加し、静電容量が閾値を越えると、近接センサ308は近接信号をCPU100へ出力する。一方、近接センサ308は、被検出部が離れ近傍に存在しなくなると、近接信号をCPU100へ出力しなくなる。なお、近接センサ308は、静電容量式の近接センサ308に限られず、たとえば、超音波式や誘導形の近接センサ308であっても良い。また、近接センサ308は、ユーザが携帯電話機1を持ったときに手のひらや指が近接しやすいよう、携帯電話機1の中央部から下部にかけた部位に配されることが望ましい。   Proximity sensor 308 is a proximity detection unit for detecting that an object to be detected has approached the back surface of mobile phone 1 and that an object to be detected exists in the vicinity of the back surface of mobile phone 1. When the detected object is in the vicinity or in the vicinity, the capacitance increases, and when the capacitance exceeds the threshold, the proximity sensor 308 outputs a proximity signal to the CPU 100. On the other hand, the proximity sensor 308 does not output a proximity signal to the CPU 100 when the detected part is no longer present in the vicinity. The proximity sensor 308 is not limited to the capacitive proximity sensor 308, and may be, for example, an ultrasonic or inductive proximity sensor 308. In addition, the proximity sensor 308 is preferably arranged at a portion that extends from the center of the mobile phone 1 to the lower part so that the palm and fingers can easily approach when the user holds the mobile phone 1.

メモリ200は、ROMおよびRAMを含む記憶部である。メモリ200には、CPU100に制御機能を付与するための制御プログラムが記憶されている。かかる制御プログラムには、後述する認証部103にて顔認証を行うための顔認証エンジンが含まれている。顔認証エンジンには、撮像画像から顔領域を抽出するための処理プログラムと、抽出した顔領域の画像と予め登録された顔画像(登録顔画像)とのマッチングを判定するための処理プログラムが含まれている。   The memory 200 is a storage unit including a ROM and a RAM. The memory 200 stores a control program for giving a control function to the CPU 100. Such a control program includes a face authentication engine for performing face authentication by the authentication unit 103 described later. The face authentication engine includes a processing program for extracting a face area from a captured image and a processing program for determining matching between the extracted face area image and a pre-registered face image (registered face image). It is.

また、メモリ200には、カメラモジュール15で撮影した画像情報や通信モジュール303を介して外部から取り込んだ画像情報およびテキスト情報などが所定のファイル形式で保存される。さらに、メモリ200には、位置定義テーブルとして、表示面11cに表示されているアイコンやボタンなどの位置と、アイコンなどに対応するファイルやプログラムに関する処理要求などとが対応付けられて記憶されている。   The memory 200 stores image information captured by the camera module 15 and image information and text information captured from the outside via the communication module 303 in a predetermined file format. Further, the memory 200 stores, as a position definition table, the positions of icons, buttons, and the like displayed on the display surface 11c in association with processing requests regarding files and programs corresponding to the icons. .

CPU100は、メモリ200の位置定義テーブルを参考にしつつ、タッチセンサ12からの位置信号に基づき、制御プログラムに従って、カメラモジュール15、マイク13、通信モジュール303、パネルバックライト11b、液晶パネル11a、スピーカ14を動作させる。これにより、通話機能および電子メール機能などの各種アプリケーションが実行される。   The CPU 100 refers to the position definition table in the memory 200, and based on the position signal from the touch sensor 12, according to the control program, the camera module 15, microphone 13, communication module 303, panel backlight 11b, liquid crystal panel 11a, speaker 14 To work. Thereby, various applications such as a call function and an e-mail function are executed.

CPU100は、登録部101、判断部102、認証部103、機能制御部104および表示制御部105を備える。これら各部は、CPU100によって実行されるソフトウェアの機能として実現される。   The CPU 100 includes a registration unit 101, a determination unit 102, an authentication unit 103, a function control unit 104, and a display control unit 105. These units are implemented as software functions executed by the CPU 100.

登録部101は、メモリ200やカメラモジュール15などから画像情報を取得し、この画像情報を顔認証用の登録顔画像としてメモリ200に登録する。なお、メモリ200に保存されている画像は、カメラモジュール15により撮影された画像、および通信モジュール303を介して受信された画像などを含む。また、登録部101がカメラモジュール15から登録顔画像を取得する場合には、登録部101は、カメラモジュール15に制御信号を出力し、カメラモジュール15に画像を撮影させる。   The registration unit 101 acquires image information from the memory 200, the camera module 15, and the like, and registers this image information in the memory 200 as a registered face image for face authentication. The image stored in the memory 200 includes an image taken by the camera module 15 and an image received through the communication module 303. When the registration unit 101 acquires a registered face image from the camera module 15, the registration unit 101 outputs a control signal to the camera module 15 and causes the camera module 15 to capture an image.

判断部102は、加速度センサ307および近接センサ308から出力される信号に基づいて携帯電話機1の状態を判断する。たとえば、判断部102は、加速度により携帯電話機1の動きを検出し、携帯電話機1の背面に対する近接物を検出することにより、携帯電話機1が持たれた状態であると判断する。また、判断部102は、加速度により携帯電話機1の動きを検出し、携帯電話機1の背面に対する近接物がないことを検出すると、携帯電話機1が置かれる状態であると判断する。   The determination unit 102 determines the state of the mobile phone 1 based on signals output from the acceleration sensor 307 and the proximity sensor 308. For example, the determination unit 102 determines that the mobile phone 1 is held by detecting the movement of the mobile phone 1 based on the acceleration and detecting an object close to the back surface of the mobile phone 1. In addition, the determination unit 102 detects the movement of the mobile phone 1 based on the acceleration, and determines that the mobile phone 1 is in a state where the mobile phone 1 is placed when it detects that there is no proximity object to the back surface of the mobile phone 1.

認証部103は、撮影された画像を登録顔画像と照合することにより認証を行う。認証部103は、カメラモジュール15に画像を撮影させる撮影制御部、撮影された画像および登録顔画像を解析する顔解析部、および解析結果に基づいて撮影画像と登録顔画像とを照合する顔照合部を有する。   The authentication unit 103 performs authentication by comparing the captured image with a registered face image. The authentication unit 103 is a photographing control unit that causes the camera module 15 to photograph an image, a face analysis unit that analyzes the photographed image and the registered face image, and face matching that collates the photographed image and the registered face image based on the analysis result. Part.

撮影制御部は、携帯電話機1が持たれたときに、カメラモジュール15に制御信号を出力し、携帯電話機1の正面の前方にある風景をカメラモジュール15に撮影させ、撮影された画像情報をメモリ200に保存する。撮影画像情報は、1コマの静止画であってもよいし、複数のコマが集められた動画であってもよい。   When the cellular phone 1 is held, the imaging control unit outputs a control signal to the camera module 15, causes the camera module 15 to photograph a landscape in front of the cellular phone 1, and stores the captured image information in the memory Save to 200. The captured image information may be a still image of one frame or a moving image in which a plurality of frames are collected.

顔解析部は、メモリ200から撮影画像情報を1コマ毎あるいは数コマ毎に読み出しながら、撮影画像情報を基に画像の中に含まれる顔画像の領域(顔領域)を抽出する。たとえば、顔解析部は、撮影画像の色を解析し、肌色を検出し、さらに、目、鼻、口などの特徴部分を検出することにより、顔領域を抽出する。顔解析部は、顔領域を特定するための情報、たとえば顔の輪郭の位置情報(以下、「顔領域情報」という)を取得する。顔解析部は、顔領域情報を基に、目、鼻、口などの各パーツの位置、大きさおよび色などを、顔画像を特徴づけるパラメータ(特徴パラメータ)として抽出する。また、顔解析部は、登録顔画像をメモリ200から読み出し、撮影画像の解析と同様に、登録顔画像も解析し、登録顔画像の特徴パラメータを抽出する。そして、抽出した特徴パラメータを、登録顔画像と共にメモリ200に格納しておく。   The face analysis unit extracts a face image area (face area) included in the image based on the photographed image information while reading the photographed image information from the memory 200 every frame or every several frames. For example, the face analysis unit analyzes the color of the photographed image, detects the skin color, and further detects feature parts such as eyes, nose, and mouth, thereby extracting a face region. The face analysis unit acquires information for specifying a face area, for example, position information of a face outline (hereinafter referred to as “face area information”). The face analysis unit extracts the position, size, color, and the like of each part such as eyes, nose, and mouth as parameters (feature parameters) that characterize the face image based on the face area information. In addition, the face analysis unit reads the registered face image from the memory 200, analyzes the registered face image similarly to the analysis of the captured image, and extracts the feature parameters of the registered face image. Then, the extracted feature parameters are stored in the memory 200 together with the registered face image.

顔照合部は、顔解析部により求められた撮影画像の特徴パラメータと、登録顔画像の特徴パラメータとを照合し、これらの適合率を算出する。顔照合部は、適合率に基づき、撮影画像に含まれる顔が登録顔画像と適合するか否かを判定する。   The face collation unit collates the feature parameters of the captured image obtained by the face analysis unit with the feature parameters of the registered face image, and calculates the matching ratio thereof. The face matching unit determines whether or not the face included in the captured image matches the registered face image based on the matching rate.

機能制御部104は、認証部103の判定結果に応じて、キーガード機能の設定および解除を実行する。キーガード機能が設定されると、ユーザからのタッチセンサ12等を通じた入力が無効になる。一方、キーガード機能が解除されると、ユーザからの入力が受け付けられ、入力に応じた処理が実行される。なお、入力の無効には、タッチセンサ12がユーザからの入力を検出しない場合、およびタッチセンサ12が入力を検出しても、CPUがタッチセンサ12からの入力に基づいた処理を実行しない場合を含む。   The function control unit 104 sets and cancels the key guard function according to the determination result of the authentication unit 103. When the key guard function is set, the input from the user through the touch sensor 12 or the like becomes invalid. On the other hand, when the key guard function is canceled, an input from the user is accepted and a process corresponding to the input is executed. The invalidation of the input includes a case where the touch sensor 12 does not detect an input from the user and a case where the CPU does not execute processing based on the input from the touch sensor 12 even if the touch sensor 12 detects an input. Including.

表示制御部105は、判断部102および認証部103の判定結果やユーザからの入力などに応じて、ディスプレイ11を制御する。たとえば、表示制御部105は、パネルバックライト11bに電圧を供給する制御信号をバックライト駆動回路304に出力するとともに、映像信号を映像デコーダ305に出力することにより、パネルバックライト11bを点灯し、液晶パネル11aの表示面11cに画像を表示させる。また、パネルバックライト11bに電圧を供給させない制御信号をバックライト駆動回路304に出力することにより、パネルバックライト11bを消灯し、液晶パネル11aの表示面11cから画像を消す。   The display control unit 105 controls the display 11 according to the determination results of the determination unit 102 and the authentication unit 103, the input from the user, and the like. For example, the display control unit 105 outputs a control signal for supplying a voltage to the panel backlight 11b to the backlight driving circuit 304 and outputs a video signal to the video decoder 305, thereby turning on the panel backlight 11b. An image is displayed on the display surface 11c of the liquid crystal panel 11a. Further, by outputting a control signal that does not supply voltage to the panel backlight 11b to the backlight drive circuit 304, the panel backlight 11b is turned off and the image is turned off from the display surface 11c of the liquid crystal panel 11a.

<第1の実施形態の処理手順>
図3(a)は、登録顔画像をメモリ200に記憶する処理手順を示すフローチャートである。
<Processing procedure of the first embodiment>
FIG. 3A is a flowchart showing a processing procedure for storing a registered face image in the memory 200.

表示制御部105は、所定の操作メニュー情報をメモリ200から読み出し、図1に示すように、液晶パネル11aの表示面11cに操作メニューの画像を表示させる。この操作メニューの画像には、6つのアイコンの画像が表示される。   The display control unit 105 reads predetermined operation menu information from the memory 200 and displays an operation menu image on the display surface 11c of the liquid crystal panel 11a as shown in FIG. In this operation menu image, six icon images are displayed.

操作メニューのアイコンの中から、ユーザが指で登録のアイコンの表示位置を触れると、タッチセンサ12が接触位置を検出し、接触位置の信号をCPU100は受ける。CPU100は、メモリ200の位置定義テーブルを参照し、接触位置に対応する処理として顔画像を登録する処理を特定して開始する(S101)。   When the user touches the display position of the registered icon with a finger from the icons of the operation menu, the touch sensor 12 detects the contact position, and the CPU 100 receives a signal of the contact position. The CPU 100 refers to the position definition table in the memory 200, identifies and starts a process for registering a face image as a process corresponding to the contact position (S101).

登録部101は、制御信号をカメラモジュール15に出力し、画像を撮影させる。これにより、カメラモジュール15は、携帯電話機1の正面に向かう位置にいるユーザの顔を撮影するため、登録部101は、ユーザの顔の画像の画像情報をメモリ200への登録情報として取得する(S102)。   The registration unit 101 outputs a control signal to the camera module 15 to take an image. As a result, the camera module 15 captures the face of the user at the position facing the front of the mobile phone 1, so the registration unit 101 acquires image information of the user's face image as registration information in the memory 200 ( S102).

登録部101は、カメラモジュール15から出力された画像情報をメモリ200に格納することにより、ユーザの顔の画像を登録ユーザの登録顔画像として登録する(S103)。この際に、顔解析部が登録顔画像を解析することにより、登録ユーザの顔画像の特徴パラメータを求め、登録部101は登録顔画像と対応づけて特徴パラメータをメモリ200に記憶する。   The registration unit 101 registers the image of the user's face as a registered user's registered face image by storing the image information output from the camera module 15 in the memory 200 (S103). At this time, the face analysis unit analyzes the registered face image to obtain a feature parameter of the registered user's face image, and the registration unit 101 stores the feature parameter in the memory 200 in association with the registered face image.

図3(b)は、キーガード機能の設定/解除に係る処理手順を示すフローチャートである。図3(c)は、キーガード機能を設定する処理手順を示すフローチャートである。図4は、キーガード機能を解除する処理手順を示すフローチャートである。   FIG. 3B is a flowchart showing a processing procedure related to setting / releasing of the key guard function. FIG. 3C is a flowchart showing a processing procedure for setting the key guard function. FIG. 4 is a flowchart showing a processing procedure for canceling the key guard function.

図3(a)に示すように、携帯電話機1の登録ユーザの登録顔画像が登録されると、次に、図3(b)に示すキーガード機能の制御モードが起動される。ここでは、まず、キーガード機能が設定されているか否かが判断される(S201)。キーガード機能が設定されていなければ(S201:NO)、キーガード機能を設定するための設定判断処理が実行される(S202)。一方、キーガード機能が設定されていれば(S201:YES)、キーガード機能を解除するための解除判断処理が実行される(S203)。   As shown in FIG. 3A, when the registered face image of the registered user of the mobile phone 1 is registered, next, the control mode of the key guard function shown in FIG. 3B is activated. Here, it is first determined whether or not the key guard function is set (S201). If the key guard function is not set (S201: NO), a setting determination process for setting the key guard function is executed (S202). On the other hand, if the key guard function is set (S201: YES), a release determination process for releasing the key guard function is executed (S203).

図3(c)の設定判断処理では、判断部102は、携帯電話機1が置かれる否かを判断する。つまり、ユーザが表示面11cに触れて携帯電話機1を操作している場合や、ユーザが表示面11cに表示される画像などを見ている場合など、ユーザが携帯電話機1を使用している状態では、ユーザは携帯電話機1を手に持って目の前に保持しほとんど動かさない。しかし、ユーザは、携帯電話機1を使用しなくなると、携帯電話機1を目の前から
遠ざけて、携帯電話機1の背面から手を離し、机の上やかばんの中など何らかの場所に置く。このため、判断部102は、携帯電話機1が静止した状態から動かされ、且つ、携帯電話機1の背面から近接物がなくなると、携帯電話機1が使用されなくなり置かれようとしていると判断され得る。
In the setting determination process of FIG. 3C, the determination unit 102 determines whether or not the mobile phone 1 is placed. That is, when the user is using the mobile phone 1 such as when the user touches the display surface 11c and operates the mobile phone 1 or when the user is viewing an image displayed on the display surface 11c. Then, the user holds the cellular phone 1 in his hand and holds it in front of him and hardly moves it. However, when the user stops using the mobile phone 1, the user keeps the mobile phone 1 away from the front, releases the hand from the back of the mobile phone 1, and places the mobile phone 1 on a desk or in a bag. For this reason, when the mobile phone 1 is moved from a stationary state and there is no proximity object from the back surface of the mobile phone 1, the determination unit 102 can determine that the mobile phone 1 is going to be put out of use.

このため、判断部102は、加速度センサ307から加速度信号を受ける。携帯電話機1が目の前から大きく離される場合、動き始めの段階において、3軸方向の加速度のうちの少なくとも何れか1つが大きく変化する。判断部102は、何れかの加速度の変化が予め定めた第1閾値を越えたと判断すると、携帯電話機1が動かされたことを検出する。上記第1閾値は、携帯電話機1が動いたことがユーザの意図的な動作であるか否かを判断するために設定される。つまり、わずかな動作により第1閾値以下の加速度が検出されても、これは、携帯電話機1を置くためのユーザの意図的な動作によるものでないと判断される。   Therefore, the determination unit 102 receives an acceleration signal from the acceleration sensor 307. When the mobile phone 1 is greatly separated from the front, at least one of the accelerations in the three-axis directions changes greatly at the beginning of movement. If determining unit 102 determines that any change in acceleration exceeds a predetermined first threshold, it detects that mobile phone 1 has been moved. The first threshold value is set to determine whether or not the movement of the mobile phone 1 is a user's intentional operation. That is, even if an acceleration equal to or lower than the first threshold is detected by a slight motion, it is determined that this is not due to the user's intentional motion for placing the mobile phone 1.

また、判断部102は、近接センサ308からの検出信号を受けなくなると、携帯電話機1の背面から近接物が無くなったと判断する。このように、携帯電話機1の背面から手が離され、且つ、携帯電話機1が目の前から移動させられたことにより、判断部102は、携帯電話機1がユーザの手から離れて机等に置かれると判断する(S301:YES)。   Further, when the determination unit 102 stops receiving the detection signal from the proximity sensor 308, the determination unit 102 determines that there is no proximity object from the back surface of the mobile phone 1. As described above, when the hand is released from the back surface of the mobile phone 1 and the mobile phone 1 is moved from the front, the determination unit 102 moves the mobile phone 1 away from the user's hand to a desk or the like. It is determined that it is placed (S301: YES).

携帯電話機1がかばんの中や机の上などに置かれた状態では、かばんの中で物が携帯電話機1に当たるなどして誤動作することや、机の上に置かれた携帯電話機1の表示面11cが他人に見られたり操作されたりする虞がある。これらを防止するために、携帯電話機1が置かれると即座にキーガード機能を設定するとともに、表示面11cを消すことが望ましい。このため、機能制御部104は、キーガード機能を設定し(S302)、パネルバックライト11bを消す(S303)。   When the mobile phone 1 is placed in a bag or on a desk, the mobile phone 1 may malfunction due to an object hitting the mobile phone 1 in the bag, or the display surface of the mobile phone 1 placed on the desk. 11c may be seen or operated by others. In order to prevent these, it is desirable to immediately set the key guard function and turn off the display surface 11c when the mobile phone 1 is placed. Therefore, the function control unit 104 sets a key guard function (S302) and turns off the panel backlight 11b (S303).

図4の解除判断処理では、初め、携帯電話機1が使用されていない状態であるため、キーガード機能が設定され、表示面11cの照明が消されている。ここで、ユーザが携帯電話機1を使用しようとすると、携帯電話機1がユーザに持たれる。このため、まず、判断部102は、携帯電話機1が持たれたか否かを判断する(S401)。   In the release determination process of FIG. 4, since the mobile phone 1 is not in use at first, the key guard function is set and the illumination of the display surface 11c is turned off. Here, when the user tries to use the mobile phone 1, the mobile phone 1 is held by the user. Therefore, first, the determination unit 102 determines whether or not the mobile phone 1 is held (S401).

すなわち、加速度センサ307からの検出信号を受けて、3軸方向の何れかの加速度の変化が予め定められた第2閾値を超えたか否かを判断する。携帯電話機1が持ち上げられると、判断部102は、3軸方向の何れかの加速度が第2閾値を超えたと判断する。また、判断部102は、近接センサ308からの検出信号の有無を判断する。携帯電話機1の背面側が手で握られれば、判断部102は近接センサ308から検出信号を受けていると判断する。このように、携帯電話機1が持ち上げられ、背面側から手に持たれたと判断されることにより、判断部102は、携帯電話機1が持たれた状態にあることを検出する(S401:YES)。   That is, in response to the detection signal from the acceleration sensor 307, it is determined whether or not any change in acceleration in the three axis directions exceeds a predetermined second threshold value. When the mobile phone 1 is lifted, the determination unit 102 determines that any acceleration in the three-axis directions has exceeded the second threshold value. Further, the determination unit 102 determines the presence / absence of a detection signal from the proximity sensor 308. If the back side of mobile phone 1 is gripped by hand, determination unit 102 determines that a detection signal is received from proximity sensor 308. Thus, when it is determined that the mobile phone 1 is lifted and held in the hand from the back side, the determination unit 102 detects that the mobile phone 1 is held (S401: YES).

ユーザが携帯電話機1を使用する場合、通常、携帯電話機1を持つと、すぐに携帯電話機1の正面側を自分の顔の前方に持ってくる。このため、携帯電話機1が持たれて使用される状態になると、認証部103は、カメラモジュール15により携帯電話機1の正面の前方を撮影する(S402)。認証部103は、撮影した画像の中から顔画像を抽出する。顔画像が抽出できたら、認証部103は、顔画像から特徴パラメータを求め、顔画像の特徴パラメータと登録顔画像の特徴パラメータとを照合し、これらの特徴パラメータの適合率を算出して、適合率と予め定められた第3閾値とを比較する。   When the user uses the mobile phone 1, usually, when the user holds the mobile phone 1, the front side of the mobile phone 1 is immediately brought in front of his / her face. Therefore, when the mobile phone 1 is held and used, the authentication unit 103 captures the front of the front of the mobile phone 1 with the camera module 15 (S402). The authentication unit 103 extracts a face image from the captured image. When the face image can be extracted, the authentication unit 103 obtains a feature parameter from the face image, compares the feature parameter of the face image with the feature parameter of the registered face image, calculates the matching rate of these feature parameters, and matches The rate is compared with a predetermined third threshold.

登録ユーザが携帯電話機1を使用して、携帯電話機1の正面に向かい合っていれば、登
録ユーザの顔が撮影されているため、適合率は第3閾値より高い値となり、認証部103は、顔画像を登録ユーザの顔として認証する。そして、顔認証が成功すると(S403:YES)、表示制御部105は、パネルバックライト11bを点灯し、表示面11cに画像を表示する(S404)。これにより、ユーザは顔認証に成功したことがわかる。また、機能制御部104は、キーガード機能を解除する(S405)。これにより、ユーザによる入力が受け付けられるため、ユーザは携帯電話機1を操作することができるようになる。
If the registered user uses the mobile phone 1 and faces the front of the mobile phone 1, the registered user's face is photographed, so the relevance rate is higher than the third threshold, and the authentication unit 103 The image is authenticated as a registered user's face. If the face authentication is successful (S403: YES), the display control unit 105 turns on the panel backlight 11b and displays an image on the display surface 11c (S404). As a result, the user can recognize that the face authentication has succeeded. Further, the function control unit 104 cancels the key guard function (S405). Thereby, since the input by the user is accepted, the user can operate the mobile phone 1.

一方、登録ユーザ以外の他人が携帯電話機1を使用しようと持った場合には、認証部103が撮影した画像から顔画像を抽出しても、その顔画像は登録ユーザの顔画像でないため、特徴パラメータの適合率は第3閾値より低くなり、顔画像による認証はできない(S403:NO)。   On the other hand, when another person other than the registered user wants to use the mobile phone 1, even if the face image is extracted from the image captured by the authentication unit 103, the face image is not the registered user's face image. The precision of the parameter is lower than the third threshold value, and authentication using a face image is not possible (S403: NO).

また、登録ユーザが携帯電話機1を使用しようとする場合であっても、携帯電話機1の正面に向かう位置に登録ユーザの顔がなかったり、登録ユーザの顔の表情や向きなどが登録顔画像と異なったりすると、顔画像による認証ができない(S403:NO)。よって、認証部103は、撮影および顔認証を複数回行うため、顔認証の回数が所定回数に達したか否かを判断する。顔認証の回数が所定回数に達していなければ(S406:NO)、認証部103は撮影および顔認証を繰り返す(S402、S403)。   Even when the registered user intends to use the mobile phone 1, the registered user's face is not at a position facing the front of the mobile phone 1, or the registered user's facial expression and orientation are If they are different, authentication using a face image cannot be performed (S403: NO). Therefore, since the authentication unit 103 performs photographing and face authentication a plurality of times, the authentication unit 103 determines whether the number of face authentications has reached a predetermined number. If the number of face authentications has not reached the predetermined number (S406: NO), the authentication unit 103 repeats photographing and face authentication (S402, S403).

所定回数、顔画像による認証を行っても、認証部103が認証に成功しなければ(S403:NO、S406:YES)、機能制御部104は、キーガード機能を維持して、処理が終了する(S407)。これにより、携帯電話機1に対する入力が無効になるため、誤操作や不正使用などが防止される。この場合、パネルバックライト11bが消されているため、表示内容が他人に見られることも防げる。   If the authentication unit 103 is not successfully authenticated even after performing authentication with a face image a predetermined number of times (S403: NO, S406: YES), the function control unit 104 maintains the key guard function and the process ends. (S407). As a result, the input to the mobile phone 1 becomes invalid, so that an erroneous operation or unauthorized use is prevented. In this case, since the panel backlight 11b is turned off, it is possible to prevent others from seeing the display content.

以上、本実施形態によれば、ユーザが携帯電話機1を使用するために、ユーザが携帯電話機1を持つだけで、顔認証が開始されることにより、特別な操作が必要なく、ユーザに意識させることなく簡単に顔認証を実施できる。しかも、静電式タッチセンサ12を搭載した携帯電話機1を、手袋をはめた手で使用するような場合であっても、顔認証を実施できる。   As described above, according to the present embodiment, in order for the user to use the mobile phone 1, the user only needs to hold the mobile phone 1, and face authentication is started, so that no special operation is required and the user is made aware of it. Face recognition can be performed easily without any problems. Moreover, even when the cellular phone 1 equipped with the electrostatic touch sensor 12 is used with a gloved hand, face authentication can be performed.

また、本実施形態によれば、携帯電話機1が持たれて使用される際には、携帯電話機1の正面にユーザが居ることにより、レンズ窓15aが正面に設けられたカメラモジュール15によりユーザを撮影できる。このように、レンズ窓15aを正面に設けることで、ユーザが携帯電話機1を使用する自然な動作で、カメラモジュール15はユーザを撮影することができる。   In addition, according to the present embodiment, when the mobile phone 1 is held and used, the user is placed in front of the mobile phone 1, so that the camera module 15 having the lens window 15 a provided in the front is used to Can shoot. Thus, by providing the lens window 15a on the front surface, the camera module 15 can photograph the user with a natural operation of using the mobile phone 1 by the user.

また、本実施形態によれば、表示面11cが表示されていない状態で、顔認証が開始されることで、ユーザに抵抗感を与えることなく、ユーザを撮影し認証することが可能である。   Further, according to the present embodiment, it is possible to shoot and authenticate the user without giving the user a sense of resistance by starting face authentication in a state where the display surface 11c is not displayed.

さらに、本実施形態によれば、仮にユーザがメールなどを読んでいる途中で携帯電話機1を机などにおいても、携帯電話機1が置かれた際に、表示面11cの画像を消すことにより、他人に表示内容を見られる心配がない。また、携帯電話機1が置かれることにより、キーガード機能が設定されるため、キーガード機能を手動で設定する手間が無い上、キーガード機能の設定し忘れを防止できる。   Furthermore, according to the present embodiment, even when the user is reading the e-mail or the like, even if the mobile phone 1 is placed on a desk or the like, when the mobile phone 1 is placed, the image on the display surface 11c is erased, so that There is no worry that you can see the display contents. Moreover, since the key guard function is set by placing the mobile phone 1, there is no need to manually set the key guard function, and it is possible to prevent forgetting to set the key guard function.

また、本実施形態によれば、キーガード機能の設定および解除に伴い、パネルバックライト11bを消灯および点灯することで、省電力化が図られる。   Further, according to the present embodiment, power saving can be achieved by turning off and turning on the panel backlight 11b with the setting and release of the key guard function.

<第2実施形態>
第1実施形態の携帯電話機1では、加速度センサ307および近接センサ308からの出力に基づき携帯電話機1が持たれたことを検出した。これに対し、第2実施形態の携帯電話機1では、加速度センサ307および照度センサ309からの出力に基づき携帯電話機1が持たれたことを検出する点が、第1実施形態の携帯電話機1と異なる。なお、第2実施形態の構成のうち第1実施形態の構成と同様なものには、同じ番号を付して、その説明を省略する。
Second Embodiment
In the mobile phone 1 according to the first embodiment, it is detected that the mobile phone 1 is held based on outputs from the acceleration sensor 307 and the proximity sensor 308. In contrast, the cellular phone 1 according to the second embodiment differs from the cellular phone 1 according to the first embodiment in that the cellular phone 1 is detected based on outputs from the acceleration sensor 307 and the illuminance sensor 309. . In addition, the same number is attached | subjected to the thing similar to the structure of 1st Embodiment among the structures of 2nd Embodiment, and the description is abbreviate | omitted.

図5は、携帯電話機1の全体構成を示すブロック図である。   FIG. 5 is a block diagram showing the overall configuration of the mobile phone 1.

照度センサ309は、キャビネット10の背面に配されている。照度センサ30924は、背面に照射される光量を検出する照度検出部である。なお、照度センサ309は、ユーザが携帯電話機1を持ったときに手のひらや指で覆われやすいよう、携帯電話機1の中央部から下部にかけた部位に配されることが望ましい。   The illuminance sensor 309 is disposed on the back surface of the cabinet 10. The illuminance sensor 30924 is an illuminance detection unit that detects the amount of light irradiated on the back surface. It is desirable that the illuminance sensor 309 is arranged at a portion extending from the center to the lower part of the mobile phone 1 so that the user can easily cover the mobile phone 1 with a palm or a finger.

判断部102は、加速度センサ307および照度センサ309からの出力に基づいて携帯電話機1の状態を判断する。   The determination unit 102 determines the state of the mobile phone 1 based on outputs from the acceleration sensor 307 and the illuminance sensor 309.

なお、第2実施形態における処理手順は、第1実施形態における図3および図4の処理手順とほぼ同じであるが、S301およびS401の判断が異なる。   Note that the processing procedure in the second embodiment is substantially the same as the processing procedure in FIGS. 3 and 4 in the first embodiment, but the determinations in S301 and S401 are different.

本実施形態の場合、図3(c)の設定判断処理におけるS301では、判断部102は、加速度センサ307により検出される3軸方向の何れかの加速度の変化が第1閾値より大きいと判断することで、携帯電話機1が動かされたことを検出する。また、判断部102は、照度センサ309により検出される照度が予め定められた第4閾値より大きいと判断することで、携帯電話機1の背面が明るくなったと判断する。このように、携帯電話機1の背面から手が離れて背面が明るくなり、且つ、携帯電話機1が動かされ目の前から移動させられたことにより、判断部102は携帯電話機1が置かれる状態を判断する。   In the present embodiment, in S301 in the setting determination process of FIG. 3C, the determination unit 102 determines that any change in acceleration in the three-axis directions detected by the acceleration sensor 307 is greater than the first threshold value. Thus, it is detected that the mobile phone 1 has been moved. Further, the determination unit 102 determines that the back surface of the mobile phone 1 has become bright by determining that the illuminance detected by the illuminance sensor 309 is greater than a predetermined fourth threshold value. As described above, when the hand is released from the back of the mobile phone 1 and the back is brightened, and the mobile phone 1 is moved and moved from the front, the determination unit 102 determines that the mobile phone 1 is placed. to decide.

また、本実施形態の場合、図4の解除判断処理におけるS401では、判断部102は、加速度センサ307により検出される3軸方向の何れかの加速度の変化が第2閾値より大きいと判断することで、携帯電話機1が動かされたことを検出する。また、判断部102は、照度センサ309により検出される照度が予め定められた第5閾値より小さいと判断することで、携帯電話機1の背面が暗くなったと判断する。このように、携帯電話機1が動かされ持ち上げられて、且つ、背面側から手に持たれて背面が暗くなることにより、判断部102は、携帯電話機1が持たれた状態にあることを検出する。   In the case of the present embodiment, in S401 in the release determination process of FIG. 4, the determination unit 102 determines that any change in acceleration in the three-axis directions detected by the acceleration sensor 307 is greater than the second threshold value. Then, it is detected that the mobile phone 1 has been moved. The determination unit 102 determines that the back surface of the mobile phone 1 has become dark by determining that the illuminance detected by the illuminance sensor 309 is smaller than a predetermined fifth threshold value. As described above, when the mobile phone 1 is moved and lifted, and is held in the hand from the back side and the back side becomes dark, the determination unit 102 detects that the mobile phone 1 is held. .

以上、本実施形態によれば、加速度センサ307および照度センサ309の出力信号に基づくことで、携帯電話機1が持たれたことを検出することができる。   As described above, according to the present embodiment, it is possible to detect that the mobile phone 1 is held based on the output signals of the acceleration sensor 307 and the illuminance sensor 309.

<第3実施形態>
第3実施形態の携帯電話機1では、加速度センサ307、近接センサ308および照度センサ309からの出力に基づき携帯電話機1が持たれたことを検出する点が、第1および第2実施形態の携帯電話機1と異なる。なお、第3実施形態の構成のうち第1および第2実施形態の構成と同様なものには、同じ番号を付して、その説明を省略する。
<Third Embodiment>
In the mobile phone 1 of the third embodiment, the fact that the mobile phone 1 is held based on outputs from the acceleration sensor 307, the proximity sensor 308, and the illuminance sensor 309 is that the mobile phone of the first and second embodiments. Different from 1. In addition, the same number is attached | subjected to the thing similar to the structure of 1st and 2nd embodiment among the structures of 3rd Embodiment, and the description is abbreviate | omitted.

図6は、携帯電話機1の全体構成を示すブロック図である。   FIG. 6 is a block diagram showing the overall configuration of the mobile phone 1.

判断部102は、加速度センサ307、近接センサ308および照度センサ309から
の出力に基づいて携帯電話機1の状態を判断する。
Determination unit 102 determines the state of mobile phone 1 based on outputs from acceleration sensor 307, proximity sensor 308, and illuminance sensor 309.

なお、第3実施形態における処理手順は、第1実施形態における図3および図4の処理手順とほぼ同じであるが、S301およびS401の判断が異なる。   Note that the processing procedure in the third embodiment is substantially the same as the processing procedure in FIGS. 3 and 4 in the first embodiment, but the determinations in S301 and S401 are different.

本実施形態の場合、図3(c)の設定判断処理におけるS301では、判断部102は、加速度センサ307により検出される3軸方向の何れかの加速度の変化第1閾値より大きいと判断することで、携帯電話機1が動かされたことを検出する。また、判断部102は、近接センサ308からの検出信号を受けないことで、携帯電話機1の背面に近接物が無いことを検出する。さらに、判断部102は、照度センサ309により検出される照度が第4閾値より大きいと判断することで、携帯電話機1の背面が明るくなったことを検出する。このように、携帯電話機1の背面から手が離れ、且つ、背面が明るくなり、且つ、携帯電話機1が目の前から移動させられたことにより、携帯電話機1が置かれることを判断部102は検出する。   In the case of the present embodiment, in S301 in the setting determination process of FIG. 3C, the determination unit 102 determines that the acceleration change in any of the three axial directions detected by the acceleration sensor 307 is greater than the first threshold value. Then, it is detected that the mobile phone 1 has been moved. Further, the determination unit 102 detects that there is no proximity object on the back surface of the mobile phone 1 by not receiving the detection signal from the proximity sensor 308. Furthermore, the determination unit 102 detects that the back surface of the mobile phone 1 has become bright by determining that the illuminance detected by the illuminance sensor 309 is greater than the fourth threshold value. As described above, the determination unit 102 determines that the mobile phone 1 is placed when the hand is released from the back of the mobile phone 1, the back is bright, and the mobile phone 1 is moved from the front. To detect.

また、本実施形態の場合、図4の解除判断処理におけるS401では、判断部102は、加速度センサ307により検出される3軸方向の何れかの加速度の変化が第2閾値より大きいと判断することで、携帯電話機1が動かされたことを検出する。また、判断部102は、近接センサ308からの検出信号を受けることで、携帯電話機1の背面に近接物が存在すること検出する。さらに、判断部102は、照度センサ309により検出される照度が第5閾値より小さいと判断することで、携帯電話機1の背面が暗くなったと判断する。このように、携帯電話機1が持ち上げられ、且つ、背面に手が近接し、且つ、背面が暗くなることにより、判断部102は、携帯電話機1が持たれたことを検出する。   In the case of the present embodiment, in S401 in the release determination process of FIG. 4, the determination unit 102 determines that any change in acceleration in the three-axis directions detected by the acceleration sensor 307 is greater than the second threshold value. Then, it is detected that the mobile phone 1 has been moved. In addition, the determination unit 102 receives a detection signal from the proximity sensor 308 and detects the presence of an adjacent object on the back surface of the mobile phone 1. Furthermore, the determination unit 102 determines that the back surface of the mobile phone 1 has become dark by determining that the illuminance detected by the illuminance sensor 309 is smaller than the fifth threshold value. As described above, when the mobile phone 1 is lifted, the hand is close to the back surface, and the back surface is dark, the determination unit 102 detects that the mobile phone 1 is held.

以上、上記実施形態によれば、加速度センサ307、近接センサ308および照度センサ309の出力信号に基づくことで、携帯電話機1が持たれたことをさらに正確に検出することができる。   As described above, according to the embodiment, it is possible to more accurately detect that the mobile phone 1 is held based on the output signals of the acceleration sensor 307, the proximity sensor 308, and the illuminance sensor 309.

<第4実施形態>
第1実施形態の携帯電話機1では、顔画像による認証ができた場合にパネルバックライト11bを点灯した。これに対し、第4実施形態の携帯電話機1では、顔画像による認証の前にパネルバックライト11bを点灯する点が、第1実施形態の携帯電話機1と異なる。なお、第4実施形態の構成のうち第1実施形態の構成と同様なものには、同じ番号を付して、その説明を省略する。
<Fourth embodiment>
In the mobile phone 1 according to the first embodiment, the panel backlight 11b is turned on when authentication using a face image is possible. In contrast, the cellular phone 1 according to the fourth embodiment is different from the cellular phone 1 according to the first embodiment in that the panel backlight 11b is turned on before authentication using a face image. In addition, the same number is attached | subjected to the thing similar to the structure of 1st Embodiment among the structures of 4th Embodiment, and the description is abbreviate | omitted.

図7は、キーガード機能を解除する処理手順を示すフローチャートである。なお、S501はS401と同様であり、S503およびS504はS402およびS403とそれぞれ同様であり、S505〜S507はS405〜S407とそれぞれ同様であるため、S501およびS503〜S507における処理の説明は省略する。   FIG. 7 is a flowchart showing a processing procedure for canceling the key guard function. Since S501 is the same as S401, S503 and S504 are the same as S402 and S403, and S505 to S507 are the same as S405 to S407, respectively, the description of the processes in S501 and S503 to S507 is omitted.

携帯電話機1が持たれたことが検出されたら、顔認証を実施するために、撮影制御部は、カメラモジュール15により携帯電話機1の正面の前方を撮影する。表示制御部104は、撮影した画像を表示面11cに表示させるとともに、バックパネルライトを点灯させる(S502)。それから、認証部103は、カメラモジュール15により画像を撮影して、登録顔画像と照合することにより、顔画像による認証を実施する。   When it is detected that the mobile phone 1 is held, the photographing control unit photographs the front of the front of the mobile phone 1 with the camera module 15 in order to perform face authentication. The display control unit 104 displays the captured image on the display surface 11c and turns on the back panel light (S502). Then, the authentication unit 103 captures an image by the camera module 15 and collates it with the registered face image, thereby performing authentication using the face image.

以上、上記実施例によれば、顔認証の開始前に、携帯電話機1の正面の前方にいるユーザの顔が撮影され、その撮影された顔の画像が表示面11cに表示される。これにより、ユーザがサングラスやマスクなどを付けている場合には、表示面11cの表示された顔の画像を見ることで、サングラスなどを外さなければならないことに気づくことができる。   As described above, according to the above-described embodiment, the face of the user in front of the front face of the mobile phone 1 is photographed before the start of face authentication, and the photographed face image is displayed on the display surface 11c. Thereby, when the user wears sunglasses, a mask, etc., he / she can notice that he / she has to remove the sunglasses, etc. by looking at the image of the face displayed on the display surface 11c.

また、上記実施例によれば、表示面11cに撮影された顔画像が表示されると、ユーザは顔認証のために撮影されることがわかる。このため、ユーザは撮影可能な位置および向きに顔を合わせることができ、より迅速に顔画像による認証が可能になる。   Further, according to the above-described embodiment, it is understood that the user is photographed for face authentication when the photographed face image is displayed on the display surface 11c. For this reason, the user can match his / her face to the position and orientation where photographing can be performed, and authentication based on the face image can be performed more quickly.

<第5実施形態>
第1実施形態の携帯電話機1では、顔画像による認証だけでキーガード機能の解除を判断した。これに対し、第5実施形態の携帯電話機1では、顔画像による認証ができない場合に、さらに他の認証を実施することによりキーガード機能の解除を判断する点が、第1実施形態の携帯電話機1と異なる。なお、第5実施形態の構成のうち第1実施形態の構成と同様なものには、同じ番号を付して、その説明を省略する。
<Fifth Embodiment>
In the mobile phone 1 according to the first embodiment, the release of the key guard function is determined only by authentication using a face image. On the other hand, in the cellular phone 1 of the fifth embodiment, when the authentication by the face image cannot be performed, the cancellation of the key guard function is determined by further performing another authentication. Different from 1. In addition, the same number is attached | subjected to the thing similar to the structure of 1st Embodiment among the structures of 5th Embodiment, and the description is abbreviate | omitted.

顔認証以外の他の認証方法としては、ユーザがタッチセンサ12を操作する必要があるパスワード入力などの方法ではなく、ユーザが携帯電話機1を予め定められたパターンで動かすなどの方法である。たとえば、携帯電話機1を動かして予め定めされた角度に傾けたり、携帯電話機1を動かして予め定められた動きで移動させたりして、携帯電話機1のユーザが登録ユーザであるかを確認する。   As an authentication method other than the face authentication, a method such as a method in which the user moves the mobile phone 1 in a predetermined pattern is used instead of a password input method that requires the user to operate the touch sensor 12. For example, the mobile phone 1 is moved and tilted to a predetermined angle, or the mobile phone 1 is moved and moved with a predetermined motion to check whether the user of the mobile phone 1 is a registered user.

登録部101は、登録ユーザの登録顔画像を登録する顔登録部101および、携帯電話機1の角度や動きなどを登録パターンとして登録するパターン登録部101を有する。たとえば、ユーザが携帯電話機1を持って空中に星や四角形等の図形を描いた場合、パターン登録部101は、ユーザが携帯電話機1で図形を描き始めてから描き終わるまでの加速度の変化パターンを解析し、登録加速度パターンとしてメモリ200に記憶する。   The registration unit 101 includes a face registration unit 101 that registers a registered face image of a registered user, and a pattern registration unit 101 that registers the angle and movement of the mobile phone 1 as a registration pattern. For example, when a user draws a figure such as a star or a rectangle in the air with the mobile phone 1, the pattern registration unit 101 analyzes an acceleration change pattern from when the user starts drawing on the mobile phone 1 to when it finishes drawing. And stored in the memory 200 as a registered acceleration pattern.

認証部103には、図示しないが、顔画像により認証を行うための顔認証部、および、ユーザによって持たれた携帯電話機1の角度やユーザによって携帯電話機1が動かされた方向などで認証を行うパターン認証部103が含まれる。なお、顔認証部は、撮影制御部、顔解析部および顔照合部を含む。パターン認証部は、パターン解析部およびパターン照合部を含む。   Although not shown, the authentication unit 103 performs authentication based on a face authentication unit for performing authentication using a face image, an angle of the mobile phone 1 held by the user, a direction in which the mobile phone 1 is moved by the user, and the like. A pattern authentication unit 103 is included. The face authentication unit includes a photographing control unit, a face analysis unit, and a face collation unit. The pattern authentication unit includes a pattern analysis unit and a pattern matching unit.

パターン解析部は、加速度センサ307から加速度信号を受け、加速度の変化を求める。パターン照合部は、パターン解析部により求められた加速度の変化をパターン登録部101により予め登録された加速度パターンと照合し、双方の適合率を算出する。パターン照合部は、適合率を、予め設定された第6閾値と比較することにより、認証できたか否かを決定する。   The pattern analysis unit receives an acceleration signal from the acceleration sensor 307 and obtains a change in acceleration. The pattern collation unit collates the acceleration change obtained by the pattern analysis unit with the acceleration pattern registered in advance by the pattern registration unit 101, and calculates the matching rate of both. The pattern matching unit determines whether or not the authentication is successful by comparing the matching rate with a preset sixth threshold.

図3(a)に示す処理手順で登録ユーザの顔画像を登録顔画像として登録した手順と同様にして、ユーザにより動かされたときの携帯電話機1の加速度の変化パターンが登録加速度パターンとしてメモリ200に登録される。   Similar to the procedure of registering a registered user's face image as a registered face image in the processing procedure shown in FIG. 3A, the acceleration change pattern of the mobile phone 1 when moved by the user is stored in the memory 200 as a registered acceleration pattern. Registered in

表示制御部105は表示面11cに操作メニューを表示する。ここでは、操作メニューに、顔画像を登録する処理を表わすアイコンと、加速度の変化パターンを登録する処理を表わすアイコンとを設けておく。加速度の変化パターンを登録する処理を表わすアイコンの表示位置を、ユーザが指で触れることにより、パターン登録部101は、加速度の変化パターンを登録する処理を開始する(S101)。なお、顔画像を登録するためのアイコンがユーザにより選択された場合は、先に説明したとおり、顔登録部101は、顔画像を撮影して、登録顔画像としてメモリ200に記憶する。   The display control unit 105 displays an operation menu on the display surface 11c. Here, an icon representing a process for registering a face image and an icon representing a process for registering an acceleration change pattern are provided in the operation menu. When the user touches the display position of the icon representing the process of registering the acceleration change pattern with a finger, the pattern registration unit 101 starts the process of registering the acceleration change pattern (S101). When the user selects an icon for registering a face image, the face registration unit 101 captures the face image and stores it in the memory 200 as a registered face image as described above.

ユーザは、最初にパターン登録のアイコンを選択してから、携帯電話機1を動かして図形を描き、描き終えると、再びパターン登録のアイコンを選択する。これにより、パター
ン登録部101は、最初にパターン登録のアイコンが選択されてから、再びパターン登録のアイコンが選択されるまでの間、加速度センサ307から加速度信号を受ける。そして、パターン登録部101は、加速度の変化を算出して、この加速度の変化パターンをメモリ200への登録情報として取得する(S102)。
The user first selects a pattern registration icon, then moves the mobile phone 1 to draw a figure, and when the user finishes drawing, selects the pattern registration icon again. As a result, the pattern registration unit 101 receives an acceleration signal from the acceleration sensor 307 during the period from when the pattern registration icon is first selected until the pattern registration icon is selected again. And the pattern registration part 101 calculates the change of acceleration, and acquires this change pattern of acceleration as registration information to the memory 200 (S102).

パターン登録部101は、算出された加速度の変化を登録加速度パターンとしてメモリ200に格納する(S103)。   The pattern registration unit 101 stores the calculated change in acceleration in the memory 200 as a registered acceleration pattern (S103).

図8は、キーガード機能を解除する処理手順を示すフローチャートである。なお、S601〜S606はS401〜S406とそれぞれ同様であるため、これらの処理の説明は省略する。   FIG. 8 is a flowchart showing a processing procedure for canceling the key guard function. Since S601 to S606 are the same as S401 to S406, description of these processes will be omitted.

所定回数、顔画像による認証ができない場合、表示制御部105は、「認証操作を行ってください。」などの所定のコメントを表示面11cに表示させる。これにより、携帯電話機1を動かすパターンで認証するようにユーザに促す。ユーザが携帯電話機1を動かすと、パターン解析部は、加速度センサ307による加速度から加速度の変化を求め、パターン照合部は、この加速度の変化と登録された加速度パターンとの適合率を算出する。   If the face image cannot be authenticated a predetermined number of times, the display control unit 105 displays a predetermined comment such as “Please perform an authentication operation” on the display surface 11c. This prompts the user to authenticate with a pattern of moving the mobile phone 1. When the user moves the mobile phone 1, the pattern analysis unit obtains a change in acceleration from the acceleration by the acceleration sensor 307, and the pattern matching unit calculates a matching rate between the change in acceleration and the registered acceleration pattern.

携帯電話機1の動きが登録パターンと同じ動きであれば、パターン照合部は、適合率が第6閾値より大きいと判断する。これにより、携帯電話機1の動くパターンによる認証ができたと判断されるため(S608:YES)、表示制御部105は表示面11cに表示させ(S604)、機能制御部104はキーガード機能を解除する(S605)。   If the movement of the mobile phone 1 is the same as the registered pattern, the pattern matching unit determines that the matching rate is greater than the sixth threshold. Accordingly, since it is determined that the mobile phone 1 has been authenticated by the moving pattern (S608: YES), the display control unit 105 displays on the display surface 11c (S604), and the function control unit 104 cancels the key guard function. (S605).

一方、携帯電話機1の動きが登録パターンと異なる動きであれば、パターン照合部は、適合率が第6閾値より小さいと判断する。これにより、携帯電話機1の動くパターンにより認証できないと判断されるため(S608:NO)、機能制御部104はキーガード機能を維持したまま(S609)、表示制御部105は表示面11cに表示しない。そして、顔認証およびパターン認証により登録ユーザであることを確認できなかったため、CPU100は、顔認証部103の撮影制御部が撮影させた画像を所定の連絡先にメールで送信する(S610)。この連絡先を、登録ユーザのパソコンのアドレスなどにしておくことにより、登録ユーザはパソコンなどで撮影された画像に映る顔を見て、携帯電話機1を不正に使用するユーザを確認することができる。   On the other hand, if the movement of the mobile phone 1 is different from the registered pattern, the pattern matching unit determines that the matching rate is smaller than the sixth threshold. Accordingly, since it is determined that authentication cannot be performed due to the movement pattern of the mobile phone 1 (S608: NO), the function control unit 104 maintains the key guard function (S609), and the display control unit 105 does not display on the display surface 11c. . Then, since it cannot be confirmed that the user is a registered user by face authentication and pattern authentication, the CPU 100 transmits an image photographed by the photographing control unit of the face authenticating unit 103 to a predetermined contact by e-mail (S610). By setting this contact information as the address of the registered user's personal computer, the registered user can confirm the user who illegally uses the mobile phone 1 by looking at the face reflected in the image taken by the personal computer or the like. .

<その他の実施形態>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態によって何ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。
<Other embodiments>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications other than those described above can be made to the embodiments of the present invention. .

たとえば、第1実施形態では、携帯電話機1が置かれることを検出すると、キーガード機能を設定した。これと共に、またはこれに代えて、キーガードを解除してから所定時間間隔で顔認証を実施し、顔画像により認証できなかった場合にキーガード機能を設定することもできる。これにより、携帯電話機1のユーザが登録ユーザであるのかを所定時間ごとに確認できるため、不正使用者などがさらに発見され易くなる。   For example, in the first embodiment, when it is detected that the mobile phone 1 is placed, the key guard function is set. In addition to this, or instead of this, face authentication is performed at predetermined time intervals after the key guard is released, and the key guard function can be set when the face image cannot be authenticated. Thereby, since it can be confirmed every predetermined time whether the user of the mobile phone 1 is a registered user, an unauthorized user or the like is further easily discovered.

また、上記実施形態では、携帯電話機1が置かれることを検出すると、キーガード機能を設定したが、キャビネット10の側面などに操作キーを設けておき、その操作キーを押すことにより、キーガード機能を設定することもできる。   In the above embodiment, when the mobile phone 1 is detected to be placed, the key guard function is set. However, by providing an operation key on the side surface of the cabinet 10 and pressing the operation key, the key guard function is set. Can also be set.

さらに、上記第4実施形態では、顔認証を開始する前に撮影された画像を表示面11cに表示したが、顔認証を開始する前に、撮影された画像以外の顔認証に係る画像を表示す
ることもできる。たとえば、顔認証に係る画像の例として、顔認証のための撮影や顔認証を実施していることを示すメッセージの画像や、これらを表わす所定のアイコンなどの画像を表示面11cに表示する。この表示により、ユーザは携帯電話機1が顔認証を実行していることを知ることができる。また、顔認証に係る画像の別の例として、枠の画像と「枠に顔を入れてください。」との所定のコメントの画像とを表示する。これにより、ユーザは表示面11cに映る顔のサイズを枠に合わせることで、撮影した画像の顔のサイズが小さすぎて、撮影画像の特徴パターンを取得できないなどの問題を回避できる。
Furthermore, in the fourth embodiment, the image captured before starting the face authentication is displayed on the display surface 11c. However, before starting the face authentication, an image related to face authentication other than the captured image is displayed. You can also For example, as an example of an image related to face authentication, an image of a message indicating that photographing for face authentication or face authentication is being performed, and an image such as a predetermined icon representing these are displayed on the display surface 11c. This display allows the user to know that the mobile phone 1 is performing face authentication. As another example of an image related to face authentication, a frame image and an image of a predetermined comment “please put a face in the frame” are displayed. Thereby, the user can avoid the problem that the size of the face of the photographed image is too small to acquire the feature pattern of the photographed image by matching the size of the face reflected on the display surface 11c with the frame.

また、上記第5実施形態では、ユーザが携帯電話機1を動かすパターンにより認証を行ったが、この認証方法に限定されない。たとえば、パスワード認証などのユーザによる入力操作を必要とする認証方法であってもよい。   In the fifth embodiment, authentication is performed using a pattern in which the user moves the mobile phone 1, but the present invention is not limited to this authentication method. For example, an authentication method that requires an input operation by the user, such as password authentication, may be used.

さらに、上記第1実施形態では、加速度センサ307および近接センサ308からの出力に基づき、第2実施形態では、加速度センサ307および照度センサ309からの出力に基づき、第3実施形態では、加速度センサ307、近接センサ308および照度センサ309からの出力に基づき携帯電話機1が持たれたことを判断した。これに対し、加速度センサ307のみからの出力に基づき携帯電話機1が持たれたことを判断することもできる。すなわち、少なくとも加速度センサ307からの検出信号に基づいて携帯端末装置1が持たれたか否かを判断することができる。この場合、加速度センサ307の出力に加えて他のセンサ308、309の出力を加味することにより、携帯端末装置1が持たれたか否かの判断精度が向上する。   Furthermore, in the first embodiment, based on the outputs from the acceleration sensor 307 and the proximity sensor 308, in the second embodiment, based on the outputs from the acceleration sensor 307 and the illuminance sensor 309, in the third embodiment, the acceleration sensor 307. Based on the outputs from the proximity sensor 308 and the illuminance sensor 309, it was determined that the mobile phone 1 was held. On the other hand, it can be determined that the mobile phone 1 is held based on the output from only the acceleration sensor 307. That is, it can be determined whether or not the mobile terminal device 1 is held based on at least the detection signal from the acceleration sensor 307. In this case, the determination accuracy of whether or not the portable terminal device 1 is held is improved by taking into account the outputs of the other sensors 308 and 309 in addition to the output of the acceleration sensor 307.

また、上記実施形態では、加速度センサ307は3軸方向の加速度を測定したが、さらに加速度センサ307は表示面11cに垂直なZ軸方向の重力加速度を測定し、Z軸方向の重力加速度により表示面11cの向きを検出することもできる。これにより、携帯端末装置が持たれてから、表示面11cが上方を向いていれば、携帯端末装置は使用される状態にあることがわかる。また、携帯端末装置がかばんの中に入っていて、表示面11cが下方を向いている場合などは、携帯端末装置が使用される状態でないことわかる。   In the above embodiment, the acceleration sensor 307 measures the acceleration in the three-axis direction, but the acceleration sensor 307 further measures the gravitational acceleration in the Z-axis direction perpendicular to the display surface 11c and displays the gravity acceleration in the Z-axis direction. The orientation of the surface 11c can also be detected. Thereby, after the portable terminal device is held, if the display surface 11c faces upward, it can be seen that the portable terminal device is in a state of being used. Further, when the mobile terminal device is in the bag and the display surface 11c faces downward, it can be seen that the mobile terminal device is not in a state of being used.

さらに、上記実施形態では、キーガード機能が設定されると、ユーザからのタッチセンサ12を通じた入力が無効にされた。無効にする範囲は、入力の全部であってもよいし、一部であってもよい。すなわち、タッチセンサ12が検出する表示面11cの全領域または一部領域における入力が無効になるように設定することもできる。また、携帯電話機1の側面などに操作キーを設けた場合には、操作キーの全てまたは一部からの入力が無効になるように設定することもできる。   Furthermore, in the said embodiment, when the key guard function was set, the input from the user through the touch sensor 12 was invalidated. The range to be invalidated may be the entire input or a part thereof. That is, it is possible to set so that input in the entire area or a partial area of the display surface 11c detected by the touch sensor 12 is invalid. In addition, when an operation key is provided on the side surface of the mobile phone 1 or the like, it is possible to set so that input from all or a part of the operation key is invalid.

さらに、上記実施形態では、携帯電話機1を用いたが、PDAやPHSなどの携帯端末装置を用いることもできる。   Furthermore, in the above embodiment, the mobile phone 1 is used, but a mobile terminal device such as a PDA or PHS can also be used.

また、上記実施形態では、カメラモジュール15のレンズ窓15aをキャビネット10の正面に設けたが、カメラモジュール15のレンズ窓15aをキャビネット10の背面に設けることもできる。この場合、登録ユーザは、携帯電話機1を持つと、カメラモジュール15により撮影されて、顔認証されることを知っている。このため、登録ユーザは、携帯電話機1を持った際に、携帯電話機1の背面側を顔に向けて、カメラモジュール15により顔を撮影させる。これにより、登録ユーザの顔画像が取得されるため、この顔画像が登録顔画像と照合されて、顔画像による認証ができ、キーガードが解除される。このように、キーガードの解除に、顔認証だけでなく、携帯電話機1の背面を顔の方に向ける動作が必要となるため、より一層正確にユーザを識別することができる。   Moreover, in the said embodiment, although the lens window 15a of the camera module 15 was provided in the front surface of the cabinet 10, the lens window 15a of the camera module 15 can also be provided in the back surface of the cabinet 10. FIG. In this case, the registered user knows that when the mobile phone 1 is held, the image is taken by the camera module 15 and face authentication is performed. For this reason, when the registered user holds the mobile phone 1, the camera module 15 causes the face to be photographed with the back side of the mobile phone 1 facing the face. Thereby, since the registered user's face image is acquired, this face image is collated with the registered face image, authentication by the face image can be performed, and the key guard is released. As described above, in order to release the key guard, not only face authentication but also an operation in which the back surface of the mobile phone 1 is directed toward the face is required, so that the user can be identified more accurately.

さらに、上記実施形態において、携帯電話機1に発光部を設けることもできる。発光部
は、LEDなどから構成され、CPU100からの制御信号に基づき光を発する。CPU100は、顔認証のための撮影が実行されている場合や、顔認証が実行されている場合に、発光部へ制御信号を出力する。これにより、顔認証のための撮影や顔認証が実行されている間に、発光部から光が発せられて、撮影および顔認証が報知される。このため、ユーザは、発光部からの光によって、撮影および顔認証が実行されていることを知ることができる。なお、この顔認証を報知する発光部に代えてまたは発光部と共に、振動部を設けることもできる。振動部は、モータなどから構成され、CPU100からの制御信号に基づいて振動する。顔認証の撮影および顔認証が実施されると、振動部はCPU100から制御信号により振動して、顔認証を報知する。また、CPU100は、顔認証の実施によりスピーカ14へ制御信号を出力し、スピーカ14から音を発し、顔認証を報知してもよい。
Furthermore, in the above embodiment, the mobile phone 1 can be provided with a light emitting unit. The light emitting unit is configured by an LED or the like, and emits light based on a control signal from the CPU 100. The CPU 100 outputs a control signal to the light emitting unit when shooting for face authentication is performed or when face authentication is performed. As a result, while shooting for face authentication and face authentication are being performed, light is emitted from the light emitting unit, and shooting and face authentication are notified. For this reason, the user can know that photographing and face authentication are being performed by the light from the light emitting unit. In addition, it can replace with the light emission part which alert | reports this face authentication, or can also provide a vibration part with a light emission part. The vibration unit includes a motor and the like, and vibrates based on a control signal from the CPU 100. When face authentication shooting and face authentication are performed, the vibration unit vibrates in accordance with a control signal from the CPU 100 to notify the face authentication. Further, the CPU 100 may output a control signal to the speaker 14 by performing the face authentication, emit a sound from the speaker 14, and notify the face authentication.

また、上記実施形態において、キーガード機能が設定されている状態で、着信時に認証を行うか否かをユーザが予め設定することもできる。また、キーガード機能が設定されている状態で、着信時に着信を報知する否かをユーザが予め設定することもできる。着信を報知する場合、着信の報知方法をユーザが予め設定するようにしてもよい。これにより、ユーザの意思に基づきキーガード設定中における着信の報知および着信時の認証を制御することができ、利便性が向上する。   In the above embodiment, the user can also set in advance whether or not to perform authentication when an incoming call is made in a state where the key guard function is set. In addition, in a state where the key guard function is set, the user can set in advance whether or not to notify an incoming call when an incoming call is received. When notifying an incoming call, the user may set an incoming call notification method in advance. This makes it possible to control incoming call notification during key guard setting and authentication at the time of incoming call based on the user's intention, improving convenience.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。たとえば、上記実施形態の一部または全部を組み合わせることができる。   In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims. For example, some or all of the above embodiments can be combined.

15 カメラモジュール
102 判断部
103 認証部
104 機能制御部
105 表示制御部
200 メモリ
307 加速度センサ
308 近接センサ
309 照度センサ
DESCRIPTION OF SYMBOLS 15 Camera module 102 Judgment part 103 Authentication part 104 Function control part 105 Display control part 200 Memory 307 Acceleration sensor 308 Proximity sensor 309 Illuminance sensor

Claims (13)

携帯端末装置において、
当該携帯端末装置が持たれたことを判断する判断部と、
画像を撮影する撮影部と、
画像を記憶する記憶部と、
前記撮影部により撮影された画像と前記記憶部に予め記憶された画像とを照合することにより認証を行う認証部と、を備え、
前記判断部により当該携帯端末装置が持たれたことが判断された場合、前記撮影部は撮影を開始し、前記認証部は前記記憶部に予め記憶された画像に基づいて前記撮影部により撮影された画像の認証を行う、
ことを特徴とする携帯端末装置。
In a mobile terminal device,
A determination unit for determining that the mobile terminal device is held;
A shooting section for shooting images;
A storage unit for storing images;
An authentication unit that performs authentication by comparing an image captured by the imaging unit with an image stored in advance in the storage unit,
When the determination unit determines that the portable terminal device is held, the photographing unit starts photographing, and the authentication unit is photographed by the photographing unit based on an image stored in advance in the storage unit. Authenticate images
The portable terminal device characterized by the above-mentioned.
請求項1に記載の携帯端末装置において、
前記判断部は、当該携帯端末装置に作用する加速度に基づいて当該携帯端末装置が持たれたか否かを判断する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
The determination unit determines whether the mobile terminal device is held based on acceleration acting on the mobile terminal device.
The portable terminal device characterized by the above-mentioned.
請求項1に記載の携帯端末装置において、
前記判断部は、当該携帯端末装置に作用する加速度および当該携帯端末装置における照度に基づき、当該携帯端末装置が持たれたか否かを判断する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
The determination unit determines whether or not the mobile terminal device is held based on acceleration acting on the mobile terminal device and illuminance in the mobile terminal device.
The portable terminal device characterized by the above-mentioned.
請求項1に記載の携帯端末装置において、
前記判断部は、当該携帯端末装置に作用する加速度、および当該携帯端末装置への被検出物の近接の有無に基づき、当該携帯端末装置が持たれたか否かを判断する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
The determination unit determines whether or not the mobile terminal device is held based on acceleration acting on the mobile terminal device and whether or not an object to be detected is in proximity to the mobile terminal device.
The portable terminal device characterized by the above-mentioned.
請求項1に記載の携帯端末装置において、
前記判断部は、当該携帯端末装置に作用する加速度、当該携帯端末装置における前記照度、および当該携帯端末装置への被検出物の近接の有無に基づき、当該携帯端末装置が持たれたか否かを判断する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
The determination unit determines whether or not the mobile terminal device is held based on acceleration acting on the mobile terminal device, the illuminance in the mobile terminal device, and whether or not an object to be detected is in proximity to the mobile terminal device. to decide,
The portable terminal device characterized by the above-mentioned.
請求項1ないし5の何れか一項に記載の携帯端末装置において、
当該携帯端末装置への入力を受ける入力部と、
前記入力部への入力を無効にするキーガード機能を設定および解除する機能制御部と、をさらに備え、
前記機能制御部は、前記認証部による認証が成功した場合、前記キーガード機能を解除する、
ことを特徴とする携帯端末装置。
In the portable terminal device according to any one of claims 1 to 5,
An input unit for receiving an input to the mobile terminal device;
A function control unit that sets and releases a key guard function that disables input to the input unit, and
The function control unit cancels the key guard function when authentication by the authentication unit is successful.
The portable terminal device characterized by the above-mentioned.
請求項6に記載の携帯端末装置において、
前記判断部は、当該携帯端末装置が置かれることを判断し、
前記機能制御部は、前記判断部により当該携帯端末装置が置かれることが判断されると、前記キーガード機能を設定する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 6,
The determination unit determines that the mobile terminal device is placed,
The function control unit sets the key guard function when the determination unit determines that the mobile terminal device is placed.
The portable terminal device characterized by the above-mentioned.
請求項1に記載の携帯端末装置において、
当該携帯端末装置への入力を受ける入力部と、
前記入力部への入力を無効にするキーガード機能を設定および解除する機能制御部と、をさらに備え、
前記判断部は、当該携帯端末装置が置かれることを判断し、
前記機能制御部は、前記認証部による認証が成功すると、前記キーガード機能を解除し、前記判断部により当該携帯端末装置が置かれることが判断されると、前記キーガード機能を設定する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
An input unit for receiving an input to the mobile terminal device;
A function control unit that sets and releases a key guard function that disables input to the input unit, and
The determination unit determines that the mobile terminal device is placed,
The function control unit cancels the key guard function when authentication by the authentication unit is successful, and sets the key guard function when it is determined that the mobile terminal device is placed by the determination unit.
The portable terminal device characterized by the above-mentioned.
請求項7または8に記載の携帯端末装置において、
前記判断部は、当該携帯端末装置に作用する加速度に基づいて当該携帯端末装置が置かれるか否かを判断する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 7 or 8,
The determination unit determines whether or not the mobile terminal device is placed based on acceleration acting on the mobile terminal device.
The portable terminal device characterized by the above-mentioned.
請求項7または8に記載の携帯端末装置において、
前記判断部は、当該携帯端末装置に作用する加速度および当該携帯端末装置における照度に基づき、当該携帯端末装置が置かれるか否かを判断する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 7 or 8,
The determination unit determines whether or not the mobile terminal device is placed based on acceleration acting on the mobile terminal device and illuminance in the mobile terminal device.
The portable terminal device characterized by the above-mentioned.
請求項7または8に記載の携帯端末装置において、
前記判断部は、当該携帯端末装置に作用する加速度、および当該携帯端末装置への被検出物の近接の有無に基づき、当該携帯端末装置が置かれるか否かを判断する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 7 or 8,
The determination unit determines whether or not the mobile terminal device is placed based on acceleration acting on the mobile terminal device and whether or not an object to be detected is in proximity to the mobile terminal device.
The portable terminal device characterized by the above-mentioned.
請求項1ないし11の何れか一項に記載の携帯端末装置において、
表示部と、
前記表示部を制御する表示制御部と、をさらに備え、
前記表示制御部は、前記認証部による認証が成功した場合、前記表示部を点灯させる、ことを特徴とする携帯端末装置。
The mobile terminal device according to any one of claims 1 to 11,
A display unit;
A display control unit for controlling the display unit,
The display control unit turns on the display unit when authentication by the authentication unit is successful.
請求項1ないし11の何れか一項に記載の携帯端末装置において、
表示部と、
前記表示部を制御する表示制御部と、をさらに備え、
前記表示制御部は、前記判断部により当該携帯端末装置が持たれたことが判断されると、前記表示部に顔認証に係る画像を表示させる、
ことを特徴とする携帯端末装置。
The mobile terminal device according to any one of claims 1 to 11,
A display unit;
A display control unit for controlling the display unit,
When the determination unit determines that the mobile terminal device is held by the determination unit, the display control unit displays an image related to face authentication on the display unit.
The portable terminal device characterized by the above-mentioned.
JP2010206959A 2010-09-15 2010-09-15 Portable terminal apparatus Pending JP2012065107A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010206959A JP2012065107A (en) 2010-09-15 2010-09-15 Portable terminal apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010206959A JP2012065107A (en) 2010-09-15 2010-09-15 Portable terminal apparatus

Publications (1)

Publication Number Publication Date
JP2012065107A true JP2012065107A (en) 2012-03-29

Family

ID=46060383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010206959A Pending JP2012065107A (en) 2010-09-15 2010-09-15 Portable terminal apparatus

Country Status (1)

Country Link
JP (1) JP2012065107A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222612A (en) * 2011-04-08 2012-11-12 Nec Saitama Ltd Portable terminal
JP2014044686A (en) * 2012-08-28 2014-03-13 Canon Inc Information processing device and information processing method
JP2014110009A (en) * 2012-12-04 2014-06-12 Sharp Corp Portable terminal equipment
JP2014178943A (en) * 2013-03-15 2014-09-25 Buffalo Inc Information processing device, operation control method of information processing device, and program
WO2015002300A1 (en) * 2013-07-04 2015-01-08 シャープ株式会社 Portable terminal and control method
JP2015082809A (en) * 2013-10-24 2015-04-27 富士通株式会社 Information processing device, display control method, and display control program
JP2016517087A (en) * 2013-03-14 2016-06-09 クアルコム,インコーポレイテッド System and method for device interaction based on detected gaze
JP2017016518A (en) * 2015-07-03 2017-01-19 京セラ株式会社 Portable electronic equipment, control method and control program
JP2017204688A (en) * 2016-05-10 2017-11-16 株式会社Nttドコモ Terminal and program
JP2017224251A (en) * 2016-06-17 2017-12-21 シャープ株式会社 Terminal device and control program
JP2018063732A (en) * 2012-04-25 2018-04-19 クイックステップ テクノロジーズ リミテッド ライアビリティ カンパニー Method for interacting with apparatus implementing capacitive control surface, and interface and apparatus implementing this method
JP2018151882A (en) * 2017-03-13 2018-09-27 オムロン株式会社 Environment sensor
JP2018151886A (en) * 2017-03-13 2018-09-27 オムロン株式会社 Environment sensor
JP2020058626A (en) * 2018-10-10 2020-04-16 富士通コネクテッドテクノロジーズ株式会社 Information processing device, information processing method and information processing program
JP2022008825A (en) * 2017-09-20 2022-01-14 富士フイルムビジネスイノベーション株式会社 Apparatus use system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222612A (en) * 2011-04-08 2012-11-12 Nec Saitama Ltd Portable terminal
JP2018063732A (en) * 2012-04-25 2018-04-19 クイックステップ テクノロジーズ リミテッド ライアビリティ カンパニー Method for interacting with apparatus implementing capacitive control surface, and interface and apparatus implementing this method
JP2014044686A (en) * 2012-08-28 2014-03-13 Canon Inc Information processing device and information processing method
JP2014110009A (en) * 2012-12-04 2014-06-12 Sharp Corp Portable terminal equipment
JP2016517087A (en) * 2013-03-14 2016-06-09 クアルコム,インコーポレイテッド System and method for device interaction based on detected gaze
US10216266B2 (en) 2013-03-14 2019-02-26 Qualcomm Incorporated Systems and methods for device interaction based on a detected gaze
JP2014178943A (en) * 2013-03-15 2014-09-25 Buffalo Inc Information processing device, operation control method of information processing device, and program
WO2015002300A1 (en) * 2013-07-04 2015-01-08 シャープ株式会社 Portable terminal and control method
JP2015082809A (en) * 2013-10-24 2015-04-27 富士通株式会社 Information processing device, display control method, and display control program
JP2017016518A (en) * 2015-07-03 2017-01-19 京セラ株式会社 Portable electronic equipment, control method and control program
JP2017204688A (en) * 2016-05-10 2017-11-16 株式会社Nttドコモ Terminal and program
JP2017224251A (en) * 2016-06-17 2017-12-21 シャープ株式会社 Terminal device and control program
JP2018151882A (en) * 2017-03-13 2018-09-27 オムロン株式会社 Environment sensor
JP2018151886A (en) * 2017-03-13 2018-09-27 オムロン株式会社 Environment sensor
US11022624B2 (en) 2017-03-13 2021-06-01 Omron Corporation Environmental sensor
JP2022008825A (en) * 2017-09-20 2022-01-14 富士フイルムビジネスイノベーション株式会社 Apparatus use system
JP7188528B2 (en) 2017-09-20 2022-12-13 富士フイルムビジネスイノベーション株式会社 Device utilization system
JP2020058626A (en) * 2018-10-10 2020-04-16 富士通コネクテッドテクノロジーズ株式会社 Information processing device, information processing method and information processing program

Similar Documents

Publication Publication Date Title
JP2012065107A (en) Portable terminal apparatus
KR102171616B1 (en) Method and device for preventing incorrect contact of terminal
US20210216184A1 (en) Electronic device
EP3525124B1 (en) Fingerprint unlocking
JP5792570B2 (en) Portable terminal device and program
US10536852B2 (en) Electronic apparatus, method for authenticating the same, and recording medium
JP4526578B2 (en) Portable device and control method thereof
WO2017071050A1 (en) Mistaken touch prevention method and device for terminal with touch screen
US20170243063A1 (en) Authentication method, electronic device, and storage medium
CN109324739B (en) Virtual object control method, device, terminal and storage medium
JP2016139947A (en) Portable terminal
US8583095B2 (en) Mobile terminal device
JP5660868B2 (en) Mobile terminal device
TWI382743B (en) Handheld device and power saving method thereof
JP2017187960A (en) Information processor
JP2014006706A (en) Electronic apparatus and program
JP5865034B2 (en) Device with camera function, program, and anti-voyeur control method
JP6047048B2 (en) Mobile device, touch panel restriction area setting method and program
US20140184832A1 (en) Portable electronic device and method for activating camera device
US20190258843A1 (en) Electronic device and control method
CN113879923B (en) Elevator control method, system, device, electronic equipment and storage medium
US9967393B2 (en) Mobile electronic apparatus, method for controlling mobile electronic apparatus, and non-transitory computer readable recording medium
JPWO2019176009A1 (en) Mobile information terminal
EP3789849A1 (en) Contactless gesture control method, apparatus and storage medium
JP6616379B2 (en) Electronics