JP2012169824A - Portable terminal and control method therefor - Google Patents

Portable terminal and control method therefor Download PDF

Info

Publication number
JP2012169824A
JP2012169824A JP2011028540A JP2011028540A JP2012169824A JP 2012169824 A JP2012169824 A JP 2012169824A JP 2011028540 A JP2011028540 A JP 2011028540A JP 2011028540 A JP2011028540 A JP 2011028540A JP 2012169824 A JP2012169824 A JP 2012169824A
Authority
JP
Japan
Prior art keywords
mobile terminal
portable terminal
holder
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011028540A
Other languages
Japanese (ja)
Inventor
Kazunao Iwamoto
和直 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011028540A priority Critical patent/JP2012169824A/en
Publication of JP2012169824A publication Critical patent/JP2012169824A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a portable terminal and a control method therefor capable of avoiding contact with others while maintaining the convenience of the portable terminal.SOLUTION: A portable terminal 1 of the present invention includes: a display part 11; a camera 12; a face recognition processing part 13; a control part 14; and a notification part 15. The camera 12 covers the front zone in a travelling direction of a portable terminal 1 holder as an imaging area. Based on the processing on the output data from the camera 12, the face recognition processing part 13 detects a human face in a subject image acquired by the camera 12. While the portable terminal 1 is moving, the control part 14 detects an image displayed in the display part 11 accompanied by the activation of an application, and instructs the face recognition processing part 13 to perform face recognition processing. The notification part 15 notifies the holder that there is a person in front of the portable terminal 1 in the travelling direction according to the face detection of the face recognition processing 13 based on the instruction of the control part 14.

Description

本発明は携帯端末及びその制御方法に関し、特にカメラを備える携帯端末及びその制御方法に関する。   The present invention relates to a mobile terminal and a control method thereof, and more particularly to a mobile terminal including a camera and a control method thereof.

近年、携帯端末の機能(メール機能やゲーム機能、インターネット機能等)が発達している。そのため、携帯端末のユーザは、公共の場所を歩行している場合であっても、これらの機能に夢中になることがある。このとき、ユーザは、携帯端末の表示部を注視しているため、ユーザの前方から近づいてくる人に気付かない場合がある。そのため、ユーザは、前方から近づいてくる人と接触してしまう可能性がある。   In recent years, functions of mobile terminals (email function, game function, Internet function, etc.) have been developed. Therefore, even when the user of the mobile terminal is walking in a public place, the user may be absorbed in these functions. At this time, since the user is gazing at the display unit of the mobile terminal, the user may not notice a person approaching from the front of the user. Therefore, the user may come into contact with a person approaching from the front.

特許文献1には、表示装置と同じ面に配置された撮像装置と、携帯端末の振動、加速度又はそれに伴う電圧のいずれか一以上を検出する移動状態検出部と、検出した情報を用いて、所定の基準値を満たしている場合には移動状態であると判定する移動状態判定部と、撮像装置の起動指示を送出するカメラ起動指示部と、撮像装置で撮像した画像から顔を検出することにより、該所持者の危険状態の判定を行う危険状態判定部と、危険状態であると判定された場合に、該所持者に対してその旨を通知するための制御指示を送出する危険判定時処理部と、を有する携帯端末が開示されている。   In Patent Document 1, using an imaging device arranged on the same surface as the display device, a moving state detection unit that detects any one or more of vibration, acceleration, or a voltage accompanying the mobile terminal, and detected information, Detecting a face from an image captured by the imaging device, a moving state determination unit that determines that the mobile device is in a moving state when a predetermined reference value is satisfied, a camera activation instruction unit that transmits an activation instruction for the imaging device, and To determine the danger state of the owner, and when it is determined that the person is in the dangerous state, the risk determination time to send a control instruction to notify the owner to that effect A mobile terminal having a processing unit is disclosed.

特開2008−85510号公報JP 2008-85510 A

特許文献1に記載の携帯端末においては、ユーザの前方に接触する可能性のある人がいない場合であっても、所定の条件を満たせば、携帯端末は、ユーザに対して危険を通知する。このため、余計な危険通知が行われるため、ユーザが表示装置に表示される画像を認識できず、携帯端末の利便性が損なわれるおそれがある。   In the portable terminal described in Patent Literature 1, even if there is no person who may be in contact with the front of the user, the portable terminal notifies the user of the danger if a predetermined condition is satisfied. For this reason, since an unnecessary danger notification is performed, the user cannot recognize the image displayed on the display device, and the convenience of the mobile terminal may be impaired.

本発明は、このような問題を解決するためになされたものであり、携帯端末の利便性を確保しつつ、他人との接触回避策を提供することを目的としている。   The present invention has been made to solve such a problem, and an object thereof is to provide a measure for avoiding contact with another person while ensuring the convenience of the mobile terminal.

本発明にかかる携帯端末は、アプリケーションの実行に伴って表示されるべき画像を表示する表示手段を備える携帯端末であって、前記携帯端末の保持者の進行方向前方を撮像範囲とする撮像手段と、前記撮像手段からの出力データに対する処理に基づいて、前記撮像手段が取得する被写体像中に人の顔が含まれることを検知する顔認識処理手段と、前記携帯端末が移動している状況で、前記アプリケーションの実行に伴って前記表示手段に像表示されていることを検知し、前記顔認識処理手段に対して、顔認識処理の実行を指示する制御手段と、前記制御手段の前記指示に基づく前記顔認識処理手段による前記人の顔の検知に応じて、前記保持者の進行方向前方に人がいることを前記保持者に報知する報知手段と、を備えるものである。   A portable terminal according to the present invention is a portable terminal including a display unit that displays an image to be displayed in accordance with execution of an application, and an imaging unit having an imaging range in front of a traveling direction of a holder of the portable terminal; In a situation where the mobile terminal is moving, and a face recognition processing means for detecting that a subject image acquired by the imaging means includes a human face based on processing on output data from the imaging means. , Detecting that an image is displayed on the display unit as the application is executed, and instructing the face recognition processing unit to execute face recognition processing; and Informing means for informing the holder that there is a person in front of the holder in the advancing direction in response to detection of the person's face by the face recognition processing means based thereon.

本発明にかかる携帯端末の制御方法は、アプリケーションの実行に伴って表示されるべき画像を表示する表示手段と、携帯端末の保持者の進行方向前方を撮像範囲とする撮像手段と、備える携帯端末の制御方法であって、前記携帯端末が移動している状況で、前記アプリケーションの実行に伴って前記表示手段に像表示されていることを検知し、前記撮像手段が取得する被写体像中に人の顔が含まれることを検知し、前記人の顔の検知に応じて、前記保持者の進行方向前方に人がいることを前記保持者に報知するものである。   A portable terminal control method according to the present invention includes: a display unit that displays an image to be displayed in accordance with execution of an application; and an imaging unit that has an imaging range in front of a traveling direction of a holder of the portable terminal. In the situation where the mobile terminal is moving, it is detected that an image is displayed on the display unit as the application is executed, and a person is included in the subject image acquired by the imaging unit. Is included, and in response to detection of the person's face, the holder is informed that there is a person ahead in the direction of travel of the holder.

本発明により、携帯端末の利便性を確保しつつ、他人との接触回避策を提供することができる。   According to the present invention, it is possible to provide a contact avoidance measure with another person while ensuring the convenience of the mobile terminal.

実施の形態1にかかる携帯端末のブロック図である。1 is a block diagram of a mobile terminal according to a first exemplary embodiment. 実施の形態1にかかる携帯端末の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the mobile terminal according to the first exemplary embodiment. 実施の形態2にかかる携帯端末のブロック図である。It is a block diagram of the portable terminal concerning Embodiment 2. FIG. 実施の形態2にかかる携帯端末の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the mobile terminal according to the second exemplary embodiment. 実施の形態2にかかる携帯端末の保持者の動作状態を説明するための図である。(a)は、保持者が静止状態の場合を示す図である。(b)は、保持者が歩行状態の場合を示す図である。(c)は、対向者が接近した場合を示す図である。It is a figure for demonstrating the operation state of the holder | retainer of the portable terminal concerning Embodiment 2. FIG. (A) is a figure which shows the case where a holder | retainer is a stationary state. (B) is a figure which shows the case where a holder | retainer is a walking state. (C) is a figure which shows the case where the other party approaches. 実施の形態2にかかる携帯端末の表示部の推移を説明するための図である。(a)は、保持者が静止状態の場合の表示部を示す図である。(b)は、保持者が歩行状態の場合の表示部示す図である。(c)は、対向者が接近した場合の表示部を示す図である。FIG. 10 is a diagram for explaining a transition of a display unit of the mobile terminal according to the second exemplary embodiment. (A) is a figure which shows a display part in case a holder | retainer is a stationary state. (B) is a figure which shows a display part in case a holder | retainer is a walking state. (C) is a figure which shows a display part when an other party approaches. 実施の形態3にかかる携帯端末のブロック図である。FIG. 6 is a block diagram of a mobile terminal according to a third exemplary embodiment. 実施の形態3にかかる携帯端末の動作を示すフローチャートである。10 is a flowchart showing the operation of the mobile terminal according to the third exemplary embodiment. 実施の形態3にかかる動作状態判定テーブルの一例である。It is an example of the operation state determination table concerning Embodiment 3.

<実施の形態1>
以下、図面を参照して本発明の実施の形態について説明する。本実施の形態にかかる携帯端末1のブロック図を図1に示す。携帯端末1は、表示部11と、カメラ12と、顔認識処理部13と、制御部14と、報知部15と、を備える。ここで、携帯端末1とは、例えば、携帯電話機や携帯オーディオプレーヤー、タブレットPC(Personal Computer)、ゲーム機等である。
<Embodiment 1>
Embodiments of the present invention will be described below with reference to the drawings. A block diagram of the mobile terminal 1 according to the present embodiment is shown in FIG. The mobile terminal 1 includes a display unit 11, a camera 12, a face recognition processing unit 13, a control unit 14, and a notification unit 15. Here, the mobile terminal 1 is, for example, a mobile phone, a mobile audio player, a tablet PC (Personal Computer), a game machine, or the like.

表示部11は、アプリケーションの実行に伴って表示されるべき画像を表示する。表示部11は、例えば、LCD(Liquid Crystal Display)又は有機EL(Electro-Luminescence)ディスプレイ等である。ここで、アプリケーションとは、例えば、メニュー、メール、インターネット、テレビ、動画再生等、表示部11に表示されることによって機能を発揮するアプリケーションを意味する。なお、通常、アプリケーションには、表示部11に画像を表示せず、携帯端末1の内部で機能するアプリケーションも含まれるが、以下の説明では、表示部11に画像を表示するアプリケーションを、単にアプリケーションと呼ぶ。   The display unit 11 displays an image to be displayed as the application is executed. The display unit 11 is, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display. Here, the application means an application that exhibits a function by being displayed on the display unit 11 such as a menu, e-mail, the Internet, a television, and a moving image reproduction. Normally, the application includes an application that does not display an image on the display unit 11 and functions inside the mobile terminal 1, but in the following description, an application that displays an image on the display unit 11 is simply referred to as an application. Call it.

カメラ12(撮像手段)は、携帯端末1の保持者の進行方向前方を撮像範囲として撮像処理を行う。そのため、カメラ12は、表示部11が配置されている面と反対側の面に配置されていることが好ましい。カメラ12は、レンズ、A/D変換機能、画像処理機能等を備え、顔認識処理に必要な画像データを生成する。   The camera 12 (imaging means) performs an imaging process with the forward direction of the holder of the mobile terminal 1 in the imaging range. Therefore, it is preferable that the camera 12 is disposed on a surface opposite to the surface on which the display unit 11 is disposed. The camera 12 includes a lens, an A / D conversion function, an image processing function, and the like, and generates image data necessary for face recognition processing.

顔認識処理部13は、カメラ12が生成した画像データに基づいて、カメラ12が取得する被写体像中に人の顔が含まれていることを検知する。なお、画像データ中の顔を認識する技術は公知の技術であるため、詳細な説明は省略する。   The face recognition processing unit 13 detects that a human face is included in a subject image acquired by the camera 12 based on image data generated by the camera 12. Since the technology for recognizing a face in image data is a known technology, detailed description thereof is omitted.

制御部14は、携帯端末1が移動していること(ユーザが携帯端末1を保持して移動していること)を検知する。そして、制御部14は、携帯端末1が移動している状況で、アプリケーションの実行に伴って表示部11に像表示されていることを検知し、顔認識処理部13に対して顔認識処理の実行を指示する。なお、携帯端末1の移動の検知は、GPS装置が取得する携帯端末1の位置情報や、加速度センサの検出結果等を用いて検知可能である。また、制御部14は、カメラ12が連続して撮像した複数の画像における物体の位置の変化によって、携帯端末1の移動を検知してもよい。   The control unit 14 detects that the mobile terminal 1 is moving (the user is moving while holding the mobile terminal 1). And the control part 14 detects that the image is displayed on the display part 11 with execution of an application in the condition where the portable terminal 1 is moving, and performs the face recognition process with respect to the face recognition process part 13. Instruct execution. Note that the movement of the mobile terminal 1 can be detected using the position information of the mobile terminal 1 acquired by the GPS device, the detection result of the acceleration sensor, or the like. Further, the control unit 14 may detect the movement of the mobile terminal 1 based on a change in the position of the object in a plurality of images continuously captured by the camera 12.

報知部15は、制御部14の指示に基づく顔認識処理部13による人の顔の検知に応じて、携帯端末1の保持者の進行方向前方に人がいることを報知する。報知方法としては、例えば、表示部11における警告表示、音、又は、バイブレーション等が用いられる。   The notification unit 15 notifies the presence of a person in the forward direction of the holder of the mobile terminal 1 in accordance with the detection of the human face by the face recognition processing unit 13 based on an instruction from the control unit 14. As the notification method, for example, warning display, sound, or vibration in the display unit 11 is used.

続いて、本実施の形態にかかる携帯端末1の動作について図2に示すフローチャートを参照して説明する。まず、制御部14は、携帯端末1が移動している状況で、表示部11に像表示されていることを検知する(ステップS101)。携帯端末1の移動中に、表示部11に像表示されていることを検知した場合(ステップS101:Yes)、制御部14は、顔認識処理部13に対して、顔認識処理の実行を指示する。また、制御部14は、カメラ12に対して、携帯端末1の保持者の進行方向前方を撮像するように指示する。   Next, the operation of the mobile terminal 1 according to the present embodiment will be described with reference to the flowchart shown in FIG. First, the control unit 14 detects that an image is displayed on the display unit 11 while the mobile terminal 1 is moving (step S101). When it is detected that the image is displayed on the display unit 11 while the mobile terminal 1 is moving (step S101: Yes), the control unit 14 instructs the face recognition processing unit 13 to execute the face recognition processing. To do. In addition, the control unit 14 instructs the camera 12 to take an image in front of the holder of the mobile terminal 1 in the traveling direction.

そして、カメラ12は、保持者の進行方向前方を撮像する(ステップS102)。カメラ12は、撮像処理に応じて生成した画像データを、顔認識処理部13に出力する。なお、カメラ12の撮像処理のタイミングは、ステップS102のタイミングに限られない。例えば、カメラ12は、制御部14の検知の前から撮像処理を行っていてもよい。   Then, the camera 12 images the front of the holder in the traveling direction (step S102). The camera 12 outputs the image data generated according to the imaging process to the face recognition processing unit 13. Note that the timing of the imaging process of the camera 12 is not limited to the timing of step S102. For example, the camera 12 may perform an imaging process before detection by the control unit 14.

顔認識処理部13は、カメラ12から入力された画像データに基づいて、顔認識処理を実行する(ステップS103)。そして、被写体像中に人の顔が含まれている場合(ステップS103:Yes)、顔認識処理部13は、その旨を制御部14に通知する。   The face recognition processing unit 13 performs face recognition processing based on the image data input from the camera 12 (step S103). When a human face is included in the subject image (step S103: Yes), the face recognition processing unit 13 notifies the control unit 14 to that effect.

制御部14は、人の顔が含まれている旨の通知を受けると、報知部15に対して報知を指示する。そして、報知部15は、携帯端末1の保持者の進行方向前方に人が存在することを報知する(ステップS104)。   When receiving a notification that a human face is included, the control unit 14 instructs the notification unit 15 to perform notification. And the alerting | reporting part 15 alert | reports that a person exists ahead of the advancing direction of the holder | retainer of the portable terminal 1 (step S104).

なお、携帯端末1が移動していない場合や、アプリケーションの実行に伴って表示される画像が表示部11に表示されていない場合(ステップS101:No)、もしくは、カメラ12が撮像した被写体像中に人の顔が無い場合(ステップS103:No)は、制御部14は、携帯端末1の移動中に、表示部11に像表示されていることを再度判定する(ステップS101)。   In addition, when the portable terminal 1 is not moving, or when an image displayed with the execution of the application is not displayed on the display unit 11 (step S101: No), or in the subject image captured by the camera 12 If there is no person's face (step S103: No), the control unit 14 determines again that an image is displayed on the display unit 11 while the mobile terminal 1 is moving (step S101).

このように、本実施の形態にかかる携帯端末1の構成によれば、制御部14が、携帯端末1が移動している状況で、アプリケーションの実行に伴って表示される画像が表示部11に表示されていることを検知すると、顔認識処理部13が、顔認識処理を実行する。そして、人の顔が認識された場合、報知部15が、進行方向前方に人がいることを報知する。これにより、携帯端末1の移動中に、表示部11に画像が表示されている場合、つまり、携帯端末1の保持者が、移動中に、表示部11に表示されている画像を注視している場合であっても、保持者は、報知部15の報知に基づいて進行方向前方に人がいることを認識できる。したがって、保持者は、他人と接触することを回避できる。併せて、保持者が、他人に迷惑をかけることも防止できる。   As described above, according to the configuration of the mobile terminal 1 according to the present embodiment, the control unit 14 displays an image displayed along with the execution of the application on the display unit 11 while the mobile terminal 1 is moving. When it is detected that the image is displayed, the face recognition processing unit 13 executes face recognition processing. And when a person's face is recognized, the alerting | reporting part 15 alert | reports that there is a person ahead of the advancing direction. Accordingly, when an image is displayed on the display unit 11 while the mobile terminal 1 is moving, that is, the holder of the mobile terminal 1 watches the image displayed on the display unit 11 while moving. Even if it is a case, a holder | retainer can recognize that a person exists ahead of the advancing direction based on the alerting | reporting of the alerting | reporting part 15. Therefore, the holder can avoid contact with others. In addition, it is possible to prevent the holder from causing trouble to others.

更に、カメラ12は、携帯端末1の保持者の進行方向前方を撮像しており、報知部15は、保持者の進行方向前方に人がいることを報知する。言い換えると、保持者の進行方向前方に人がいない場合(撮像した画像中に人の顔が認識されない場合)は、携帯端末1が移動している状況で、表示部11に画像が表示されている場合であっても、報知部15は報知を行わない。したがって、携帯端末1の利便性を確保することができる。   Furthermore, the camera 12 images the front of the holder of the mobile terminal 1 in the traveling direction, and the notification unit 15 notifies that there is a person ahead of the holder in the traveling direction. In other words, when there is no person in the forward direction of the holder (when a person's face is not recognized in the captured image), an image is displayed on the display unit 11 while the mobile terminal 1 is moving. Even if it exists, the alerting | reporting part 15 does not alert | report. Therefore, the convenience of the portable terminal 1 can be ensured.

具体的には、例えば、保持者の前方に人がいない場合は、保持者が他人と接触する可能性は低い。そのため、このような状況において、報知動作(例えば、表示画面における警告メッセージのポップアップ)が行われると、保持者は、余計な報知が行われたと感じる。つまり、保持者に対して不快感を与えることとなる。しかし、本実施の形態によれば、保持者の周囲に接触する可能性のある人が存在しない環境では、報知動作は行われない。その結果、保持者は、アプリケーションの実行に伴って表示される画像を認識できるため、不快や不便を感じることもない。   Specifically, for example, when there is no person in front of the holder, the possibility that the holder contacts with another person is low. Therefore, in such a situation, when a notification operation (for example, a pop-up of a warning message on the display screen) is performed, the holder feels that extra notification has been performed. That is, an unpleasant feeling is given to the holder. However, according to the present embodiment, the notification operation is not performed in an environment where there is no person who may contact the holder. As a result, the holder can recognize an image displayed as the application is executed, and thus does not feel uncomfortable or inconvenient.

<実施の形態2>
本発明にかかる実施の形態2について説明する。本実施の形態にかかる携帯端末2のブロック図を図3に示す。携帯端末2は、表示部11と、カメラ12と、顔認識処理部13と、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、作業用メモリ23と、キー入力部24と、表示制御部25と、GPS受信装置26と、を備える。なお、表示部11、カメラ12、及び顔認識処理部13については携帯端末1と同様であるので、説明を適宜省略する。
<Embodiment 2>
A second embodiment according to the present invention will be described. FIG. 3 shows a block diagram of the mobile terminal 2 according to the present embodiment. The portable terminal 2 includes a display unit 11, a camera 12, a face recognition processing unit 13, a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a work memory 23, a key input unit 24, The display control unit 25 and the GPS receiver 26 are provided. Note that the display unit 11, the camera 12, and the face recognition processing unit 13 are the same as those of the mobile terminal 1, and thus description thereof will be omitted as appropriate.

CPU21は、図1の制御部14に対応しており、携帯端末2の各部とバスを介して接続されている。CPU21は、実行プログラムや入力データに基づいて、各種処理や各部に対する命令を実行する中央制御装置である。   CPU21 respond | corresponds to the control part 14 of FIG. 1, and is connected with each part of the portable terminal 2 via the bus | bath. The CPU 21 is a central control device that executes various processes and instructions for each unit based on an execution program and input data.

ROM22は、CPU21が実行するプログラム(例えば、カメラ12、顔認識処理部13、表示制御部25等を制御するプログラム)が格納されている。加えて、アプリケーションの実行の有無を判定するプログラムや、GPS受信装置26の受信信号に基づいて、携帯端末2の移動を検知するプログラム等も格納されている。なお、アプリケーションの実行に伴って、表示部11に像表示されていることの検知は、例えば、表示部11に像表示させるアプリケーションのファイル名やパス等、アプリケーションを特定する情報を、予めROM22に格納しておく。そして、CPU21が、実行中のアプリケーションのファイル名やパス等がROM22に格納されたアプリケーションのファイル名やパス等と一致するか否かを検出することにより検知可能である。   The ROM 22 stores a program executed by the CPU 21 (for example, a program for controlling the camera 12, the face recognition processing unit 13, the display control unit 25, etc.). In addition, a program for determining whether or not an application is executed, a program for detecting movement of the mobile terminal 2 based on a received signal of the GPS receiver 26, and the like are also stored. It should be noted that detection of an image being displayed on the display unit 11 as the application is executed is performed by, for example, storing information specifying the application in the ROM 22 in advance, such as the file name and path of the application to be displayed on the display unit 11. Store it. Then, the CPU 21 can detect by detecting whether the file name, path, etc. of the application being executed matches the file name, path, etc. of the application stored in the ROM 22.

作業用メモリ23は、例えばRAM(Random Access Memory)により構成されており、CPU21がプログラムを実行する上で、一時的に必要とされるデータを格納する。キー入力部24は、携帯端末2に設けられた各種キーからの入力を受け付ける入力回路である。表示制御部25は、表示部11の表示を制御する。   The work memory 23 is composed of, for example, a RAM (Random Access Memory), and stores data temporarily required when the CPU 21 executes a program. The key input unit 24 is an input circuit that receives input from various keys provided in the mobile terminal 2. The display control unit 25 controls the display on the display unit 11.

GPS受信装置26(移動検出手段)は、携帯端末2が移動していることを示す情報を検出する。より詳細には、GPS受信装置26は、GPS信号を受信し、携帯端末2の位置情報(携帯端末2の位置を特定するための情報)を取得する。   The GPS receiver 26 (movement detection means) detects information indicating that the mobile terminal 2 is moving. More specifically, the GPS receiver 26 receives a GPS signal and acquires position information of the mobile terminal 2 (information for specifying the position of the mobile terminal 2).

続いて、本実施の形態にかかる携帯端末2の動作について、図4のフローチャートを参照して説明する。まず、CPU21が、アプリケーションの実行に伴って像表示されているか否かを判定する(ステップS201)。   Next, the operation of the mobile terminal 2 according to the present embodiment will be described with reference to the flowchart of FIG. First, the CPU 21 determines whether an image is displayed as the application is executed (step S201).

像表示されている場合(ステップS201:Yes)、CPU21は、GPS受信装置26に対してGPS信号の受信を指示する。GPS受信装置26は、CPU21の指示に基づいて、GPS信号を受信し、携帯端末2の位置情報を取得する(ステップS202)。   When the image is displayed (step S201: Yes), the CPU 21 instructs the GPS receiver 26 to receive a GPS signal. The GPS receiver 26 receives a GPS signal based on an instruction from the CPU 21 and acquires position information of the mobile terminal 2 (step S202).

そして、CPU21は、GPS受信装置26が取得した位置情報に基づいて、携帯端末2が移動しているか否かを判定する(ステップS203)。つまり、CPU21は、携帯端末2の位置情報が変化しているか否かを判定する。   And CPU21 determines whether the portable terminal 2 is moving based on the positional information which the GPS receiver 26 acquired (step S203). That is, the CPU 21 determines whether or not the position information of the mobile terminal 2 has changed.

携帯端末2が移動している場合(ステップS203:Yes)、CPU21は、カメラ12に対して撮像処理の実行を指示する。カメラ12は、CPU21からの指示に基づいて、携帯端末2の保持者の進行方向前方を撮像する(ステップS204)。カメラ12は、生成した画像データを顔認識処理部13に出力する。   When the portable terminal 2 is moving (step S203: Yes), the CPU 21 instructs the camera 12 to execute an imaging process. Based on the instruction from the CPU 21, the camera 12 captures an image in front of the holder of the portable terminal 2 in the traveling direction (step S204). The camera 12 outputs the generated image data to the face recognition processing unit 13.

CPU21は、カメラ12に指示を出すと共に、顔認識処理部13に対して、カメラ12が生成した画像データに対して顔認識処理の実行を指示する。顔認識処理部13は、CPU21からの指示に基づいて、顔認識処理を実行する(ステップS205)。   The CPU 21 issues an instruction to the camera 12 and instructs the face recognition processing unit 13 to execute face recognition processing on the image data generated by the camera 12. The face recognition processing unit 13 executes face recognition processing based on an instruction from the CPU 21 (step S205).

顔認識処理部13が、人の顔を検知した場合(ステップS205:Yes)、顔認識処理部13は、その旨をCPU21に通知する。CPU21は、人の顔が含まれている旨の通知を受けると、表示制御部25に対して報知を指示する。そして、表示制御部25は、携帯端末2の保持者の進行方向前方に人が存在する旨の警告メッセージを表示部11に表示させる(ステップS206)。これにより、携帯端末2の保持者は、進行方向前方に人がいることを認識できるため、人との接触を回避できる。   When the face recognition processing unit 13 detects a human face (step S205: Yes), the face recognition processing unit 13 notifies the CPU 21 to that effect. When receiving a notification that a human face is included, the CPU 21 instructs the display control unit 25 to notify. Then, the display control unit 25 causes the display unit 11 to display a warning message that there is a person in front of the holder of the portable terminal 2 in the traveling direction (step S206). Thereby, since the holder of the portable terminal 2 can recognize that there is a person ahead in the traveling direction, contact with the person can be avoided.

なお、アプリケーションの実行に伴う像表示が無い場合(ステップS201:No)、携帯端末2が移動していない場合(ステップS203:No)、又は画像データに人の顔が含まれない場合(ステップS205:No)、CPU21は、表示部11に像表示されているか否かを再度判定する(ステップS201)。   In addition, when there is no image display accompanying execution of an application (step S201: No), when the portable terminal 2 is not moving (step S203: No), or when a human face is not included in image data (step S205). : No), the CPU 21 determines again whether or not an image is displayed on the display unit 11 (step S201).

ここで、図5、図6を参照して、携帯端末2の動作について詳細に説明する。図5は、携帯端末2の保持者100の移動動作を示す図である。図6は、携帯端末2の表示部11の表示画面の推移を示す図である。このとき、図5(a)〜(c)における表示部11の表示状態は、図6(a)〜(c)に示す表示部11の表示状態にそれぞれ対応する。   Here, the operation of the portable terminal 2 will be described in detail with reference to FIGS. FIG. 5 is a diagram illustrating a movement operation of the holder 100 of the mobile terminal 2. FIG. 6 is a diagram illustrating transition of the display screen of the display unit 11 of the mobile terminal 2. At this time, the display state of the display unit 11 in FIGS. 5A to 5C corresponds to the display state of the display unit 11 illustrated in FIGS.

図5(a)において、保持者100は、アプリケーションを実行し、立ち止まって携帯端末2の表示部11を見ている。このとき、表示部11には、現在実行中のアプリケーションに対応する画像(メール画面やインターネット画面等のアプリ画面)が表示されている(図6(a)参照)。   In FIG. 5A, the holder 100 executes the application, stops and looks at the display unit 11 of the mobile terminal 2. At this time, an image (an application screen such as a mail screen or an Internet screen) corresponding to the application currently being executed is displayed on the display unit 11 (see FIG. 6A).

次に、保持者100は、アプリケーションを実行したまま、歩行を開始する(図5(b)参照)。保持者100が歩行することにより、携帯端末2が移動する。このとき、CPU21は、携帯端末2が移動している状況で、アプリケーションの実行に伴って表示部11に画像が表示されていることを検知する。そして、CPU21は、カメラ12に撮像処理の実行を指示すると共に、顔認識処理部13に顔認識処理の実行を指示する。   Next, the holder 100 starts walking while executing the application (see FIG. 5B). When the holder 100 walks, the mobile terminal 2 moves. At this time, CPU21 detects that the image is displayed on the display part 11 with execution of an application in the condition where the portable terminal 2 is moving. Then, the CPU 21 instructs the camera 12 to execute the imaging process and also instructs the face recognition processing unit 13 to execute the face recognition process.

このとき、CPU21の指示に基づいて、カメラ12が保持者100の進行方向前方を撮像している場合であっても、表示部11には、撮像される被写体像のプレビュー画像は表示されない。つまり、保持者100の静止時と歩行時とにおいて、表示部11に表示される画像は変化しない(図6(a)、(b)参照)。したがって、携帯端末2の利便性を確保することができる。   At this time, even if the camera 12 is capturing an image ahead of the holder 100 in the direction of travel based on an instruction from the CPU 21, a preview image of the captured subject image is not displayed on the display unit 11. That is, the image displayed on the display unit 11 does not change when the holder 100 is stationary and walking (see FIGS. 6A and 6B). Therefore, the convenience of the portable terminal 2 can be ensured.

そして、保持者100の進行方向前方から対向者200が歩いてくると、カメラ12が撮像した画像データに人の顔が含まれる。顔認識処理部13が画像データに人の顔が含まれていることを検知すると、表示制御部25は、表示部11に警告メッセージ300をポップアップ表示させる(図6(c)参照)。これにより、表示部11を注視していた保持者100は、前方に対向者200が存在することを認識できる(図5(c)参照)。その結果、保持者他人と接触することを回避できる。   When the opponent 200 walks from the front of the holder 100 in the traveling direction, the human face is included in the image data captured by the camera 12. When the face recognition processing unit 13 detects that a human face is included in the image data, the display control unit 25 causes the display unit 11 to pop up a warning message 300 (see FIG. 6C). Thereby, the holder | retainer 100 which was gazing at the display part 11 can recognize that the other party 200 exists ahead (refer FIG.5 (c)). As a result, it is possible to avoid contact with another person.

その後、保持者100が静止した場合、又は、アプリケーションの実行が終了した場合、CPU21は、カメラ12に起動の停止を指示すると共に、顔認識処理部13に顔認識処理の停止を指示する。また、アプリケーションの実行が終了した場合、CPU21は、GPS受信装置26にGPS信号の受信の停止を指示する。   Thereafter, when the holder 100 stops or the execution of the application is finished, the CPU 21 instructs the camera 12 to stop activation and instructs the face recognition processing unit 13 to stop the face recognition processing. When the execution of the application is completed, the CPU 21 instructs the GPS receiver 26 to stop receiving the GPS signal.

以上のように、本実施の形態にかかる携帯端末2の構成によれば、GPS受信装置26が携帯端末2の位置情報を取得する。そのため、CPU21は、携帯端末2の位置情報に基づいて、携帯端末2の移動を検知できる。勿論、表示部11に警告メッセージが表示されるため、保持者が、他人と接触することを回避できると共に、他人に迷惑をかけることもない。   As described above, according to the configuration of the mobile terminal 2 according to the present embodiment, the GPS receiver 26 acquires the position information of the mobile terminal 2. Therefore, the CPU 21 can detect the movement of the mobile terminal 2 based on the position information of the mobile terminal 2. Of course, since a warning message is displayed on the display unit 11, the holder can avoid contact with another person and does not bother others.

ここで、携帯端末2の保持者が電車や自動車等の乗り物に乗っている場合、GPS受信装置26が取得する携帯端末2の位置情報は変化する。そのため、電車内において保持者がアプリケーションを実行すると、カメラ12は撮像処理を実行し、顔認識処理部13が顔認識処理を実行する。しかし、電車等に乗っている場合、保持者は立ち止まっているか座っている可能性が高いため、他者との接触の可能性は低い。そのため、警告メッセージの必要性は低い。   Here, when the holder of the portable terminal 2 is on a vehicle such as a train or a car, the position information of the portable terminal 2 acquired by the GPS receiver 26 changes. Therefore, when the holder executes the application in the train, the camera 12 executes an imaging process, and the face recognition processing unit 13 executes the face recognition process. However, when riding on a train or the like, the holder is likely to stop or sit, so the possibility of contact with others is low. Therefore, the need for warning messages is low.

そこで、CPU21が、携帯端末2の位置情報に基づいて、携帯端末2の移動速度を検出し、携帯端末2の移動速度が所定の速度を超えた場合、カメラ12の撮像処理を停止させ、待機状態にさせる構成としてもよい。具体的には、例えば、所定の速度を示す情報をROM22に予め格納しておく。そして、CPU21が、携帯端末2の移動速度と所定の速度とを比較して、携帯端末2の移動速度が所定の速度を超えたか否かを判定する。携帯端末2の移動速度が所定の速度を超えた場合、CPU21は、カメラ12を待機状態にさせる。なお、所定の速度とは、保持者の歩行速度や走行速度を超える速度を意味する。これにより、所定の速度よりも速い速度で携帯端末2が移動している場合は、撮像処理が行われず、表示部11に警告メッセージも表示されない。つまり、保持者が電車や自動車等の乗り物に乗っている場合には、警告メッセージは表示されない。その結果、表示部11に不要な警告メッセージが表示されることを防止できる。したがって、保持者に不快感を与えることをより抑制できるという効果を奏する。特に、電車に乗っている場合には、電車内にいる他者の顔が撮像された画像データに入り込む可能性は極めて高いため、顕著な効果が得られる。   Therefore, the CPU 21 detects the moving speed of the portable terminal 2 based on the position information of the portable terminal 2, and when the moving speed of the portable terminal 2 exceeds a predetermined speed, the imaging process of the camera 12 is stopped and the standby is performed. It is good also as a structure made to be in a state. Specifically, for example, information indicating a predetermined speed is stored in the ROM 22 in advance. Then, the CPU 21 compares the moving speed of the mobile terminal 2 with a predetermined speed to determine whether or not the moving speed of the mobile terminal 2 has exceeded a predetermined speed. When the moving speed of the portable terminal 2 exceeds a predetermined speed, the CPU 21 causes the camera 12 to enter a standby state. The predetermined speed means a speed exceeding the walking speed or the traveling speed of the holder. Thereby, when the portable terminal 2 is moving at a speed faster than the predetermined speed, the imaging process is not performed, and the warning message is not displayed on the display unit 11. That is, the warning message is not displayed when the holder is on a vehicle such as a train or a car. As a result, an unnecessary warning message can be prevented from being displayed on the display unit 11. Therefore, it is possible to further suppress discomfort to the holder. In particular, when riding on a train, there is a very high possibility that the face of another person in the train will be captured, so that a remarkable effect can be obtained.

<実施の形態3>
本発明にかかる実施の形態3ついて説明する。本実施の形態にかかる携帯端末3の構成を図7に示す。携帯端末3は、携帯端末2のGPS受信装置26に換えて、加速度センサ31を備える。また、ROM22は、各種プログラムに加えて、動作状態判定テーブルを格納する。なお、その他の構成については携帯端末2と同様であるので、説明を適宜省略する。
<Embodiment 3>
A third embodiment according to the present invention will be described. FIG. 7 shows the configuration of the mobile terminal 3 according to the present embodiment. The mobile terminal 3 includes an acceleration sensor 31 instead of the GPS receiver 26 of the mobile terminal 2. The ROM 22 stores an operation state determination table in addition to various programs. Since other configurations are the same as those of the mobile terminal 2, the description thereof will be omitted as appropriate.

加速度センサ31は、例えば、直交3軸の加速度を検出するセンサであり、携帯端末3の保持者が歩行することにより生じる振動を検出する。   The acceleration sensor 31 is, for example, a sensor that detects acceleration in three orthogonal axes, and detects vibration that occurs when the holder of the mobile terminal 3 walks.

続いて、本実施の形態にかかる携帯端末3の動作について、図8に示すフローチャートを参照して説明する。まず、CPU21が、アプリケーションの実行に伴い表示部11に像表示されているか否かを判定する(ステップS301)。像表示されている場合(ステップS301:Yes)、CPU21は、加速度センサ31に振動の検出を指示する。そして、加速度センサ31が、携帯端末3に生じる振動を検出する(ステップS302)。   Next, the operation of the mobile terminal 3 according to the present embodiment will be described with reference to the flowchart shown in FIG. First, the CPU 21 determines whether an image is displayed on the display unit 11 as the application is executed (step S301). When the image is displayed (step S301: Yes), the CPU 21 instructs the acceleration sensor 31 to detect vibration. And the acceleration sensor 31 detects the vibration which arises in the portable terminal 3 (step S302).

CPU21は、ROM22に格納された動作状態判定テーブルを参照し(ステップS303)、加速度センサ31が検出した振動の周期に基づいて、携帯端末3が移動しているか否かを判定する(ステップS304)。   The CPU 21 refers to the operation state determination table stored in the ROM 22 (step S303), and determines whether or not the mobile terminal 3 is moving based on the vibration cycle detected by the acceleration sensor 31 (step S304). .

ここで、動作状態判定テーブルについて詳細に説明する。動作状態判定テーブルの一例を図9に示す。動作状態判定テーブルには、加速度センサ31が検出する振動(保持者の歩行による上下動)の周期と、カメラ12の撮像処理の間隔と、が対応付けられて格納されている。なお、図9に示すように、振動の周期と、携帯端末3の保持者の動作状態と、を更に対応付けて格納してもよい。   Here, the operation state determination table will be described in detail. An example of the operation state determination table is shown in FIG. In the operation state determination table, a period of vibration (up and down movement by walking of the holder) detected by the acceleration sensor 31 and an interval of the imaging process of the camera 12 are stored in association with each other. Note that, as shown in FIG. 9, the period of vibration and the operating state of the holder of the mobile terminal 3 may be further stored in association with each other.

具体的には、加速度センサ31を用いて検出された振動の周期が2秒(第1の閾値)以上の場合、つまり、一度上下動があってから、次の上下動があるまでに2秒以上間隔が空いている場合、CPU21は、カメラ12を待機状態にする。また、CPU21は、このときの保持者の動作状態は、静止又は準静止の状態であると判断する。なお、準静止状態とは、保持者がほとんど移動しておらず、人と接触する可能性が低い状態を意味する。   Specifically, when the period of vibration detected using the acceleration sensor 31 is 2 seconds (first threshold) or more, that is, 2 seconds from the first vertical movement to the next vertical movement. When the above interval is available, the CPU 21 places the camera 12 in a standby state. Further, the CPU 21 determines that the operation state of the holder at this time is a stationary or quasi-stationary state. Note that the quasi-static state means a state in which the holder hardly moves and is unlikely to come into contact with a person.

加速度センサ31を用いて検出された振動の周期が2秒未満〜0.5秒以上の場合、CPU21は、カメラ12に3秒間隔で撮像処理を実行させる。このとき、CPU21は、保持者が歩行状態であると判断する。同様に、加速度センサ31を用いて検出された振動の周期が0.5秒未満〜0.1秒以上の場合、CPU21は、カメラ12に1秒間隔で撮像処理を実行させる。このとき、CPU21は、保持者が走行状態であると判断する。   When the period of vibration detected using the acceleration sensor 31 is less than 2 seconds to 0.5 seconds or more, the CPU 21 causes the camera 12 to perform imaging processing at intervals of 3 seconds. At this time, the CPU 21 determines that the holder is in a walking state. Similarly, when the period of vibration detected using the acceleration sensor 31 is less than 0.5 seconds to 0.1 seconds or more, the CPU 21 causes the camera 12 to execute imaging processing at intervals of 1 second. At this time, the CPU 21 determines that the holder is in the traveling state.

なお、携帯端末3の保持者の通常の動作においては、振動の周期が0.1秒未満となることは考えにくいため、この場合、CPU21は、エラーが発生したと判断する。そのため、加速度センサ31を用いて検出された振動の周期が0.1秒(第2の閾値)未満の場合、CPU21は、カメラ12を待機状態にする。なお、振動の周期として、所定時間における振動の周期の平均値を用いてもよい。また、振動の周期や撮像間隔のパラメータは、図9に示す値に限られない。   In the normal operation of the holder of the mobile terminal 3, it is unlikely that the vibration period will be less than 0.1 seconds. In this case, the CPU 21 determines that an error has occurred. Therefore, when the period of vibration detected using the acceleration sensor 31 is less than 0.1 second (second threshold), the CPU 21 places the camera 12 in a standby state. Note that an average value of vibration periods in a predetermined time may be used as the vibration period. Further, the vibration period and imaging interval parameters are not limited to the values shown in FIG.

つまり、ステップS304において、加速度センサ31が検出した振動の周期が2秒未満〜0.1秒以上の場合、CPU21は、携帯端末3が移動していると判定する。一方、加速度センサが検出した振動の周期が2秒以上又は0.1秒未満である場合、CPU21は、携帯端末3は移動していないと判定する。   That is, in step S304, when the period of vibration detected by the acceleration sensor 31 is less than 2 seconds to 0.1 seconds or more, the CPU 21 determines that the mobile terminal 3 is moving. On the other hand, when the period of vibration detected by the acceleration sensor is 2 seconds or more or less than 0.1 seconds, the CPU 21 determines that the mobile terminal 3 is not moving.

携帯端末3が移動している場合(ステップS304:Yes)、CPU21は、カメラ12に撮像処理の実行を指示すると共に、顔認識処理部13に顔認識処理の実行を指示する。そして、カメラ12が、CPU21の指示に基づいて、撮像処理を実行する(ステップS305)。カメラ12は、撮像処理に応じて生成した画像データを、顔認識処理部13に出力する。   When the mobile terminal 3 is moving (step S304: Yes), the CPU 21 instructs the camera 12 to execute the imaging process and also instructs the face recognition processing unit 13 to execute the face recognition process. And the camera 12 performs an imaging process based on the instruction | indication of CPU21 (step S305). The camera 12 outputs the image data generated according to the imaging process to the face recognition processing unit 13.

顔認識処理部13は、画像データに人の顔が含まれるか否かを判定する(ステップS306)。画像データに人の顔が含まれている場合(ステップS306:Yes)、表示制御部25は、表示部11に警告メッセージを表示させる(ステップS307)。これにより、保持者は、対向者との接触を回避できる。   The face recognition processing unit 13 determines whether or not a human face is included in the image data (step S306). When a human face is included in the image data (step S306: Yes), the display control unit 25 displays a warning message on the display unit 11 (step S307). Thereby, the holder can avoid contact with the opponent.

一方、アプリケーションの実行に伴う像表示がない場合(ステップS301:No)、携帯端末3が移動していない場合(ステップS304:No)、又は画像データに人の顔が含まれていない場合(ステップS306:No)、CPU21は、像表示されているか否かを再度判定する(ステップS301)。   On the other hand, when there is no image display accompanying the execution of the application (step S301: No), when the portable terminal 3 is not moving (step S304: No), or when the human face is not included in the image data (step) S306: No), the CPU 21 determines again whether an image is displayed (step S301).

以上のように、本実施の形態にかかる携帯端末3の構成においては、加速度センサ31が、携帯端末3に生じる振動を検出する。そのため、CPU21は、加速度センサ31を用いて検出された振動の周期に基づいて、携帯端末3が移動していることを検知できる。勿論、表示部11に警告メッセージが表示されるため、保持者が、他人と接触することを回避できると共に、他人に迷惑をかけることもない。   As described above, in the configuration of the mobile terminal 3 according to the present embodiment, the acceleration sensor 31 detects vibration generated in the mobile terminal 3. Therefore, the CPU 21 can detect that the mobile terminal 3 is moving based on the vibration period detected using the acceleration sensor 31. Of course, since a warning message is displayed on the display unit 11, the holder can avoid contact with another person and does not bother others.

更に、CPU21が、保持者の動作状態に応じて、カメラ12の撮像間隔を制御している。具体的には、保持者が静止状態の場合及びエラー状態の場合は、カメラ12を起動させず、待機状態にする。つまり、保持者が人と接触するような状態に無い場合は、カメラ12は、撮像処理を行わない。そのため、撮像処理に要する消費電力を低減することができる。   Further, the CPU 21 controls the imaging interval of the camera 12 according to the operating state of the holder. Specifically, when the holder is in a stationary state or in an error state, the camera 12 is not activated and is placed in a standby state. That is, when the holder is not in contact with a person, the camera 12 does not perform an imaging process. Therefore, power consumption required for the imaging process can be reduced.

これに対して、保持者が移動している場合、カメラ12は、連続的に撮像処理を行わす、間欠的に撮像処理を行う。そのため、カメラ12が起動している状態であっても、撮像処理に要する消費電力を低減することができる。更に、通常、保持者の移動速度が速いほど、保持者と対向者との距離は早く縮まる。そのため、保持者の移動速度が速い場合に人との接触を回避するためには、カメラ12が短い間隔で撮像する必要がある。本実施の形態においては、CPU21は、保持者の移動速度(歩行又は走行)に応じて、カメラ12の撮像間隔を調整している。そのため、人との接触を回避しつつ、消費電力の低減を図ることができる。   On the other hand, when the holder is moving, the camera 12 performs the imaging process continuously, and performs the imaging process intermittently. Therefore, even when the camera 12 is activated, the power consumption required for the imaging process can be reduced. Furthermore, usually, the faster the holder moves, the faster the distance between the holder and the opponent. For this reason, in order to avoid contact with a person when the moving speed of the holder is high, the camera 12 needs to capture images at short intervals. In the present embodiment, the CPU 21 adjusts the imaging interval of the camera 12 according to the moving speed (walking or running) of the holder. Therefore, power consumption can be reduced while avoiding contact with a person.

なお、表示制御部25は、カメラ12が撮像した画像に対する人の顔の領域が、所定の大きさを超えた場合に、表示部11に警告メッセージを表示させてもよい。ここで、所定の大きさとは、例えば、保持者と対向者との距離が、接触を回避できる程度に離れている状態で撮像される人の顔の領域面積を意味する。撮像された画像データに含まれる人の顔の領域が所定の大きさ以下の場合、つまり、携帯端末3から離れた位置に対向者がいる場合、保持者と対向者とが接触する可能性は低い。そのため、人の顔が認識された場合であっても、表示部11に警告メッセージは表示されない。   The display control unit 25 may display a warning message on the display unit 11 when the area of the human face with respect to the image captured by the camera 12 exceeds a predetermined size. Here, the predetermined size means, for example, a region area of a person's face imaged in a state where the distance between the holder and the opponent is so far as to avoid contact. If the face area of the person included in the captured image data is less than a predetermined size, that is, if there is an opponent at a position away from the mobile terminal 3, the possibility that the holder and the opponent are in contact with each other is Low. Therefore, even if a human face is recognized, no warning message is displayed on the display unit 11.

一方、画像データに含まれる人の顔の領域が所定の大きさを超える場合、つまり、携帯端末3の近い位置に対向者がいる場合、保持者と対向者とが接触する可能性は高い。そのため、表示部11に警告メッセージが表示される。これにより、十分に離れた位置に対向者が存在する場合には、当該対向者の顔が認識されても、警告メッセージは表示されない。その結果、携帯端末3の利便性を確保することができる。このとき、携帯端末3の保持者が、所定の大きさを任意に設定できるようにしてもよい。   On the other hand, when the face area of the person included in the image data exceeds a predetermined size, that is, when there is an opponent at a position near the mobile terminal 3, the possibility that the holder and the opponent are in contact with each other is high. Therefore, a warning message is displayed on the display unit 11. As a result, when the opponent is present at a sufficiently distant position, the warning message is not displayed even if the face of the opponent is recognized. As a result, the convenience of the mobile terminal 3 can be ensured. At this time, the holder of the mobile terminal 3 may arbitrarily set a predetermined size.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更及び組み合わせをすることが可能である。例えば、CPU21による像表示の有無の判定と、携帯端末の移動の有無の判定と、処理順序は、上述の実施の形態に限られない。   The present invention is not limited to the above-described embodiment, and can be appropriately changed and combined without departing from the spirit of the present invention. For example, the determination of the presence / absence of image display by the CPU 21, the determination of the presence / absence of movement of the mobile terminal, and the processing order are not limited to the above-described embodiment.

1〜3 携帯端末
11 表示部
12 カメラ
13 顔認識処理部
14 制御部
15 報知部
21 CPU
22 ROM
23 作業用メモリ
24 キー入力部
25 表示制御部
26 GPS受信装置
31 加速度センサ
100 保持者
200 対向者
300 警告メッセージ
1-3 Mobile terminal 11 Display unit 12 Camera 13 Face recognition processing unit 14 Control unit 15 Notification unit 21 CPU
22 ROM
23 Work Memory 24 Key Input Unit 25 Display Control Unit 26 GPS Receiver 31 Acceleration Sensor 100 Holder 200 Opponent 300 Warning Message

Claims (10)

アプリケーションの実行に伴って表示されるべき画像を表示する表示手段を備える携帯端末であって、
前記携帯端末の保持者の進行方向前方を撮像範囲とする撮像手段と、
前記撮像手段からの出力データに対する処理に基づいて、前記撮像手段が取得する被写体像中に人の顔が含まれることを検知する顔認識処理手段と、
前記携帯端末が移動している状況で、前記アプリケーションの実行に伴って前記表示手段に像表示されていることを検知し、前記顔認識処理手段に対して、顔認識処理の実行を指示する制御手段と、
前記制御手段の前記指示に基づく前記顔認識処理手段による前記人の顔の検知に応じて、前記保持者の進行方向前方に人がいることを前記保持者に報知する報知手段と、
を備える携帯端末。
A portable terminal comprising display means for displaying an image to be displayed in accordance with execution of an application,
An imaging means having an imaging range in front of the traveling direction of the holder of the mobile terminal;
Face recognition processing means for detecting that a human face is included in a subject image acquired by the imaging means based on processing on output data from the imaging means;
Control that detects that an image is displayed on the display unit as the application is executed while the mobile terminal is moving, and instructs the face recognition processing unit to execute face recognition processing Means,
Informing means for informing the holder that there is a person ahead in the direction of travel of the holder in response to detection of the person's face by the face recognition processing means based on the instruction of the control means;
A mobile terminal comprising:
前記撮像手段は、前記表示手段が配置されている面と反対側の面に配置されていることを特徴とする請求項1に記載の携帯端末。   The mobile terminal according to claim 1, wherein the imaging unit is disposed on a surface opposite to a surface on which the display unit is disposed. 前記携帯端末が移動していることを示す情報を検出する移動検出手段を更に備え、
前記制御手段は、前記移動検出手段が検出した情報に基づいて、前記携帯端末が移動していることを検知する請求項1又は2に記載の携帯端末。
A movement detecting means for detecting information indicating that the portable terminal is moving;
The mobile terminal according to claim 1, wherein the control unit detects that the mobile terminal is moving based on information detected by the movement detection unit.
前記移動検出手段は、加速度センサを含み、
前記制御手段は、前記加速度センサを用いて検出された振動の周期に基づいて、前記携帯端末の移動を検知し、前記加速度センサを用いて検出された前記振動の周期が短い程、短い間隔で前記撮像手段に対して撮像処理の実行を指示する請求項3に記載の携帯端末。
The movement detection means includes an acceleration sensor,
The control means detects the movement of the mobile terminal based on a vibration cycle detected using the acceleration sensor, and the shorter the vibration cycle detected using the acceleration sensor, the shorter the interval. The portable terminal according to claim 3, wherein an instruction to execute an imaging process is given to the imaging unit.
前記加速度センサを用いて検出される前記振動の周期と、前記撮像手段の撮像間隔とが対応付けられて格納されたメモリを更に備え、
前記制御手段は、前記メモリを参照し、前記加速度センサの検出結果に応じた前記撮像間隔で、前記撮像手段に対して撮像処理を指示する請求項4に記載の携帯端末。
A memory in which the period of the vibration detected using the acceleration sensor and the imaging interval of the imaging unit are stored in association with each other;
The portable terminal according to claim 4, wherein the control unit refers to the memory and instructs the imaging unit to perform an imaging process at the imaging interval corresponding to a detection result of the acceleration sensor.
前記制御手段は、前記加速度センサを用いて検出された振動の周期が、第1の閾値以上か否かを判定し、前記振動の周期が前記第1の閾値以上の場合、前記撮像手段を待機状態にさせる請求項4又は5に記載の携帯端末。   The control means determines whether or not the period of vibration detected using the acceleration sensor is equal to or greater than a first threshold, and waits for the imaging means when the period of vibration is equal to or greater than the first threshold. The mobile terminal according to claim 4 or 5, which is put into a state. 前記制御手段は、前記加速度センサを用いて検出された振動の周期が、第2の閾値未満か否かを判定し、前記振動の周期が前記第2の閾値未満の場合、前記撮像手段を待機状態にさせる請求項4又は5に記載の携帯端末。   The control means determines whether or not a vibration cycle detected using the acceleration sensor is less than a second threshold value, and waits for the imaging means when the vibration cycle is less than the second threshold value. The mobile terminal according to claim 4 or 5, which is put into a state. 前記移動検出手段は、GPS信号を受信するGPS受信装置を含み、
前記制御手段は、前記GPS信号から特定される前記携帯端末の位置情報に基づいて、前記携帯端末の移動を検知すると共に、当該携帯端末の移動速度を算出し、前記携帯端末の移動速度が、所定の速度よりも速い場合、前記撮像手段を待機状態にさせる請求項3乃至7のいずれか一項に記載の携帯端末。
The movement detection means includes a GPS receiver that receives GPS signals,
The control means detects the movement of the portable terminal based on the position information of the portable terminal specified from the GPS signal, calculates the movement speed of the portable terminal, and the movement speed of the portable terminal is The portable terminal according to any one of claims 3 to 7, wherein when the speed is higher than a predetermined speed, the imaging unit is placed in a standby state.
前記制御手段は、前記撮像手段の撮像処理中に、前記表示手段にプレビュー画面を表示させない請求項1乃至8のいずれか一項に記載の携帯端末。   The portable terminal according to any one of claims 1 to 8, wherein the control unit does not display a preview screen on the display unit during an imaging process of the imaging unit. アプリケーションの実行に伴って表示されるべき画像を表示する表示手段と、携帯端末の保持者の進行方向前方を撮像範囲とする撮像手段と、備える携帯端末の制御方法であって、
前記携帯端末が移動している状況で、前記アプリケーションの実行に伴って前記表示手段に像表示されていることを検知し、
前記撮像手段が取得する被写体像中に人の顔が含まれることを検知し、
前記人の顔の検知に応じて、前記保持者の進行方向前方に人がいることを前記保持者に報知する携帯端末の制御方法。
A display method for displaying an image to be displayed in accordance with execution of an application, an image pickup unit having an image pickup range in front of a traveling direction of a holder of the mobile terminal, and a control method for a mobile terminal comprising:
In the situation where the mobile terminal is moving, it is detected that an image is displayed on the display means as the application is executed,
Detecting that a human face is included in the subject image acquired by the imaging means;
A method for controlling a portable terminal that notifies the holder that a person is in front of the holder in the traveling direction in response to detection of the face of the person.
JP2011028540A 2011-02-14 2011-02-14 Portable terminal and control method therefor Withdrawn JP2012169824A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011028540A JP2012169824A (en) 2011-02-14 2011-02-14 Portable terminal and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011028540A JP2012169824A (en) 2011-02-14 2011-02-14 Portable terminal and control method therefor

Publications (1)

Publication Number Publication Date
JP2012169824A true JP2012169824A (en) 2012-09-06

Family

ID=46973538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011028540A Withdrawn JP2012169824A (en) 2011-02-14 2011-02-14 Portable terminal and control method therefor

Country Status (1)

Country Link
JP (1) JP2012169824A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053055A (en) * 2018-09-26 2020-04-02 ネクストブイピーユー (シャンハイ) カンパニー リミテッド Tracking method for smart glass and tracking device therefor, smart glass and storage medium
US10860165B2 (en) 2018-09-26 2020-12-08 NextVPU (Shanghai) Co., Ltd. Tracking method and apparatus for smart glasses, smart glasses and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053055A (en) * 2018-09-26 2020-04-02 ネクストブイピーユー (シャンハイ) カンパニー リミテッド Tracking method for smart glass and tracking device therefor, smart glass and storage medium
US10860165B2 (en) 2018-09-26 2020-12-08 NextVPU (Shanghai) Co., Ltd. Tracking method and apparatus for smart glasses, smart glasses and storage medium
KR20200141517A (en) * 2018-09-26 2020-12-18 넥스트브이피유 (상하이) 코포레이트 리미티드 Smart glasses tracking method and device, and smart glasses and storage media
KR102242719B1 (en) * 2018-09-26 2021-04-23 넥스트브이피유 (상하이) 코포레이트 리미티드 Smart glasses tracking method and device, and smart glasses and storage media

Similar Documents

Publication Publication Date Title
KR102006562B1 (en) METHOD AND DEVICE FOR MESSAGE PROCESSING
KR102171616B1 (en) Method and device for preventing incorrect contact of terminal
US9906406B2 (en) Alerting method and mobile terminal
US10063760B2 (en) Photographing control methods and devices
JP4058455B1 (en) Mobile device
RU2617679C2 (en) Method and device for a terminal equipment protection and the terminal equipment
EP2683204A1 (en) Method and apparatus for controlling sleep mode in portable terminal
TWI468003B (en) Event notification method, portable device with event notification function, and computer program product for event notification
JP5750068B2 (en) Mobile terminal device, mobile terminal device operation control method, and mobile terminal device operation control program
CN106506804B (en) Notification message reminding method and mobile terminal
CN103873689A (en) Method and device for safety reminding
KR101321273B1 (en) Mobile terminal and control method thereof
KR20160037326A (en) Mobile communication terminal for warning dangerous situation and operation method thereof
US20150158426A1 (en) Apparatus, control method thereof and computer-readable storage medium
US20140228073A1 (en) Automatic presentation of an image from a camera responsive to detection of a particular type of movement of a user device
JP2014239323A (en) Information processing apparatus and report control method
JP2006174288A (en) Mobile terminal apparatus, collision avoidance method, collision avoidance program and recording medium
EP3901754A1 (en) Method and device for displaying application, and storage medium
JP2015012496A (en) Mobile terminal, control method therefor and computer program
CN105708609A (en) User snore reminding method, device and system
CN105630141A (en) Information browsing reminding method and device
JP2014216737A (en) Portable terminal device, program, and portable terminal device control method
EP3163855A2 (en) Method and device for making call
JP2012169824A (en) Portable terminal and control method therefor
CN106527703B (en) Message reminding method and device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513