JP2011205475A - Portable electronic device - Google Patents

Portable electronic device Download PDF

Info

Publication number
JP2011205475A
JP2011205475A JP2010071786A JP2010071786A JP2011205475A JP 2011205475 A JP2011205475 A JP 2011205475A JP 2010071786 A JP2010071786 A JP 2010071786A JP 2010071786 A JP2010071786 A JP 2010071786A JP 2011205475 A JP2011205475 A JP 2011205475A
Authority
JP
Japan
Prior art keywords
facial expression
unit
incoming call
recognized
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010071786A
Other languages
Japanese (ja)
Inventor
Mitsuyo Morobishi
充代 諸菱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010071786A priority Critical patent/JP2011205475A/en
Publication of JP2011205475A publication Critical patent/JP2011205475A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a portable electronic device which uses a simple configuration to more preferably respond to an incoming call, depending on the party on the other end.SOLUTION: A cellular phone 1 includes: an imaging controller 462 which, when receiving an incoming call from a communication part 42, activates and causes a main camera 33 or a sub-camera 23 to capture an image of a subject; a face recognition part 464 which recognizes a human face from the captured image data of the subject; a facial expression recognition part 465 which recognizes a facial expression of the recognized face; and a conversation controller 466 which responds in a different manner to an incoming call received from the communication part 42 based on the recognized facial expression.

Description

本発明は、撮像部を有する携帯電子機器に関する。   The present invention relates to a portable electronic device having an imaging unit.

近年、携帯電話機等の携帯電子機器は、広く普及しており、多様な状況において通話が可能となっている。一方で、携帯電子機器は、ユーザが通話を望まない状況においても着信を受け付けてしまう場合もある。そこで、ユーザが着信に対して通話するか否かを判断することができる携帯電子機器が提案されている(例えば、特許文献1参照)。   In recent years, portable electronic devices such as mobile phones have become widespread and can make calls in various situations. On the other hand, the mobile electronic device may accept an incoming call even in a situation where the user does not want to talk. In view of this, a portable electronic device that can determine whether or not a user makes a call in response to an incoming call has been proposed (see, for example, Patent Document 1).

特許文献1には、着信を報知する情報と共に、相手先の重要度を示す情報を表示部に表示し、表示された情報をユーザが視認することにより、着信に対して通話するか否かをユーザが判断することができる携帯電子機器が開示されている。   In Patent Literature 1, information indicating the importance of the other party is displayed on the display unit together with information for notifying an incoming call, and whether or not a call is made with respect to the incoming call when the user visually recognizes the displayed information. A portable electronic device that can be determined by a user is disclosed.

特開2003−218995号公報Japanese Patent Laid-Open No. 2003-218995

しかし、特許文献1に記載の携帯電子機器では、相手先の重要度を示す情報を作成し、着信を報知する情報と共に、相手先の重要度を示す情報を送信するための構成を新たに追加する必要があった。   However, in the portable electronic device described in Patent Literature 1, information indicating the importance level of the other party is created, and a configuration for transmitting information indicating the importance level of the other party is added together with information for notifying incoming calls. There was a need to do.

そこで、本発明は、簡易な構成を用いて、相手先に応じて着信に対する応答をより好適に行うことができる携帯電子機器を提供することを目的とする。   In view of the above, an object of the present invention is to provide a portable electronic device that can more suitably respond to an incoming call according to a destination using a simple configuration.

本発明に係る携帯電子機器は、上記課題を解決するために、撮像部と、着信に係る信号を受け付ける通信部と、前記通信部により着信を受け付けた相手先に関する情報を報知する報知部と、前記通信部により着信を受け付けると、前記撮像部により被写体を撮像させる撮像制御部と、前記撮像制御部の制御に従って撮像された前記被写体の画像データにおける人物の顔から当該顔の表情を認識する表情認識部と、前記表情認識部により認識された前記顔の表情に基づいて前記通信部により受け付けた前記着信に対して異なる態様で応答する通話制御部とを備える。   In order to solve the above problems, a portable electronic device according to the present invention includes an imaging unit, a communication unit that receives a signal related to an incoming call, a notification unit that notifies information about a destination that has received an incoming call by the communication unit, When an incoming call is received by the communication unit, an imaging control unit that captures an image of the subject by the imaging unit, and an expression that recognizes the facial expression from the face of the person in the image data of the subject imaged according to the control of the imaging control unit A recognition unit; and a call control unit that responds in a different manner to the incoming call received by the communication unit based on the facial expression recognized by the facial expression recognition unit.

また、前記携帯電子機器は、前記表情認識部により認識された前記顔の表情が第1表情であるか否かを判定する表情判定部を更に備え、前記通話制御部は、前記表情判定部により前記顔の表情が前記第1表情であると判定された場合には、前記通信部により受け付けた前記着信に対して予め設定された第1音声で応答し、前記表情判定部により前記顔の表情が前記第1表情ではないと判定された場合には、前記通信部により受け付けた前記着信に対して通話を行うことが好ましい。   The portable electronic device further includes a facial expression determination unit that determines whether the facial expression recognized by the facial expression recognition unit is a first facial expression, and the call control unit includes the facial expression determination unit. When it is determined that the facial expression is the first facial expression, it responds to the incoming call received by the communication unit with a preset first voice, and the facial expression determining unit responds with the facial expression. When it is determined that is not the first facial expression, it is preferable to make a call with respect to the incoming call received by the communication unit.

また、前記通話は、ハンズフリー通話であることが好ましい。   The call is preferably a hands-free call.

また、前記表情判定部は、前記表情認識部により認識された前記顔の表情が第2表情であるか否かを判定し、前記通話制御部は、前記表情判定部により前記顔の表情が前記第2表情であると判定された場合には、前記通信部により受け付けた前記着信に対して予め設定された第2音声で応答することが好ましい。   The facial expression determination unit determines whether the facial expression recognized by the facial expression recognition unit is a second facial expression, and the call control unit determines whether the facial expression is the facial expression by the facial expression determination unit. When it is determined that the expression is the second facial expression, it is preferable to respond to the incoming call received by the communication unit with a preset second voice.

また、前記携帯電子機器は、前記通信部により着信を受け付けると、前記相手先に関する情報を前記報知部により第1態様で報知させ、前記表情認識部により前記顔の表情を認識すると、前記相手先に関する情報を前記報知部により第2態様で報知させる報知制御部を備えることが好ましい。   In addition, when the portable electronic device receives an incoming call by the communication unit, the portable electronic device causes the notification unit to notify the information on the partner in the first mode, and recognizes the facial expression by the facial expression recognition unit. It is preferable to provide a notification control unit that causes the notification unit to notify the information regarding the second aspect.

また、前記表情認識部は、前記撮像部により撮像された前記画像データから前記顔の表情と共に、人物の動作を認識し、前記表情判定部は、前記表情認識部により認識された前記顔の表情が第3表情であり、かつ、前記人物の動作が所定動作であるか否かを判定し、前記通話制御部は、前記顔の表情が第3表情であり、かつ、前記人物の動作が前記所定動作であると前記表情判定部により判定された場合には、前記通信部により受け付けた前記着信に対して前記第2音声で応答し、前記顔の表情が第3表情ではない、又は前記人物の動作が所定の動作ではないと前記表情判定部により判定された場合には、前記通信部により受け付けた前記着信に対して通話を行うことが好ましい。   The facial expression recognition unit recognizes the movement of the person along with the facial expression from the image data captured by the imaging unit, and the facial expression determination unit recognizes the facial expression recognized by the facial expression recognition unit. Is a third facial expression, and whether or not the action of the person is a predetermined action, the call control unit determines that the facial expression is a third facial expression and the action of the person is the If it is determined by the facial expression determination unit that the movement is a predetermined action, it responds with the second voice to the incoming call received by the communication unit, and the facial expression is not the third facial expression, or the person When the facial expression determination unit determines that the operation is not a predetermined operation, it is preferable to make a call with respect to the incoming call received by the communication unit.

また、前記通話は、ハンズフリー通話であることが好ましい。   The call is preferably a hands-free call.

また、前記携帯電子機器は、前記表情認識部により前記顔の表情が認識された回数をカウントするカウント部と、前記カウント部によりカウントされた前記回数を、前記顔の表情ごとに記憶する記憶部と、第1表情が認識された回数が第1閾値を超えるか否かを判定する第1閾値判定部と、第2表情が認識された回数が第2閾値を超えるか否かを判定する第2閾値判定部とを備え、前記通話制御部は、前記第1表情が認識された回数が前記第1閾値を超える場合には、前記通信部により受け付けた前記着信に対して予め設定された第2音声で応答することが好ましい。   The portable electronic device includes a count unit that counts the number of times the facial expression is recognized by the facial expression recognition unit, and a storage unit that stores the number of times counted by the count unit for each facial expression. And a first threshold value determination unit that determines whether or not the number of times the first facial expression is recognized exceeds a first threshold value, and a first threshold value that determines whether or not the number of times the second facial expression is recognized exceeds a second threshold value. A second threshold value determination unit, wherein the call control unit is configured to set a preset value for the incoming call received by the communication unit when the number of times the first facial expression is recognized exceeds the first threshold value. It is preferable to respond with two voices.

また、前記通話制御部は、前記第2表情が認識された回数が前記第2閾値を超える場合には、前記通信部により受け付けた前記着信に対してハンズフリー通話を行うことが好ましい。   The call control unit preferably performs a hands-free call for the incoming call received by the communication unit when the number of times the second facial expression is recognized exceeds the second threshold.

また、前記通話制御部は、前記第2表情が認識された回数が前記第2閾値を超えず、前記第1表情が認識された回数が前記第1閾値を超えない場合には、前記通信部により受け付けた前記着信に対して予め設定された第1音声で応答することが好ましい。   In addition, the call control unit, when the number of times the second facial expression is recognized does not exceed the second threshold and the number of times the first facial expression is recognized does not exceed the first threshold, It is preferable to respond with the first voice set in advance to the incoming call received by.

本発明に係る携帯電子機器は、上記課題を解決するために、撮像部と、着信を受け付ける通信部と、前記通信部により着信を受け付けた相手先に関する情報を報知する報知部と、着信を受け付けると、被写体を撮像させ、撮像した前記被写体の画像データから人物の顔を認識し、認識した前記顔の表情を認識し、認識した前記顔の表情に基づいて、受け付けた前記着信に対して異なる態様で応答する制御部とを備える。   In order to solve the above problems, a portable electronic device according to the present invention receives an image pickup unit, a communication unit that receives an incoming call, a notification unit that notifies information about a destination that has received an incoming call by the communication unit, and an incoming call And picking up the subject, recognizing the face of the person from the image data of the picked up subject, recognizing the recognized facial expression, and differing from the received incoming call based on the recognized facial expression And a control unit that responds in a manner.

本発明によれば、簡易な構成を用いて、相手先に応じて着信に対する応答をより好適に行うことができる携帯電子機器を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the portable electronic device which can perform the response with respect to an incoming call more suitably according to the other party can be provided using a simple structure.

携帯電話機を開いた状態における外観斜視図である。It is an external appearance perspective view in the state where a cellular phone was opened. 携帯電話機を折畳んだ状態の斜視図である。It is a perspective view of the state which folded the mobile phone. 第1実施形態に係る携帯電話機の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the mobile telephone which concerns on 1st Embodiment. 第1実施形態に係る制御部によって実行される処理について示すフローチャートである。It is a flowchart shown about the process performed by the control part which concerns on 1st Embodiment. 第2実施形態に係る制御部によって実行される処理について示すフローチャートである。It is a flowchart shown about the process performed by the control part which concerns on 2nd Embodiment. 第3実施形態に係る制御部によって実行される処理について示すフローチャートである。It is a flowchart shown about the process performed by the control part which concerns on 3rd Embodiment. 表情認識部により認識される人物の動作について示す図である。It is a figure shown about the operation | movement of the person recognized by the facial expression recognition part. 第4実施形態に係る制御部によって実行される処理について示すフローチャートである。It is a flowchart shown about the process performed by the control part which concerns on 4th Embodiment. 第5実施形態に係る携帯電話機の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the mobile telephone which concerns on 5th Embodiment. 第5実施形態に係るアドレス帳の構成について示す図である。It is a figure shown about the structure of the address book which concerns on 5th Embodiment. 第5実施形態に係る制御部によって実行される処理について示すフローチャートである。It is a flowchart shown about the process performed by the control part which concerns on 5th Embodiment. 表情カウント処理について示すフローチャートである。It is a flowchart shown about a facial expression count process. 表情カウント処理の他の形態について示すフローチャートである。It is a flowchart shown about the other form of an expression count process.

<第1実施形態>
以下、図面を参照して本発明を実施するための最良の形態を説明する。
図1により、携帯電子機器としての携帯電話機1における基本構造を説明する。図1は、携帯電話機1を開いた状態における外観斜視図を示す。
<First Embodiment>
The best mode for carrying out the present invention will be described below with reference to the drawings.
With reference to FIG. 1, a basic structure of a mobile phone 1 as a mobile electronic device will be described. FIG. 1 shows an external perspective view of the cellular phone 1 in an opened state.

図1に示すように、携帯電話機1は、筐体としての操作部側筐体2と、表示部側筐体3と、を備える。操作部側筐体2と表示部側筐体3とは、ヒンジ機構を備える連結部4を介して開閉可能に連結される。具体的には、操作部側筐体2の上端部と表示部側筐体3の下端部とは、連結部4を介して連結される。これにより、携帯電話機1は、ヒンジ機構を介して連結された操作部側筐体2と表示部側筐体3とを相対的に動かすことが可能に構成される。つまり、携帯電話機1は、操作部側筐体2と表示部側筐体3とが開いた状態(開状態)と、操作部側筐体2と表示部側筐体3とが折り畳まれた状態(閉状態)とにすることができる。ここで、閉状態とは、両筐体が互いに重なるように配置された状態であり、開状態とは、両筐体が互いに重ならないように配置された状態をいう。   As shown in FIG. 1, the mobile phone 1 includes an operation unit side body 2 and a display unit side body 3 as a housing. The operation unit side body 2 and the display unit side body 3 are connected so as to be openable and closable via a connecting part 4 having a hinge mechanism. Specifically, the upper end portion of the operation unit side body 2 and the lower end portion of the display unit side body 3 are connected via a connecting portion 4. Thereby, the mobile phone 1 is configured to be able to relatively move the operation unit side body 2 and the display unit side body 3 connected via the hinge mechanism. That is, in the mobile phone 1, the operation unit side body 2 and the display unit side body 3 are opened (open state), and the operation unit side body 2 and the display unit side body 3 are folded. (Closed state). Here, the closed state is a state in which both housings are arranged so as to overlap each other, and the open state is a state in which both housings are arranged so as not to overlap each other.

操作部側筐体2は、外面がフロントケース2aとリアケース2bとにより構成される。操作部側筐体2は、フロントケース2a側に、操作キー群11と、携帯電話機1の使用者が通話時に発した音声が入力されるマイクとしてのマイク12とがそれぞれ露出するように構成される。   The outer surface of the operation unit side body 2 includes a front case 2a and a rear case 2b. The operation unit side body 2 is configured such that an operation key group 11 and a microphone 12 as a microphone to which a voice uttered by a user of the mobile phone 1 is input are exposed on the front case 2a side. The

操作キー群11は、各種設定や電話帳機能やメール機能等の各種機能を作動させるための機能設定操作キー13と、電話番号の数字やメール等の文字等を入力するための入力操作キー14と、各種操作における決定や上下左右方向のスクロール等を行う操作部材としての決定操作キー15とにより構成される。操作キー群11を構成する各キーそれぞれには、操作部側筐体2と表示部側筐体3との開閉状態や各種モード、或いは起動されているアプリケーション等の種類に応じて所定の機能が割り当てられる(キー・アサイン)。そして、使用者が各キーを押圧することにより、各キーに割り当てられている機能に応じた動作が実行される。   The operation key group 11 includes a function setting operation key 13 for operating various functions such as various settings, a telephone book function, and a mail function, and an input operation key 14 for inputting a telephone number and characters such as mail. And a determination operation key 15 as an operation member for performing determination in various operations, scrolling in the vertical and horizontal directions, and the like. Each key constituting the operation key group 11 has a predetermined function according to the open / close state of the operation unit side body 2 and the display unit side body 3, various modes, or the type of the activated application. Assigned (key assignment). Then, when the user presses each key, an operation corresponding to the function assigned to each key is executed.

マイク12は、操作部側筐体2の長手方向における連結部4側と反対の外端部側に配置される。つまり、マイク12は、携帯電話機1が開状態において一方の外端部側に配置される。   The microphone 12 is disposed on the outer end side opposite to the connecting portion 4 side in the longitudinal direction of the operation unit side body 2. That is, the microphone 12 is disposed on one outer end side when the mobile phone 1 is in the open state.

操作部側筐体2における一方側の側面には、外部機器(例えば、ホスト装置)と通信を行うためのインターフェース(図示せず)が配置される。操作部側筐体2の他方側の側面には、所定の機能が割り当てられているサイドキーと、外部メモリの挿入及び取り出しが行われるインターフェース(図示せず)とが配置される。インターフェースは、キャップにより覆われている。各インターフェースは、不使用時にはキャップにより覆われる。   An interface (not shown) for communicating with an external device (for example, a host device) is disposed on one side surface of the operation unit side body 2. A side key to which a predetermined function is assigned and an interface (not shown) through which an external memory is inserted and removed are arranged on the other side surface of the operation unit side body 2. The interface is covered with a cap. Each interface is covered with a cap when not in use.

表示部側筐体3は、外面がフロントパネル3aと、フロントケース3bと、リアケース3cと、リアパネル3dとにより構成される。表示部側筐体3には、各種情報を表示するためのメインディスプレイ21と、通話の相手側の音声を出力するレシーバとしてのスピーカ22と、被写体を撮像するサブカメラ23とが外部に露出するように配置される。
メインディスプレイ21は、液晶パネルと、この液晶パネルを駆動する駆動回路と、この液晶パネルの背面側から光を照射するバックライト等の光源部とから構成される。
The outer surface of the display unit side body 3 includes a front panel 3a, a front case 3b, a rear case 3c, and a rear panel 3d. In the display unit side body 3, a main display 21 for displaying various information, a speaker 22 as a receiver for outputting the voice of the other party of the call, and a sub camera 23 for imaging a subject are exposed to the outside. Are arranged as follows.
The main display 21 includes a liquid crystal panel, a drive circuit that drives the liquid crystal panel, and a light source unit such as a backlight that emits light from the back side of the liquid crystal panel.

また、図2は、携帯電話機1を折畳んだ状態の斜視図を示す図である。操作部側筐体2は、一方の側面に、所定の機能が割り当てられているサイドキー30と、外部メモリの挿入及び取り出しが行われるインターフェース用のキャップ31と、を備えている。また、表示部側筐体3は、また、表示部側筐体3のリアパネル3d表面には、被写体を撮像するメインカメラ33と、被写体に光を照射するライト34と、各種情報を表示するサブディスプレイ35と、通話や電子メールの着信等を報知するLED36と、が露出して形成されている。   FIG. 2 is a perspective view of the cellular phone 1 in a folded state. The operation unit side body 2 includes, on one side surface, a side key 30 to which a predetermined function is assigned and an interface cap 31 in which external memory is inserted and removed. Further, the display unit side body 3 has a main camera 33 that captures an image of a subject, a light 34 that irradiates the subject with light, and a sub that displays various information on the surface of the rear panel 3d of the display unit side body 3. A display 35 and an LED 36 for notifying an incoming call or e-mail are formed.

図3は、第1実施形態に係る携帯電話機1の機能構成を示すブロック図である。
図3に示すように、携帯電話機1は、操作キー群11と、マイク12と、メインディスプレイ21と、スピーカ22と、サブカメラ23と、メインカメラ33と、サブディスプレイ35と、LED36と、通信部42と、バイブレータ43と、記憶部44と、タイマ45と、制御部46とを備える。
FIG. 3 is a block diagram showing a functional configuration of the mobile phone 1 according to the first embodiment.
As shown in FIG. 3, the mobile phone 1 includes an operation key group 11, a microphone 12, a main display 21, a speaker 22, a sub camera 23, a main camera 33, a sub display 35, an LED 36, and communication. A unit 42, a vibrator 43, a storage unit 44, a timer 45, and a control unit 46 are provided.

マイク12及びスピーカ22は、制御部46の制御に従って動作する。例えば、ハンズフリー通話を行う際には、制御部46は、通常の通話時よりもマイク12の感度が高くなるように制御し、通常の通話時よりもスピーカ22の音量を大きくするように制御する。   The microphone 12 and the speaker 22 operate according to the control of the control unit 46. For example, when performing a hands-free call, the control unit 46 performs control so that the sensitivity of the microphone 12 is higher than in a normal call, and increases the volume of the speaker 22 than in a normal call. To do.

メインカメラ33及びサブカメラ23は、レンズ、CCD(Charge Coupled Device)、駆動機構、DSP(Digital Signal Processor)等を含むカメラモジュールを備える。メインカメラ33及びサブカメラ23は、被写体の画像を撮像して、画像データを生成する。そして、メインカメラ33及びサブカメラ23は、生成した画像データを制御部46に出力する。   The main camera 33 and the sub camera 23 include a camera module including a lens, a CCD (Charge Coupled Device), a drive mechanism, a DSP (Digital Signal Processor), and the like. The main camera 33 and the sub camera 23 capture an image of a subject and generate image data. Then, the main camera 33 and the sub camera 23 output the generated image data to the control unit 46.

通信部42は、メインアンテナ40と、RF回路部41とを備え、所定の通信先と通信を行う。通信部42が通信を行う通信先としては、携帯電話機1と電話やメールの送受信を行う外部の端末装置や、携帯電話機1がインターネットの接続を行う外部のWebサーバ等の外部装置が挙げられる。   The communication unit 42 includes a main antenna 40 and an RF circuit unit 41, and communicates with a predetermined communication destination. Examples of communication destinations with which the communication unit 42 communicates include an external terminal device that transmits / receives telephones and mails to / from the mobile phone 1, and an external device such as an external Web server that connects the mobile phone 1 to the Internet.

RF回路部41は、メインアンテナ40によって受信した信号を復調処理し、処理後の信号を制御部46に供給する。また、RF回路部41は、制御部46から供給された信号を変調処理し、メインアンテナ40を介して外部装置(基地局)に送信する。   The RF circuit unit 41 demodulates the signal received by the main antenna 40 and supplies the processed signal to the control unit 46. In addition, the RF circuit unit 41 modulates the signal supplied from the control unit 46 and transmits it to the external apparatus (base station) via the main antenna 40.

メインディスプレイ21及びサブディスプレイ35は、LCD(Liquid Crystal Display)や有機EL(Electoro Luminescence)によって構成され、制御部46の制御に従って、各種情報に基づく画像や動画等を表示する。   The main display 21 and the sub display 35 are configured by an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence), and display images, moving images, and the like based on various types of information under the control of the control unit 46.

バイブレータ43は、操作部側筐体2の内部に取り付けられ、制御部46の制御に従って振動を発生させる。このバイブレータ43が発生させる振動が操作部側筐体2に伝達されることにより、携帯電話機1は振動する。   The vibrator 43 is attached to the inside of the operation unit side body 2 and generates vibrations under the control of the control unit 46. When the vibration generated by the vibrator 43 is transmitted to the operation unit side body 2, the mobile phone 1 vibrates.

記憶部44は、例えば、不揮発性メモリで構成される。記憶部44は、ワーキングメモリを含み、制御部46による演算処理に利用される。また、記憶部44には、オペレーティングシステム(OS)、電話番号、メールアドレス等が記憶されるアドレス帳441、複数のアプリケーションプログラム、各種データファイル等が記憶されている。また、記憶部44は、着脱可能な外部メモリを兼ねていてもよい。   The storage unit 44 is composed of, for example, a nonvolatile memory. The storage unit 44 includes a working memory and is used for arithmetic processing by the control unit 46. In addition, the storage unit 44 stores an address book 441 that stores an operating system (OS), a telephone number, a mail address, and the like, a plurality of application programs, various data files, and the like. The storage unit 44 may also serve as a removable external memory.

タイマ45は、制御部46からの指示に基づいて時間を計測し、計測した時間を制御部46に通知する。
制御部46は、携帯電話機1の全体を制御しており、中央処理装置(CPU)等により構成される。
また、制御部46は、報知制御部461と、撮像制御部462と、時間計測部463と、顔認識部464と、表情認識部465と、通話制御部466と、表情判定部467とを備える。
The timer 45 measures time based on an instruction from the control unit 46 and notifies the control unit 46 of the measured time.
The control unit 46 controls the entire mobile phone 1 and includes a central processing unit (CPU) and the like.
The control unit 46 also includes a notification control unit 461, an imaging control unit 462, a time measurement unit 463, a face recognition unit 464, a facial expression recognition unit 465, a call control unit 466, and a facial expression determination unit 467. .

次に、着信時における制御部46による処理について説明する。
報知制御部461は、通信部42により着信に係る信号を受け付けると、記憶部44のアドレス帳441を参照して、着信の相手先に関する情報をメインディスプレイ21又はサブディスプレイ35に表示(報知)する。更に、報知制御部461は、LED36を点灯させたり、バイブレータ43を振動させたり、スピーカ22から音を出力したりして着信を報知する。
ここで、着信の相手先に関する情報としては、例えば、アドレス帳441において、着信された電話番号と関連付けられた名称や、画像等である。
Next, processing by the control unit 46 at the time of incoming call will be described.
When the communication control unit 461 receives a signal related to an incoming call by the communication unit 42, the notification control unit 461 refers to the address book 441 in the storage unit 44 and displays (notifies) information on the destination of the incoming call on the main display 21 or the sub display 35. . Further, the notification control unit 461 notifies an incoming call by turning on the LED 36, vibrating the vibrator 43, or outputting a sound from the speaker 22.
Here, the information regarding the destination of the incoming call is, for example, a name or an image associated with the incoming telephone number in the address book 441.

撮像制御部462は、通信部42により着信を受け付けると、メインカメラ33又はサブカメラ23を起動させる。そして、撮像制御部462は、メインカメラ33又はサブカメラ23により被写体(例えば、ユーザの顔)を撮像させる。
ここで、撮像制御部462は、携帯電話機1が閉状態である場合には、メインカメラ33により被写体を撮像させる。一方、撮像制御部462は、携帯電話機1が開状態である場合には、サブカメラ23により被写体を撮像させる。
The imaging control unit 462 activates the main camera 33 or the sub camera 23 when receiving an incoming call by the communication unit 42. The imaging control unit 462 causes the main camera 33 or the sub camera 23 to image a subject (for example, a user's face).
Here, the imaging control unit 462 causes the main camera 33 to image the subject when the mobile phone 1 is in the closed state. On the other hand, when the mobile phone 1 is in the open state, the imaging control unit 462 causes the sub camera 23 to image the subject.

時間計測部463は、所定のタイミングでタイマ45による時間の計測を開始させる。また、時間計測部463は、時間の計測を開始した後に、所定時間が経過した後に時間の計測を終了する。時間計測部463の動作については、図4において詳述する。   The time measuring unit 463 causes the timer 45 to start measuring time at a predetermined timing. In addition, the time measuring unit 463 ends the time measurement after a predetermined time has elapsed after starting the time measurement. The operation of the time measuring unit 463 will be described in detail with reference to FIG.

顔認識部464は、撮像制御部462の制御に従って、メインカメラ33又はサブカメラ23により撮像された被写体の画像データから人物の顔を認識する。顔認識部464は、例えば、画像データにおける眉、目、口等の特徴点を検出することで画像データから顔領域を認識する。なお、顔認識部464による顔の認識方法は、上述した方法に限らず、既知の他の方法を用いることができる。   The face recognition unit 464 recognizes the face of a person from the image data of the subject imaged by the main camera 33 or the sub camera 23 according to the control of the imaging control unit 462. For example, the face recognition unit 464 recognizes a face region from image data by detecting feature points such as eyebrows, eyes, and mouth in the image data. Note that the face recognition method by the face recognition unit 464 is not limited to the above-described method, and other known methods can be used.

表情認識部465は、顔認識部464により認識された人物の顔の表情を認識する。表情認識部465は、例えば、画像データの顔領域における眉、目、口等の特徴点を検出する。そして、表情認識部465は、検出したこれらの特徴点の相対位置の変化を求めることにより、表情を認識する。なお、表情認識部465による顔の表情の認識方法は、上述した方法に限らず、既知の他の方法を用いることができる。   The facial expression recognition unit 465 recognizes the facial expression of the person recognized by the face recognition unit 464. The facial expression recognition unit 465 detects, for example, feature points such as eyebrows, eyes, and mouth in the face area of the image data. Then, the facial expression recognition unit 465 recognizes the facial expression by obtaining a change in the relative position of the detected feature points. Note that the facial expression recognition method by the facial expression recognition unit 465 is not limited to the above-described method, and other known methods can be used.

通話制御部466は、表情認識部465により認識された顔の表情に基づいて、通信部42により受け付けた着信に対して、顔の表情ごとに異なる態様で応答する。   The call control unit 466 responds to the incoming call received by the communication unit 42 in a different manner for each facial expression based on the facial expression recognized by the facial expression recognition unit 465.

このように第1実施形態によれば、携帯電話機1は、メインカメラ33又はサブカメラ23により撮像された顔の表情に基づいて、相手先に対する着信の応答を異ならせることができる。また、携帯電話機1は、メインカメラ33、サブカメラ23、制御部46等の既存の構成を用いて上述した制御を行う。つまり、携帯電話機1は、簡易な構成を用いて、相手先に応じた応答をより好適に行うことができる。   As described above, according to the first embodiment, the mobile phone 1 can vary the incoming call response to the other party based on the facial expression imaged by the main camera 33 or the sub camera 23. In addition, the mobile phone 1 performs the above-described control using existing configurations such as the main camera 33, the sub camera 23, and the control unit 46. That is, the mobile phone 1 can more suitably perform a response according to the other party using a simple configuration.

ここで、通話制御部466による応答の具体例について説明する。
表情判定部467は、上述した表情認識部465により認識された顔の表情が第1表情(例えば、怒った表情)であるか否かを判定する。
Here, a specific example of a response by the call control unit 466 will be described.
The facial expression determination unit 467 determines whether or not the facial expression recognized by the facial expression recognition unit 465 described above is a first facial expression (for example, an angry facial expression).

通話制御部466は、表情判定部467により顔の表情が第1表情であると判定された場合には、通信部42により外部サーバ(図示せず)に接続し、通信部42により受け付けた着信に対して、外部サーバに予め設定された第1音声で応答する。ここで、第1音声としては、例えば、留守番電話機能となっている旨を相手先に連絡するための音声(メッセージ)を用いることができる。   When the facial expression determination unit 467 determines that the facial expression is the first facial expression, the call control unit 466 connects to the external server (not shown) by the communication unit 42 and receives the incoming call received by the communication unit 42 In response to the first voice preset in the external server. Here, as the first voice, for example, a voice (message) for notifying the other party that the answering machine function has been established can be used.

一方、通話制御部466は、表情判定部467により顔の表情が第1表情ではないと判定された場合には、通信部42により受け付けた着信に対してハンズフリー通話を行う。   On the other hand, when the facial expression determination unit 467 determines that the facial expression is not the first facial expression, the call control unit 466 performs a hands-free call for the incoming call received by the communication unit 42.

このように第1実施形態によれば、携帯電話機1は、認識した顔の表情が第1表情である場合には、第1音声で応答する。このため、ユーザは、例えば、メインディスプレイ21又はサブディスプレイ35に表示された相手先が通話したくない相手先である場合には、第1表情をメインカメラ33又はサブカメラ23で撮像することにより、通話したくない相手先との通話を行わないことができる。つまり、携帯電話機1は、相手先に応じた応答をより好適に行うことができる。   Thus, according to the first embodiment, when the recognized facial expression is the first facial expression, the mobile phone 1 responds with the first voice. For this reason, for example, when the other party displayed on the main display 21 or the sub display 35 is the other party who does not want to talk, the user captures the first facial expression with the main camera 33 or the sub camera 23. , You can not make a call with the other party you do not want to call. That is, the mobile phone 1 can more suitably perform a response according to the other party.

また、携帯電話機1は、顔の表情が第1表情ではないと判定された場合には、通信部42により受け付けた着信に対してハンズフリー通話を行うため、ユーザが携帯電話機1と離れた場所にいる場合であっても、通話を好適に行うことができる。   When the mobile phone 1 determines that the facial expression is not the first facial expression, the mobile phone 1 performs a hands-free call in response to the incoming call received by the communication unit 42, so that the user is away from the mobile phone 1. Even when the user is in the telephone, the telephone call can be suitably performed.

次に、第1実施形態に係る制御部46によって実行される処理について図4を参照しながら説明する。図4は、第1実施形態に係る制御部46によって実行される処理について示すフローチャートである。   Next, processing executed by the control unit 46 according to the first embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating processing executed by the control unit 46 according to the first embodiment.

ステップS1において、報知制御部461は、通信部42により着信に係る信号を受け付けると、記憶部44のアドレス帳441を参照して、着信の相手先に関する情報をメインディスプレイ21又はサブディスプレイ35に表示(報知)する。更に、報知制御部461は、LED36を点灯させたり、バイブレータ43を振動させたり、スピーカ22から音を出力したりして着信を報知する。   In step S <b> 1, when the notification control unit 461 receives a signal related to an incoming call by the communication unit 42, the notification control unit 461 refers to the address book 441 of the storage unit 44 and displays information on the destination of the incoming call on the main display 21 or the sub display 35. (Notify). Further, the notification control unit 461 notifies an incoming call by turning on the LED 36, vibrating the vibrator 43, or outputting a sound from the speaker 22.

ステップS2において、撮像制御部462は、通信部42により着信を受け付けると、メインカメラ33又はサブカメラ23を起動させる。そして、撮像制御部462は、メインカメラ33又はサブカメラ23により被写体(例えば、ユーザの顔)を撮像させる。   In step S <b> 2, the imaging control unit 462 activates the main camera 33 or the sub camera 23 when receiving an incoming call by the communication unit 42. The imaging control unit 462 causes the main camera 33 or the sub camera 23 to image a subject (for example, a user's face).

ステップS3において、時間計測部463は、操作キー群11が操作されたか否かを判定する。操作キー群11が操作された場合(YES)には、ステップS12へ移る。操作キー群11が操作されない場合(NO)には、ステップS4へ移る。
ステップS4において、時間計測部463は、タイマ45により時間の計測を開始させる。
In step S3, the time measuring unit 463 determines whether or not the operation key group 11 has been operated. When the operation key group 11 is operated (YES), the process proceeds to step S12. If the operation key group 11 is not operated (NO), the process proceeds to step S4.
In step S <b> 4, the time measuring unit 463 causes the timer 45 to start measuring time.

ステップS5において、顔認識部464は、メインカメラ33又はサブカメラ23により撮像された被写体の画像データにおいて、人物の顔を認識したか否かを判定する。人物の顔を認識した場合(YES)には、ステップS7へ移る。人物の顔を認識しなかった場合(NO)には、ステップS6へ移る。
ステップS6において、時間計測部463は、時間の計測を開始してから設定時間Tが経過したか否かを判定する。設定時間Tが経過した場合(YES)には、ステップS8へ移る。設定時間Tが経過していない場合(NO)には、ステップS3へ戻る。
In step S <b> 5, the face recognition unit 464 determines whether or not a person's face has been recognized in the subject image data captured by the main camera 33 or the sub camera 23. If a human face is recognized (YES), the process proceeds to step S7. If the face of the person is not recognized (NO), the process proceeds to step S6.
In step S6, the time measuring unit 463 determines whether or not the set time T has elapsed since the start of time measurement. If the set time T has elapsed (YES), the process proceeds to step S8. If the set time T has not elapsed (NO), the process returns to step S3.

ステップS7において、表情判定部467は、表情認識部465により認識された顔の表情が第1表情(例えば、怒った表情)であるか否かを判定する。第1表情である場合(YES)には、ステップS8へ移る。第1表情でない場合(NO)には、ステップS10へ移る。   In step S7, the facial expression determination unit 467 determines whether or not the facial expression recognized by the facial expression recognition unit 465 is the first facial expression (for example, an angry facial expression). If it is the first facial expression (YES), the process proceeds to step S8. If it is not the first facial expression (NO), the process proceeds to step S10.

ステップS8において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS2において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS9において、通話制御部466は、通信部42により受け付けた着信に対して予め設定された第1音声で応答する。
In step S8, the notification control unit 461 cancels the operation for notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S2.
In step S <b> 9, the call control unit 466 responds to the incoming call received by the communication unit 42 with a preset first voice.

ステップS10において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS2において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS11において、通話制御部466は、通信部42により受け付けた着信に対してハンズフリー通話を行う。
In step S10, the notification control unit 461 cancels the operation for notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S2.
In step S <b> 11, the call control unit 466 performs a hands-free call for the incoming call received by the communication unit 42.

ステップS12において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS2において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS13において、通話制御部466は、通信部42により受け付けた着信に対して通常の通話を行う。
このように携帯電話機1は、メインカメラ33又はサブカメラ23により撮像された顔の表情に基づいて、相手先に対する着信の応答を異ならせることができる。
In step S12, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S2.
In step S <b> 13, the call control unit 466 performs a normal call for the incoming call received by the communication unit 42.
In this way, the mobile phone 1 can vary the incoming call response to the other party based on the facial expression imaged by the main camera 33 or the sub camera 23.

以下に、本発明の携帯電子機器の他の実施形態について説明する。他の実施形態については、主として、第1実施形態とは異なる点を説明し、第1実施形態と同様の構成について同一符号を付し、説明を省略する。他の実施形態について特に説明しない点については、第1実施形態についての説明が適宜適用される。   Hereinafter, another embodiment of the portable electronic device of the present invention will be described. In the other embodiments, points different from the first embodiment will be mainly described, the same reference numerals are given to the same configurations as those in the first embodiment, and the description will be omitted. The description of the first embodiment is appropriately applied to points that are not particularly described in the other embodiments.

<第2実施形態>
次に、本発明の携帯電子機器に係る第2実施形態について説明する。
第2実施形態に係る携帯電話機1は、表情判定部467において、第1表情だけでなく、第2表情であるか否かについて判定を行う点が第1実施形態とは異なる。
すなわち、表情判定部467は、表情認識部465により認識された顔の表情が第2表情(例えば、笑った表情)であるか否かを判定する。
Second Embodiment
Next, a second embodiment according to the portable electronic device of the present invention will be described.
The cellular phone 1 according to the second embodiment is different from the first embodiment in that the facial expression determination unit 467 determines whether or not it is the second facial expression as well as the first facial expression.
That is, the facial expression determination unit 467 determines whether or not the facial expression recognized by the facial expression recognition unit 465 is a second facial expression (for example, a smiling facial expression).

そして、通話制御部466は、表情判定部467により顔の表情が第2表情であると判定された場合には、通信部42により外部サーバ(図示せず)に接続し、通信部42により受け付けた着信に対して、外部サーバに予め設定された第2音声で応答する。ここで、第2音声としては、例えば、第1音声とは異なる音声であり、携帯電話機1のユーザが電話に出られない状態である旨を相手先に連絡するための音声(メッセージ)を用いることができる。また、第2音声としては、相手先と通話したくない旨を伝える音声(メッセージ)を用いてもよい。   Then, when the facial expression determination unit 467 determines that the facial expression is the second facial expression, the call control unit 466 connects to an external server (not shown) by the communication unit 42 and receives by the communication unit 42. The incoming call is answered with the second voice preset in the external server. Here, as the second voice, for example, a voice (message) that is different from the first voice and that informs the other party that the user of the mobile phone 1 cannot answer the call is used. be able to. Further, as the second voice, a voice (message) that tells that the user does not want to talk to the other party may be used.

このように第2実施形態によれば、携帯電話機1は、認識した顔の表情が第2表情である場合には、第1音声とは異なる第2音声で応答する。このため、ユーザは、例えば、メインディスプレイ21又はサブディスプレイ35に表示された相手先が通話したくない相手先である場合には、第2表情をメインカメラ33又はサブカメラ23で撮像することにより、第1音声とは異なる第2音声で相手先に応答することができる。そして、携帯電話機1は、例えば、第2音声を相手先と通話したくない旨を伝える音声(メッセージ)とすることで、相手先に対する応答を差別化することができる。   As described above, according to the second embodiment, when the recognized facial expression is the second facial expression, the mobile phone 1 responds with the second voice different from the first voice. For this reason, for example, when the other party displayed on the main display 21 or the sub display 35 is the other party who does not want to talk, the user captures the second facial expression with the main camera 33 or the sub camera 23. It is possible to respond to the other party with a second voice different from the first voice. And the mobile telephone 1 can differentiate the response with respect to an other party by making the 2nd audio | voice the voice (message) which tells that it does not want to call with the other party, for example.

次に、第2実施形態に係る制御部46によって実行される処理について図5を参照しながら説明する。図5は、第2実施形態に係る制御部46によって実行される処理について示すフローチャートである。なお、ステップS21〜ステップS26の処理は、第1実施形態におけるステップS1〜ステップS6の処理と同様であり、ステップS35及びステップS36の処理は、第1実施形態におけるステップS12及びステップS13の処理と同様である。   Next, processing executed by the control unit 46 according to the second embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating processing executed by the control unit 46 according to the second embodiment. In addition, the process of step S21-step S26 is the same as the process of step S1-step S6 in 1st Embodiment, and the process of step S35 and step S36 is the same as the process of step S12 and step S13 in 1st Embodiment. It is the same.

ステップS21において、報知制御部461は、通信部42により着信に係る信号を受け付けると、記憶部44のアドレス帳441を参照して、着信の相手先に関する情報をメインディスプレイ21又はサブディスプレイ35に表示(報知)する。更に、報知制御部461は、LED36を点灯させたり、バイブレータ43を振動させたり、スピーカ22から音を出力したりして着信を報知する。   In step S <b> 21, when the notification control unit 461 receives a signal related to an incoming call by the communication unit 42, the notification control unit 461 refers to the address book 441 of the storage unit 44 and displays information about the destination of the incoming call on the main display 21 or the sub display 35. (Notify). Further, the notification control unit 461 notifies an incoming call by turning on the LED 36, vibrating the vibrator 43, or outputting a sound from the speaker 22.

ステップS22において、撮像制御部462は、通信部42により着信を受け付けると、メインカメラ33又はサブカメラ23を起動させる。そして、撮像制御部462は、メインカメラ33又はサブカメラ23により被写体(例えば、ユーザの顔)を撮像させる。   In step S <b> 22, the imaging control unit 462 activates the main camera 33 or the sub camera 23 when receiving an incoming call by the communication unit 42. The imaging control unit 462 causes the main camera 33 or the sub camera 23 to image a subject (for example, a user's face).

ステップS23において、時間計測部463は、操作キー群11が操作されたか否かを判定する。操作キー群11が操作された場合(YES)には、ステップS35へ移る。操作キー群11が操作されない場合(NO)には、ステップS24へ移る。
ステップS24において、時間計測部463は、タイマ45により時間の計測を開始させる。
In step S23, the time measuring unit 463 determines whether or not the operation key group 11 has been operated. If the operation key group 11 is operated (YES), the process proceeds to step S35. If the operation key group 11 is not operated (NO), the process proceeds to step S24.
In step S <b> 24, the time measuring unit 463 causes the timer 45 to start measuring time.

ステップS25において、顔認識部464は、メインカメラ33又はサブカメラ23により撮像された被写体の画像データにおいて、人物の顔を認識したか否かを判定する。人物の顔を認識した場合(YES)には、ステップS27へ移る。人物の顔を認識しなかった場合(NO)には、ステップS26へ移る。
ステップS26において、時間計測部463は、時間の計測を開始してから設定時間Tが経過したか否かを判定する。設定時間Tが経過した場合(YES)には、ステップS29へ移る。設定時間Tが経過していない場合(NO)には、ステップS23へ戻る。
In step S <b> 25, the face recognition unit 464 determines whether or not a person's face has been recognized in the subject image data captured by the main camera 33 or the sub camera 23. If a person's face is recognized (YES), the process proceeds to step S27. If the face of the person is not recognized (NO), the process proceeds to step S26.
In step S26, the time measurement unit 463 determines whether or not the set time T has elapsed since the start of time measurement. If the set time T has elapsed (YES), the process proceeds to step S29. If the set time T has not elapsed (NO), the process returns to step S23.

ステップS27において、表情判定部467は、表情認識部465により認識された顔の表情が第2表情(例えば、笑った表情)であるか否かを判定する。第2表情である場合(YES)には、ステップS33へ移る。第2表情でない場合(NO)には、ステップS28へ移る。   In step S27, the facial expression determination unit 467 determines whether or not the facial expression recognized by the facial expression recognition unit 465 is a second facial expression (for example, a smiling facial expression). If it is the second facial expression (YES), the process proceeds to step S33. If it is not the second facial expression (NO), the process proceeds to step S28.

ステップS28において、表情判定部467は、表情認識部465により認識された顔の表情が第1表情(例えば、怒った顔)であるか否かを判定する。第1表情である場合(YES)には、ステップS31へ移る。第1表情でない場合(NO)には、ステップS29へ移る。   In step S28, the facial expression determination unit 467 determines whether or not the facial expression recognized by the facial expression recognition unit 465 is the first facial expression (for example, an angry face). If it is the first facial expression (YES), the process proceeds to step S31. If it is not the first facial expression (NO), the process proceeds to step S29.

ステップS29において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS22において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS30において、通話制御部466は、通信部42により受け付けた着信に対して予め設定された第1音声で応答する。
In step S29, the notification control unit 461 cancels the operation of notifying the incoming call. In addition, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S22.
In step S <b> 30, the call control unit 466 responds to the incoming call received by the communication unit 42 with a preset first voice.

ステップS31において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS22において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS32において、通話制御部466は、通信部42により受け付けた着信に対して予め設定された第2音声で応答する。
In step S31, the notification control unit 461 cancels the operation of notifying the incoming call. In addition, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S22.
In step S <b> 32, the call control unit 466 responds to the incoming call received by the communication unit 42 with the second voice set in advance.

ステップS33において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS22において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS34において、通話制御部466は、通信部42により受け付けた着信に対してハンズフリー通話を行う。
このように携帯電話機1は、第2音声を第1音声よりも相手先と通話したくない旨を伝えるメッセージとすることで、相手先に対する応答を差別化することができる。
In step S33, the notification control unit 461 cancels the operation for notifying the incoming call. In addition, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S22.
In step S <b> 34, the call control unit 466 performs a hands-free call for the incoming call received by the communication unit 42.
As described above, the mobile phone 1 can differentiate the response to the other party by using the second voice as a message notifying that the user does not want to talk to the other party rather than the first voice.

<第3実施形態>
次に、本発明の携帯電子機器の第3実施形態について説明する。
第3実施形態に係る携帯電話機1は、報知制御部461において、着信の報知を異なる態様で2回行う点が第2実施形態とは異なる。
<Third Embodiment>
Next, a third embodiment of the portable electronic device of the invention will be described.
The mobile phone 1 according to the third embodiment is different from the second embodiment in that the notification control unit 461 performs notification of an incoming call twice in a different manner.

すなわち、報知制御部461は、通信部42により着信を受け付けると、相手先に関する情報を報知部としてのメインディスプレイ21及びLED36により第1態様で報知させる。ここで、報知制御部461は、第1態様として、例えば、メインディスプレイ21に相手先に関する情報を表示し、LED36を点灯させる。   In other words, when the communication control unit 461 accepts an incoming call, the notification control unit 461 causes the main display 21 as the notification unit and the LED 36 to notify the information on the other party in the first mode. Here, the information control part 461 displays the information regarding an other party on the main display 21, for example as a 1st aspect, and makes LED36 light.

また、報知制御部461は、表情認識部465により顔の表情を認識すると、相手先に関する情報を報知部としてのメインディスプレイ21、スピーカ22、LED36及びバイブレータ43により第1態様とは異なる第2態様で報知させる。ここで、報知制御部461は、第2態様として、例えば、メインディスプレイ21に相手先に関する情報を表示し、LED36を点灯させ、更に、スピーカ22から音を出力し、バイブレータ43を振動させる。   In addition, when the facial expression recognition unit 465 recognizes the facial expression, the notification control unit 461 uses the main display 21, the speaker 22, the LED 36, and the vibrator 43 as the notification unit to display information about the other party in a second mode different from the first mode. Let me know. Here, as a 2nd mode, information control part 461 displays information about an other party on main display 21, for example, makes LED36 light, and also outputs a sound from speaker 22, and vibrates vibrator 43.

このように第3実施形態によれば、携帯電話機1は、着信の報知を異なる態様及びタイミングで2回行うため、着信に対するユーザの注意を好適に喚起することができる。   Thus, according to 3rd Embodiment, since the mobile telephone 1 alert | reports an incoming call twice in a different aspect and timing, it can call a user's attention to an incoming call suitably.

次に、第3実施形態に係る制御部46によって実行される処理について図6を参照しながら説明する。図6は、第3実施形態に係る制御部46によって実行される処理について示すフローチャートである。   Next, processing executed by the control unit 46 according to the third embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating processing executed by the control unit 46 according to the third embodiment.

ステップS41において、撮像制御部462は、通信部42により着信を受け付けると、メインカメラ33又はサブカメラ23を起動させる。そして、撮像制御部462は、メインカメラ33又はサブカメラ23により被写体(例えば、ユーザの顔)を撮像させる。
ステップS42において、報知制御部461は、着信を受け付けた相手先に関する情報をメインディスプレイ21及びLED36により第1態様で報知させる。
In step S <b> 41, the imaging control unit 462 activates the main camera 33 or the sub camera 23 when receiving an incoming call by the communication unit 42. The imaging control unit 462 causes the main camera 33 or the sub camera 23 to image a subject (for example, a user's face).
In step S <b> 42, the notification control unit 461 causes the main display 21 and the LED 36 to notify the information related to the other party that has received the incoming call in the first mode.

ステップS43において、時間計測部463は、操作キー群11が操作されたか否かを判定する。操作キー群11が操作された場合(YES)には、ステップS59へ移る。操作キー群11が操作されない場合(NO)には、ステップS44へ移る。
ステップS44において、時間計測部463は、タイマ45により時間の計測を開始させる。
In step S43, the time measurement unit 463 determines whether or not the operation key group 11 has been operated. If the operation key group 11 is operated (YES), the process proceeds to step S59. If the operation key group 11 is not operated (NO), the process proceeds to step S44.
In step S <b> 44, the time measuring unit 463 causes the timer 45 to start measuring time.

ステップS45において、顔認識部464は、メインカメラ33又はサブカメラ23により撮像された被写体の画像データにおいて、人物の顔を認識したか否かを判定する。人物の顔を認識した場合(YES)には、ステップS54へ移る。人物の顔を認識しなかった場合(NO)には、ステップS46へ移る。   In step S45, the face recognition unit 464 determines whether or not a person's face has been recognized in the image data of the subject imaged by the main camera 33 or the sub camera 23. If a person's face is recognized (YES), the process proceeds to step S54. If the face of the person is not recognized (NO), the process proceeds to step S46.

ステップS46において、時間計測部463は、時間の計測を開始してから設定時間Tが経過したか否かを判定する。設定時間Tが経過した場合(YES)には、タイマ45による時間の計測を停止させて、ステップS47へ移る。設定時間Tが経過していない場合(NO)には、ステップS43へ戻る。   In step S46, the time measurement unit 463 determines whether or not the set time T has elapsed since the start of time measurement. If the set time T has elapsed (YES), the time measurement by the timer 45 is stopped and the process proceeds to step S47. If the set time T has not elapsed (NO), the process returns to step S43.

ステップS47において、報知制御部461は、着信を受け付けた相手先に関する情報をメインディスプレイ21、スピーカ22、LED36及びバイブレータ43により第2態様で報知させる。   In step S <b> 47, the notification control unit 461 causes the main display 21, the speaker 22, the LED 36, and the vibrator 43 to notify the second party of information related to the other party that has received the incoming call.

ステップS48において、時間計測部463は、操作キー群11が操作されたか否かを判定する。操作キー群11が操作された場合(YES)には、ステップS60へ移る。操作キー群11が操作されない場合(NO)には、ステップS49へ移る。
ステップS49において、時間計測部463は、タイマ45をリセットして、タイマ45による時間の計測を再度開始させる。
In step S48, the time measuring unit 463 determines whether or not the operation key group 11 has been operated. If the operation key group 11 is operated (YES), the process proceeds to step S60. If the operation key group 11 is not operated (NO), the process proceeds to step S49.
In step S49, the time measuring unit 463 resets the timer 45 and restarts the time measurement by the timer 45.

ステップS50において、顔認識部464は、メインカメラ33又はサブカメラ23により撮像された被写体の画像データにおいて、人物の顔を認識したか否かを判定する。人物の顔を認識した場合(YES)には、ステップS54へ移る。人物の顔を認識しなかった場合(NO)には、ステップS51へ移る。   In step S <b> 50, the face recognition unit 464 determines whether or not a person's face has been recognized in the subject image data captured by the main camera 33 or the sub camera 23. If a person's face is recognized (YES), the process proceeds to step S54. If the face of the person is not recognized (NO), the process proceeds to step S51.

ステップS51において、時間計測部463は、ステップS49において時間の計測を開始してから設定時間Tが経過したか否かを判定する。設定時間Tが経過した場合(YES)には、タイマ45による時間の計測を停止させて、ステップS52へ移る。設定時間Tが経過していない場合(NO)には、ステップS48へ戻る。   In step S51, the time measurement unit 463 determines whether or not the set time T has elapsed since the start of time measurement in step S49. If the set time T has elapsed (YES), the time measurement by the timer 45 is stopped and the process proceeds to step S52. If the set time T has not elapsed (NO), the process returns to step S48.

ステップS52において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS41において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS53において、通話制御部466は、通信部42により受け付けた着信に対して予め設定された第1音声で応答する。
In step S52, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S41.
In step S53, the call control unit 466 responds to the incoming call received by the communication unit 42 with a preset first voice.

ステップS54において、表情判定部467は、表情認識部465により認識された顔の表情が第2表情(例えば、笑った表情)であるか否かを判定する。第2表情である場合(YES)には、ステップS57へ移る。第2表情でない場合(NO)には、ステップS55へ移る。   In step S54, the facial expression determination unit 467 determines whether or not the facial expression recognized by the facial expression recognition unit 465 is a second facial expression (for example, a smiling facial expression). If it is the second facial expression (YES), the process proceeds to step S57. If it is not the second facial expression (NO), the process proceeds to step S55.

ステップS55において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS41において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS56において、通話制御部466は、通信部42により受け付けた着信に対して予め設定された第2音声で応答する。
In step S55, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S41.
In step S <b> 56, the call control unit 466 responds to the incoming call received by the communication unit 42 with the second voice set in advance.

ステップS57において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS41において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS58において、通話制御部466は、通信部42により受け付けた着信に対してハンズフリー通話を行う。
In step S57, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S41.
In step S58, the call control unit 466 performs a hands-free call in response to the incoming call received by the communication unit 42.

ステップS59において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS41において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS60において、通話制御部466は、通信部42により受け付けた着信に対して通常の通話を行う。
このように携帯電話機1は、着信の報知を異なる態様及びタイミングで2回行うため、着信に対するユーザの注意を好適に喚起することができる。
In step S59, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S41.
In step S <b> 60, the call control unit 466 performs a normal call for the incoming call received by the communication unit 42.
As described above, since the mobile phone 1 performs the notification of the incoming call twice with different modes and timings, it is possible to suitably alert the user to the incoming call.

<第4実施形態>
次に、本発明の携帯電子機器に係る第4実施形態について説明する。
第4実施形態に係る携帯電話機1は、表情判定部467における表情の判定方法が異なる点が第3実施形態とは異なる。
<Fourth embodiment>
Next, a fourth embodiment according to the portable electronic device of the present invention will be described.
The cellular phone 1 according to the fourth embodiment is different from the third embodiment in that the facial expression determination method in the facial expression determination unit 467 is different.

すなわち、表情認識部465は、メインカメラ33又はサブカメラ23により撮像された画像データから顔の表情と共に、人物の動作を認識する。
図7は、表情認識部465により認識される人物の動作について示す図である。なお、表情認識部465は、人物の動作についても顔の認識と同様に、画像データから特徴点を検出してもよく、既知の他の方法を用いてもよい。
That is, the facial expression recognition unit 465 recognizes the movement of a person along with facial expressions from image data captured by the main camera 33 or the sub camera 23.
FIG. 7 is a diagram illustrating an operation of a person recognized by the facial expression recognition unit 465. It should be noted that the facial expression recognition unit 465 may detect feature points from image data in the same manner as face recognition for human actions, or may use other known methods.

表情判定部467は、表情認識部465により認識された顔の表情が第3表情(例えば、普通の表情(図7(a)参照))であり、かつ、人物の動作が所定動作(例えば、指を1本立てる動作(図7(b)参照))であるか否かを判定する。なお、所定動作としては、例えば、図7(c)に示すような、手のひらを開いた動作であってもよく、他の動作であってもよい。   The facial expression determination unit 467 is such that the facial expression recognized by the facial expression recognition unit 465 is a third facial expression (for example, an ordinary facial expression (see FIG. 7A)), and a human motion is a predetermined motion (for example, It is determined whether or not the operation is to raise one finger (see FIG. 7B). The predetermined operation may be, for example, an operation with the palm open as shown in FIG. 7C or another operation.

通話制御部466は、顔の表情が第3表情であり、かつ、人物の動作が所定動作であると表情判定部467により判定された場合には、通信部42により外部サーバ(図示せず)に接続し、通信部42により受け付けた着信に対して、外部サーバに予め設定された第2音声で応答する。   If the facial expression determination unit 467 determines that the facial expression is the third facial expression and the person's movement is a predetermined movement, the call control unit 466 uses the communication unit 42 to perform an external server (not shown). To the incoming call received by the communication unit 42 and responds with a second voice preset in the external server.

一方、通話制御部466は、顔の表情が第3表情ではない、及び/又は人物の動作が所定の動作ではないと表情判定部467により判定された場合には、通信部42により受け付けた着信に対してハンズフリー通話を行う。   On the other hand, when the facial expression determination unit 467 determines that the facial expression is not the third facial expression and / or the person's action is not the predetermined action, the call control unit 466 receives the incoming call received by the communication unit 42. Make a hands-free call.

このように第4実施形態によれば、携帯電話機1は、顔の表情だけでなく、顔の表情と共に、人物の動作(ジェスチャー)を用いて表情(動作)をするため、表情(動作)の認識を適切に行うことができる。   As described above, according to the fourth embodiment, the mobile phone 1 performs not only facial expressions but also facial expressions using facial movements (gestures) together with facial expressions. Recognition can be performed appropriately.

次に、第4実施形態に係る制御部46によって実行される処理について図8を参照しながら説明する。図8は、第4実施形態に係る制御部46によって実行される処理について示すフローチャートである。なお、ステップS71〜ステップS83、ステップS89及びステップS90の処理は、第3実施形態におけるステップS41〜ステップS53、ステップS59及びステップS60の処理と同様であるため、説明を省略する。   Next, processing executed by the control unit 46 according to the fourth embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating processing executed by the control unit 46 according to the fourth embodiment. In addition, since the process of step S71-step S83, step S89, and step S90 is the same as the process of step S41-step S53, step S59, and step S60 in 3rd Embodiment, description is abbreviate | omitted.

ステップS84において、表情判定部467は、表情認識部465により認識された顔の表情が第3表情であり、かつ、人物の動作が所定動作であるか否かを判定する。第3表情であり、かつ、所定動作である場合(YES)には、ステップS85へ移る。第3表情でない、及び/又は所定動作でない場合(NO)には、ステップS87へ移る。   In step S84, the facial expression determination unit 467 determines whether or not the facial expression recognized by the facial expression recognition unit 465 is the third facial expression, and the action of the person is a predetermined action. If it is the third facial expression and it is a predetermined motion (YES), the process proceeds to step S85. If it is not the third facial expression and / or if it is not the predetermined action (NO), the process proceeds to step S87.

ステップS85において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS71において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS86において、通話制御部466は、通信部42により受け付けた着信に対して予め設定された第2音声で応答する。
In step S85, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S71.
In step S <b> 86, the call control unit 466 responds to the incoming call received by the communication unit 42 with the second voice set in advance.

ステップS87において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS71において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS88において、通話制御部466は、通信部42により受け付けた着信に対してハンズフリー通話を行う。
このように携帯電話機1は、顔の表情だけでなく、顔の表情と共に、人物の動作(ジェスチャー)を用いて表情(動作)をするため、表情(動作)の認識を適切に行うことができる。
In step S87, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S71.
In step S88, the call control unit 466 performs a hands-free call for the incoming call received by the communication unit 42.
As described above, since the mobile phone 1 performs not only facial expressions but also facial expressions using facial movements (gestures), facial expressions (motions) can be appropriately recognized. .

<第5実施形態>
次に、本発明の携帯電子機器の第5実施形態について説明する。
第5実施形態に係る携帯電話機1は、顔の表情をカウントする点及びカウントした顔の表情ごとに閾値が設定されている点が第3及び第4実施形態とは主として異なる。
<Fifth Embodiment>
Next, a fifth embodiment of the portable electronic device of the invention will be described.
The cellular phone 1 according to the fifth embodiment is mainly different from the third and fourth embodiments in that a facial expression is counted and a threshold is set for each facial expression counted.

図9は、第5実施形態に係る携帯電話機1の機能構成を示すブロック図である。図9に示すように、第5実施形態に係る携帯電話機1は、表情カウント部468及び閾値判定部469を備えている。また、携帯電話機1において、アドレス帳441の構成が異なっている。なお、他の構成は、第1実施形態と同様であるため、説明を省略する。   FIG. 9 is a block diagram showing a functional configuration of the mobile phone 1 according to the fifth embodiment. As shown in FIG. 9, the mobile phone 1 according to the fifth embodiment includes an expression count unit 468 and a threshold determination unit 469. In the mobile phone 1, the configuration of the address book 441 is different. Since other configurations are the same as those of the first embodiment, description thereof is omitted.

表情カウント部468は、表情認識部465により顔の表情が認識された回数をカウントする。そして、表情カウント部468は、カウントした回数を顔の表情ごとに記憶部44のアドレス帳441に記憶する。   Expression count unit 468 counts the number of times facial expression is recognized by expression recognition unit 465. The facial expression counting unit 468 stores the counted number in the address book 441 of the storage unit 44 for each facial expression.

図10は、第5実施形態に係るアドレス帳441の構成について示す図である。図10に示すように、アドレス帳441は、名称、電話番号、メールアドレス等と共に、第1表情のカウント回数と、第2表情のカウント回数とを関連付けて記憶している。また、第1表情及び第2表情のカウント回数は、表情カウント部468により、電話番号(名称)ごとにカウントされて、記憶される。更に、アドレス帳441は、第1表情のカウント回数及び第2表情のカウント回数の閾値T1(第1閾値)及び閾値T2(第2閾値)を、第1表情及び第2表情それぞれについて記憶している。なお、閾値T1及びT2は、同一の値であってもよく、異なる値であってもよい。また、閾値T1及びT2は、電話番号ごとに異なる値であってもよい。   FIG. 10 is a diagram showing the configuration of the address book 441 according to the fifth embodiment. As shown in FIG. 10, the address book 441 stores the count number of the first facial expression and the count number of the second facial expression in association with the name, the telephone number, the mail address, and the like. In addition, the counts of the first facial expression and the second facial expression are counted and stored for each telephone number (name) by the facial expression counting unit 468. Further, the address book 441 stores a threshold value T1 (first threshold value) and a threshold value T2 (second threshold value) for the first facial expression count and the second facial expression count for each of the first facial expression and the second facial expression. Yes. The threshold values T1 and T2 may be the same value or different values. Further, the threshold values T1 and T2 may be different values for each telephone number.

閾値判定部469は、第1表情(例えば、怒った表情)が認識された回数が閾値T1を超えるか否かを判定する。また、閾値判定部469は、第2表情(例えば、笑った表情)が認識された回数が閾値T2を超えるか否かを判定する。   The threshold determination unit 469 determines whether or not the number of times the first facial expression (for example, an angry facial expression) has been recognized exceeds the threshold T1. Further, the threshold determination unit 469 determines whether or not the number of times the second facial expression (for example, a smiling facial expression) has been recognized exceeds the threshold T2.

通話制御部466は、第1表情が認識された回数が閾値T1を超える場合には、通信部42により外部サーバに接続し、通信部42により受け付けた着信に対して、外部サーバに予め設定された第2音声で応答する。   When the number of times the first facial expression is recognized exceeds the threshold T1, the call control unit 466 is connected to the external server by the communication unit 42, and is set in advance in the external server for an incoming call received by the communication unit 42. Answer with the second voice.

このように第5実施形態によれば、携帯電話機1は、第1表情が認識された回数が閾値T1を超える場合には、第2音声で応答するため、第2音声で応答すべき相手先を適切に判定することができる。   As described above, according to the fifth embodiment, when the number of times the first facial expression is recognized exceeds the threshold value T1, the mobile phone 1 responds with the second voice. Can be determined appropriately.

また、通話制御部466は、第2表情が認識された回数が閾値T2を超える場合には、通信部42により受け付けた着信に対してハンズフリー通話を行う。   In addition, when the number of times the second facial expression is recognized exceeds the threshold T2, the call control unit 466 performs a hands-free call for the incoming call received by the communication unit 42.

このように第5実施形態によれば、携帯電話機1は、第2表情が認識された回数が閾値T2を超える場合には、ハンズフリー通話を行うため、ハンズフリー通話で応答すべき相手先を適切に判定することができる。   As described above, according to the fifth embodiment, when the number of times the second facial expression is recognized exceeds the threshold T2, the mobile phone 1 performs a hands-free call. It can be judged appropriately.

また、通話制御部466は、第2表情が認識された回数が閾値T2を超えず、第1表情が認識された回数が閾値T1を超えない場合には、通信部42により外部サーバに接続し、通信部42により受け付けた着信に対して、外部サーバに予め設定された第1音声で応答する。   Further, when the number of times the second facial expression is recognized does not exceed the threshold value T2 and the number of times the first facial expression is recognized does not exceed the threshold value T1, the call control unit 466 connects to the external server through the communication unit 42. In response to the incoming call received by the communication unit 42, the response is made with the first voice preset in the external server.

このように第5実施形態によれば、携帯電話機1は、第2表情が認識された回数が閾値T2を超えず、第1表情が認識された回数が閾値T1を超えない場合には、第1音声で応答するため、第1音声で応答すべき相手先を適切に判定することができる。   Thus, according to the fifth embodiment, the mobile phone 1 determines that the number of times the second facial expression has been recognized does not exceed the threshold T2, and the number of times the first facial expression has been recognized does not exceed the threshold T1. Since the response is made with one voice, it is possible to appropriately determine the other party who should respond with the first voice.

次に、第5実施形態の制御部46によって実行される処理について図11及び図12を参照しながら説明する。図11は、第5実施形態に係る制御部46によって実行される処理について示すフローチャートである。   Next, processing executed by the control unit 46 of the fifth embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart illustrating processing executed by the control unit 46 according to the fifth embodiment.

ステップS101において、通信部42により着信に係る信号を受け付けると、閾値判定部469は、アドレス帳441を参照して、第1表情のカウント回数が閾値T1を超えているか否かを判定する。第1表情のカウント回数が閾値T1を超えている場合(YES)には、ステップS119へ移る。第1表情のカウント回数が閾値T1を超えている場合(YES)には、ステップS102へ移る。   In step S101, when a signal related to an incoming call is received by the communication unit 42, the threshold determination unit 469 refers to the address book 441 and determines whether or not the number of counts of the first facial expression exceeds the threshold T1. If the number of counts of the first facial expression exceeds the threshold value T1 (YES), the process proceeds to step S119. If the number of counts of the first facial expression exceeds the threshold value T1 (YES), the process proceeds to step S102.

ステップS102において、撮像制御部462は、通信部42により着信を受け付けると、メインカメラ33又はサブカメラ23を起動させる。そして、撮像制御部462は、メインカメラ33又はサブカメラ23により被写体(例えば、ユーザの顔)を撮像させる。
ステップS103において、報知制御部461は、着信を受け付けた相手先に関する情報をメインディスプレイ21及びLED36により第1態様で報知させる。
In step S <b> 102, the imaging control unit 462 activates the main camera 33 or the sub camera 23 when receiving an incoming call by the communication unit 42. The imaging control unit 462 causes the main camera 33 or the sub camera 23 to image a subject (for example, a user's face).
In step S <b> 103, the notification control unit 461 causes the main display 21 and the LED 36 to notify the information related to the other party that received the incoming call in the first mode.

ステップS104において、時間計測部463は、操作キー群11が操作されたか否かを判定する。操作キー群11が操作された場合(YES)には、ステップS122へ移る。操作キー群11が操作されない場合(NO)には、ステップS105へ移る。
ステップS105において、時間計測部463は、タイマ45により時間の計測を開始させる。
In step S104, the time measurement unit 463 determines whether or not the operation key group 11 has been operated. If the operation key group 11 is operated (YES), the process proceeds to step S122. If the operation key group 11 is not operated (NO), the process proceeds to step S105.
In step S <b> 105, the time measuring unit 463 causes the timer 45 to start measuring time.

ステップS106において、顔認識部464は、メインカメラ33又はサブカメラ23により撮像された被写体の画像データにおいて、人物の顔を認識したか否かを判定する。人物の顔を認識した場合(YES)には、ステップS115へ移る。人物の顔を認識しなかった場合(NO)には、ステップS107へ移る。   In step S <b> 106, the face recognition unit 464 determines whether or not a person's face has been recognized in the subject image data captured by the main camera 33 or the sub camera 23. If a person's face is recognized (YES), the process proceeds to step S115. If the person's face is not recognized (NO), the process proceeds to step S107.

ステップS107において、時間計測部463は、時間の計測を開始してから設定時間Tが経過したか否かを判定する。設定時間Tが経過した場合(YES)には、タイマ45による時間の計測を停止させて、ステップS108へ移る。設定時間Tが経過していない場合(NO)には、ステップS104へ戻る。   In step S107, the time measurement unit 463 determines whether or not the set time T has elapsed since the start of time measurement. If the set time T has elapsed (YES), the time measurement by the timer 45 is stopped and the process proceeds to step S108. If the set time T has not elapsed (NO), the process returns to step S104.

ステップS108において、報知制御部461は、着信を受け付けた相手先に関する情報をメインディスプレイ21、スピーカ22、LED36及びバイブレータ43により第2態様で報知させる。   In step S <b> 108, the notification control unit 461 causes the main display 21, the speaker 22, the LED 36, and the vibrator 43 to notify information related to the other party that has received the incoming call in the second mode.

ステップS109において、時間計測部463は、操作キー群11が操作されたか否かを判定する。操作キー群11が操作された場合(YES)には、ステップS124へ移る。操作キー群11が操作されない場合(NO)には、ステップS110へ移る。
ステップS110において、時間計測部463は、タイマ45をリセットして、タイマ45による時間の計測を再度開始させる。
In step S109, the time measurement unit 463 determines whether or not the operation key group 11 has been operated. When the operation key group 11 is operated (YES), the process proceeds to step S124. If the operation key group 11 is not operated (NO), the process proceeds to step S110.
In step S110, the time measuring unit 463 resets the timer 45 and restarts the time measurement by the timer 45.

ステップS111において、顔認識部464は、メインカメラ33又はサブカメラ23により撮像された被写体の画像データにおいて、人物の顔を認識したか否かを判定する。人物の顔を認識した場合(YES)には、ステップS115へ移る。人物の顔を認識しなかった場合(NO)には、ステップS112へ移る。   In step S <b> 111, the face recognition unit 464 determines whether or not a person's face has been recognized in the subject image data captured by the main camera 33 or the sub camera 23. If a person's face is recognized (YES), the process proceeds to step S115. If the person's face is not recognized (NO), the process proceeds to step S112.

ステップS112において、時間計測部463は、ステップS110において時間の計測を開始してから設定時間Tが経過したか否かを判定する。設定時間Tが経過した場合(YES)には、タイマ45による時間の計測を停止させて、ステップS113へ移る。設定時間Tが経過していない場合(NO)には、ステップS109へ戻る。   In step S112, the time measurement unit 463 determines whether or not the set time T has elapsed since the start of time measurement in step S110. If the set time T has elapsed (YES), the time measurement by the timer 45 is stopped and the process proceeds to step S113. If the set time T has not elapsed (NO), the process returns to step S109.

ステップS113において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS41において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS114において、通話制御部466は、通信部42により受け付けた着信に対して予め設定された第1音声で応答する。
In step S113, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S41.
In step S <b> 114, the call control unit 466 responds to the incoming call accepted by the communication unit 42 with a preset first voice.

ステップS115において、表情カウント部468は、表情認識部465により顔の表情が認識された回数をカウントする。顔の表情が認識された回数をカウントする表情カウント処理については、図12において詳述する。   In step S115, the facial expression counting unit 468 counts the number of times facial expression is recognized by the facial expression recognition unit 465. The facial expression counting process for counting the number of times facial expressions are recognized will be described in detail with reference to FIG.

ステップS116において、閾値判定部469は、第1表情が認識された回数が閾値T1以上であるか否かを判定する。閾値T1以上である場合(YES)には、ステップS120へ移る。閾値T1未満である場合(NO)には、ステップS117へ移る。
ステップS117において、閾値判定部469は、第2表情が認識された回数が閾値T2以上であるか否かを判定する。閾値T2以上である場合(YES)には、ステップS118へ移る。閾値T2未満である場合(NO)には、ステップS113へ移る。
In step S116, the threshold determination unit 469 determines whether or not the number of times the first facial expression is recognized is equal to or greater than the threshold T1. If it is equal to or greater than the threshold value T1 (YES), the process proceeds to step S120. If it is less than the threshold value T1 (NO), the process moves to step S117.
In step S117, the threshold determination unit 469 determines whether or not the number of times the second facial expression is recognized is equal to or greater than the threshold T2. If it is equal to or greater than the threshold value T2 (YES), the process proceeds to step S118. If it is less than the threshold value T2 (NO), the process proceeds to step S113.

ステップS118において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS102において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS119において、通話制御部466は、通信部42により受け付けた着信に対して予め設定された第2音声で応答する。
In step S118, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S102.
In step S <b> 119, the call control unit 466 responds to the incoming call received by the communication unit 42 with the preset second voice.

ステップS120において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS102において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS121において、通話制御部466は、通信部42により受け付けた着信に対してハンズフリー通話を行う。
In step S120, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S102.
In step S <b> 121, the call control unit 466 performs a hands-free call for the incoming call received by the communication unit 42.

ステップS122において、表情カウント部468は、表情認識部465により顔の表情が認識された回数をカウントする。顔の表情が認識された回数をカウントする表情カウント処理については、図12において詳述する。   In step S122, the facial expression counting unit 468 counts the number of times facial expression is recognized by the facial expression recognition unit 465. The facial expression counting process for counting the number of times facial expressions are recognized will be described in detail with reference to FIG.

ステップS123において、報知制御部461は、着信を報知する動作を解除する。また、撮像制御部462は、ステップS102において起動したメインカメラ33又はサブカメラ23を停止させる。
ステップS124において、通話制御部466は、通信部42により受け付けた着信に対して通常の通話を行う。
In step S123, the notification control unit 461 cancels the operation of notifying the incoming call. Further, the imaging control unit 462 stops the main camera 33 or the sub camera 23 activated in step S102.
In step S <b> 124, the call control unit 466 performs a normal call for the incoming call received by the communication unit 42.

図12は、図11のステップS115及びステップS122における表情カウント処理について示すフローチャートである。
ステップS131において、表情カウント部468は、表情認識部465により認識された顔の表情が第1表情であるか否かを判定する。第1表情である場合(YES)には、ステップS135へ移る。第1表情でない場合(NO)には、ステップS132へ移る。
FIG. 12 is a flowchart showing the facial expression counting process in steps S115 and S122 of FIG.
In step S131, the facial expression counting unit 468 determines whether or not the facial expression recognized by the facial expression recognition unit 465 is the first facial expression. If it is the first facial expression (YES), the process proceeds to step S135. If it is not the first facial expression (NO), the process proceeds to step S132.

ステップS132において、表情カウント部468は、表情認識部465により認識された顔の表情が第2表情であるか否かを判定する。第2表情である場合(YES)には、ステップS133へ移る。第2表情でない場合(NO)には、処理を終了する。   In step S132, the facial expression counting unit 468 determines whether or not the facial expression recognized by the facial expression recognition unit 465 is the second facial expression. If it is the second facial expression (YES), the process proceeds to step S133. If it is not the second facial expression (NO), the process is terminated.

ステップS133において、表情カウント部468は、着信を受け付けた相手先の電話番号に関連付けられている第2表情がカウントされた回数を、アドレス帳441から読み出す。
ステップS134において、表情カウント部468は、読み出された第2表情がカウントされた回数を1インクリメント(+1)して、アドレス帳441に上書き(記憶)する。
In step S <b> 133, facial expression counting section 468 reads from address book 441 the number of times the second facial expression associated with the telephone number of the other party that accepted the incoming call has been counted.
In step S134, the facial expression counting unit 468 increments the number of times the read second facial expression is counted by 1 (+1) and overwrites (stores) it in the address book 441.

ステップS135において、表情カウント部468は、着信を受け付けた相手先の電話番号に関連付けられている第1表情がカウントされた回数を、アドレス帳441から読み出す。
ステップS136において、表情カウント部468は、読み出された第1表情がカウントされた回数を1インクリメント(+1)して、アドレス帳441に上書き(記憶)する。
In step S <b> 135, facial expression counting section 468 reads from address book 441 the number of times the first facial expression associated with the telephone number of the other party that accepted the incoming call has been counted.
In step S136, the facial expression counting unit 468 increments (+1) the number of times the read first facial expression is counted by 1 and overwrites (stores) it in the address book 441.

なお、上述した表情をカウントする表情カウント処理は、図11のステップS115及びステップS122において実行される処理に限らず、例えば、通話が終了した後に実行されてもよい。図13は、表情カウント処理の他の形態について示すフローチャートである。   The facial expression counting process for counting facial expressions described above is not limited to the process executed in steps S115 and S122 in FIG. 11, and may be executed after the call is ended, for example. FIG. 13 is a flowchart showing another form of facial expression count processing.

ステップS141において、通話制御部466は、相手先との通話を終了させる処理を実行する。
ステップS142において、撮像制御部462は、メインカメラ33又はサブカメラ23を起動させる。そして、撮像制御部462は、メインカメラ33又はサブカメラ23により被写体(例えば、ユーザの顔)を撮像させる。
In step S141, the call control unit 466 executes processing for terminating the call with the other party.
In step S142, the imaging control unit 462 activates the main camera 33 or the sub camera 23. The imaging control unit 462 causes the main camera 33 or the sub camera 23 to image a subject (for example, a user's face).

ステップS143において、表情カウント部468は、図12において説明したように、表情認識部465により顔の表情が認識された回数をカウントする。   In step S143, the facial expression counting unit 468 counts the number of times facial expression is recognized by the facial expression recognition unit 465, as described in FIG.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に制限されるものではなく、適宜変更が可能である。   As mentioned above, although embodiment of this invention was described, this invention is not restrict | limited to embodiment mentioned above, It can change suitably.

また、上述した実施形態において、携帯電子機器としての携帯電話機1について説明したが、これに限定されず、デジタルカメラ、PHS(登録商標;Personal Handy phone System)、PDA(Personal Digital Assistant)、ポータブルナビゲーション装置、パソコン、ノートパソコン、携帯ゲーム装置等であってもよい。   In the above-described embodiment, the mobile phone 1 as a mobile electronic device has been described. However, the present invention is not limited to this, and is not limited to this. It may be a device, a personal computer, a notebook computer, a portable game device, or the like.

1 携帯電話機(携帯電子機器)
21 メインディスプレイ(報知部)
23 サブカメラ(撮像部)
33 メインカメラ(撮像部)
34 LED(報知部)
35 サブディスプレイ(報知部)
43 バイブレータ(報知部)
462 撮像制御部
465 表情認識部
1 Mobile phone (mobile electronic device)
21 Main display (notification part)
23 Sub camera (imaging part)
33 Main camera (imaging part)
34 LED (notification part)
35 Sub-display (notification part)
43 Vibrator (notification part)
462 Imaging control unit 465 Facial expression recognition unit

Claims (11)

撮像部と、
着信に係る信号を受け付ける通信部と、
前記通信部により着信を受け付けた相手先に関する情報を報知する報知部と、
前記通信部により着信を受け付けると、前記撮像部により被写体を撮像させる撮像制御部と、
前記撮像制御部の制御に従って撮像された前記被写体の画像データにおける人物の顔から当該顔の表情を認識する表情認識部と、
前記表情認識部により認識された前記顔の表情に基づいて前記通信部により受け付けた前記着信に対して異なる態様で応答する通話制御部とを備える携帯電子機器。
An imaging unit;
A communication unit for receiving a signal related to an incoming call;
An informing unit for informing information on a destination that has received an incoming call by the communication unit;
When an incoming call is received by the communication unit, an imaging control unit that images the subject by the imaging unit;
A facial expression recognition unit for recognizing the facial expression of a person's face in the image data of the subject imaged according to the control of the imaging control unit;
A portable electronic device comprising: a call control unit that responds in a different manner to the incoming call received by the communication unit based on the facial expression recognized by the facial expression recognition unit.
前記表情認識部により認識された前記顔の表情が第1表情であるか否かを判定する表情判定部を更に備え、
前記通話制御部は、前記表情判定部により前記顔の表情が前記第1表情であると判定された場合には、前記通信部により受け付けた前記着信に対して予め設定された第1音声で応答し、前記表情判定部により前記顔の表情が前記第1表情ではないと判定された場合には、前記通信部により受け付けた前記着信に対して通話を行う請求項1に記載の携帯電子機器。
A facial expression determination unit for determining whether or not the facial expression recognized by the facial expression recognition unit is a first facial expression;
When the facial expression determination unit determines that the facial expression is the first facial expression, the call control unit responds with the first voice set in advance to the incoming call received by the communication unit The portable electronic device according to claim 1, wherein when the facial expression determination unit determines that the facial expression is not the first facial expression, the mobile electronic device makes a call to the incoming call received by the communication unit.
前記通話は、ハンズフリー通話である請求項2に記載の携帯電子機器。   The portable electronic device according to claim 2, wherein the call is a hands-free call. 前記表情判定部は、前記表情認識部により認識された前記顔の表情が第2表情であるか否かを判定し、
前記通話制御部は、前記表情判定部により前記顔の表情が前記第2表情であると判定された場合には、前記通信部により受け付けた前記着信に対して予め設定された第2音声で応答する請求項2に記載の携帯電子機器。
The facial expression determination unit determines whether or not the facial expression recognized by the facial expression recognition unit is a second facial expression;
When the facial expression determination unit determines that the facial expression is the second facial expression, the call control unit responds with the preset second voice to the incoming call received by the communication unit The portable electronic device according to claim 2.
前記通信部により着信を受け付けると、前記相手先に関する情報を前記報知部により第1態様で報知させ、前記表情認識部により前記顔の表情を認識すると、前記相手先に関する情報を前記報知部により第2態様で報知させる報知制御部を更に備える請求項1から4に記載の携帯電子機器。   When an incoming call is received by the communication unit, information on the destination is notified in the first mode by the notification unit, and when the facial expression is recognized by the facial expression recognition unit, information on the destination is updated by the notification unit. The portable electronic device according to claim 1, further comprising a notification control unit that performs notification in two modes. 前記表情認識部は、前記撮像部により撮像された前記画像データから前記顔の表情と共に、人物の動作を認識し、
前記表情判定部は、前記表情認識部により認識された前記顔の表情が第3表情であり、かつ、前記人物の動作が所定動作であるか否かを判定し、
前記通話制御部は、前記顔の表情が第3表情であり、かつ、前記人物の動作が前記所定動作であると前記表情判定部により判定された場合には、前記通信部により受け付けた前記着信に対して前記第2音声で応答し、前記顔の表情が第3表情ではない、又は前記人物の動作が所定の動作ではないと前記表情判定部により判定された場合には、前記通信部により受け付けた前記着信に対して通話を行う請求項4に記載の携帯電子機器。
The facial expression recognition unit recognizes the movement of a person along with the facial expression from the image data captured by the imaging unit,
The facial expression determination unit determines whether the facial expression recognized by the facial expression recognition unit is a third facial expression, and whether or not the action of the person is a predetermined action;
The call control unit receives the incoming call received by the communication unit when the facial expression is a third facial expression and the facial expression determination unit determines that the action of the person is the predetermined action. In response to the second voice, and when the facial expression determination unit determines that the facial expression is not the third facial expression or the person's movement is not a predetermined movement, the communication unit The portable electronic device according to claim 4, wherein a call is made with respect to the received incoming call.
前記通話は、ハンズフリー通話である請求項6に記載の携帯電子機器。   The portable electronic device according to claim 6, wherein the call is a hands-free call. 前記表情認識部により前記顔の表情が認識された回数をカウントするカウント部と、
前記カウント部によりカウントされた前記回数を、前記顔の表情ごとに記憶する記憶部と、
第1表情が認識された回数が第1閾値を超えるか否かを判定する第1閾値判定部と、
第2表情が認識された回数が第2閾値を超えるか否かを判定する第2閾値判定部とを更に備え、
前記通話制御部は、前記第1表情が認識された回数が前記第1閾値を超える場合には、前記通信部により受け付けた前記着信に対して予め設定された第2音声で応答する請求項1に記載の携帯電子機器。
A count unit for counting the number of times the facial expression is recognized by the facial expression recognition unit;
A storage unit that stores the number of times counted by the counting unit for each facial expression;
A first threshold value determination unit for determining whether or not the number of times the first facial expression is recognized exceeds a first threshold value;
A second threshold determination unit that determines whether or not the number of times the second facial expression is recognized exceeds a second threshold;
The call control unit responds to the incoming call received by the communication unit with a preset second voice when the number of times the first facial expression is recognized exceeds the first threshold. The portable electronic device as described in.
前記通話制御部は、前記第2表情が認識された回数が前記第2閾値を超える場合には、前記通信部により受け付けた前記着信に対してハンズフリー通話を行う請求項8に記載の携帯電子機器。   The portable electronic device according to claim 8, wherein the call control unit performs a hands-free call for the incoming call received by the communication unit when the number of times the second facial expression is recognized exceeds the second threshold. machine. 前記通話制御部は、前記第2表情が認識された回数が前記第2閾値を超えず、前記第1表情が認識された回数が前記第1閾値を超えない場合には、前記通信部により受け付けた前記着信に対して予め設定された第1音声で応答する請求項8又は9に記載の携帯電子機器。   When the number of times the second facial expression is recognized does not exceed the second threshold value and the number of times the first facial expression is recognized does not exceed the first threshold value, the call control unit is accepted by the communication unit. The portable electronic device according to claim 8 or 9, which responds to the incoming call with a preset first voice. 撮像部と、
着信を受け付ける通信部と、
前記通信部により着信を受け付けた相手先に関する情報を報知する報知部と、
着信を受け付けると、被写体を撮像させ、撮像した前記被写体の画像データから人物の顔を認識し、認識した前記顔の表情を認識し、認識した前記顔の表情に基づいて、受け付けた前記着信に対して異なる態様で応答する制御部とを備える携帯電子機器。
An imaging unit;
A communication unit that accepts incoming calls;
An informing unit for informing information on a destination that has received an incoming call by the communication unit;
When the incoming call is accepted, the subject is imaged, the face of the person is recognized from the image data of the taken subject, the recognized facial expression is recognized, and the received incoming call is recognized based on the recognized facial expression. A portable electronic device comprising a control unit that responds in a different manner.
JP2010071786A 2010-03-26 2010-03-26 Portable electronic device Pending JP2011205475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010071786A JP2011205475A (en) 2010-03-26 2010-03-26 Portable electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010071786A JP2011205475A (en) 2010-03-26 2010-03-26 Portable electronic device

Publications (1)

Publication Number Publication Date
JP2011205475A true JP2011205475A (en) 2011-10-13

Family

ID=44881621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010071786A Pending JP2011205475A (en) 2010-03-26 2010-03-26 Portable electronic device

Country Status (1)

Country Link
JP (1) JP2011205475A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012017755A1 (en) 2011-09-21 2013-03-21 Hitachi Automotive Systems, Ltd. Electronic control device
JP2013197702A (en) * 2012-03-16 2013-09-30 Ntt Docomo Inc Mobile terminal and incoming call response method
JP2014165852A (en) * 2013-02-27 2014-09-08 Oki Electric Ind Co Ltd Information processing device, information processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012017755A1 (en) 2011-09-21 2013-03-21 Hitachi Automotive Systems, Ltd. Electronic control device
JP2013197702A (en) * 2012-03-16 2013-09-30 Ntt Docomo Inc Mobile terminal and incoming call response method
JP2014165852A (en) * 2013-02-27 2014-09-08 Oki Electric Ind Co Ltd Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
KR101399034B1 (en) Mobile electronic device
CN108027588B (en) Wrist watch with receiving function
ES2444716T3 (en) Apparatus and method to provide emotion expression service in mobile communication terminals
US9332102B2 (en) Mobile terminal device, storage medium and sound output control method
JP5805503B2 (en) Portable terminal, display direction control program, and display direction control method
US20100105436A1 (en) Information processing terminal, method of controlling the information processing terminal, and program for controlling the same
CN104038625A (en) Automatic routing of call audio at incoming call
US8634872B2 (en) Mobile terminal for distinguishing an ear during a call and method thereof
KR20150026050A (en) Image processing method and electronic device thereof
JP2006174288A (en) Mobile terminal apparatus, collision avoidance method, collision avoidance program and recording medium
CN105025156A (en) Communication method and electronic device thereof
CN109215683A (en) A kind of reminding method and terminal
JP6163133B2 (en) Electronic device and charging notification method in electronic device
CN105516917A (en) Method and device for realizing safe driving
US9813546B2 (en) Electronic apparatus and method for controlling electronic apparatus
CN109451144A (en) A kind of message treatment method and terminal device
CN109257489B (en) Display method and mobile terminal
JP2011205475A (en) Portable electronic device
US10021303B2 (en) Electronic apparatus, recording medium and electronic apparatus system
CN110113487A (en) A kind of information prompting method, mobile terminal and computer readable storage medium
JP5322317B2 (en) Mobile phone terminal, program, and incoming call response method for mobile phone terminal
JP5627342B2 (en) mobile phone
US20210161416A1 (en) Biometric data measurement system and information processing device
JP2013219566A (en) Portable information terminal
CN113879923A (en) Elevator control method, system, device, electronic equipment and storage medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120803