JP5783441B2 - Input device and input method - Google Patents

Input device and input method Download PDF

Info

Publication number
JP5783441B2
JP5783441B2 JP2011051411A JP2011051411A JP5783441B2 JP 5783441 B2 JP5783441 B2 JP 5783441B2 JP 2011051411 A JP2011051411 A JP 2011051411A JP 2011051411 A JP2011051411 A JP 2011051411A JP 5783441 B2 JP5783441 B2 JP 5783441B2
Authority
JP
Japan
Prior art keywords
unit
face
face image
image
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011051411A
Other languages
Japanese (ja)
Other versions
JP2012190126A (en
Inventor
昌幸 串田
昌幸 串田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011051411A priority Critical patent/JP5783441B2/en
Publication of JP2012190126A publication Critical patent/JP2012190126A/en
Application granted granted Critical
Publication of JP5783441B2 publication Critical patent/JP5783441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、入力装置、入力方法に関する。   The present invention relates to an input device and an input method.

近年、携帯電話機などの携帯端末において、ユーザが操作画面を簡単に変化させることができる技術が提案されている。   2. Description of the Related Art In recent years, a technique has been proposed that allows a user to easily change an operation screen in a mobile terminal such as a mobile phone.

例えば、特許文献1には、表示部と表示部側にカメラを備える携帯端末において、カメラが撮影した撮影画像内のユーザの顔の方向に応じて操作画面を移動(スクロール)させたり、撮影画像内のユーザの顔の大きさに応じて操作画面を拡大または縮小させたりする技術が記載されている。   For example, in Patent Document 1, in a portable terminal including a display unit and a camera on the display unit side, the operation screen is moved (scrolled) according to the direction of the user's face in the captured image captured by the camera, or the captured image is displayed. A technique for enlarging or reducing the operation screen according to the size of the user's face is described.

しかし、特許文献1に記載の技術では、上述のように操作画面を変化させるには、操作画面に対して、ユーザが顔を左右に振ったり、顔を近付けたり遠ざけたりするような動作が必要である。このような動作は、人目を気にするような場面においては不自然な動作と思われる懸念があり、特許文献1に記載の技術は実用的ではないという課題があった。   However, in the technique described in Patent Document 1, in order to change the operation screen as described above, an operation that the user shakes the face to the left or right, moves the face closer to or away from the operation screen is necessary. It is. There is a concern that such an operation is considered to be an unnatural operation in a scene where human eyes are concerned, and there is a problem that the technique described in Patent Document 1 is not practical.

また、特許文献2から7には、本体の傾きや位置の変化などを検出可能な加速度センサなどの手段を備える携帯端末において、本体を傾ける操作などに応じて、操作画面をスクロールさせたり、操作画面を拡大または縮小させたりする技術が記載されている。   Further, in Patent Documents 2 to 7, in a portable terminal having means such as an acceleration sensor capable of detecting a tilt or a position change of the main body, an operation screen is scrolled or operated in accordance with an operation of tilting the main body. A technique for enlarging or reducing the screen is described.

しかし、特許文献2から7に記載の技術では、例えば、現在の操作画面上でカーソルが位置している項目の選択を確定させるためには、その状態で本体を振るといった不自然な動作が必要であるという課題があった。   However, in the techniques described in Patent Documents 2 to 7, for example, in order to confirm the selection of the item on which the cursor is positioned on the current operation screen, an unnatural operation such as shaking the main body in that state is necessary. There was a problem of being.

特開2009−031368号公報JP 2009-031368 A 特許第3234633号公報Japanese Patent No. 3234633 特許第3582433号公報Japanese Patent No. 3582433 特許第4077469号公報Japanese Patent No. 4077469 特開平07−064754号公報Japanese Patent Application Laid-Open No. 07-064754 特開平07−134641号公報JP 07-134641 A 特開平07−271505号公報JP 07-271505 A

上述のように、特許文献1から7に記載の技術では、ユーザが操作画面を変化させることはできるものの、不自然な動作が必要になるという課題があった。   As described above, the techniques described in Patent Documents 1 to 7 have a problem that an unnatural operation is required although the user can change the operation screen.

そこで、本発明の目的は、上述した課題を解決することができる入力装置、入力方法を提供することにある。   Accordingly, an object of the present invention is to provide an input device and an input method that can solve the above-described problems.

本発明の入力装置は、
操作画面を表示する表示部と、
前記表示部に対向するものの画像を撮影する撮影部と、
前記撮影部が撮影した撮影画像から顔画像を抽出する顔画像抽出部と、
前記顔画像に含まれる顔の所定部位の変化を検出する顔部位検出部と、
前記所定部位の変化が検出された場合に、前記表示部の操作画面を変更する画面表示変更部と、を有する。
The input device of the present invention is
A display for displaying the operation screen;
A photographing unit for photographing an image of the object facing the display unit;
A face image extraction unit for extracting a face image from a photographed image photographed by the photographing unit;
A face part detection unit for detecting a change in a predetermined part of the face included in the face image;
A screen display changing unit that changes an operation screen of the display unit when a change in the predetermined part is detected.

本発明の入力方法は、
表示部に操作画面を表示する画面表示ステップと、
前記表示部に対向するものの画像を撮影する撮影ステップと、
前記撮影した撮影画像から顔画像を抽出する顔画像抽出ステップと、
前記顔画像に含まれる顔の所定部位の変化を検出する顔部位検出ステップと、
前記所定部位の変化が検出された場合に、前記表示部の操作画面を変更する画面変更ステップと、を有する。
The input method of the present invention includes:
A screen display step for displaying an operation screen on the display;
A photographing step of photographing an image of the object facing the display unit;
A face image extraction step of extracting a face image from the photographed photographed image;
A face part detection step for detecting a change in a predetermined part of the face included in the face image;
And a screen changing step for changing the operation screen of the display unit when a change in the predetermined part is detected.

本発明によれば、ユーザは、顔を左右に振るなどの不自然な動作を行わなくても、操作画面を簡単に変化させることができる。   According to the present invention, the user can easily change the operation screen without performing an unnatural operation such as shaking the face to the left or right.

本発明の第1の実施形態の入力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the input device of the 1st Embodiment of this invention. 本発明の第2〜第4の実施形態の携帯電話機の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone of the 2nd-4th embodiment of this invention. 本発明の第2の実施形態の携帯電話機の制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part of the mobile telephone of the 2nd Embodiment of this invention. 本発明の第2の実施形態の携帯電話機の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the mobile telephone of the 2nd Embodiment of this invention. 本発明の第2の実施形態の携帯電話機の動作をより詳細に説明するフローチャートである。It is a flowchart explaining the operation | movement of the mobile telephone of the 2nd Embodiment of this invention in detail. 本発明の第2の実施形態の携帯電話機において、顔画像が抽出されたことを示すアイコンを表示している状態を示す図である。It is a figure which shows the state which is displaying the icon which shows that the face image was extracted in the mobile telephone of the 2nd Embodiment of this invention. 本発明の第2の実施形態の携帯電話機において、図6に示したアイコンの表示を消灯している状態を示す図である。FIG. 7 is a diagram showing a state in which the icon shown in FIG. 6 is turned off in the mobile phone according to the second embodiment of the present invention. 本発明の第3の実施形態の携帯電話機の制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part of the mobile telephone of the 3rd Embodiment of this invention. 本発明の第3の実施形態の携帯電話機の動作を説明する図である。It is a figure explaining operation | movement of the mobile telephone of the 3rd Embodiment of this invention. 本発明の第4の実施形態の携帯電話機の制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part of the mobile telephone of the 4th Embodiment of this invention.

以下に、本発明を実施するための形態について図面を参照して説明する。
(1)第1の実施形態
図1は、本発明の第1の実施形態の入力装置の構成を示すブロック図である。
EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated with reference to drawings.
(1) First Embodiment FIG. 1 is a block diagram showing a configuration of an input device according to a first embodiment of the present invention.

図1に示すように、本実施形態の入力装置は、表示部11と、撮影部12と、顔画像抽出部13と、顔部位検出部14と、画面表示変更部15と、を有する。   As shown in FIG. 1, the input device of the present embodiment includes a display unit 11, a photographing unit 12, a face image extraction unit 13, a face part detection unit 14, and a screen display change unit 15.

表示部11は、操作画面を表示する。   The display unit 11 displays an operation screen.

ここで、操作画面とは、表示部11がON状態にある時に表示している画面全般を指すものとする。   Here, the operation screen refers to the entire screen displayed when the display unit 11 is in the ON state.

撮影部12は、表示部11側に設けられ、表示部11に対向する被写体の画像を撮影するカメラなどである。   The imaging unit 12 is a camera or the like that is provided on the display unit 11 side and that captures an image of a subject that faces the display unit 11.

顔画像抽出部13は、撮影部12が撮影した撮影画像から顔画像を抽出する。   The face image extraction unit 13 extracts a face image from the photographed image photographed by the photographing unit 12.

顔部位検出部14は、顔画像抽出部13が抽出した顔画像に含まれる顔の所定部位の変化を検出する。   The face part detection unit 14 detects a change in a predetermined part of the face included in the face image extracted by the face image extraction unit 13.

ここで、所定部位とは、例えば、目もしくは口のいずれか、または両方などであり、また、所定部位の変化とは、例えば、目を閉じること、口を開けることなどである。また、目や口の開閉は、例えば、目や口に該当すると認識した位置において、黒っぽく映っている部分の大きさ(面積)を基に検出する。   Here, the predetermined part is, for example, one or both of the eyes and the mouth, and the change of the predetermined part is, for example, closing the eyes, opening the mouth, and the like. Further, the opening and closing of the eyes and mouth is detected based on the size (area) of the portion appearing black at a position recognized as corresponding to the eyes and mouth, for example.

画面表示変更部15は、顔部位検出部14が所定部位の変化を検出した場合に、表示部11の操作画面を変更する。   The screen display change unit 15 changes the operation screen of the display unit 11 when the face part detection unit 14 detects a change in a predetermined part.

ここで、操作画面の変更とは、例えば、現在の操作画面上でカーソルが位置している項目の選択を確定し、その項目に対応する操作画面に切り替えたり、現在の操作画面を拡大表示したりすることなどである。   Here, changing the operation screen means, for example, confirming the selection of the item where the cursor is located on the current operation screen, switching to the operation screen corresponding to the item, or displaying the current operation screen in an enlarged manner. And so on.

上述したように本実施形態によれば、撮影画像から抽出した顔画像に含まれる所定部位の変化が検出されると、表示部11の操作画面を変更する。   As described above, according to the present embodiment, when a change in a predetermined part included in the face image extracted from the photographed image is detected, the operation screen of the display unit 11 is changed.

したがって、ユーザは、顔を左右に振るなどの不自然な動作を行わなくても、目を閉じたり、口を開けたりするなどの動作を行うだけで、操作画面を簡単に変化させることができる。
(2)第2の実施形態
本実施形態は、本発明の入力装置を携帯電話機に適用し、第1の実施形態の構成および動作をより具体化した例である。
Therefore, the user can easily change the operation screen by performing an operation such as closing his eyes or opening his mouth without performing an unnatural operation such as shaking his / her face to the left or right. .
(2) Second Embodiment This embodiment is an example in which the input device of the present invention is applied to a mobile phone and the configuration and operation of the first embodiment are more concrete.

図2は、本発明の第2の実施形態の入力装置としての携帯電話機の構成を示すブロック図である。   FIG. 2 is a block diagram showing a configuration of a mobile phone as an input device according to the second embodiment of the present invention.

図2に示すように、本実施形態の携帯電話機は、アンテナ201と、無線送受信部202と、制御部203と、動作用メモリ204と、保持用メモリ205と、操作部206と、表示部207と、カメラ208と、加速度センサ209と、を有している。   As shown in FIG. 2, the cellular phone according to the present embodiment includes an antenna 201, a wireless transmission / reception unit 202, a control unit 203, an operation memory 204, a holding memory 205, an operation unit 206, and a display unit 207. And a camera 208 and an acceleration sensor 209.

アンテナ201は、位相変調された電波を送受信する。   The antenna 201 transmits and receives phase-modulated radio waves.

無線送受信部202は、アンテナ201で受信した電波をデジタル信号に復調する共に、制御部203から出力されたデジタル信号に対する位相変調を行う。   The wireless transmission / reception unit 202 demodulates the radio wave received by the antenna 201 into a digital signal and performs phase modulation on the digital signal output from the control unit 203.

操作部206は、ユーザが電話をかける際に電話番号を入力したり、アドレス帳登録時や電子メール作成時にテキスト入力を行ったり、各種機能の設定入力を行ったりするために用いられ、タッチパネルなどで構成される場合もある。   The operation unit 206 is used for inputting a telephone number when a user makes a call, inputting text when registering an address book or creating an e-mail, and inputting setting of various functions. It may be composed of

表示部207は、図1の表示部11に対応するものであり、操作画面を表示する。   The display unit 207 corresponds to the display unit 11 in FIG. 1 and displays an operation screen.

ここで、操作画面とは、ON状態にある表示部207が表示している画面全般を指すものとする。操作画面の具体例としては、電話の発着信時に相手電話番号を表示する画面、操作部206に入力された各種入力内容を表示する画面、電子メールの内容を表示する画面、各種機能を呼び出すためのメニュー画面などがある。   Here, the operation screen refers to the entire screen displayed on the display unit 207 in the ON state. Specific examples of the operation screen include a screen for displaying the other party's telephone number when making and receiving calls, a screen for displaying various input contents input to the operation unit 206, a screen for displaying the contents of e-mail, and calling various functions There are menu screens.

カメラ208は、図1の撮影部12に対応するものであり、表示部207側に設けられ、表示部207に対向する被写体の画像を撮影する。   The camera 208 corresponds to the photographing unit 12 in FIG. 1, is provided on the display unit 207 side, and photographs an image of a subject facing the display unit 207.

加速度センサ209は、例えば、X軸方向、Y軸方向およびZ軸方向の加速度を測定する3軸加速度センサである。   The acceleration sensor 209 is, for example, a three-axis acceleration sensor that measures acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction.

動作用メモリ204は、制御部203が実行するプログラムや固定データを格納するために使用されると共に、制御部203が動作を行う際のワークエリアとしても使用される。   The operation memory 204 is used to store programs executed by the control unit 203 and fixed data, and is also used as a work area when the control unit 203 performs operations.

保持用メモリ205は、携帯電話機で送受信する電子メール、アドレス帳、カメラ208が撮影した撮影画像の画像データなどを登録する。   The holding memory 205 registers e-mails transmitted / received by the mobile phone, an address book, image data of a photographed image taken by the camera 208, and the like.

また、保持用メモリ205は、顔の中の予め定められた所定部位、その所定部位について予め定められた変化の内容、その所定部位の変化の内容に応じて行われる予め定められた処理の内容などのデータを予め登録する。   Further, the holding memory 205 stores a predetermined part in the face, details of a predetermined change for the predetermined part, and details of a predetermined process performed according to the contents of the change of the predetermined part. Such data is registered in advance.

なお、動作用メモリ204および保持用メモリ205の一部は、物理的に同一のデバイス内で領域を分けて実現されるのが一般的である。   Note that a part of the operation memory 204 and the holding memory 205 is generally realized by dividing an area in the physically same device.

制御部203は、携帯電話機内の各構成要素の制御を行うことで、各種機能を実現するものであり、CPU(Central Processing Unit)などで構成される。   The control unit 203 realizes various functions by controlling each component in the mobile phone, and includes a CPU (Central Processing Unit) and the like.

例えば、制御部203は、無線送受信部202で復調されたデジタル信号から自己の携帯電話機の呼び出し番号を検出して着信を報知する処理や、音声信号やデジタル信号の処理を行うことで、音声通話機能、メール送受信機能、およびサーバ接続機能などを実現する。   For example, the control unit 203 detects a call number of its own mobile phone from the digital signal demodulated by the wireless transmission / reception unit 202 and notifies the incoming call, or processes the voice signal or the digital signal to perform a voice call. Functions, mail transmission / reception functions, server connection functions, etc. are realized.

また、制御部203は、カメラ208を制御し、明るさ、色調、画角サイズなどの設定、撮影タイミングの指定などを行い、カメラ208が撮影した撮影画像の画像データを取得する。また、制御部203は、カメラ208から取得した画像データに対し、所定のサイズ変換、フォーマット変換を施して表示部207に表示すると共に、操作部206上で行われるユーザ操作に応じ、所定の圧縮処理を施して保持用メモリ205に保存する。これらの動作により、制御部203は、カメラ撮影機能を実現する。   In addition, the control unit 203 controls the camera 208, sets brightness, color tone, angle of view size, and the like, specifies shooting timing, and acquires image data of a captured image captured by the camera 208. In addition, the control unit 203 performs predetermined size conversion and format conversion on the image data acquired from the camera 208 and displays the image data on the display unit 207, and also performs predetermined compression according to a user operation performed on the operation unit 206. The data is processed and stored in the holding memory 205. With these operations, the control unit 203 realizes a camera photographing function.

また、制御部203は、加速度センサ209で加速度を測定した測定結果を取得し、携帯電話機の重力方向に対する傾きや物理的な動き(移動)を検知することが可能である。また、制御部203は、加速度センサ209の測定タイミングを制御する。ただし、加速度センサ209は、ある間隔で自立的に加速度の測定を行い、加速度の変化がある閾値を超えたら、その旨を制御部203に通知することも可能である。   In addition, the control unit 203 can acquire a measurement result obtained by measuring acceleration with the acceleration sensor 209 and detect a tilt or a physical movement (movement) of the mobile phone with respect to the gravity direction. Further, the control unit 203 controls the measurement timing of the acceleration sensor 209. However, the acceleration sensor 209 can measure the acceleration independently at a certain interval, and can notify the control unit 203 when the acceleration change exceeds a certain threshold.

図3は、本実施形態の携帯電話機の制御部203の構成を示すブロック図である。なお、図3は、本発明の特徴的な構成要素のみを抜粋して図示したものであり、上述した動作等を行うその他の構成要素については省略している。   FIG. 3 is a block diagram illustrating a configuration of the control unit 203 of the mobile phone according to the present embodiment. FIG. 3 shows only the characteristic components of the present invention extracted, and other components that perform the above-described operations and the like are omitted.

図3に示すように、制御部203は、本発明の特徴的な構成要素として、顔画像抽出部210、顔部位検出部211、および画面表示変更部212を有している。   As shown in FIG. 3, the control unit 203 includes a face image extraction unit 210, a face part detection unit 211, and a screen display change unit 212 as characteristic components of the present invention.

顔画像抽出部210は、図1の顔画像抽出部13に対応するものであり、カメラ208が撮影した撮影画像から顔画像を抽出する。   The face image extraction unit 210 corresponds to the face image extraction unit 13 in FIG. 1, and extracts a face image from a captured image captured by the camera 208.

顔部位検出部211は、図1の顔部位検出部14に対応するものであり、顔画像抽出部210が抽出した顔画像に含まれる顔の所定部位の変化を検出する。   The face part detection unit 211 corresponds to the face part detection unit 14 of FIG. 1, and detects a change in a predetermined part of the face included in the face image extracted by the face image extraction unit 210.

ここで、所定部位とは、例えば、目もしくは口のいずれか、または両方などであり、また、所定部位の変化とは、例えば、右目を閉じること、口を開けることなどである。また、目や口の開閉は、例えば、顔画像における目や口に該当すると認識した位置において、黒っぽく映っている部分の大きさ(面積)を基に検出する。   Here, the predetermined part is, for example, either or both of the eyes and the mouth, and the change of the predetermined part is, for example, closing the right eye or opening the mouth. Further, the opening and closing of the eyes and mouth is detected based on the size (area) of the portion appearing black at the position recognized as corresponding to the eyes and mouth in the face image, for example.

画面表示変更部212は、図1の画面表示変更部15に対応するものであり、顔部位検出部211が所定部位の変化を検出した場合に、表示部207の操作画面を変更する。   The screen display change unit 212 corresponds to the screen display change unit 15 in FIG. 1 and changes the operation screen of the display unit 207 when the face part detection unit 211 detects a change in a predetermined part.

ここで、操作画面の変更とは、例えば、現在の操作画面上でカーソルが当たっている項目の選択を確定し、その項目に対応する操作画面に切り替えたり、現在の操作画面を拡大表示したりすることなどである。   Here, changing the operation screen means, for example, confirming the selection of the item on which the cursor is placed on the current operation screen, switching to the operation screen corresponding to the item, or enlarging the current operation screen. To do.

以下、本実施形態の携帯電話機の動作について、図4を用いて説明する。   Hereinafter, the operation of the mobile phone according to the present embodiment will be described with reference to FIG.

図4は、本実施形態の携帯電話機の動作を説明するフローチャートである。   FIG. 4 is a flowchart for explaining the operation of the mobile phone according to the present embodiment.

図4に示すように、まず、制御部203は、表示部207がONで操作画面を表示している状態で、カメラ208を起動する(ステップST11)。   As shown in FIG. 4, first, the control unit 203 activates the camera 208 in a state where the display unit 207 is ON and an operation screen is displayed (step ST11).

カメラ208の起動後、制御部203の顔画像抽出部210は、カメラ208が撮影した撮影画像から顔画像を抽出する(ステップST12)。   After activation of the camera 208, the face image extraction unit 210 of the control unit 203 extracts a face image from the captured image captured by the camera 208 (step ST12).

ステップST12において、顔画像が抽出された場合(ステップST12のYES)、制御部203の顔部位検出部211は、保持用メモリ205から、予め定められた所定部位とその所定部位の変化の内容を読み出し、その所定部位にその変化が生じるか否かを検出する(ステップST13)。   In step ST12, when a face image is extracted (YES in step ST12), the face part detection unit 211 of the control unit 203 obtains a predetermined part from the holding memory 205 and the content of the change of the predetermined part. Reading and detecting whether or not the change occurs in the predetermined part (step ST13).

ステップST13において、所定部位に変化が検出された場合(ステップST13のYES)、制御部203の画面表示変更部212は、保持用メモリ205から、所定部位の変化の内容に応じた処理の内容を読み出し、その処理を実行することで表示部207の操作画面を変更する(ステップST14)。   When a change is detected in the predetermined part in step ST13 (YES in step ST13), the screen display changing unit 212 of the control unit 203 reads the content of the process corresponding to the content of the change in the predetermined part from the holding memory 205. The operation screen of the display unit 207 is changed by reading and executing the process (step ST14).

表示部207がONである間は、上記ステップST12からステップST14までの処理を繰り返す。   While the display unit 207 is ON, the processes from step ST12 to step ST14 are repeated.

以降に、表示部207がOFFになると(ステップST15のYES)、制御部203は、カメラ208を終了させる(ステップST16)。   Thereafter, when the display unit 207 is turned off (YES in step ST15), the control unit 203 ends the camera 208 (step ST16).

なお、ステップST15における表示部207のOFFとは、携帯電話機の電源自体がOFFになる場合と、携帯電話機の電源自体がONである状態で、表示部207をOFFさせる場合と、の双方を含む。携帯電話機の電源自体がONである状態で、表示部207をOFFさせる場合とは、例えば、ユーザが操作部206上で省電力モードに移行するための操作を行って表示部207をOFFさせた場合や、携帯電話機が内側に表示部207がある開閉型の装置である場合においてユーザが携帯電話機の本体を閉じて表示部207をOFFさせた場合などを指す。ただし、ステップST15において、携帯電話機の電源自体がOFFになり表示部207がOFFになっている場合には、その時点でカメラ208も終了していることになる。そのため、ステップST16において、カメラ208を終了させる処理は不要である。   Note that turning off the display unit 207 in step ST15 includes both the case where the power supply of the mobile phone itself is turned off and the case where the display unit 207 is turned off while the power supply of the mobile phone itself is on. . The case where the display unit 207 is turned off while the power supply of the mobile phone is turned on is, for example, that the user performs an operation for shifting to the power saving mode on the operation unit 206 to turn off the display unit 207. Or a case where the user closes the main body of the cellular phone and turns off the display unit 207 when the cellular phone is an open / close type device having the display unit 207 inside. However, in step ST15, when the power supply of the mobile phone itself is turned off and the display unit 207 is turned off, the camera 208 is also terminated at that time. Therefore, in step ST16, the process for terminating the camera 208 is not necessary.

ここで、保持用メモリ205に登録するデータの具体例について説明する。   Here, a specific example of data registered in the holding memory 205 will be described.

例えば、保持用メモリ205は、所定部位が目と口である旨のデータを登録する。   For example, the holding memory 205 registers data indicating that the predetermined part is an eye and a mouth.

また、保持用メモリ205は、右目をある一定時間以上閉じていた場合の処理が、現在の操作画面上でカーソルが位置している項目の選択を確定し、その項目に対応する操作画面に切り替える処理である旨のデータや、口をある一定時間以上開いていた場合の処理が、現在の操作画面を拡大表示する処理である旨のデータを登録する。   In the holding memory 205, when the right eye is closed for a certain period of time, the selection of the item on which the cursor is positioned on the current operation screen is confirmed, and the operation screen corresponding to the item is switched. Data indicating that the process is performed, and data indicating that the process when the mouth is opened for a certain period of time or more are processes for enlarging and displaying the current operation screen are registered.

さらに、保持用メモリ205は、電子ブックや新聞など複数ページにまたがるコンテンツを表示しているような状況において、右目をある一定時間(例えば、a秒)以上閉じている場合の処理が、次のページに切り替える処理である旨のデータや、左目をある一定時間(例えば、a秒)以上閉じている場合の処理が、前のページに切り替える処理である旨のデータや、いずれかの目を一定時間(例えば、b秒。b>a)以上閉じている場合の処理が、閉じている目の方向へのページ捲り動作を繰り返す処理である旨のデータを登録しても良い。このように、本実施形態においては、操作画面ごとに、所定部位の変化に応じた処理を定義することが可能である。   Furthermore, in a situation where the holding memory 205 is displaying content spanning multiple pages such as an electronic book or a newspaper, the processing when the right eye is closed for a certain period of time (for example, a second) is performed as follows. Data indicating that the process is switching to the page, data indicating that the process when the left eye is closed for a certain period of time (for example, a second) is switching to the previous page, or any eye is constant Data may be registered indicating that the processing in the case of closing for a time (for example, b seconds, b> a) or more is processing for repeating the page turning operation toward the closed eyes. Thus, in this embodiment, it is possible to define a process according to a change in a predetermined part for each operation screen.

次に、本実施形態の携帯電話機の動作を、図5、図6、および図7を用いて、より具体的に説明する。   Next, the operation of the mobile phone according to the present embodiment will be described more specifically with reference to FIGS. 5, 6, and 7.

図5は、本実施形態の携帯電話機の動作をより詳細に説明するフローチャートである。   FIG. 5 is a flowchart for explaining the operation of the mobile phone of this embodiment in more detail.

図6および図7は、本実施形態の携帯電話機の外観図であり、図6は、顔画像が抽出されたことを示すアイコンを操作画面に表示している状態を、図7は、そのアイコンの表示を消灯している状態を、それぞれ示している。なお、図6および図7において、301は携帯電話機の本体、207は表示部、208はカメラ(カメラのレンズ)である。   6 and 7 are external views of the mobile phone according to the present embodiment. FIG. 6 shows a state in which an icon indicating that a face image has been extracted is displayed on the operation screen, and FIG. The state where the display is turned off is shown respectively. 6 and 7, reference numeral 301 denotes a mobile phone body, 207 denotes a display unit, and 208 denotes a camera (camera lens).

図5に示すように、まず、図4と同様に、ステップST11,ST12の処理を行う。   As shown in FIG. 5, first, similarly to FIG. 4, the processes of steps ST11 and ST12 are performed.

ステップST12において、顔画像が抽出された場合(ステップST12のYES)、制御部203の画面表示変更部211は、図6に示すように、顔画像が抽出された状態であることを示すアイコン302を表示部207の一部に表示する(ステップST21)。   When a face image is extracted in step ST12 (YES in step ST12), the screen display changing unit 211 of the control unit 203, as shown in FIG. 6, shows an icon 302 indicating that the face image has been extracted. Is displayed on a part of the display unit 207 (step ST21).

一方、ステップST12において、顔画像が抽出されなかった場合(ステップST12のNO)、制御部203の画面表示変更部211は、図7に示すように、アイコン302の表示を消灯させる(ステップST22)。   On the other hand, when a face image is not extracted in step ST12 (NO in step ST12), the screen display changing unit 211 of the control unit 203 turns off the display of the icon 302 as shown in FIG. 7 (step ST22). .

このとき、図6および図7に示すように、カメラ208が撮影した撮影画像303を表示部207の一部に縮小して表示しても良い。これにより、携帯電話機を使用するユーザは、撮影画像303を見ながら、自身の顔の位置を顔画像が抽出可能な位置に動かすことができる。   At this time, as shown in FIGS. 6 and 7, the captured image 303 captured by the camera 208 may be reduced and displayed on a part of the display unit 207. Thereby, the user using the mobile phone can move the position of his / her face to a position where the face image can be extracted while viewing the captured image 303.

以降、図4と同様に、ステップST13〜ST16の処理を行う。   Thereafter, similarly to FIG. 4, the processes of steps ST13 to ST16 are performed.

上述したように本実施形態によれば、撮影画像から抽出した顔画像に含まれる所定部位の変化が検出されると、表示部207の操作画面を変更するため、ユーザは、顔を左右に振るなどの不自然な動作を行わなくても、目を閉じたり、口を開けたりするなどの動作を行うだけで、操作画面を簡単に変化させることができる。   As described above, according to the present embodiment, when a change in a predetermined part included in the face image extracted from the photographed image is detected, the user shakes the face left and right to change the operation screen of the display unit 207. Even if an unnatural operation such as the above is not performed, the operation screen can be easily changed only by performing an operation such as closing an eye or opening a mouth.

したがって、ユーザは、荷物を持っていたり、電車やバス内で吊り革につかまっていたりするなどして片手が塞がり、空いた方の手で携帯電話機を保持するような場合でも、人目を気にするような動きをしなくても、携帯電話機の操作が可能となる。   Therefore, even if the user holds his mobile phone with his free hand, such as holding a baggage or holding it in a leather strap in a train or a bus, The mobile phone can be operated without such a movement.

また、操作部206がタッチパネルで構成される場合、表示部207の画面に触らなくても携帯電話機の操作が可能となるため、タッチパネルと一体となった表示部207の表面を汚す機会を低減することができる。   In addition, when the operation unit 206 is configured with a touch panel, the mobile phone can be operated without touching the screen of the display unit 207, thereby reducing the chance of smearing the surface of the display unit 207 integrated with the touch panel. be able to.

また、本実施形態によれば、顔画像が抽出されたこと示すアイコン302を表示部207に表示するため、ユーザは、アイコン302の表示に基づいて、顔操作が可能な状態であることが分かる。なお、顔画像が抽出されたこと示す情報は、アイコン302に限らず、文字、図形等で表示しても良い。   Further, according to the present embodiment, since the icon 302 indicating that the face image has been extracted is displayed on the display unit 207, the user can understand that the face operation is possible based on the display of the icon 302. . The information indicating that the face image has been extracted is not limited to the icon 302, and may be displayed as a character, a figure, or the like.

また、本実施形態によれば、カメラ208が撮影した撮影画像303を表示部207に表示するため、ユーザは、撮影画像303を見ながら、自身の顔を顔画像が抽出可能な位置に動かすことができる。
(3)第3の実施形態
図8は、本発明の第3の実施形態の入力装置としての携帯電話機の制御部203の構成を示すブロック図である。
In addition, according to the present embodiment, since the captured image 303 captured by the camera 208 is displayed on the display unit 207, the user moves his / her face to a position where a facial image can be extracted while viewing the captured image 303. Can do.
(3) Third Embodiment FIG. 8 is a block diagram illustrating a configuration of a control unit 203 of a mobile phone as an input device according to a third embodiment of the present invention.

図8を参照すると、本実施形態の携帯電話機は、図3に示した第2の実施形態と比較して、制御部203内に対象画像特定部213を設けた点が異なる。   Referring to FIG. 8, the mobile phone of this embodiment is different from the second embodiment shown in FIG. 3 in that a target image specifying unit 213 is provided in the control unit 203.

対象画像特定部213は、カメラ208が撮影した撮影画像内に複数の人物の顔画像が存在する場合、複数の人物の顔画像の中から、顔部位検出部211が所定部位の変化を検出する検出対象の顔画像を特定する。   When there are a plurality of human face images in the captured image captured by the camera 208, the target image specifying unit 213 detects a change in a predetermined part from the plurality of human face images. A face image to be detected is specified.

図9は、本実施形態の携帯電話機の動作を説明する図である。   FIG. 9 is a diagram for explaining the operation of the mobile phone according to the present embodiment.

図9においては、撮影画像内には、被写体A,B,Cの3人の顔画像が存在する。   In FIG. 9, there are three face images of subjects A, B, and C in the photographed image.

このうち、被写体Cは、片目が撮影画像から外れているため、顔画像抽出部210が顔画像として抽出することはできない。   Of these, the subject C cannot be extracted as a face image by the face image extraction unit 210 because one eye is out of the captured image.

また、被写体Bは、顔画像抽出部210が顔画像として抽出することはできるが、被写体Bの顔は、被写体Aの顔と比べて小さく、撮影画像の端の方に位置している。   The subject B can be extracted as a face image by the face image extraction unit 210, but the face of the subject B is smaller than the face of the subject A and is located toward the end of the captured image.

ここで、携帯電話機を実際に使用しているユーザは、撮影画像内で最も大きく映っているか、または、撮影画像の最も中央付近に映っている可能性が高い。   Here, there is a high possibility that the user who actually uses the mobile phone is reflected most in the captured image or in the vicinity of the center of the captured image.

例えば、図9においては、被写体Aは、撮影画像内で最も大きく映っており、また、撮影画像の最も中央付近に映っているため、携帯電話機を実際に使用しているユーザは被写体Aである可能性が非常に高い。   For example, in FIG. 9, the subject A is the largest in the photographed image, and the subject A is the most centered portion of the photographed image, so the user who actually uses the mobile phone is the subject A. Very likely.

そこで、対象画像特定部213は、顔画像抽出部210が複数の人物の顔画像を抽出した場合、撮影画像内に最も大きく映っている人物の顔画像、または、撮影画像の最も中央付近に映っている人物の顔画像を検出対象と特定し、顔部位検出部211は、対象画像特定部213が検出対象と特定した顔画像に含まれる所定部位の変化を検出する。   Therefore, when the face image extraction unit 210 extracts the face images of a plurality of persons, the target image specifying unit 213 displays the face image of the person most reflected in the captured image or the most centered portion of the captured image. The face part detection unit 211 detects a change in a predetermined part included in the face image specified as the detection target by the target image specification unit 213.

したがって、本実施形態においては、携帯電話機を実際に使用しているユーザの背景に映った人物の動きなどに起因した誤操作を防ぐことができる。
(4)第4の実施形態
図10は、本発明の第4の実施形態の入力装置としての携帯電話機の制御部203の構成を示すブロック図である。
Therefore, in the present embodiment, it is possible to prevent an erroneous operation caused by the movement of a person reflected in the background of the user who actually uses the mobile phone.
(4) Fourth Embodiment FIG. 10 is a block diagram showing a configuration of a control unit 203 of a mobile phone as an input device according to a fourth embodiment of the present invention.

図10を参照すると、本実施形態の携帯電話機は、図3に示した第2の実施形態と比較して、制御部203内に、顔認証部214、部位位置判定部215、および、動作停止部216を設けた点が異なる。   Referring to FIG. 10, the mobile phone according to the present embodiment includes a face authentication unit 214, a part position determination unit 215, and an operation stop in the control unit 203 as compared with the second embodiment illustrated in FIG. 3. The difference is that the portion 216 is provided.

なお、保持用メモリ205には、所定の人物(携帯電話機の所有者など)の顔画像の特徴点のデータを予め登録しておく。   Note that feature point data of a face image of a predetermined person (such as an owner of a mobile phone) is registered in the holding memory 205 in advance.

顔認証部214は、顔画像抽出部210が顔画像を抽出すると、抽出した顔画像の特徴点を、保持用メモリ205に予め登録された所定の人物の顔画像の特徴点と比較することにより、抽出した顔画像を認証する。   When the face image extraction unit 210 extracts the face image, the face authentication unit 214 compares the feature points of the extracted face image with the feature points of the face image of a predetermined person registered in the holding memory 205 in advance. Authenticate the extracted face image.

顔部位検出部211は、顔画像抽出部210が抽出した顔画像が認証された場合に、その顔画像に含まれる所定部位の変化を検出する。   When the facial image extracted by the facial image extraction unit 210 is authenticated, the facial part detection unit 211 detects a change in a predetermined part included in the facial image.

したがって、本実施形態においては、携帯電話機に予め登録されている所定の人物以外の他の人物が操作を行うことを防止でき、セキュリティを確保することが可能になる。   Therefore, in this embodiment, it is possible to prevent other persons from operating other than the predetermined person registered in advance in the mobile phone, and to ensure security.

また、顔部位検出部211は、顔画像抽出部210が抽出した顔画像の認証が成立すると、その旨を部位位置判定部215に通知し、部位位置判定部215は、顔画像抽出部210が抽出した顔画像の認証が成立してから、撮影画像内の所定部位の動きを追従して監視し、所定部位が撮影画像から外れたか否かを判定する。このとき、所定部位の全部が撮影画像から外れたか否かを判定しても良いし、所定部位の一部が撮影画像から外れたか否かを判定しても良い。   Further, when the authentication of the face image extracted by the face image extraction unit 210 is established, the face part detection unit 211 notifies the part position determination unit 215 to that effect, and the part position determination unit 215 is notified by the face image extraction unit 210. After authentication of the extracted face image is established, the movement of a predetermined part in the photographed image is followed and monitored to determine whether or not the predetermined part has deviated from the photographed image. At this time, it may be determined whether or not all of the predetermined part is out of the captured image, or it may be determined whether or not a part of the predetermined part is out of the captured image.

動作停止部216は、所定部位が撮影画像から外れた場合、顔画像抽出部210が抽出した顔画像が再認証されるまで、顔部位検出部211および画面表示変更部212の動作を停止させる。   The operation stopping unit 216 stops the operations of the face part detecting unit 211 and the screen display changing unit 212 until the face image extracted by the face image extracting unit 210 is re-authenticated when the predetermined part is removed from the captured image.

したがって、本実施形態においては、顔部位検出部211の検出処理や画面表示変更部212の操作画面の変更処理を抑制しながら、セキュリティを確保することが可能になる。   Therefore, in the present embodiment, it is possible to ensure security while suppressing the detection process of the face part detection unit 211 and the operation screen change process of the screen display change unit 212.

また、本実施形態においては、顔画像抽出部210が抽出した顔画像の認証が成立したか否かを示す情報を、図6および図7に示したように、アイコンとして表示しても良いし、文字、図形等で表示しても良い。   In the present embodiment, information indicating whether or not authentication of the face image extracted by the face image extraction unit 210 has been established may be displayed as an icon as shown in FIGS. 6 and 7. , Characters, figures, etc. may be displayed.

以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解し得る様々な変更をすることができる。   Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

例えば、上記実施形態では、本発明の入力装置の一例として携帯電話機を挙げたが、本発明はこれに限定されず、ゲーム機、タブレット型PC(Personal Computer)、ノート型PCなどにも適用することが可能である。   For example, in the above embodiment, a mobile phone has been described as an example of the input device of the present invention. It is possible.

また、上記実施形態では、第3および第4の実施形態を別々の実施形態として説明したが、第3および第4の実施形態は組み合わせることも可能である。   In the above embodiment, the third and fourth embodiments have been described as separate embodiments. However, the third and fourth embodiments can be combined.

また、上記の実施の形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
操作画面を表示する表示部と、
前記表示部に対向するものの画像を撮影する撮影部と、
前記撮影部が撮影した撮影画像から顔画像を抽出する顔画像抽出部と、
前記顔画像に含まれる顔の所定部位の変化を検出する顔部位検出部と、
前記所定部位の変化が検出された場合に、前記表示部の操作画面を変更する画面表示変更部と、を有する入力装置。
(付記2)
前記画面表示変更部は、
顔画像が抽出されたこと示す情報を前記表示部に表示する、付記1に記載の入力装置。
(付記3)
前記顔画像抽出部が抽出した顔画像と予め登録された所定人物の顔画像とに基づいて、前記顔画像抽出部が抽出した顔画像を認証する顔認証部を有し、
前記顔部位検出部は、
前記顔画像抽出部が抽出した顔画像が認証された場合に、該顔画像に含まれる前記所定部位の変化を検出し、
前記入力装置は、さらに、
前記所定部位が前記撮影画像から外れたか否かを判定する部位位置判定部と、
前記所定部位が前記撮影画像から外れた場合、前記顔画像抽出部が抽出した顔画像が再認証されるまで、前記顔部位検出部および前記画面表示変更部の動作を停止させる動作停止部と、を有する、付記1または2に記載の入力装置。
(付記4)
前記画面表示変更部は、
前記顔画像抽出部が抽出した顔画像の認証が成立したか否かを示す情報を前記表示部に表示する、付記3に記載の入力装置。
(付記5)
前記所定部位は、目もしくは口のいずれか、または両方であり、
前記所定部位の変化は、前記所定部位が閉じているまたは開いていることである、付記1から4のいずれか1項に記載の入力装置。
(付記6)
前記画面表示変更部は、
前記所定部位が閉じているまたは開いている時間に応じた処理を行うことで、前記表示部の操作画面を変更する、付記5に記載の入力装置。
(付記7)
表示部に操作画面を表示する画面表示ステップと、
前記表示部に対向するものの画像を撮影する撮影ステップと、
前記撮影した撮影画像から顔画像を抽出する顔画像抽出ステップと、
前記顔画像に含まれる顔の所定部位の変化を検出する顔部位検出ステップと、
前記所定部位の変化が検出された場合に、前記表示部の操作画面を変更する画面変更ステップと、を有する入力方法。
(付記8)
顔画像が抽出されたこと示す情報を前記表示部に表示する抽出表示ステップをさらに有する、付記7に記載の入力方法。
(付記9)
前記抽出した顔画像と予め登録された所定人物の顔画像とに基づいて、前記抽出した顔画像を認証する顔認証ステップを有し、
前記顔部位検出ステップでは、
前記抽出した顔画像が認証された場合に、該顔画像に含まれる前記所定部位の変化を検出し、
前記入力方法は、さらに、
前記所定部位が前記撮影画像から外れたか否かを判定する部位位置判定ステップと、
前記所定部位が前記撮影画像から外れた場合、前記抽出した顔画像が再認証されるまで、前記顔部位検出ステップおよび前記画面変更ステップの処理を停止させる処理停止ステップと、を有する、付記7または8に記載の入力方法。
(付記10)
前記抽出した顔画像の認証が成立したか否かを示す情報を前記表示部に表示する認証表示ステップをさらに有する、付記9に記載の入力方法。
(付記11)
前記所定部位は、目もしくは口のいずれか、または両方であり、
前記所定部位の変化は、前記所定部位が閉じているまたは開いていることである、付記7から10のいずれか1項に記載の入力方法。
(付記12)
前記画面変更ステップでは、
前記所定部位が閉じているまたは開いている時間に応じた処理を行うことで、前記表示部の操作画面を変更する、付記11に記載の入力方法。
Further, a part or all of the above embodiment can be described as in the following supplementary notes, but is not limited thereto.
(Appendix 1)
A display for displaying the operation screen;
A photographing unit for photographing an image of the object facing the display unit;
A face image extraction unit for extracting a face image from a photographed image photographed by the photographing unit;
A face part detection unit for detecting a change in a predetermined part of the face included in the face image;
An input device comprising: a screen display changing unit that changes an operation screen of the display unit when a change in the predetermined part is detected.
(Appendix 2)
The screen display change unit
The input device according to appendix 1, wherein information indicating that a face image has been extracted is displayed on the display unit.
(Appendix 3)
A face authentication unit that authenticates the face image extracted by the face image extraction unit based on a face image extracted by the face image extraction unit and a face image of a predetermined person registered in advance;
The face part detection unit is
When the face image extracted by the face image extraction unit is authenticated, a change in the predetermined part included in the face image is detected,
The input device further includes:
A part position determination unit that determines whether or not the predetermined part is off the captured image;
An operation stop unit that stops the operation of the face part detection unit and the screen display change unit until the face image extracted by the face image extraction unit is re-authenticated when the predetermined part is out of the captured image; The input device according to Supplementary Note 1 or 2, further comprising:
(Appendix 4)
The screen display change unit
The input device according to appendix 3, wherein information indicating whether authentication of the face image extracted by the face image extraction unit has been established is displayed on the display unit.
(Appendix 5)
The predetermined site is either the eyes or the mouth, or both,
The input device according to any one of appendices 1 to 4, wherein the change of the predetermined part is that the predetermined part is closed or open.
(Appendix 6)
The screen display change unit
The input device according to appendix 5, wherein the operation screen of the display unit is changed by performing processing according to a time when the predetermined part is closed or open.
(Appendix 7)
A screen display step for displaying an operation screen on the display;
A photographing step of photographing an image of the object facing the display unit;
A face image extraction step of extracting a face image from the photographed photographed image;
A face part detection step for detecting a change in a predetermined part of the face included in the face image;
A screen changing step of changing an operation screen of the display unit when a change in the predetermined part is detected.
(Appendix 8)
The input method according to appendix 7, further comprising an extraction display step of displaying information indicating that a face image has been extracted on the display unit.
(Appendix 9)
A face authentication step for authenticating the extracted face image based on the extracted face image and a face image of a predetermined person registered in advance;
In the face part detection step,
When the extracted face image is authenticated, the change of the predetermined part included in the face image is detected,
The input method further includes:
A part position determining step for determining whether or not the predetermined part is deviated from the captured image;
Or a processing stop step of stopping the processing of the face part detecting step and the screen changing step until the extracted face image is re-authenticated when the predetermined part deviates from the captured image. 9. The input method according to 8.
(Appendix 10)
The input method according to appendix 9, further comprising an authentication display step of displaying information indicating whether or not authentication of the extracted face image has been established on the display unit.
(Appendix 11)
The predetermined site is either the eyes or the mouth, or both,
The input method according to any one of appendices 7 to 10, wherein the change of the predetermined part is that the predetermined part is closed or open.
(Appendix 12)
In the screen change step,
The input method according to appendix 11, wherein the operation screen of the display unit is changed by performing processing according to a time when the predetermined part is closed or open.

11 表示部
12 撮影部
13 顔画像抽出部
14 顔部位検出部
15 画面表示変更部
201 アンテナ
202 無線送受信部
203 制御部
204 動作用メモリ
205 保持用メモリ
206 操作部
207 表示部
208 カメラ
209 加速度センサ
210 顔画像抽出部
211 顔部位検出部
212 画面表示変更部
213 対象画像特定部
214 顔認証部
215 部位位置判定部
216 動作停止部
DESCRIPTION OF SYMBOLS 11 Display part 12 Image | photographing part 13 Face image extraction part 14 Face part detection part 15 Screen display change part 201 Antenna 202 Radio | wireless transmission / reception part 203 Control part 204 Operation | movement memory 205 Holding | maintenance memory 206 Operation part 207 Display part 208 Camera 209 Acceleration sensor 210 Face image extraction unit 211 Face part detection part 212 Screen display change part 213 Target image identification part 214 Face authentication part 215 Part position determination part 216 Operation stop part

Claims (8)

操作画面を表示する表示部と、
前記表示部に対向するものの画像を撮影する撮影部と、
前記撮影部が撮影した撮影画像から顔画像を抽出する顔画像抽出部と、
前記顔画像に含まれる顔の所定部位の変化を検出する顔部位検出部と、
前記所定部位の変化が検出された場合に、前記表示部の操作画面を変更する画面表示変更部と、
前記顔画像抽出部が抽出した顔画像と予め登録された所定人物の顔画像とに基づいて、前記顔画像抽出部が抽出した顔画像を認証する顔認証部と、を有し、
前記顔部位検出部は、
前記顔画像抽出部が抽出した顔画像が認証された場合に、該顔画像に含まれる前記所定部位の変化を検出し、
さらに、
前記所定部位が前記撮影画像から外れたか否かを判定する部位位置判定部と、
前記所定部位が前記撮影画像から外れた場合、前記顔画像抽出部が抽出した顔画像が再認証されるまで、前記顔部位検出部および前記画面表示変更部の動作を停止させる動作停止部と、
前記撮影部が撮影した画像内に複数の人物の顔画像が存在する場合、前記複数の人物の顔画像の中から、前記顔部位検出部が所定部位の変化を検出する検出対象の顔画像を特定する対象画像特定部と、を有する入力装置。
A display for displaying the operation screen;
A photographing unit for photographing an image of the object facing the display unit;
A face image extraction unit for extracting a face image from a photographed image photographed by the photographing unit;
A face part detection unit for detecting a change in a predetermined part of the face included in the face image;
A screen display changing unit that changes an operation screen of the display unit when a change in the predetermined part is detected;
A face authentication unit that authenticates the face image extracted by the face image extraction unit based on a face image extracted by the face image extraction unit and a face image of a predetermined person registered in advance.
The face part detection unit is
When the face image extracted by the face image extraction unit is authenticated, a change in the predetermined part included in the face image is detected,
further,
A part position determination unit that determines whether or not the predetermined part is off the captured image;
An operation stop unit that stops the operation of the face part detection unit and the screen display change unit until the face image extracted by the face image extraction unit is re-authenticated when the predetermined part is out of the captured image;
When face images of a plurality of persons are present in an image photographed by the photographing unit, a face image to be detected by which the face part detecting unit detects a change in a predetermined part from the face images of the plurality of persons. An input device having a target image specifying unit to be specified .
前記画面表示変更部は、
顔画像が抽出されたこと示す情報を前記表示部に表示する、請求項1に記載の入力装置。
The screen display change unit
The input device according to claim 1, wherein information indicating that a face image has been extracted is displayed on the display unit.
前記画面表示変更部は、
前記顔画像抽出部が抽出した顔画像の認証が成立したか否かを示す情報を前記表示部に表示する、請求項1または2に記載の入力装置。
The screen display change unit
The input device according to claim 1, wherein information indicating whether authentication of the face image extracted by the face image extraction unit is established is displayed on the display unit.
前記所定部位は、目もしくは口のいずれか、または両方であり、
前記所定部位の変化は、前記所定部位が閉じているまたは開いていることである、請求項1から3のいずれか1項に記載の入力装置。
The predetermined site is either the eyes or the mouth, or both,
The input device according to any one of claims 1 to 3, wherein the change of the predetermined part is that the predetermined part is closed or open.
前記画面表示変更部は、
前記所定部位が閉じているまたは開いている時間に応じた処理を行うことで、前記表示部の操作画面を変更する、請求項4に記載の入力装置。
The screen display change unit
The input device according to claim 4, wherein an operation screen of the display unit is changed by performing processing according to a time when the predetermined part is closed or open.
表示部に操作画面を表示する画面表示ステップと、
前記表示部に対向するものの画像を撮影する撮影ステップと、
前記撮影した撮影画像から顔画像を抽出する顔画像抽出ステップと、
前記抽出した顔画像と予め登録された所定人物の顔画像とに基づいて、前記抽出した顔画像を認証する顔認証ステップと、
前記抽出した顔画像が認証された場合に、該顔画像に含まれる顔の所定部位の変化を検出する顔部位検出ステップと、
前記所定部位の変化が検出された場合に、前記表示部の操作画面を変更する画面変更ステップと、
前記所定部位が前記撮影画像から外れたか否かを判定する部位位置判定ステップと、
前記所定部位が前記撮影画像から外れた場合、前記抽出した顔画像が再認証されるまで、前記顔部位検出ステップおよび前記画面変更ステップの処理を停止させる処理停止ステップと、を有し、
さらに、前記撮影した画像内に複数の人物の顔画像が存在する場合、前記複数の人物の顔画像の中から、前記顔部位検出ステップにて所定部位の変化を検出する検出対象の顔画像を特定する、対象画像特定ステップを有する入力方法。
A screen display step for displaying an operation screen on the display;
A photographing step of photographing an image of the object facing the display unit;
A face image extraction step of extracting a face image from the photographed photographed image;
A face authentication step for authenticating the extracted face image based on the extracted face image and a face image of a predetermined person registered in advance;
A face part detection step of detecting a change in a predetermined part of a face included in the face image when the extracted face image is authenticated;
A screen changing step for changing an operation screen of the display unit when a change in the predetermined portion is detected;
A part position determining step for determining whether or not the predetermined part is deviated from the captured image;
A process stop step of stopping processing of the face part detection step and the screen change step until the extracted face image is re-authenticated when the predetermined part deviates from the captured image ;
Furthermore, when there are a plurality of human face images in the captured image, a detection target face image for detecting a change in a predetermined part in the face part detection step is selected from the plurality of person face images. An input method having a target image specifying step of specifying .
顔画像が抽出されたこと示す情報を前記表示部に表示する抽出表示ステップをさらに有する、請求項6に記載の入力方法。   The input method according to claim 6, further comprising an extraction display step of displaying information indicating that a face image has been extracted on the display unit. 前記抽出した顔画像の認証が成立したか否かを示す情報を前記表示部に表示する認証表示ステップをさらに有する、請求項6または7に記載の入力方法。
The input method according to claim 6, further comprising an authentication display step of displaying information indicating whether or not authentication of the extracted face image is established on the display unit.
JP2011051411A 2011-03-09 2011-03-09 Input device and input method Active JP5783441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011051411A JP5783441B2 (en) 2011-03-09 2011-03-09 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011051411A JP5783441B2 (en) 2011-03-09 2011-03-09 Input device and input method

Publications (2)

Publication Number Publication Date
JP2012190126A JP2012190126A (en) 2012-10-04
JP5783441B2 true JP5783441B2 (en) 2015-09-24

Family

ID=47083237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011051411A Active JP5783441B2 (en) 2011-03-09 2011-03-09 Input device and input method

Country Status (1)

Country Link
JP (1) JP5783441B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4025516B2 (en) * 2001-04-25 2007-12-19 日本電信電話株式会社 Mouse replacement method, mouse replacement program, and recording medium recording the program
US7815507B2 (en) * 2004-06-18 2010-10-19 Igt Game machine user interface using a non-contact eye motion recognition device
JP2004314855A (en) * 2003-04-17 2004-11-11 Sumitomo Electric Ind Ltd Apparatus operation control method and apparatus operation control system
JP3673834B2 (en) * 2003-08-18 2005-07-20 国立大学法人山口大学 Gaze input communication method using eye movement
JP4206053B2 (en) * 2004-03-31 2009-01-07 株式会社国際電気通信基礎技術研究所 User interface device and user interface program
JP2006293732A (en) * 2005-04-12 2006-10-26 Hitachi Ltd Information processor, image sensor, biometrics system, and biometrics program for information processor
JP2007179338A (en) * 2005-12-28 2007-07-12 Oki Electric Ind Co Ltd Information processor
JP4894310B2 (en) * 2006-03-15 2012-03-14 コニカミノルタホールディングス株式会社 Authentication system, controller and control method
JP4984583B2 (en) * 2006-03-15 2012-07-25 オムロン株式会社 Display device, projector, display system, display method, display program, and recording medium
JP4781181B2 (en) * 2006-07-07 2011-09-28 株式会社ソニー・コンピュータエンタテインメント User interface program, apparatus and method, information processing system
JP2009003730A (en) * 2007-06-22 2009-01-08 Nintendo Co Ltd Information processing program and information processor
JP4836885B2 (en) * 2007-07-04 2011-12-14 シャープ株式会社 Non-contact input device for mobile communication terminal, mobile communication terminal and mail creation system
JP5433935B2 (en) * 2007-07-24 2014-03-05 日本電気株式会社 Screen display control method, screen display control method, electronic device, and program
JP2009294740A (en) * 2008-06-03 2009-12-17 Mitsubishi Electric Corp Data processor and program
JP2010009502A (en) * 2008-06-30 2010-01-14 Nec Corp Mobile terminal, display operation control method, and display control program
JP5525165B2 (en) * 2009-02-03 2014-06-18 パナソニック株式会社 Operation display device
JP2011053925A (en) * 2009-09-02 2011-03-17 Nikon Systems Inc Image display method, program and image display apparatus
TWI411935B (en) * 2009-12-25 2013-10-11 Primax Electronics Ltd System and method for generating control instruction by identifying user posture captured by image pickup device
JP5658500B2 (en) * 2010-07-26 2015-01-28 キヤノン株式会社 Information processing apparatus and control method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2012190126A (en) 2012-10-04

Similar Documents

Publication Publication Date Title
US20220222027A1 (en) Display Control Method and Related Apparatus
CN110536004B (en) Method for applying multiple sensors to electronic equipment with flexible screen and electronic equipment
US9742989B2 (en) Imaging device, imaging method and storage medium for controlling execution of imaging
JP5805503B2 (en) Portable terminal, display direction control program, and display direction control method
US8606179B2 (en) Cell phone terminal, method for starting data processing, method for transferring data
CN105491289B (en) Prevent from taking pictures the method and device blocked
US20220197584A1 (en) Foldable screen display method and electronic device
JP2011022687A (en) Electronic device having authentication function and authentication method
KR102072542B1 (en) Image processing method and electronic device thereof
JP6667628B2 (en) Biometric authentication device, portable terminal device, control program
CN109040351B (en) Camera control method and device, mobile terminal and storage medium
JP2007067782A (en) Electronic equipment
US10097683B2 (en) Mobile electronic device, security control method, and security control code
WO2012160867A1 (en) Portable terminal, control method and program
JP6618416B2 (en) Portable electronic device, security control method, and security control program
JP5783441B2 (en) Input device and input method
JP2003264877A (en) Mobile terminal
CN111027374A (en) Image identification method and electronic equipment
CN110545352A (en) Electronic device, control method for electronic device, and recording medium
CN108924292B (en) Terminal control method, device, mobile terminal and storage medium
JP2010231304A (en) Peep detecting method and device, and peep detection program
WO2022222955A1 (en) Unlocking method and electronic device
CN109917936A (en) Screen control method and device, readable storage medium storing program for executing, electronic equipment
US20090284636A1 (en) Device for displaying taken image and method of displaying taken image
JP2012113397A (en) Authentication system and authentication method for terminal use, and program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150709

R150 Certificate of patent or registration of utility model

Ref document number: 5783441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150