JP2008186247A - Face direction detector and face direction detection method - Google Patents

Face direction detector and face direction detection method Download PDF

Info

Publication number
JP2008186247A
JP2008186247A JP2007019335A JP2007019335A JP2008186247A JP 2008186247 A JP2008186247 A JP 2008186247A JP 2007019335 A JP2007019335 A JP 2007019335A JP 2007019335 A JP2007019335 A JP 2007019335A JP 2008186247 A JP2008186247 A JP 2008186247A
Authority
JP
Japan
Prior art keywords
face
user
individual difference
face orientation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007019335A
Other languages
Japanese (ja)
Inventor
Toshiya Irie
俊也 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2007019335A priority Critical patent/JP2008186247A/en
Publication of JP2008186247A publication Critical patent/JP2008186247A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face direction detector allowing achievement of sufficient detection accuracy by reducing influence upon the detection accuracy by an individual difference when detecting a face direction from two-dimensional characteristic point coordinates even if the face direction detection device is a small device such as a portable device. <P>SOLUTION: A face direction decision device 100 has: an image input part 101 for entering a face of a user as an image; a characteristic point extraction part 102 for extracting a characteristic point of the face of the user from the image; a face direction decision part 103 for deciding the face direction of the user based on a prescribed threshold from the characteristic point; an individual difference adjustment part 104 for acquiring individual difference information for adjusting the individual difference about each the face direction of each the user; and an individual difference information storage part 105 updating the threshold by use of the individual difference information and registering it in each the user. By updating the threshold, the face direction detection wherein the individual difference of the user is considered can be performed. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、顔向き検出装置および顔向き検出方法にかかり、特に、入力画像から利用者の顔部分の特徴点を検出し、その顔向きを判別することによってポインタを操作する非接触インタフェースに用いられる顔向き検出装置および顔向き検出方法に関する。   The present invention relates to a face orientation detection device and a face orientation detection method, and more particularly, to a non-contact interface that operates a pointer by detecting feature points of a user's face from an input image and determining the face orientation. The present invention relates to a face orientation detection device and a face orientation detection method.

近年、非接触インタフェースの技術が一般的になってきており、例えばカメラ等から入力した画像から利用者の顔の向きや視線の方向を検出することで装置を操作する方法が数多く提案されている。顔向きを検出する方法には、大別すると各方向の顔画像のパターンをテンプレートとして入力画像とマッチングを行う方法と、顔部品(目、口、鼻など)の顔の特徴点を検出してから幾何学的に顔向きを検出する方法がある。   In recent years, non-contact interface technology has become common, and for example, many methods for operating the apparatus by detecting the direction of the user's face and the direction of the line of sight from an image input from a camera or the like have been proposed. . The method of detecting the face orientation can be broadly divided into a method of matching the input image using a pattern of the face image in each direction as a template, and a method of detecting facial feature points of face parts (eyes, mouth, nose, etc.). There is a method to detect the face direction geometrically from the above.

前者の方法は、精度を高めるためには非常に多くのデータ処理、計算処理を行う必要があるため、リアルタイム性を必要とするポインタ操作等に用いるには不適であり、特に携帯端末などの処理性能が非力な装置には適用できない。   The former method is unsuitable for use in pointer operations that require real-time performance because it requires a great deal of data processing and calculation processing in order to improve accuracy. It cannot be applied to devices with poor performance.

後者の方法は、比較的精度が上げやすい。特に物体の3次元形状を比較的簡単な計算で扱う因子分解法を用いることで、精度の高い顔向きが得られる方法が提案されている(例えば、特許文献1参照。)。しかし、因子分解法を用いる方法は、現在の携帯端末、例えば携帯電話などに適用するには、入力画像の解像度と画質、端末の処理性能を考慮すると、十分な精度・性能が得られない。そのため、そのような機器で顔向き検出を用いた非接触インタフェースを実現するために、単純に2次元的ないくつかの顔特徴点の座標計算のみを利用するか、あるいは2次元特徴点座標と顔領域の抽出との併用で顔向きを判断する方法が提案されている(例えば、特許文献2〜4参照。)。   The latter method is relatively easy to increase accuracy. In particular, a method has been proposed in which a highly accurate face orientation can be obtained by using a factorization method that handles a three-dimensional shape of an object with relatively simple calculations (see, for example, Patent Document 1). However, the method using the factorization method cannot be obtained with sufficient accuracy and performance in consideration of the resolution and image quality of the input image and the processing performance of the terminal to be applied to the current portable terminal such as a cellular phone. Therefore, in order to realize a non-contact interface using face orientation detection in such a device, only the coordinate calculation of some two-dimensional face feature points is used, or two-dimensional feature point coordinates and There has been proposed a method of determining the face orientation in combination with face area extraction (see, for example, Patent Documents 2 to 4).

特許第3822483号公報Japanese Patent No. 3822483 特開平4−281578号公報JP-A-4-281578 特開平10−274516号公報JP-A-10-274516 特開平11−281661号公報JP-A-11-281661 特許第2570966号公報Japanese Patent No. 2570966

しかしながら、2次元の特徴点座標から顔向きを検出する場合、個人差による検出精度への影響が大きく、十分な検出精度を得ることが難しいという問題がある。そのため、例えば特許文献5では、利用者の個人差、すなわち身体的特徴をあらかじめ測定し、補正する手段を設けることを提案している。   However, when the face orientation is detected from the two-dimensional feature point coordinates, there is a problem that it is difficult to obtain sufficient detection accuracy because the influence on the detection accuracy due to individual differences is large. Therefore, for example, Patent Document 5 proposes providing means for measuring and correcting individual differences of users, that is, physical characteristics in advance.

しかし、特許文献5では、その個人差の取得手段が機械的な取得であることを示唆する記載があるのみで、実現手段が提示されていなかった。また、機械的な手段によって身体的な特徴の差を取得することは、利用者にとっては測定作業が煩雑あり、容易に使用できるというものではなかった。さらに携帯機器などの小機器では、装置の製造コストの観点や、容積・重量の観点から、機械的な測定手段を持つことも困難であるという課題があった。   However, in Patent Document 5, there is only a description suggesting that the individual difference acquisition means is mechanical acquisition, and no realization means has been presented. Moreover, acquiring the difference in physical characteristics by mechanical means is complicated for the user and is not easy to use. Furthermore, small devices such as portable devices have a problem that it is difficult to have mechanical measuring means from the viewpoint of manufacturing cost of the apparatus and from the viewpoint of volume and weight.

本発明は、上記背景技術が有する問題点に鑑みてなされたものであり、本発明の目的は、携帯機器などの小機器であっても、2次元の特徴点座標から顔向きを検出する場合に、個人差による検出精度への影響を軽減し、十分な検出精度を得ることの可能な、新規かつ改良された顔向き検出装置および顔向き検出方法を提供することである。   The present invention has been made in view of the above-described problems of the background art, and an object of the present invention is to detect a face orientation from two-dimensional feature point coordinates even in a small device such as a portable device. Another object of the present invention is to provide a new and improved face orientation detection apparatus and face orientation detection method capable of reducing the influence of individual differences on detection accuracy and obtaining sufficient detection accuracy.

上記課題を解決するため、本発明の第1の観点によれば情報処理装置の利用者の顔向きを判定して該情報処理装置のアプリケーションで利用するための顔向き判定装置が提供される。本発明の顔向き判定装置(100)は、利用者の顔を画像として入力する画像入力部(101)と、前記画像から、利用者の顔の特徴点を抽出する特徴点抽出部(102)と、所定の閾値に基づいて前記特徴点から利用者の顔向きを判定し、アプリケーションに情報を送信する顔向き判定部(103)と、利用者ごとの各顔向きについて個人差を調整するための個人差情報を取得する個人差調整部(104)と、前記閾値を前記個人差情報を用いて更新して利用者ごとに登録する個人差情報格納部(105)と、を備えたことを特徴とする(請求項1)。   In order to solve the above problems, according to a first aspect of the present invention, there is provided a face orientation determination device for determining a face orientation of a user of an information processing device and using it in an application of the information processing device. The face orientation determination device (100) of the present invention includes an image input unit (101) that inputs a user's face as an image, and a feature point extraction unit (102) that extracts a feature point of the user's face from the image. And a face direction determination unit (103) that determines the face direction of the user from the feature points based on a predetermined threshold and transmits information to the application, and adjusts individual differences for each face direction for each user. An individual difference adjustment unit (104) for acquiring individual difference information of the user, and an individual difference information storage unit (105) for updating the threshold value using the individual difference information and registering it for each user. It is characterized (claim 1).

さらに、各種情報を表示する表示部(107)と、前記顔向き判定部により判定された顔向きに応じて、前記表示部上に表示されるポインタを制御するポインタ制御部(106)と、を備えて構成することができる(請求項2)。   Furthermore, a display unit (107) for displaying various information, and a pointer control unit (106) for controlling a pointer displayed on the display unit according to the face orientation determined by the face orientation determination unit. It can comprise, and can comprise (claim 2).

かかる構成によれば、利用者に対して正面および各方向の顔向きの動作、すなわち顔向きを検出してポインタ等を操作する非接触インタフェースが持つ検出動作を一通り行わせ、その時の特徴点の状態を検出し、それぞれの検出動作について、利用者に最適な検出の閾値を算出し、閾値を更新する制御部を設けることで、利用者の個人差を加味した顔向き検出を行うことができるため、装置の製造コストを上げることなく、利用者が容易に顔向き検出の精度の向上させることが期待できる。ポインタのほかにも、顔向き判定部により判定された顔向きに応じて表示装置の画面のスクロールや、表示部に表示されるキャラクター(例えばゲームの自機など)の移動などにも利用することができる。   According to such a configuration, the user is made to perform a face-to-face operation in the front and in each direction, that is, a detection operation of a non-contact interface that detects the face direction and operates a pointer or the like, and features at that time For each detection operation, a detection threshold value that is optimal for the user is calculated and a control unit that updates the threshold value is provided, so that face orientation detection that takes into account individual differences among users can be performed. Therefore, it can be expected that the user can easily improve the accuracy of face orientation detection without increasing the manufacturing cost of the apparatus. In addition to the pointer, it can also be used to scroll the screen of the display device according to the face orientation determined by the face orientation determination unit, and to move a character (for example, the game machine) displayed on the display unit. Can do.

なお上記において、構成要素に付随して括弧書きで記した参照符号は、説明の便宜のために、後述の実施形態および図面における対応する構成要素を一例として記したに過ぎず、本発明がこれに限定されるものではない。以下も同様である。   In the above description, the reference numerals in parentheses attached to the constituent elements are merely examples of corresponding constituent elements in the following embodiments and drawings for the convenience of explanation, and the present invention is not limited thereto. It is not limited to. The same applies to the following.

本発明の顔向き判定装置においてはさまざまな応用が可能であるが、そのいくつかの例を挙げれば以下の通りである。   Various applications are possible in the face orientation determination device of the present invention, and some examples are as follows.

前記個人差調整部(104)は、前記利用者に対して各顔向きの動作を一通り行わせるための指示を出し、前記画像入力部から入力される各顔向きの画像から前記個人差情報を取得するようにしてもよい(請求項4)。   The individual difference adjusting unit (104) issues an instruction to the user to perform a single operation for each face, and the individual difference information is obtained from each face-oriented image input from the image input unit. (Claim 4).

前記個人差調整部(104)は、前記利用者に対して各顔向きの動作を一通り行わせるための指示を出すにあたり、各種情報を表示する表示部(107)に図形または画像で指示を出すようにしてもよい(請求項5)。   The individual difference adjusting unit (104) instructs the display unit (107) that displays various types of information in the form of a graphic or an image when issuing an instruction to the user to perform each face-facing operation. You may make it take out (Claim 5).

前記個人差調整部(104)は、前記利用者の各顔向きの動作が不適正なもの(向き過ぎ)である場合に、前記利用者に警告(警告音、警告画面の表示など)を発するようにしてもよい(請求項6)。   The individual difference adjustment unit (104) issues a warning (warning sound, display of a warning screen, etc.) to the user when the movement of each face of the user is inappropriate (too much). (Claim 6).

上記課題を解決するため、本発明の第2の観点によれば、利用者の顔向きを判定する顔向き判定方法が提供される。本発明の顔向き判定方法は、利用者の顔を画像として入力する画像入力工程と、前記画像から、利用者の顔の特徴点を抽出する特徴点抽出工程と、所定の閾値に基づいて前記特徴点から利用者の顔向きを判定する顔向き判定工程と、利用者ごとの各顔向きについて個人差を調整するための個人差情報を取得する個人差調整工程と、前記閾値を前記個人差情報を用いて更新して利用者ごとに登録する個人差情報格納工程と、を含むことを特徴とする(請求項7)。   In order to solve the above problems, according to a second aspect of the present invention, there is provided a face orientation determination method for determining the face orientation of a user. The face orientation determination method of the present invention includes an image input step of inputting a user's face as an image, a feature point extraction step of extracting a feature point of the user's face from the image, and a predetermined threshold based on the predetermined threshold value. A face orientation determining step for determining the face orientation of the user from the feature points, an individual difference adjusting step for obtaining individual difference information for adjusting individual differences for each face orientation for each user, and the threshold value for the individual difference And an individual difference information storing step of updating for each user and registering for each user (claim 7).

かかる方法によれば、利用者に対して正面および各方向の顔向きの動作、すなわち顔向きを検出してポインタ等を操作する非接触インタフェースが持つ検出動作を一通り行わせ、その時の特徴点の状態を検出し、それぞれの検出動作について、利用者に最適な検出の閾値を算出し、閾値を更新する制御部を設けることで、利用者の個人差を加味した顔向き検出を行うことができるため、装置の製造コストを上げることなく、利用者が容易に顔向き検出の精度の向上させることが期待できる。   According to such a method, the user is allowed to perform a face detection operation in front and in each direction, that is, a detection operation of a non-contact interface that detects the face direction and operates a pointer or the like, and features at that time For each detection operation, a detection threshold value that is optimal for the user is calculated and a control unit that updates the threshold value is provided, so that face orientation detection that takes into account individual differences among users can be performed. Therefore, it can be expected that the user can easily improve the accuracy of face orientation detection without increasing the manufacturing cost of the apparatus.

本発明の顔向き判定方法においてもさまざまな応用が可能であるが、そのいくつかの例を挙げれば以下の通りである。   Various applications are possible in the face orientation determination method of the present invention, and some examples thereof are as follows.

前記個人差調整工程は、前記利用者に対して各顔向きの動作を一通り行わせるための指示を出す工程と、前記画像入力部から入力される各顔向きの画像から前記個人差情報を取得する工程と、を含むようにしてもよい(請求項8)。   The individual difference adjustment step includes a step of instructing the user to perform a single operation for each face, and the individual difference information from each face-oriented image input from the image input unit. And a step of acquiring (claim 8).

前記利用者に対して各顔向きの動作を一通り行わせるための指示を出す工程において、各種情報を表示する表示部に図形または画像で指示を出すようにしてもよい(請求項9)。   In the step of giving an instruction for causing the user to perform each face-facing operation as a whole, an instruction may be given as a graphic or an image on a display unit for displaying various information.

前記個人差調整工程において、前記利用者の各顔向きの動作が不適正なもの(向き過ぎ)である場合に、前記利用者に警告(警告音、警告画面の表示など)を発するようにしてもよい(請求項10)。   In the individual difference adjustment step, if the movement of each face of the user is inappropriate (too much), a warning (warning sound, warning screen display, etc.) is issued to the user. (Claim 10).

また、本発明の他の観点によれば、コンピュータを、上記本発明の第1の観点にかかる顔向き検出装置として機能させるためのプログラムと、そのプログラムを記録した、コンピュータにより読み取り可能な記録媒体が提供される。ここで、プログラムはいかなるプログラム言語により記述されていてもよい。また、記録媒体としては、例えば、CD−ROM、DVD−ROM、フレキシブルディスク、フラッシュメモリ、携帯端末装置の内蔵メモリなど、プログラムを記録可能な記録媒体として現在一般に用いられている記録媒体、あるいは将来用いられるいかなる記録媒体をも採用することができる。   According to another aspect of the present invention, a program for causing a computer to function as the face orientation detecting device according to the first aspect of the present invention, and a computer-readable recording medium on which the program is recorded Is provided. Here, the program may be described in any programming language. As the recording medium, for example, a CD-ROM, a DVD-ROM, a flexible disk, a flash memory, a built-in memory of a portable terminal device, etc., a recording medium that is currently used as a recording medium capable of recording a program, or a future Any recording medium used can be employed.

以上のように、本発明によれば、携帯機器などの小機器であっても、2次元の特徴点座標から顔向きを検出する場合に、個人差による検出精度への影響を軽減し、十分な検出精度を得ることが可能である。その他の本発明の優れた効果については、以下の発明を実施するための最良の形態の説明においても説明する。   As described above, according to the present invention, even in a small device such as a portable device, when detecting a face orientation from two-dimensional feature point coordinates, the influence on the detection accuracy due to individual differences is reduced, and sufficient It is possible to obtain a high detection accuracy. Other excellent effects of the present invention will be described in the following description of the best mode for carrying out the invention.

以下に添付図面を参照しながら、本発明にかかる顔向き検出装置および顔向き検出方法の好適な実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of a face direction detection apparatus and a face direction detection method according to the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

図1は、本発明の一実施形態の構成を示す説明図である。本実施形態では、顔向きを正面・上・下・左・右の5つの方向に判定し、ポインタをその方向に動かす(正面の場合は動かさない)場合を例に挙げて説明する。   FIG. 1 is an explanatory diagram showing the configuration of an embodiment of the present invention. In the present embodiment, an example will be described in which the face orientation is determined in five directions of front, up, down, left, and right, and the pointer is moved in that direction (does not move in the front).

本実施形態にかかる顔向き検出装置100は、図1に示したように、画像入力部101と、特徴点抽出部102と、顔向き判定部103と、個人差調整部104と、個人差情報格納部105と、ポインタ制御部106と、表示部107を含んで構成されている。なお、本実施形態の説明に直接関係がない、様々な機能を実現するための処理部や接続関係は説明および図示を省略する。以下、各構成要素について詳細に説明する。   As shown in FIG. 1, the face direction detection apparatus 100 according to the present embodiment includes an image input unit 101, a feature point extraction unit 102, a face direction determination unit 103, an individual difference adjustment unit 104, and individual difference information. A storage unit 105, a pointer control unit 106, and a display unit 107 are included. Note that description and illustration of processing units and connection relationships for realizing various functions that are not directly related to the description of the present embodiment will be omitted. Hereinafter, each component will be described in detail.

画像入力部101は、利用者の顔が含まれた画像を連続した複数の画像としてリアルタイムに取得する処理部であり、例えばカメラデバイスである。取得した画像は特徴点抽出部102へ送られる。   The image input unit 101 is a processing unit that acquires an image including a user's face in real time as a plurality of continuous images, and is, for example, a camera device. The acquired image is sent to the feature point extraction unit 102.

特徴点抽出部102は、画像入力部101より入力された画像から、画像ごとに顔領域および顔部品(例えば、目、口、鼻、眉毛など)の位置を特定し、それぞれの特徴点の位置を2次元の座標として抽出する処理部である。抽出した特徴点座標は顔向き判定部103および個人差調整部104へ送られる。   The feature point extraction unit 102 specifies the position of a face area and a face component (for example, eyes, mouth, nose, eyebrows, etc.) for each image from the image input from the image input unit 101, and the position of each feature point. Is a processing unit that extracts as two-dimensional coordinates. The extracted feature point coordinates are sent to the face orientation determination unit 103 and the individual difference adjustment unit 104.

顔向き判定部103は、得られた特徴点座標と予め決められた顔向き判定式により、顔の向きを正面・上・下・左・右のいずれかとして判定し、その結果を顔向き情報として出力する処理部である。顔向き情報はポインタ制御部106へ送る。   The face orientation determination unit 103 determines the face orientation as one of front, top, bottom, left, and right based on the obtained feature point coordinates and a predetermined face orientation judgment formula, and the result is face orientation information. As a processing unit that outputs as Face orientation information is sent to the pointer control unit 106.

個人差調整部104は、利用者の身体的特徴を抽出するために、表示部107を使って対話的に利用者へ個人差情報の測定を行わせ、抽出した個人差情報を個人差情報格納部105へ登録する処理部である。   In order to extract the physical characteristics of the user, the individual difference adjustment unit 104 causes the user to measure the individual difference information interactively using the display unit 107 and stores the extracted individual difference information in the personal difference information. This is a processing unit registered in the unit 105.

個人差情報格納部105は、利用者が一旦個人差情報を登録した以降、顔向き判定部103の顔向き判定式にその個人差の修正を加える処理部である。   The individual difference information storage unit 105 is a processing unit that corrects the individual difference to the face orientation determination formula of the face orientation determination unit 103 after the user once registers the individual difference information.

ポインタ制御部106は、顔向き判定部103の結果に基づき、ポインタを移動させる制御部である。   The pointer control unit 106 is a control unit that moves the pointer based on the result of the face orientation determination unit 103.

表示部107は、ポインタ制御部106から得たポインタの移動結果の表示や個人差調整部104に従って、利用者に対して個人差情報取得のための指示情報を表示する。また、装置が持つその他の機能に必要な情報を表示する。   The display unit 107 displays instruction information for obtaining individual difference information to the user in accordance with the display of the movement result of the pointer obtained from the pointer control unit 106 and the individual difference adjustment unit 104. In addition, information necessary for other functions of the device is displayed.

本実施形態は以上のように構成されている。以下に本実施形態の動作について説明する。   The present embodiment is configured as described above. The operation of this embodiment will be described below.

(本実施形態の動作)
まず、ポインタ操作の動作を説明する。
(Operation of this embodiment)
First, the operation of the pointer operation will be described.

利用者がカメラの前に自分の顔をかざすと、画像入力部101から利用者の顔が含まれた画像がリアルタイムに特徴点抽出部102に送られる。特徴点抽出部102は、入力された画像から顔領域と顔部品を抽出し、それぞれの顔部品の特徴点座標として出力する。この顔部品探索の方法には、例えば、特開2003−281539号公報「顔部品探索装置および顔部品探索方法」に開示された技術を用いることが可能である。   When the user holds his / her face in front of the camera, an image including the user's face is sent from the image input unit 101 to the feature point extraction unit 102 in real time. The feature point extraction unit 102 extracts a face area and a face part from the input image, and outputs them as feature point coordinates of each face part. For example, the technique disclosed in Japanese Patent Application Laid-Open No. 2003-281539 “Face Parts Search Device and Face Parts Search Method” can be used for this face part search method.

図2は、抽出特徴点の一例を示す説明図である。図2に示した一例では、左目(LE)201、右目(RE)202、鼻(UM)203,口右端(RM)204,口下(DM)205、口左端(LM)206、左眉(LEB)207、右眉(REB)208を特徴点の例として示しているが、これら特徴点をすべて抽出する必要はなく、任意のものを抽出することができる。また、顔の他の箇所を特徴点として設定してもよい。本実施形態では、図2の“×”印に示す「眉2点、目2点、口4点」(参照符号201〜208)を特徴点として抽出するものとする。   FIG. 2 is an explanatory diagram illustrating an example of extracted feature points. In the example shown in FIG. 2, the left eye (LE) 201, right eye (RE) 202, nose (UM) 203, right mouth end (RM) 204, lower mouth (DM) 205, left mouth end (LM) 206, left eyebrow ( (LEB) 207 and right eyebrow (REB) 208 are shown as examples of feature points. However, it is not necessary to extract all of these feature points, and arbitrary features can be extracted. Moreover, you may set the other location of a face as a feature point. In this embodiment, “two eyebrows, two eyes, and four mouths” (reference numerals 201 to 208) indicated by “x” in FIG. 2 are extracted as feature points.

特徴点抽出部102で抽出された特徴点座標は顔向き判定部103に送られ、予め決められた判定式により顔向きの方向を判定する。   The feature point coordinates extracted by the feature point extraction unit 102 are sent to the face direction determination unit 103, and the direction of the face direction is determined by a predetermined determination formula.

以下に顔向きの具体的な判定方法の例を示す。上下方向の判定、左右方向の判定、正面方向の判定の順で説明する。   An example of a specific method for determining the face orientation is shown below. Description will be made in the order of determination in the vertical direction, determination in the horizontal direction, and determination in the front direction.

[上下方向の判定]
まず、上下方向の判定方法を、図3および図4を参照しながら説明する。
まず図3に示す両目−口上の三角形における角度(∠LE)304、角度(∠RE)305を計算する(ステップS401)。これらは左目(LE)301、右目(RE)302、口上(UM)303の3点の特徴点座標より容易に算出できる。
[Judging the vertical direction]
First, the vertical direction determination method will be described with reference to FIGS. 3 and 4.
First, an angle (∠LE) 304 and an angle (∠RE) 305 in the triangle on both eyes-mouth shown in FIG. 3 are calculated (step S401). These can be easily calculated from the three feature point coordinates of the left eye (LE) 301, the right eye (RE) 302, and the mouth (UM) 303.

次に、算出した角度(∠LE)304と角度(∠RE)305の平均(以下、両目−口上角度と称する)と、予め決められた上向き閾値および下向き閾値とを比較する(ステップS402、ステップS403)。個人差はあるものの、人間の顔の特性から、上を向いた場合はこの角度が小さくなり、下を向くと大きくなることを利用し、上向き閾値以上であれば上方向(ステップS404)、下向き閾値以下であれば下向きと判定する(ステップS405)。   Next, the average of the calculated angle (∠LE) 304 and angle (∠RE) 305 (hereinafter referred to as the “both eye-mouth angle”) is compared with a predetermined upward threshold value and a downward threshold value (step S402, step S402). S403). Although there are individual differences, due to the characteristics of the human face, it is used that the angle decreases when facing upward and increases when facing downward, and if it is equal to or greater than the upward threshold, it is upward (step S404), downward If it is less than or equal to the threshold value, it is determined to face downward (step S405).

ここで、一般的には正面状態を予め登録しておき、正面状態の両目−口上角度(∠LE、∠REの平均)と検出された顔画像の両目−口上角度(∠LE、∠REの平均)の差分を計算し、予め決められた正面顔との差分の閾値とを比較して上下向きを判定することで、利用者の身体的特徴の差による検出精度の低下をある程度軽減できる。   Here, generally, the frontal state is registered in advance, and both eyes-upper angle (average of ∠LE and ∠RE) in the frontal state and both eyes-upper angle (検 出 LE, ∠RE of the detected face image). By calculating an average difference and comparing a difference threshold value with a predetermined front face to determine the vertical direction, a decrease in detection accuracy due to a difference in user physical characteristics can be reduced to some extent.

[左右方向の判定]
次に、左右方向の判定方法を、図5および図6を参照しながら説明する。
まず、図5(a)に示したように、両目中心(CE)509と、左内眉と目中心のX座標距離:距離(REB.x−CE.x)511を算出する(ステップS601)。
[Judgment in the horizontal direction]
Next, a determination method in the left-right direction will be described with reference to FIGS.
First, as shown in FIG. 5A, the X-coordinate distance: distance (REB.x-CE.x) 511 between the center of both eyes (CE) 509 and the left inner eyebrow and the center of the eye is calculated (step S601). .

次に、図5(b)、(c)に示したように、距離(CE.x−LEB.x)、距離(REB.x−CE.x)から、以下の式に基づいて左右眉の目中心分割割合を算出する(ステップS602)。これらの距離と割合は、それぞれの特徴点座標から容易に計算できる。
右眉−目中心割合=距離(REB.x−CE.x)÷距離(CE.x−LEB.x)%
左眉−目中心割合=距離(CE.x−LEB.x)÷距離(REB.x−CE.x)%
Next, as shown in FIGS. 5B and 5C, from the distance (CE.x-LEB.x) and the distance (REB.x-CE.x), An eye center division ratio is calculated (step S602). These distances and ratios can be easily calculated from the respective feature point coordinates.
Right eyebrow-eye center ratio = distance (REB.x-CE.x) ÷ distance (CE.x-LEB.x)%
Left eyebrow-eye center ratio = distance (CE.x-LEB.x) ÷ distance (REB.x-CE.x)%

この算出結果から、左向きの判定は左眉−目中心割合と左向き判定閾値(例えば160%など)を比較し(ステップS603)、閾値を超えていれば、左向きであるとみなす(ステップS605)。   From this calculation result, the leftward determination is made by comparing the left eyebrow-eye center ratio with a leftward determination threshold value (for example, 160%) (step S603), and if it exceeds the threshold value, it is considered leftward (step S605).

右向き判定は、同様に右眉−目中心割合と右向き判定閾値(例えば160%など)を比較し(ステップS604)、閾値を超えていれば、右向きであるとみなす(ステップS606)。   Similarly, in the right direction determination, the right eyebrow-eye center ratio is compared with the right direction determination threshold value (for example, 160%) (step S604), and if it exceeds the threshold value, it is considered to be right direction (step S606).

[正面方向の判定]
次に、正面方向の判定方法を説明する。
正面方向の判定は、総合判定として、上記で説明した上下/左右の各方向の判定でいずれでもない場合に正面とみなす。
[Determination of the front direction]
Next, a method for determining the front direction will be described.
The determination of the front direction is regarded as the front if it is not a determination in each of the up / down / left / right directions described above as a comprehensive determination.

このように判定された顔向き情報は、ポインタ制御部106へ送られ、ポインタ制御部106は、その顔向き情報に従って、ポインタやカーソルを上下左右に移動させる。ポインタ移動の場合は、例えば入力画像毎にその顔向き情報が示す方向に動かす。カーソルの場合は、同じ顔向き情報が画像数分連続したら表示部上のアイコンやメニュー単位に、顔向き情報が示す方向に移動させる。   The face orientation information determined in this way is sent to the pointer control unit 106, and the pointer control unit 106 moves the pointer and cursor up, down, left and right according to the face orientation information. In the case of pointer movement, for example, the input image is moved in the direction indicated by the face orientation information. In the case of a cursor, when the same face orientation information continues for the number of images, the cursor is moved in the direction indicated by the face orientation information in units of icons or menus on the display unit.

以上がポインタ操作の動作の説明である。   The above is the description of the pointer operation.

次に個人差調整の動作について、図7〜図12、図13Aおよび図13Bを参照しながら説明する。ここでは上下方向の調整方法について説明するが、左右方向も動作は同様である。   Next, the individual difference adjustment operation will be described with reference to FIGS. 7 to 12, FIG. 13A, and FIG. 13B. Although the adjustment method in the vertical direction is described here, the operation is the same in the horizontal direction.

表示部107に画像入力部101から入力される画像を表示しながら、個人差調整部104は表示部107に、利用者に対して正面状態を撮影するように指示する(ステップS1001)。具体的には図7(a)に示した一例のように、「正面を向いてください」と画面表示する。このとき、顔向き判定の上下判定と同様に、正面状態における両目−口上角度(∠LE、∠REの平均値):∠LE−RE_Neutralを算出し保持する(ステップS1002)。   While displaying the image input from the image input unit 101 on the display unit 107, the individual difference adjustment unit 104 instructs the display unit 107 to shoot the front state (step S1001). Specifically, as in the example shown in FIG. 7A, the screen display “Please turn to the front” is displayed. At this time, similarly to the up / down determination of the face orientation determination, the binocular-mouth angle in the front state (average value of ∠LE, ∠RE): ∠LE-RE_Neutral is calculated and held (step S1002).

次に、個人差調整部104は表示部107に、利用者に対して上に向くように指示する(ステップS1003)。具体的には図7(b)に示した一例のように、「上を向いてください」と画面表示する。このとき、利用者は正面状態から上方向を向くが、ここで入力画像を連続して処理し、利用者が上を向き過ぎて特徴点抽出部102が顔部品の特徴点座標を検出できなくなるか(ステップS1004)、一定時間利用者が顔向きを移動させなくなった時点(ステップS1006)の両目−口上角度(∠LE、∠REの平均値):とLE−RE_Upを保持する(ステップS1005)。   Next, the individual difference adjustment unit 104 instructs the display unit 107 to face up to the user (step S1003). Specifically, as in the example shown in FIG. 7B, the screen displays “Please turn up”. At this time, the user faces upward from the front state, but the input image is continuously processed here, and the user faces too much upward, so that the feature point extraction unit 102 cannot detect the feature point coordinates of the facial part. (Step S1004), the both eyes-mouth angle (average value of ∠LE and ∠RE) at the time when the user stops moving the face for a certain time (step S1006): and LE-RE_Up are held (step S1005) .

さらに個人差調整部104は、利用者に対して下を向くように指示する(ステップS1007)。具体的には図7(c)に示した一例のように、「下を向いてください」と画面表示する。これにより利用者は下方向を向くが、上方向と同様に入力画像を連続して処理し、利用者が下を向き過ぎて特徴点座標を検出できなくなるか(ステップS1008)、一定時間顔向きを変化させなくなった時点(ステップS1010)の両目−口上角度(∠LE、∠REの平均値):∠LE−RE_Downを保持する(ステップS1009)。   Furthermore, the individual difference adjustment unit 104 instructs the user to face down (step S1007). Specifically, as in the example shown in FIG. 7C, the message “Please turn down” is displayed on the screen. As a result, the user faces down, but the input image is continuously processed in the same manner as in the up direction, and whether the user can face down too much to detect the feature point coordinates (step S1008). At the time when no change is made (step S1010), both eyes-mouth angle (average value of ∠LE and ∠RE): ∠LE-RE_Down is held (step S1009).

これらの一連の操作は、利用者から見ると装置(顔向き判定装置100)の指示に従ってカメラ(画像入力部101)に向かって正面から上・下に顔を向けただけである。   When viewed from the user, these series of operations are merely turning the face up and down from the front toward the camera (image input unit 101) in accordance with an instruction of the device (face orientation determination device 100).

次に閾値の個人差修正の動作を説明する。
顔向き判定部103における上下方向の閾値は予め設計段階で装置と顔が含まれた多くの画像を評価することによって得られた閾値が格納されている。この閾値は、一般的には正面向きと上向き(あるいは下向き)との中間値である(図8の参照符号801)。
Next, the operation for correcting the individual difference of the threshold will be described.
The threshold in the vertical direction in the face orientation determination unit 103 is stored in advance as a threshold obtained by evaluating many images including the device and the face in the design stage. This threshold value is generally an intermediate value between the front direction and the upward direction (or downward direction) (reference numeral 801 in FIG. 8).

これに対して、個人差調整部104は上記手順で得られた正面状態の両目−口上角度:∠LB−RE_Neutral(図8の参照符号803)と、上向き状態の両目−口上角度:∠LE−RE−Up(図8の参照符号802)からその中間値を算出し、個人差情報格納部105へ上向き判定用の修正閾値(図8の参照符号804)として登録する。   On the other hand, the individual difference adjustment unit 104 has a front-eye binocular-upper angle obtained by the above procedure: ∠LB-RE_Neutral (reference numeral 803 in FIG. 8), and a binocular-upper-eye angle in the upward state: ∠LE-. The intermediate value is calculated from RE-Up (reference numeral 802 in FIG. 8) and registered in the individual difference information storage unit 105 as a correction threshold value for upward determination (reference numeral 804 in FIG. 8).

上向き判定用修正閾値は次のように表される。
上向き判定用修正閾値=(∠LE−RB_Neutral−∠LE−RE_Up)÷2
The upward threshold correction threshold value is expressed as follows.
Upward determination correction threshold = (∠LE-RB_Neutral−∠LE-RE_Up) / 2

顔向き判定部103は以降、この登録された閾値を用いて上向き判定を行う。つまり、登録した利用者に最適な閾値を用いて判定することになる。   The face orientation determination unit 103 subsequently performs upward determination using the registered threshold value. That is, the determination is made using a threshold value that is optimal for the registered user.

下向きについても同様に正面状態の両目−口上角度:∠LE−RE_Neutral(図9の参照符号902)と、下向き状態の両目−口上角度:∠LE−RE_Down(図9の参照符号903)からその中間値を算出し、個人差情報格納部105へ下向き判定用の閾値(図9の参照符号904)として登録する。未説明の参照符号901は、図8の参照符号801と同様の初期閾値である。顔向き判定部103は以降、この閾値を用いて下向き判定を行う。   Similarly for the downward direction, both eyes-upper angle in the front state: ∠LE-RE_Neutral (reference numeral 902 in FIG. 9), and both eyes-upper angle in the downward state: ∠LE-RE_Down (reference numeral 903 in FIG. 9) between them. A value is calculated and registered in the individual difference information storage unit 105 as a threshold value for downward determination (reference numeral 904 in FIG. 9). An unexplained reference numeral 901 is an initial threshold similar to the reference numeral 801 in FIG. The face orientation determination unit 103 subsequently performs downward determination using this threshold value.

ここで、図9の顔下向きの閾値の補正について、さらに説明する。特に、図9に示したように、利用者の顔向きが正面から下向きに移動するとき、両目−口上角度が大きくなっていく理由について、図10〜図12を参照しながら詳細に説明する。   Here, the correction of the face downward threshold in FIG. 9 will be further described. In particular, as shown in FIG. 9, the reason why the binocular-mouth angle increases when the face of the user moves downward from the front will be described in detail with reference to FIGS.

利用者に正面を向くという行為を行わせたとき、人間の顔を横から見たときの目の中心(黒目)と唇の上の点の位置関係は、多くの人が目中心より口上が前(人間から見て正面方向)に突出している。従って、正面から下方向を向くと、図10に示したように、両目−口上の三角形は縦方向に伸びる変化をする。すなわち、図10において、角度A<角度Bとなる。   When the user is facing the front, when looking at the human face from the side, the position of the center of the eyes (black eyes) and the point on the lips It protrudes forward (front direction when viewed from a human). Accordingly, when facing downward from the front, as shown in FIG. 10, the triangle on both eyes-mouth changes in a longitudinal direction. That is, in FIG. 10, angle A <angle B.

また、本実施形態で想定しているポインタのコントロールなどでは、装置の画面を見たままの操作であるため、通常、人間は正面を見ているときより、下を向いたときの方が黒目がかなり上を向くように移動する。口の上の点は特に上方向の動きはないため、図11に示したように、両目−口上の三角形は縦方向に伸びる変化をする。すなわち、図11において、角度C<角度Dとなる。   In addition, since the control of the pointer assumed in the present embodiment is an operation while looking at the screen of the apparatus, a human usually looks blacker when looking down than when looking at the front. Move so that it looks up. Since the point above the mouth does not move in the upward direction, as shown in FIG. 11, the triangle on both eyes-mouth changes to extend in the vertical direction. That is, in FIG. 11, angle C <angle D.

また、携帯電話などの携帯端末装置での利用を前提とした場合に、装置を手に持ち、装置のインカメラを自分に向けて画面を見る姿勢をとると、図12に示したように、インカメラと顔の相対的な位置関係はほとんどの場合、カメラが顔の真正面より下になる。その結果、図10に示した横から見たときの目中心と口上との関係で、正面状態がより傾斜を持つことになる。すなわち、図10、図12に示したように、角度a<角度Aであり、角度a<角度A<角度Bとなる。   In addition, when it is assumed to be used in a mobile terminal device such as a mobile phone, when the device is held in the hand and the in-camera of the device is pointed at the user to view the screen, as shown in FIG. In most cases, the relative positional relationship between the in-camera and the face is below the front of the face. As a result, the front state is more inclined due to the relationship between the center of the eye and the mouth when viewed from the side shown in FIG. That is, as shown in FIGS. 10 and 12, the angle a <angle A, and the angle a <angle A <angle B.

以上の理由から、利用者の顔向きが正面から下向きに移動すると両目−口上角度が大きくなる結果となる。ただし、口の上の点だけだと個人差もあり十分な精度が出ないこともあるため、他の特徴点(例えば、鼻の特徴点など)を併用するようにしてもよい。   For the above reasons, when the user's face direction moves downward from the front, the result is that the binocular-mouth angle increases. However, since only the point on the mouth has individual differences and may not provide sufficient accuracy, other feature points (for example, feature points of the nose) may be used in combination.

以上、上下方向の個人差調整について説明したが、左右方向の個人差調整についても同様である。利用者に右、左を向かせてそれぞれの目中心−右眉水平距離(および目中心−左眉水平距離)を保持し、中間値を閾値として登録することで、その利用者にとって最適な閾値で顔向き判定を行う。また、本実施形態では上下方向と左右方向の個人差調整を別々に行う場合について説明したが、上下左右まとめて行ってもよい。   Although the individual difference adjustment in the vertical direction has been described above, the same applies to the individual difference adjustment in the horizontal direction. Optimum threshold for the user by holding the center of each eye-right eyebrow horizontal distance (and eye center-left eyebrow horizontal distance) with the user facing right and left and registering the intermediate value as a threshold The face orientation is determined with. Moreover, although this embodiment demonstrated the case where an individual difference adjustment of an up-down direction and a left-right direction was performed separately, you may carry out collectively up-down and left-right.

以上、本実施形態にかかる顔向き検出装置100について説明した。かかる顔向き検出装置100は、コンピュータに上記機能を実現するためのコンピュータプログラムを組み込むことで、コンピュータを顔向き検出装置100として機能させることが可能である。かかるコンピュータプログラムは、所定の記録媒体(例えば、CD−ROM)に記録された形で、あるいは、電子ネットワークを介したダウンロードの形で市場を流通させることが可能である。ここでいうコンピュータには、携帯電話などの小機器も当然に含まれる。   The face orientation detection apparatus 100 according to the present embodiment has been described above. Such a face orientation detection apparatus 100 can cause a computer to function as the face orientation detection apparatus 100 by incorporating a computer program for realizing the above functions into the computer. Such a computer program can be distributed in the market in a form recorded on a predetermined recording medium (for example, a CD-ROM) or downloaded via an electronic network. The computer here naturally includes small devices such as mobile phones.

(本実施形態の効果)
以上のように、本実施形態によれば、利用者に対して正面および各方向の顔向きの動作、すなわち顔向きを検出してポインタを操作する非接触インタフェースが持つ検出動作を一通り行わせ、その時の特徴点の状態を検出し、それぞれの検出動作について、利用者に最適な検出の閾値を算出し、閾値を更新する制御部を設けることで、利用者の個人差を加味した顔向き検出を行うことができるため、装置の製造コストを上げることなく、利用者が容易に顔向き検出の精度の向上させることが期待できる。
(Effect of this embodiment)
As described above, according to the present embodiment, the user is allowed to perform the entire face-to-face operation in the front and each direction, that is, the detection operation of the non-contact interface that detects the face direction and operates the pointer. Detecting the state of the feature point at that time, calculating the optimal detection threshold for the user for each detection operation, and providing a control unit that updates the threshold, the face orientation taking into account individual differences of the user Since the detection can be performed, it can be expected that the user can easily improve the accuracy of the face orientation detection without increasing the manufacturing cost of the apparatus.

以上、添付図面を参照しながら本発明にかかる顔向き検出装置および顔向き検出方法の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the face direction detection apparatus and the face direction detection method according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious for those skilled in the art that various modifications or modifications can be conceived within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.

例えば、上記実施形態では、閾値のよる顔向き判定によるポインタ操作を行う装置に適用した例を説明したが、顔向き角度を画面上の座標に変換するマウスポインタ操作を行う装置にも適用可能である。その際は、閾値を補正するのではなく、顔向き角度を座標に変換する関数(例えば変換式や変換テーブル)を個人差情報によって修正する。   For example, in the above-described embodiment, the example in which the pointer operation is performed by the face direction determination based on the threshold value has been described. is there. In that case, the threshold value is not corrected, but a function (for example, a conversion formula or a conversion table) for converting the face angle into coordinates is corrected by the individual difference information.

上記実施形態では、顔向き検出の判定方法として、上下方向は両目−口上角度を、左右方向は左眉(右眉)−両目中心割合を利用した例を説明したが、両目−鼻や、口中心−口端角度など、その他の顔特徴点と判定式を利用しても同様に適用できる。   In the above embodiment, as an example of the determination method of face orientation, an example using the binocular-upper angle in the vertical direction and the left eyebrow (right eyebrow) -center ratio of both eyes in the left-right direction has been described. The present invention can be similarly applied by using other facial feature points such as a center-mouth end angle and a determination formula.

上記実施形態では、利用者に個人差調整の特徴点取得を指示するために文字の表示を用いていたが、例えば図14に示したように、矢印記号や矢印を模した図形、画像を用いてもよい。図14(a)は黒塗りの三角形“▲”で正面を向くよう指示したものであり、図14(b)は黒塗りの三角形“▲”で上を向くよう指示したものであり、図14(c)は手の図形で下を向くよう指示したものである。   In the above embodiment, the display of characters is used to instruct the user to acquire the feature points for individual difference adjustment. For example, as shown in FIG. 14, an arrow symbol, a figure imitating an arrow, or an image is used. May be. FIG. 14A is an instruction to face the front with a black triangle “▲”, and FIG. 14B is an instruction to face the top with a black triangle “▲”. (C) is an instruction to face down with a figure of a hand.

また、利用者の各顔向きの動作が不適正なもの(向き過ぎ)である場合に、例えば図15に示したように、利用者に警告を発するようにしてもよい。図15(a)は警告音で利用者に警告を発するものであり、図15(b)は警告画面(記号)の表示で利用者に警告を発するものである。   Further, when the user's face-facing motion is inappropriate (too much), a warning may be issued to the user as shown in FIG. 15, for example. FIG. 15A issues a warning to the user with a warning sound, and FIG. 15B issues a warning to the user by displaying a warning screen (symbol).

上記実施形態では、利用者の個人差情報を取得するための手順として、顔向き方向を指示して各方向を向いてもらう手順のみ説明したが、本発明はこれに限定されない。例えば、利用者が顔の向きを変えていく過程で特徴点検出限界を超えたときに、一旦個人差による閾値修正を行った後に利用者に操作感を確認させ、不適切な場合は再度個人差調整を実施、あるいは利用者に大まかに修正閾値を変更させることも可能である。図16、図17は、このような調整後の確認操作の一例を示す説明図である。   In the above embodiment, as the procedure for acquiring the individual difference information of the user, only the procedure for instructing the face direction and having the user face each direction has been described, but the present invention is not limited to this. For example, when the feature point detection limit is exceeded in the process of changing the direction of the face, the user is made to confirm the operational feeling after correcting the threshold value once due to individual differences. It is also possible to perform difference adjustment or to allow the user to change the correction threshold roughly. 16 and 17 are explanatory diagrams illustrating an example of the confirmation operation after such adjustment.

図16は、閾値を超えるとポイントが動いて、方向を示す記号、図形などが表示・点滅する場合を示す説明図である。上向き1302の画面例では、利用者が上を向いて閾値を超えると、ポインタ1302aが上に動くとともに、方向を示す記号1302bが表示あるいは点滅する。正面向き1301、左向き1303、右向き1304、下向き1305についても同様である。   FIG. 16 is an explanatory diagram showing a case where a point moves when a threshold value is exceeded, and a symbol or figure indicating a direction is displayed / flashing. In the upward 1302 screen example, when the user faces upward and exceeds the threshold value, the pointer 1302a moves upward and the direction symbol 1302b is displayed or blinks. The same applies to the front direction 1301, the left direction 1303, the right direction 1304, and the downward direction 1305.

図17は、閾値を超える方向を示す記号、図形などが表示・点滅される状態を示す説明図である。上向き1402の画面例では、角度と閾値を示すスケール(上下と左右の2軸)1406と、今向いている方向がどの程度かを示すマーカ1408と、閾値を示す枠1407とをリアルタイムに表示している。利用者は、マーカの移動を見ながら顔向きの間隔を学習できる。閾値の変更も、閾値を示す枠1407を見ながら変更することができる。正面向き1401、左向き1403、右向き1404、下向き1405についても同様である。   FIG. 17 is an explanatory diagram showing a state in which symbols, graphics, and the like indicating directions exceeding the threshold are displayed and blinked. In the screen example of upward 1402, a scale (two axes, upper and lower, left and right) 1406 indicating an angle and a threshold, a marker 1408 indicating how much the current direction is, and a frame 1407 indicating the threshold are displayed in real time. ing. The user can learn the face-to-face interval while watching the movement of the marker. The threshold value can also be changed while viewing the frame 1407 indicating the threshold value. The same applies to the front direction 1401, the left direction 1403, the right direction 1404, and the downward direction 1405.

また、顔向き操作中にカメラからの入力画像の表示上に特徴点を重畳表示させたり、特徴点限界を超えたときに、入力画像上に重畳表示した特徴点の形状や色を変化させたりするなど、個人差情報を取得する際に利用者の利便性、認識性を向上させる様々な仕組みと組み合わせることで、より確実に、容易に個人差調整を行うことができる。図18は、このような調整後の確認操作の一例を示す説明図である。図18(a)は、向き過ぎでない状態を示しており、特徴点が顔に乗っている。図18(b)は、上向きでかつ向き過ぎでない状態を示しており、特徴点が顔に乗っている。図18(c)は、上向きでかつ向き過ぎた場合を示しており、特徴点を正面状態の位置に“×”印で表示している。   In addition, feature points can be superimposed on the display of the input image from the camera during face-to-face operation, and the shape and color of the feature points superimposed on the input image can be changed when the feature point limit is exceeded. By combining with various mechanisms for improving the convenience and recognizability of users when acquiring individual difference information, it is possible to adjust individual differences more reliably and easily. FIG. 18 is an explanatory diagram showing an example of the confirmation operation after such adjustment. FIG. 18A shows a state in which it is not facing too much, and feature points are on the face. FIG. 18B shows a state in which it is upward and not too much, and the feature points are on the face. FIG. 18 (c) shows a case where it is upward and excessively directed, and the feature points are indicated by “x” marks at the positions in the front state.

また、上記実施形態では、利用者の個人差情報を取得するための手順として、上下左右を一度だけ向いてもらう例を説明したが、個人差情報の取得精度を高めるために、複数回各方向を向いてもらい、その平均値や取得した複数の値の中央値を修正閾値として採用することもできる。   Further, in the above embodiment, as an example of the procedure for acquiring the individual difference information of the user, the example in which the user is directed to the top, bottom, left, and right only once has been described. The average value or the median value of a plurality of acquired values can be adopted as the correction threshold value.

また、上記実施形態では、顔向き判定部103により判定された顔向きに応じて、表示部装置107上に表示されるポインタを制御するポインタ制御部106を例に挙げて説明したが、ポインタのほかにも、顔向き判定部103により判定された顔向きに応じて表示装置107の画面のスクロールや、表示装置に表示されるキャラクター(例えばゲームの自機など)の移動などにも本発明を利用することができる。   In the above-described embodiment, the pointer control unit 106 that controls the pointer displayed on the display unit 107 according to the face orientation determined by the face orientation determination unit 103 has been described as an example. In addition, the present invention can be applied to scrolling the screen of the display device 107 according to the face orientation determined by the face orientation determining unit 103, moving a character (for example, a game machine) displayed on the display device, and the like. Can be used.

本発明は、顔向き検出装置および顔向き検出方法に利用可能であり、特に、入力画像から利用者の顔部分の特徴点を検出し、その顔向きを判別することによってポインタを操作する非接触インタフェースに用いられる顔向き検出装置および顔向き検出方法に利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for a face orientation detection device and a face orientation detection method, and in particular, non-contact that detects a feature point of a user's face from an input image and operates the pointer by determining the face orientation The present invention can be used for a face orientation detection device and a face orientation detection method used for an interface.

本発明の一実施形態の構成を示す説明図である。It is explanatory drawing which shows the structure of one Embodiment of this invention. 特徴点を示す説明図である。It is explanatory drawing which shows a feature point. 上下向き判定の特徴点計算を示す説明図である。It is explanatory drawing which shows the feature point calculation of a vertical direction determination. 上下向き判定を示すフローチャートである。It is a flowchart which shows up-down direction determination. 左右向き判定の特徴点計算を示す説明図である。It is explanatory drawing which shows the feature point calculation of left-right direction determination. 左右向き判定を示すフローチャートである。It is a flowchart which shows left-right direction determination. 個人差調整の画面表示(上下方向)を示す説明図である。It is explanatory drawing which shows the screen display (up-down direction) of individual difference adjustment. 上向き閾値の調整を示す説明図である。It is explanatory drawing which shows adjustment of an upward threshold. 下向き閾値の調整を示す説明図である。It is explanatory drawing which shows adjustment of a downward threshold. 下向き閾値の説明図(1)である。It is explanatory drawing (1) of a downward threshold value. 下向き閾値の説明図(2)である。It is explanatory drawing (2) of a downward threshold value. 下向き閾値の説明図(3)である。It is explanatory drawing (3) of a downward threshold. 閾値の修正を示すフローチャートである。It is a flowchart which shows correction of a threshold value. 閾値の修正を示すフローチャートである。It is a flowchart which shows correction of a threshold value. 顔向き指示例を示す説明図である。It is explanatory drawing which shows the example of face direction instruction | indication. 向き過ぎ警告例を示す説明図である。It is explanatory drawing which shows the example of an excessive direction warning. 調整後の確認操作例(1)を示す説明図である。It is explanatory drawing which shows the confirmation operation example (1) after adjustment. 調整後の確認操作例(2)を示す説明図である。It is explanatory drawing which shows the confirmation operation example (2) after adjustment. 調整後の確認操作例を示す説明図である。It is explanatory drawing which shows the example of confirmation operation after adjustment.

符号の説明Explanation of symbols

100 顔向き検出装置
101 画像入力部
102 特徴点抽出部
103 顔向き判定部
104 個人差調整部
105 個人差情報格納部
106 ポインタ制御部
107 表示部
DESCRIPTION OF SYMBOLS 100 Face direction detection apparatus 101 Image input part 102 Feature point extraction part 103 Face direction determination part 104 Individual difference adjustment part 105 Individual difference information storage part 106 Pointer control part 107 Display part

Claims (9)

情報処理装置の利用者の顔向きを判定して該情報処理装置のアプリケーションで利用するための顔向き判定装置において、
利用者の顔を画像として入力する画像入力部と、
前記画像から、利用者の顔の特徴点を抽出する特徴点抽出部と、
所定の閾値に基づいて前記特徴点から利用者の顔向きを判定し、アプリケーションに情報を送信する顔向き判定部と、
利用者ごとの各顔向きについて個人差を調整するための個人差情報を取得する個人差調整部と、
前記閾値を前記個人差情報を用いて更新して利用者ごとに登録する個人差情報格納部と、
を備えたことを特徴とする、顔向き判定装置。
In a face orientation determination device for determining a face orientation of a user of an information processing device and using it in an application of the information processing device,
An image input unit for inputting a user's face as an image;
A feature point extraction unit for extracting feature points of the user's face from the image;
A face direction determination unit that determines a user's face direction from the feature points based on a predetermined threshold and transmits information to the application;
An individual difference adjustment unit for acquiring individual difference information for adjusting individual differences for each face orientation for each user;
An individual difference information storage unit that updates the threshold using the individual difference information and registers for each user;
A face orientation determining device comprising:
さらに、
各種情報を表示する表示部と、
前記顔向き判定部により判定された顔向きに応じて、前記表示部上に表示されるポインタを制御するポインタ制御部と、
を備えたことを特徴とする、請求項1に記載の顔向き判定装置。
further,
A display unit for displaying various information;
A pointer control unit that controls a pointer displayed on the display unit in accordance with the face direction determined by the face direction determination unit;
The face orientation determination device according to claim 1, comprising:
前記個人差調整部は、
前記利用者に対して各顔向きの動作を一通り行わせるための指示を出し、
前記画像入力部から入力される各顔向きの画像から前記個人差情報を取得することを特徴とする、請求項1または2に記載の顔向き判定装置。
The individual difference adjustment unit
An instruction is given to the user to perform a single movement for each face,
The face orientation determination device according to claim 1, wherein the individual difference information is acquired from an image of each face orientation input from the image input unit.
前記個人差調整部は、
前記利用者に対して各顔向きの動作を一通り行わせるための指示を出すにあたり、各種情報を表示する表示部に図形または画像で指示を出すことを特徴とする、請求項3に記載の顔向き判定装置。
The individual difference adjustment unit
4. The instruction according to claim 3, wherein an instruction is given to the display unit for displaying various types of information as a graphic or an image when giving an instruction for the user to perform a single face-facing operation. 5. Face orientation determination device.
前記個人差調整部は、
前記利用者の各顔向きの動作が不適正なものである場合に、前記利用者に警告を発することを特徴とする、請求項3または4に記載の顔向き判定装置。
The individual difference adjustment unit
The face orientation determination device according to claim 3 or 4, wherein a warning is issued to the user when an operation of each face orientation of the user is inappropriate.
利用者の顔向きを判定する顔向き判定方法において、
利用者の顔を画像として入力する画像入力工程と、
前記画像から、利用者の顔の特徴点を抽出する特徴点抽出工程と、
所定の閾値に基づいて前記特徴点から利用者の顔向きを判定する顔向き判定工程と、
利用者ごとの各顔向きについて個人差を調整するための個人差情報を取得する個人差調整工程と、
前記閾値を前記個人差情報を用いて更新して利用者ごとに登録する個人差情報格納工程と、
を含むことを特徴とする、顔向き判定方法。
In the face orientation determination method for determining the face orientation of the user,
An image input process for inputting a user's face as an image;
A feature point extracting step of extracting feature points of the user's face from the image;
A face orientation determination step of determining a user's face orientation from the feature points based on a predetermined threshold;
Individual difference adjustment process for obtaining individual difference information for adjusting individual differences for each face orientation for each user;
An individual difference information storing step of updating the threshold using the individual difference information and registering it for each user;
A face orientation determination method characterized by comprising:
前記個人差調整工程は、
前記利用者に対して各顔向きの動作を一通り行わせるための指示を出す工程と、
前記画像入力部から入力される各顔向きの画像から前記個人差情報を取得する工程と、
を含むことを特徴とする、請求項6に記載の顔向き判定方法。
The individual difference adjustment process includes:
Instructing the user to perform a series of actions for each face;
Obtaining the individual difference information from each face-oriented image input from the image input unit;
The face orientation determination method according to claim 6, further comprising:
前記利用者に対して各顔向きの動作を一通り行わせるための指示を出す工程において、
各種情報を表示する表示部に図形または画像で指示を出すことを特徴とする、請求項7に記載の顔向き判定方法。
In the step of issuing an instruction to cause the user to perform a single operation for each face,
The face orientation determination method according to claim 7, wherein an instruction is given as a graphic or an image to a display unit that displays various types of information.
前記個人差調整工程において、
前記利用者の各顔向きの動作が不適正なものである場合に、前記利用者に警告を発することを特徴とする、請求項7または8に記載の顔向き判定方法。
In the individual difference adjustment step,
9. The face orientation determination method according to claim 7 or 8, wherein a warning is issued to the user when an operation of each face orientation of the user is inappropriate.
JP2007019335A 2007-01-30 2007-01-30 Face direction detector and face direction detection method Abandoned JP2008186247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007019335A JP2008186247A (en) 2007-01-30 2007-01-30 Face direction detector and face direction detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007019335A JP2008186247A (en) 2007-01-30 2007-01-30 Face direction detector and face direction detection method

Publications (1)

Publication Number Publication Date
JP2008186247A true JP2008186247A (en) 2008-08-14

Family

ID=39729243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007019335A Abandoned JP2008186247A (en) 2007-01-30 2007-01-30 Face direction detector and face direction detection method

Country Status (1)

Country Link
JP (1) JP2008186247A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010049578A (en) * 2008-08-22 2010-03-04 Seiko Epson Corp Image processor, image processing method, and image processing program
JP2010230651A (en) * 2009-03-27 2010-10-14 Utechzone Co Ltd Visual line tracing method and visual line tracing system
US8515180B2 (en) 2009-12-28 2013-08-20 Canon Kabushiki Kaisha Image data correction apparatus and method using feature points vector data
JP2014123322A (en) * 2012-12-21 2014-07-03 Casio Comput Co Ltd Information notification device, information notification method, and program
WO2015001791A1 (en) * 2013-07-03 2015-01-08 パナソニックIpマネジメント株式会社 Object recognition device objection recognition method
JP2015087824A (en) * 2013-10-28 2015-05-07 オムロン株式会社 Screen operation device and screen operation method
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
US9304583B2 (en) 2008-11-20 2016-04-05 Amazon Technologies, Inc. Movement recognition as input mechanism
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
JP2019083015A (en) * 2017-10-31 2019-05-30 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program
JPWO2018230510A1 (en) * 2017-06-13 2020-04-16 ソニー株式会社 Image processing apparatus, image processing method, and imaging system
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355602B2 (en) 2008-08-22 2013-01-15 Seiko Epson Corporation Image processing apparatus, image processing method and image processing program
JP2010049578A (en) * 2008-08-22 2010-03-04 Seiko Epson Corp Image processor, image processing method, and image processing program
US9304583B2 (en) 2008-11-20 2016-04-05 Amazon Technologies, Inc. Movement recognition as input mechanism
JP2010230651A (en) * 2009-03-27 2010-10-14 Utechzone Co Ltd Visual line tracing method and visual line tracing system
US8515180B2 (en) 2009-12-28 2013-08-20 Canon Kabushiki Kaisha Image data correction apparatus and method using feature points vector data
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US9471153B1 (en) 2012-03-14 2016-10-18 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
US9652083B2 (en) 2012-03-28 2017-05-16 Amazon Technologies, Inc. Integrated near field sensor for display devices
JP2014123322A (en) * 2012-12-21 2014-07-03 Casio Comput Co Ltd Information notification device, information notification method, and program
WO2015001791A1 (en) * 2013-07-03 2015-01-08 パナソニックIpマネジメント株式会社 Object recognition device objection recognition method
JP6052751B2 (en) * 2013-07-03 2016-12-27 パナソニックIpマネジメント株式会社 Object recognition apparatus and object recognition method
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
JP2015087824A (en) * 2013-10-28 2015-05-07 オムロン株式会社 Screen operation device and screen operation method
JPWO2018230510A1 (en) * 2017-06-13 2020-04-16 ソニー株式会社 Image processing apparatus, image processing method, and imaging system
JP2019083015A (en) * 2017-10-31 2019-05-30 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program

Similar Documents

Publication Publication Date Title
JP2008186247A (en) Face direction detector and face direction detection method
US10511778B2 (en) Method and apparatus for push interaction
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
JP5802667B2 (en) Gesture input device and gesture input method
EP2189835A1 (en) Terminal apparatus, display control method, and display control program
CN114080585A (en) Virtual user interface using peripheral devices in an artificial reality environment
US20160004320A1 (en) Tracking display system, tracking display program, tracking display method, wearable device using these, tracking display program for wearable device, and manipulation method for wearable device
WO2014016987A1 (en) Three-dimensional user-interface device, and three-dimensional operation method
US20160012612A1 (en) Display control method and system
US20150241984A1 (en) Methods and Devices for Natural Human Interfaces and for Man Machine and Machine to Machine Activities
US20150304615A1 (en) Projection control apparatus and projection control method
EP3859489A1 (en) Gesture-based manipulation method and terminal device
JP2013156889A (en) Movement control device, control method for movement control device, and program
JP2017004354A (en) Display control method, display control program, information processing terminal, and wearable device
JP6805524B2 (en) Input device, input program, and input method
JP2019061590A (en) Information processing apparatus, information processing system, and program
CN109618055A (en) A kind of position sharing method and mobile terminal
JP6413521B2 (en) Display control method, information processing program, and information processing apparatus
CN115002443B (en) Image acquisition processing method and device, electronic equipment and storage medium
CN114241604A (en) Gesture detection method and device, electronic equipment and storage medium
CN114816088A (en) Online teaching method, electronic equipment and communication system
CN110494915A (en) Electronic device and its control method
Schmieder et al. Thumbs up: 3D gesture input on mobile phones using the front facing camera
JP2013134549A (en) Data input device and data input method
US20240118751A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091214

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20100812