JP2016162164A - Operation device and operation method - Google Patents
Operation device and operation method Download PDFInfo
- Publication number
- JP2016162164A JP2016162164A JP2015039963A JP2015039963A JP2016162164A JP 2016162164 A JP2016162164 A JP 2016162164A JP 2015039963 A JP2015039963 A JP 2015039963A JP 2015039963 A JP2015039963 A JP 2015039963A JP 2016162164 A JP2016162164 A JP 2016162164A
- Authority
- JP
- Japan
- Prior art keywords
- face
- distance
- information
- user
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、操作装置および操作方法に関する。 The present invention relates to an operating device and an operating method.
例えば、車両の運転中などに、車両に搭載された操作対象の機器(以下、「操作対象機器」という)に視線を向けることができず、さらには、手探りなどによっても操作を行うことができない状況がある。このため、従来から、操作対象機器を直接操作することができない状況においても、操作対象機器に対して所望の操作を行うことができる方法が求められている。このような要望を実現するため、例えば、特許文献1のような、音声によって操作対象機器に対する操作を行う技術が提案されている。 For example, while driving the vehicle, the line of sight cannot be directed to the operation target device (hereinafter referred to as “operation target device”) mounted on the vehicle, and further, the operation cannot be performed by groping. There is a situation. For this reason, there is a need for a method that can perform a desired operation on an operation target device even in a situation where the operation target device cannot be directly operated. In order to realize such a demand, for example, a technique for performing an operation on an operation target device by voice as in Patent Document 1 has been proposed.
しかしながら、特許文献1で開示されたような、操作対象機器に対する操作を音声によって行う技術では、操作対象機器の誤動作を防止するなどの目的から、対話式で操作を指示することが行われている。このため、操作対象機器が音声によって指示された操作を受け付けるまでに時間を要するという問題がある。また、対話中の音声を誤認識してしまった場合などには、最初から対話をやり直すなど、正しい操作への修正が困難であるという問題もある。 However, in the technique for performing an operation on the operation target device by voice as disclosed in Patent Document 1, the operation is instructed interactively for the purpose of preventing the operation target device from malfunctioning. . For this reason, there is a problem that it takes time for the operation target device to accept an operation instructed by voice. In addition, when the voice during the conversation is misrecognized, there is a problem that it is difficult to correct the correct operation, such as starting the conversation again from the beginning.
本発明は、上記の課題に基づいてなされたものであり、操作対象の機器を直接操作することができない状況においても、機器に対する操作を容易に行うことができる操作装置および操作方法を提供することを目的としている。 The present invention has been made based on the above-described problems, and provides an operating device and an operating method that can easily operate an apparatus even in a situation where the apparatus to be operated cannot be directly operated. It is an object.
上記の課題を解決するため、本発明の一態様の操作装置は、操作対象の機器における操作を制御する操作装置であって、顔を含んだ画像を撮影する撮像部と、前記画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識部と、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出部と、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出部と、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御部と、を備える。 In order to solve the above-described problem, an operation device according to one embodiment of the present invention is an operation device that controls an operation in a device to be operated, and is included in an imaging unit that captures an image including a face, and the image A face recognition unit for recognizing the face and outputting feature point information representing the position of the recognized face part as face recognition information; detecting the orientation of the face based on the face recognition information; A face direction detection unit that outputs face direction information indicating the orientation of the face, a distance between the imaging unit and the face is detected based on the face recognition information, and face distance information indicating the detected distance A face distance detection unit that outputs the operation information representing the operation content for the device determined in advance according to the orientation of the face and the distance between the imaging unit and the face, and the face direction information Based on the face distance information, the corresponding machine An operation signal representing the operation to, and a control unit for outputting to the device.
また、本発明の一態様の操作方法は、操作対象の機器における操作を制御する操作装置における操作方法であって、撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、を含む。 Further, an operation method according to one embodiment of the present invention is an operation method in an operation device that controls an operation in a device to be operated, and recognizes the face included in an image including a face photographed by an imaging unit, A face recognition step of outputting information of feature points representing the position of the recognized face part as face recognition information, detecting the face direction based on the face recognition information, and expressing the detected face direction A face direction detecting step for outputting face direction information; a face distance detecting step for detecting a distance between the imaging unit and the face based on the face recognition information; and outputting face distance information representing the detected distance. Based on the face orientation information and the face distance information, referring to the operation information representing the operation contents for the device determined in advance according to the orientation of the face and the distance between the imaging unit and the face. The corresponding said An operation signal representing the operation to the vessel, and a control step of outputting to the device.
本発明によれば、操作対象の機器を直接操作することができない状況においても、機器に対する操作を容易に行うことができるという効果が得られる。 According to the present invention, it is possible to easily perform an operation on a device even in a situation where the device to be operated cannot be directly operated.
以下、本発明の実施形態について、図面を参照して説明する。図1は、本発明の実施形態における操作装置の概略構成を示したブロック図である。操作装置10は、制御部100と、撮像部200と、記憶部300と、通信部400とを含んで構成されている。操作装置10は、使用者(ユーザー)が所望する操作を行うための指示を、不図示の操作対象の機器(以下、「操作対象機器」という)に出力するためのユーザーインターフェース装置である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an operating device according to an embodiment of the present invention. The
制御部100は、操作装置10内のそれぞれの構成要素、つまり、操作装置10の全体を制御する。制御部100は、顔認識部110と、顔向き検出部120と、顔距離検出部130とを含んで構成され、例えば、CPU(Central Processing Unit)などの処理装置で実現される。
The
撮像部200は、撮影機能としてカメラを備え、制御部100からの制御に応じて、画像を撮影する。操作装置10において撮像部200は、短い所定の時間間隔で、ユーザーの顔を含む画像を撮影する。撮像部200は、撮影した画像を順次、記憶部300に記憶する。
The
記憶部300は、制御部100または制御部100内の構成要素が種々の処理を実行するためのプログラムや、処理に使用するデータを記憶する。記憶部300は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの種々のメモリや、HDD(Hard disk drive)などの記憶装置で構成される。記憶部300は、制御部100からの制御に応じて、データの記憶(書き込み)やデータの出力(読み出し)を行う。
The
通信部400は、制御部100からの制御に応じて、無線ネットワークや有線ネットワークなどを介して、操作対象機器との通信を行う。より具体的には、例えば、通信部400は、ブルートゥース(Bluetooth(登録商標))などの短距離無線通信や、WiFi(登録商標)などの無線通信によって、ユーザーが所望する操作を表す信号(操作信号)を、操作対象機器に出力(伝送)する。また、例えば、通信部400は、操作対象機器と接続された通信ケールによって、操作信号を操作対象機器に伝送する。
The communication unit 400 communicates with the operation target device via a wireless network, a wired network, or the like in accordance with control from the
顔認識部110は、撮像部200が撮影した画像に含まれるユーザーの顔の全体を認識する顔認識処理を行う処理部である。顔認識部110は、撮像部200によって所定の短い時間間隔で撮影されたそれぞれの画像に対して顔認識処理を順次行い、顔認識処理を行った結果を、顔向き検出部120および顔距離検出部130に順次出力する。つまり、顔認識部110は、認識したユーザーの顔の情報(以下、「顔認識情報」という)を逐次、顔向き検出部120および顔距離検出部130に出力する。これにより、顔向き検出部120および顔距離検出部130は、それぞれの処理を精度よく行うことができる。なお、顔認識部110における顔認識処理の処理機能は、例えば、記憶部300に記憶されたプログラムを実行するソフトウェアによって実現される構成であってもよい。なお、顔認識部110の処理に関する詳細な説明は、後述する。
The
顔向き検出部120は、顔認識部110から入力されたユーザーの顔認識情報に基づいて、ユーザーの顔の向きを検出する処理部である。顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に基づいて、ユーザーの顔の向きを検出する検出処理(以下、「顔向き検出処理」という)を逐次行う。これにより、顔向き検出部120は、それぞれの顔向き検出処理の結果から、ユーザーの顔の向きの変化(例えば、縦方向への変化や横方向への変化)を追跡することができ、例えば、ユーザーの顔の上下方向や左右方向への傾きを検出することができる。顔向き検出部120は、検出したユーザーの顔の向きを表す情報(以下、「顔向き情報」という)を出力する。なお、顔向き検出部120における顔向き検出処理の処理機能は、例えば、記憶部300に記憶されたプログラムを実行するソフトウェアによって実現される構成であってもよい。なお、顔向き検出部120の処理に関する詳細な説明は、後述する。
The face
顔距離検出部130は、顔認識部110から入力されたユーザーの顔認識情報に基づいて、ユーザーの顔と撮像部200に備えたカメラとの距離を検出する処理部である。顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に基づいて、ユーザーの顔とカメラとの距離を検出する検出処理(以下、「顔距離検出処理」という)を逐次行う。これにより、顔距離検出部130は、それぞれの顔距離検出処理の結果から、ユーザーの顔とカメラとの距離との変化(例えば、前後(手前、奥)方向への変化)を追跡することができ、例えば、ユーザーの顔の手前方向や奥方向への移動を検出することができる。顔距離検出部130は、検出したユーザーの顔とカメラとの距離を表す情報(以下、「顔距離情報」という)を出力する。なお、顔距離検出部130における顔距離検出処理の処理機能は、例えば、記憶部300に記憶されたプログラムを実行するソフトウェアによって実現される構成であってもよい。なお、顔距離検出部130の処理に関する詳細な説明は、後述する。
The face
操作装置10では、ユーザーの顔の状態に応じた操作対象機器に対する操作内容を表す操作情報が、予め設定されている。この操作情報は、操作対象機器と、この操作対象機器に指示することができる操作の内容とが対応付けられた情報であり、例えば、記憶部300に記憶されている。制御部100は、操作情報を参照し、顔向き検出部120が出力した顔向き情報および顔距離検出部130が出力した顔距離情報に応じた操作、つまり、ユーザーが所望する操作を表す操作信号の操作対象機器への伝送を、通信部400を介して行う。
In the
次に、操作装置10がユーザーの顔の状態に応じて操作対象機器を操作する処理手順について説明する。図2は、本発明の実施形態の操作装置10における処理(操作対象機器の操作処理)の処理手順を示したフローチャートである。なお、以下の説明においては、操作装置10がユーザーの顔の状態の変化を検出する際の基準となる初期状態をすでに認識しており、この初期状態を、例えば、記憶部300に記憶しているものとして説明を行う。
Next, a processing procedure in which the
操作装置10が動作を開始すると、まず、制御部100は、撮像部200を起動する(ステップS101)。そして、制御部100は、撮像部200に、接続されているカメラによって画像を撮影させる(ステップS102)。これにより、撮像部200は、撮影した画像を記憶部300に記憶する。
When the
続いて、制御部100は、記憶部300に記憶された画像を読み出し、顔認識部110によって読み出した画像に含まれるユーザーの顔に対する顔認識処理を行う。そして、制御部100は、顔認識部110によって読み出した画像に含まれるユーザーの顔を認識することができたか否かを判定する(ステップS104)。
Subsequently, the
ステップS104の判定の結果、ユーザーの顔を認識することができないと判定した場合(ステップS104の“NO”)、制御部100は、ステップS102に戻って、撮像部200に、次の画像を撮影させ、ステップS103〜ステップS104までの処理を繰り返す。
As a result of the determination in step S104, when it is determined that the user's face cannot be recognized (“NO” in step S104), the
一方、ステップS104の判定の結果、ユーザーの顔を認識することができた(このとき、顔認識部110からは、認識したユーザーの顔認識情報が顔向き検出部120に出力されている)と判定した場合(ステップS104の“YES”)、制御部100は、顔向き検出部120によって認識したユーザーの顔の向きを検出する顔向き検出処理を行う(ステップS105)。なお、このステップS105の顔向き検出処理では、例えば、記憶部300に記憶しているユーザーの顔の初期状態も用いる。これにより、顔向き検出部120は、検出したユーザーの顔向き情報を出力する。
On the other hand, as a result of the determination in step S104, the user's face can be recognized (at this time, the recognized face recognition information of the user is output from the
続いて、制御部100は、顔距離検出部130によって認識したユーザーの顔とカメラとの距離を検出する顔距離検出処理を行う(ステップS106)。このとき、顔認識部110からは、認識したユーザーの顔認識情報が顔距離検出部130に出力されている。なお、このステップS106の顔距離検出処理では、例えば、記憶部300に記憶しているユーザーの顔の初期状態も用いる。これにより、顔距離検出部130は、検出したユーザーの顔距離情報を出力する。
Subsequently, the
続いて、制御部100は、顔向き検出部120から出力された顔向き情報と、顔距離検出部130から出力された顔距離情報とが表しているユーザーの顔の状態が、予め設定されている操作対象機器に対する操作内容であるか否かを判定する(ステップS107)。なお、このステップS107の判定の処理は、制御部100が、検出したユーザーの顔の状態と、例えば、記憶部300に記憶されている操作情報とを比較することによって行う。そして、制御部100は、現在比較しているユーザーの顔の状態が操作情報に含まれる場合には、ユーザーの顔の状態が操作対象機器に対する操作内容であると判定し、現在比較しているユーザーの顔の状態が操作情報に含まれない場合には、ユーザーの顔の状態が操作対象機器に対する操作内容ではないと判定する。
Subsequently, the
ステップS107の判定の結果、ユーザーの顔の状態が操作対象機器に対する操作内容であると判定した場合(ステップS107の“YES”)、制御部100は、ステップS108において通信部400を起動し、ユーザーの顔の状態に応じた操作を表す操作信号を、操作対象機器に伝送させる。そして、制御部100は、ステップS109に進む。
As a result of the determination in step S107, when it is determined that the state of the user's face is the operation content for the operation target device (“YES” in step S107), the
一方、ステップS107の判定の結果、ユーザーの顔の状態が操作対象機器に対する操作内容ではないと判定した場合(ステップS107の“NO”)、制御部100は、ステップS109に進む。
On the other hand, as a result of the determination in step S107, when it is determined that the state of the user's face is not the operation content for the operation target device (“NO” in step S107), the
続いて、制御部100は、操作対象機器の操作処理を続けるか否かを判定する(ステップS109)。ステップS109の判定の結果、操作対象機器の操作処理を続けると判定した場合(ステップS109の“YES”)、制御部100は、ステップS102に戻って、撮像部200に、次の画像を撮影させ、ステップS103〜ステップS108までの処理を繰り返す。一方、ステップS109の判定の結果、操作対象機器の操作処理を続けないと判定した場合(ステップS109の“NO”)、制御部100は、操作対象機器に対する操作処理を終了する。
Subsequently, the
このような構成および処理手順によって、操作装置10は、撮像部200に備えたカメラによって撮影したそれぞれの画像からユーザーの顔の状態の変化を検出し、検出したユーザーの顔の状態に基づいて、ユーザーが所望する操作を操作対象機器に出力する。
With such a configuration and processing procedure, the
なお、図1に示した操作装置10の構成では、顔認識部110と、顔向き検出部120と、顔距離検出部130とを、制御部100内に構成した場合について説明した。しかし、顔認識部110と、顔向き検出部120と、顔距離検出部130とのそれぞれは、制御部100の構成要素ではなく、操作装置10の構成要素、つまり、顔認識部110と、顔向き検出部120と、顔距離検出部130とのそれぞれを、制御部100と接続される構成要素として操作装置10内に備える構成であってもよい。
In the configuration of the
また、図2に示した操作装置10の処理手順では、操作装置10がユーザーの顔の初期状態をすでに認識している場合について説明した。しかし、操作装置10がユーザーの顔の初期状態をすでに認識していない場合、最初のステップS107の処理において、顔向き検出部120から出力された顔向き情報と、顔距離検出部130から出力された顔距離情報とが表しているユーザーの顔の状態を、ユーザーの顔の初期状態とすることによって、例えば、記憶部300にユーザーの顔の初期状態を記憶することができる。なお、操作装置10に顔の初期状態を認識させるときに、ユーザーが予め定めた操作や手順を行う構成であってもよい。例えば、操作装置10に顔の初期状態を認識させる指示を、ユーザーが音声で入力する構成であってもよい。
In the processing procedure of the
次に、操作装置10においてユーザーの顔の変化を検出する処理について説明する。まず、顔認識部110における顔認識処理について説明する。図3は、本発明の実施形態の操作装置10に備えた顔認識部110における顔認識の処理(顔認識処理)を説明する図である。図3には、撮像部200によって撮影された画像に含まれるユーザーの顔のみの一例を示している。
Next, a process for detecting a change in the user's face in the
顔認識部110は、図3に示したように、撮像部200が撮影した画像に含まれるユーザーの顔全体の領域を抽出する。そして、顔認識部110は、抽出したユーザーの顔全体の領域に含まれる顔のそれぞれの部位を検出し、検出した顔の部位の位置を表す特徴点を、顔認識情報として顔向き検出部120および顔距離検出部130に出力する。図3には、ユーザーの「眉」、「目」(「瞳」、「目頭」、および「目尻」)、「鼻」(「鼻の頂点」および「小鼻」)、「口」(「口角」)、「下顎」、「耳」のそれぞれの位置を特徴点として検出した場合の一例を示している。なお、顔認識部110における顔全体の領域を抽出および顔の部位の特徴点の検出方法は、例えば、デジタルスチルカメラやデジタルビデオカメラなどにおいて一般的に用いられている、公知の顔検出および顔認識の技術を用いて行うことができるため、詳細な説明は省略する。
As shown in FIG. 3, the
続いて、顔向き検出部120における顔向き検出処理について説明する。顔向き検出部120は、顔認識部110から入力されたユーザーの顔認識情報に基づいて、ユーザーの顔が正面を向いている状態を初期状態とし、ユーザーの顔が初期状態から上下および左右に傾いている割合によって、ユーザーの顔の向きの変化を検出する。
Next, the face direction detection process in the face
図4は、本発明の実施形態の操作装置10に備えた顔向き検出部120における顔の向きの検出処理(顔向き検出処理)の一例を説明する図である。図4には、顔向き検出部120が、ユーザーの顔の向きが左右に傾いている状態を検出する場合の一例を示している。より具体的には、顔向き検出部120は、図4に示したように、顔認識部110から入力されたユーザーの顔認識情報に含まれる左右の「瞳」の位置を表す特徴点と、左右の「耳」の位置を表す特徴点とを用いて、ユーザーの顔が中心からずれている割合を判定することによって、ユーザーの顔の左右への傾きを検出する。
FIG. 4 is a diagram illustrating an example of face orientation detection processing (face orientation detection processing) in the face
さらに具体的には、顔向き検出部120は、図4(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、左右の「耳」の位置を表す2つの特徴点の間の距離(長さ)を算出し、算出した2つの特徴点間の長さの1/2の位置、すなわち、中心の位置に、垂直方向に直線(以下「基準線C」という)を仮定する。そして、顔向き検出部120は、図4(a)に示したように、基準線Cとユーザーの左側の「耳」の特徴点との間の距離(長さ)を左側の距離(以下、「左距離」という)L1とし、基準線Cとユーザーの右側の「耳」の特徴点との間の距離(長さ)を右側の距離(以下、「右距離」という)R1とする。顔向き検出部120は、基準線Cの位置と、左距離L1および右距離R1のそれぞれが表す長さを、ユーザーの顔が正面を向いている状態を表す初期状態とする。
More specifically, as shown in FIG. 4A, the face
その後、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「瞳」と左右の「耳」とのそれぞれの位置を表す特徴点に基づいて、左距離L1および右距離R1のそれぞれの長さを逐次算出する。そして、顔向き検出部120は、図4(a)に示したように、左距離L1が表す長さと右距離R1が表す長さとが同じ長さ、または予め定めた短い長さの差以内である場合に、ユーザーの顔は正面を向いている状態であると判定する。また、顔向き検出部120は、図4(b)に示したように、左距離L1が表す長さの方が、右距離R1が表す長さよりも長い場合には、ユーザーの顔は右方向を向いている状態であると判定する。また、顔向き検出部120は、図4(c)に示したように、左距離L1が表す長さの方が、右距離R1が表す長さよりも短い場合には、ユーザーの顔は左方向を向いている状態であると判定する。
Thereafter, the face
そして、顔向き検出部120は、左距離L1が表す長さと右距離R1が表す長さとの関係から、ユーザーの顔が右方向または左方向を向いている状態における角度θ、すなわち、ユーザーの顔の左右への傾きを検出する(図4(b)および図4(c)参照)。顔向き検出部120は、検出したユーザーの顔の左右への傾き(方向および角度θ)を表す情報を、ユーザーの顔の向きを表す顔向き情報として逐次出力する。
Then, the face
このような方法によって顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に基づいて、ユーザーの顔の基準線Cからのずれを逐次検出し、検出した結果を顔向き情報として逐次出力する。
By such a method, the face
なお、顔向き検出部120によるユーザーの顔の向きの検出方法は、図4に示した方法に限定されるものではなく、顔認識部110から逐次入力されるそれぞれの顔認識情報を用いた種々の方法が考えられる。図5〜図7は、本発明の実施形態の操作装置10に備えた顔向き検出部120における顔の向きの検出処理(顔向き検出処理)の別の一例を説明する図である。なお、図5〜図7に示した一例においても、顔向き検出部120が、ユーザーの顔の向きが左右に傾いている状態を検出する場合を示している。
Note that the method of detecting the orientation of the user's face by the face
図5に示した一例は、顔向き検出部120が、顔認識部110から入力されたユーザーの顔認識情報に含まれる左右の「瞳」の位置を表す特徴点を用いて、ユーザーの顔が中心からずれている割合を判定することによって、ユーザーの顔の左右への傾きを検出する方法である。
In the example illustrated in FIG. 5, the face
より具体的には、顔向き検出部120は、図5(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、左右の「瞳」の位置を表す2つの特徴点の間の長さを算出し、図4(a)に示した一例と同様に、算出した2つの特徴点間の長さの中心の位置に基準線Cを仮定する。そして、顔向き検出部120は、図5(a)に示したように、算出した2つの特徴点間の長さの中心の位置に、中心点M1を設定する。顔向き検出部120は、中心点M1の位置が基準線C上にある状態を、ユーザーの顔が正面を向いている状態を表す初期状態とする。
More specifically, as shown in FIG. 5A, the face
その後、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「瞳」のそれぞれの位置を表す特徴点に基づいて、中心点M1の位置を逐次算出する。そして、顔向き検出部120は、図5(a)に示したように、中心点M1の位置が基準線C上にある、または予め定めた小さい角度以内のずれである場合に、ユーザーの顔は正面を向いている状態であると判定する。また、顔向き検出部120は、図5(b)に示したように、中心点M1の位置が、基準線Cから右側に予め定めた角度θ以上ずれていることを検出した場合には、ユーザーの顔は右方向を向いている状態であると判定する。また、顔向き検出部120は、図5(c)に示したように、中心点M1の位置が、基準線Cから左側に予め定めた角度θ以上ずれていることを検出した場合には、ユーザーの顔は左方向を向いている状態であると判定する。そして、顔向き検出部120は、判定したユーザーの顔の向きと、検出した角度θとの情報を、ユーザーの顔の向きを表す顔向き情報として逐次出力する。
Thereafter, the face
このように、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に基づいて、ユーザーの顔の基準線Cからの中心点M1のずれを逐次検出することによっても、ユーザーの顔の左右への傾きを検出することができる。
As described above, the face
また、図6に示した一例は、顔向き検出部120が、顔認識部110から入力されたユーザーの顔認識情報に含まれるいずれか一方の「瞳」の位置を表す特徴点を用いて、ユーザーの顔が中心からずれている割合を判定することによって、ユーザーの顔の左右への傾きを検出する方法である。図6に示した一例では、左側の「瞳」の位置を表す特徴点に基づいてユーザーの顔の左右への傾きを検出する場合の一例を示している。
In the example illustrated in FIG. 6, the face
より具体的には、顔向き検出部120は、図6(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、図4(a)に示した一例と同様に、左右の「耳」の位置を表す2つの特徴点に基づいて基準線Cを仮定する。そして、顔向き検出部120は、図6(a)に示したように、基準線Cと左側の「瞳」の特徴点との間の長さを左距離L2とする。顔向き検出部120は、左距離L2が表す長さを、ユーザーの顔が正面を向いている状態を表す初期状態とする。
More specifically, as shown in FIG. 6A, the face
その後、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左側の「瞳」の位置を表す特徴点に基づいて、左距離L2(以下、初期状態の左距離L2と区別するため、「左距離L21」という)の長さを逐次算出する。そして、顔向き検出部120は、図6(a)に示したように、算出した左距離L21が表す長さが、初期状態の左距離L2が表す長さと同じ長さ、または予め定めた短い長さの差以内である場合に、ユーザーの顔は正面を向いている状態であると判定する。また、顔向き検出部120は、図6(b)に示したように、左距離L21が表す長さの方が、左距離L2が表す長さよりも短い場合には、ユーザーの顔は右方向を向いている状態であると判定する。また、顔向き検出部120は、図6(c)に示したように、左距離L21が表す長さの方が、左距離L2が表す長さよりも長い場合には、ユーザーの顔は左方向を向いている状態であると判定する。
Thereafter, the face
そして、顔向き検出部120は、左距離L21が表す長さから、ユーザーの顔が右方向または左方向を向いている状態における角度θ(ユーザーの顔の左右への傾き)を検出する(図6(b)および図6(c)参照)。顔向き検出部120は、図4(a)に示した一例と同様に、ユーザーの顔の向きと角度θとの情報を顔向き情報として逐次出力する。
Then, the face
このように、顔向き検出部120は、顔認識部110から逐次入力される顔認識情報に、対となる特徴点の情報が含まれていない場合でも、いずれか一方の特徴点の情報に基づいて、ユーザーの顔の基準線Cからのずれを逐次検出することによっても、ユーザーの顔の左右への傾きを検出することができる。なお、図6に示した一例では、左側の「瞳」の位置を表す特徴点に基づいてユーザーの顔の左右への傾きを検出する場合について説明したが、同様に考えることによって、右側の「瞳」の位置を表す特徴点に基づいても、ユーザーの顔の左右への傾きを検出することができる。
As described above, the face
また、図7に示した一例は、例えば、ユーザーがサングラスなどのメガネを着用していることによって、顔認識部110から入力されたユーザーの顔認識情報に左右の「瞳」の位置を表す特徴点が含まれていない場合に、顔向き検出部120がユーザーの顔の左右への傾きを検出する一例である。図7に示した一例では、顔向き検出部120が、顔認識情報に含まれる左右の「口角」の位置を表す特徴点を用いて、ユーザーの顔が中心からずれている割合を判定し、ユーザーの顔の左右への傾きを検出する。
In the example shown in FIG. 7, for example, when the user wears glasses such as sunglasses, the left and right “pupil” positions are represented in the face recognition information of the user input from the
より具体的には、顔向き検出部120は、図7(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、左右の「口角」の位置を表す2つの特徴点の間の長さを算出することによって、図4(a)に示した一例と同様に、算出した2つの特徴点間の長さの中心の位置に基準線Cを仮定する。そして、顔向き検出部120は、図7(a)に示したように、算出した2つの特徴点間の長さの中心の位置に、図5(a)に示した一例と同様に、中心点M2を設定する。顔向き検出部120は、中心点M2の位置が基準線C上にある状態を、ユーザーの顔が正面を向いている状態を表す初期状態とする。
More specifically, as shown in FIG. 7A, the face
その後、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「口角」のそれぞれの位置を表す特徴点に基づいて、中心点M2の位置を逐次算出する。そして、顔向き検出部120は、図7(a)に示したように、中心点M2の位置が基準線C上にある、または予め定めた小さい角度以内のずれである場合に、ユーザーの顔は正面を向いている状態であると判定する。また、顔向き検出部120は、図7(b)に示したように、中心点M2の位置が、基準線Cから右側に予め定めた角度θ以上ずれていることを検出した場合には、ユーザーの顔は右方向を向いている状態であると判定する。また、顔向き検出部120は、図7(c)に示したように、中心点M2の位置が、基準線Cから左側に予め定めた角度θ以上ずれていることを検出した場合には、ユーザーの顔は左方向を向いている状態であると判定する。そして、顔向き検出部120は、図5に示した一例と同様に、判定したユーザーの顔の向きと、検出した角度θとの情報を、ユーザーの顔の向きを表す顔向き情報として逐次出力する。
After that, the face
このように、顔向き検出部120は、顔認識部110から逐次入力される顔認識情報に、いずれかの特徴点の情報が含まれていない場合でも、それぞれの顔認識情報に含まれる他の特徴点の情報に基づいて、ユーザーの顔の基準線Cからの中心点M2のずれを逐次検出することによっても、ユーザーの顔の左右への傾きを検出することができる。なお、図7に示した一例では、左右の「口角」の位置を表す特徴点を用いてユーザーの顔の左右への傾きを検出する場合について説明したが、例えば、ユーザーが着用しているメガネのレンズの端部の位置や形状を表す特徴点の情報が顔認識部110から入力された顔認識情報に含まれている場合には、メガネの特徴点を用いてユーザーの顔の左右への傾きを検出することもできる。例えば、顔向き検出部120は、メガネの形状の特徴点から2つのレンズの間の中心点を算出し、基準線と算出した中心点との位置関係から、ユーザーの顔が中心からずれている割合を判定して、ユーザーの顔の左右への傾きを検出することもできる。
As described above, even when the face recognition information sequentially input from the
このように、顔向き検出部120は、顔認識部110から入力される顔認識情報に含まれる特徴点の情報に基づいて、ユーザーの顔の向きの変化を検出する。なお、顔向き検出部120における顔向き検出処理について、いくつかの例を説明したが、顔向き検出部120によるユーザーの顔の向きの検出方法は、図4〜図7に示した方法に限定されるものではない。例えば、顔向き検出部120が、顔認識部110から入力される顔認識情報に含まれる他の特徴点の情報を用いる場合でも、同様に考えることによって顔向き検出処理を行うことができる。また、例えば、顔向き検出部120が、顔認識部110から入力される顔認識情報に含まれる顔の領域の特徴点を用いて、撮影した画像に含まれるユーザーの顔の領域の大きさや顔の領域の分布を判定することによっても、顔向き検出処理を行うことができる。また、例えば、図4〜図7に示した方法の一例とは異なる、既存の技術を用いて顔向き検出処理を行ってもよい。
As described above, the face
また、図4〜図7では、ユーザーの顔の向きが左右に傾いている状態を検出する場合について説明したが、ユーザーの顔の向きが上下に傾いている状態を検出する場合であっても、顔向き検出部120による顔向き検出処理において適切な特徴点を用いることによって、同様に考えることができる。例えば、左右の「瞳」の位置を表す特徴点を結ぶ水平方向の直線を基準線として仮定し、この基準線と「鼻の頂点」の位置を表す特徴点との間の距離(長さ)に基づいて、ユーザーの顔の上下への傾きを検出することができる。従って、顔向き検出部120によるユーザーの顔の向きの上下への傾きを検出する方法の一例に関しての説明は省略する。
4 to 7 describe the case of detecting the state in which the user's face is tilted to the left and right, but even when detecting the state in which the user's face is tilted up and down. The same can be considered by using appropriate feature points in the face orientation detection processing by the
続いて、顔距離検出部130における顔距離検出処理について説明する。顔距離検出部130は、顔認識部110から入力されたユーザーの顔認識情報に基づいて、ユーザーの顔が正面を向いている現在の位置を初期状態とし、ユーザーの顔が初期状態から前後(手前、奥)方向に移動している割合によって、ユーザーの顔のカメラとの距離の変化を検出する。
Next, the face distance detection process in the face
図8は、本発明の実施形態の操作装置10に備えた顔距離検出部130における顔の距離の検出処理(顔距離検出処理)の一例を説明する図である。図8には、顔距離検出部130が、ユーザーの顔とカメラとの距離とが離れる方向に変化している状態を検出する場合の一例を示している。より具体的には、顔距離検出部130は、図8に示したように、顔認識部110から入力されたユーザーの顔認識情報に含まれる顔の領域の特徴点を用いて、撮影した画像に含まれるユーザーの顔の大きさを判定することによって、カメラの位置とユーザーの顔の位置との距離を検出する。
FIG. 8 is a diagram illustrating an example of face distance detection processing (face distance detection processing) in the face
さらに具体的には、顔距離検出部130は、図8(a)に示したように、撮像部200が撮影した画像の画角内にユーザーの顔全体が含まれている状態であるときに、顔の領域の特徴点から、顔の大きさを表す画素数(ピクセル数)を算出する。そして顔距離検出部130は、ここで算出した顔の大きさを表すピクセル数を初期状態(初期値)とする。なお、顔距離検出部130は、初期値とした顔の領域のピクセル数に基づいて、一般的に用いられている公知の顔検出の技術を用いて、例えば、カメラとユーザーの顔との実際の距離など、距離の絶対値を推定してもよい。
More specifically, as shown in FIG. 8A, the face
その後、顔距離検出部130は、顔認識部110から逐次入力される顔認識情報に含まれる顔の領域の特徴点に基づいて、撮像部200によって今回撮影された画像の画角内に含まれるユーザーの顔の大きさを表すピクセル数を逐次算出する。そして、顔距離検出部130は、初期値としたピクセル数と今回算出したピクセル数との差に基づいて、ユーザーの顔の位置とカメラの位置との距離の変化を判定する。例えば、図8(b)に示したように、今回算出したユーザーの顔の大きさのピクセル数が、初期値とした顔の大きさのピクセル数よりも少なくなっている場合、顔距離検出部130は、ユーザーの顔とカメラとの距離とが離れる方向に変化していると判定する。なお、顔距離検出部130が距離の絶対値を推定している場合、初期値としたピクセル数と今回算出したピクセル数との差に基づいて、カメラとユーザーの顔との距離の変化量を相対的な距離として推定してもよい。顔距離検出部130は、検出したカメラの位置とユーザーの顔の位置との距離を表す情報を、ユーザーの顔の距離を表す顔距離情報として逐次出力する。
After that, the face
このような方法によって顔距離検出部130は、顔認識部110から逐次入力される顔認識情報に基づいて、カメラの位置とユーザーの顔の位置との距離の変化を逐次検出し、検出した結果を顔距離情報として逐次出力する。
By such a method, the face
なお、顔距離検出部130によるユーザーの顔のカメラとの距離の変化の検出方法は、図8に示した方法に限定されるものではなく、顔認識部110から逐次入力されるそれぞれの顔認識情報を用いた種々の方法が考えられる。図9〜図11は、本発明の実施形態の操作装置10に備えた顔距離検出部130におけるユーザーの顔のカメラとの距離の変化の検出処理(顔距離検出処理)の別の一例を説明する図である。なお、図9〜図11に示した一例においても、顔距離検出部130が、ユーザーの顔とカメラとの距離とが離れる方向に変化している状態を検出する場合を示している。なお、図9〜図11には、撮像部200が撮影した画像の画角を併せて示している。
Note that the method of detecting a change in the distance of the user's face from the camera by the face
図9に示した一例は、顔距離検出部130が、顔認識部110から入力されたユーザーの顔認識情報に含まれる左右の「瞳」の位置を表す特徴点を用いて左右の「瞳」の距離を判定し、ユーザーの顔のカメラとの距離の変化を検出する方法である。
In the example illustrated in FIG. 9, the face
より具体的には、顔距離検出部130は、図9(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、左右の「瞳」の位置を表す2つの特徴点の間の距離(長さ)を算出し、算出した2つの特徴点間の距離(長さ)を距離D1とする。そして、顔距離検出部130は、距離D1を初期値とする。なお、顔距離検出部130は、初期値とした距離D1に基づいて、カメラとユーザーの顔との距離の絶対値を推定してもよい。
More specifically, as shown in FIG. 9A, the face
その後、顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「瞳」のそれぞれの位置を表す特徴点に基づいて、左右の「瞳」の間の距離D1(以下、初期値とした距離D1と区別するため、「距離D11」という)を逐次算出する。そして、顔距離検出部130は、初期値とした距離D1と今回算出した距離D11との差に基づいて、ユーザーの顔の位置とカメラの位置との距離の変化を判定する。例えば、図9(b)に示したように、今回算出したユーザーの顔の距離D11が、初期値としたユーザーの顔の距離D1よりも短くなっている場合、顔距離検出部130は、ユーザーの顔とカメラとの距離とが離れる方向に変化していると判定する。そして、顔距離検出部130は、判定したカメラの位置とユーザーの顔の位置との距離を表す情報を、ユーザーの顔の距離を表す顔距離情報として逐次出力する。
Thereafter, the face
このように、顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「瞳」の位置を表す特徴点に基づいて、2つの特徴点の間の距離(長さ)を算出することによっても、カメラとユーザーの顔との距離を検出することができる。
In this way, the face
また、図10に示した一例は、顔距離検出部130が、顔認識部110から入力されたユーザーの顔認識情報に含まれるいずれか一方の「目」の「目頭」および「目尻」の位置を表す特徴点を用いて「目」の大きさを判定し、ユーザーの顔のカメラとの距離の変化を検出する方法である。図10には、左側の「目」の特徴点に基づいてユーザーの顔のカメラとの距離の変化を検出する場合の一例を示している。
Further, in the example shown in FIG. 10, the face
より具体的には、顔距離検出部130は、図10(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、図9に示した一例と同様に、左側の「目」の「目頭」および「目尻」の位置を表す2つの特徴点の間の距離(長さ)、つまり、左側の「目」の大きさを表す距離D2を算出して初期値とする。なお、顔距離検出部130は、図9に示した一例と同様に、初期値とした距離D2に基づいて、カメラとユーザーの顔との距離の絶対値を推定してもよい。
More specifically, as shown in FIG. 10A, the face
その後、顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左側の「目」の「目頭」および「目尻」の位置を表す特徴点に基づいて、左側の「目」の大きさを表す距離D2(以下、初期値とした距離D2と区別するため、「距離D21」という)を逐次算出する。そして、顔距離検出部130は、初期値とした距離D2と今回算出した距離D21との差に基づいて、ユーザーの顔の位置とカメラの位置との距離の変化を判定する。例えば、図10(b)に示したように、今回算出したユーザーの左側の「目」の大きさを表す距離D21が、初期値としたユーザーの左側の「目」の大きさを表す距離D2よりも短くなっている場合、顔距離検出部130は、ユーザーの顔とカメラとの距離とが離れる方向に変化していると判定する。そして、顔距離検出部130は、図9に示した一例と同様に、判定したカメラの位置とユーザーの顔の位置との距離を表す情報を顔距離情報として逐次出力する。
After that, the face
このように、顔距離検出部130は、顔認識部110から逐次入力される顔認識情報に、左右の「瞳」の間の距離(長さ)を算出するために対となる2つの「瞳」の位置を表す特徴点の情報が含まれていない場合でも、いずれか一方の「目」の大きさを表す特徴点の情報に基づいて、カメラとユーザーの顔との距離を検出することができる。なお、図10に示した一例では、左側の「目」の大きさを算出するための特徴点に基づいてカメラとユーザーの顔との距離を検出する場合について説明したが、同様に考えることによって、右側の「目」の大きさを算出するための特徴点に基づいても、カメラとユーザーの顔との距離を検出することができる。
As described above, the face
また、図11に示した一例は、例えば、ユーザーがサングラスなどのメガネを着用していることによって、顔認識部110から入力されたユーザーの顔認識情報に、左右の「瞳」の間の距離(長さ)を算出するための左右の「瞳」の位置を表す特徴点や、いずれか一方の「目」の大きさを算出するための「目頭」および「目尻」の位置を表す特徴点が含まれていない場合において、顔距離検出部130がユーザーの顔のカメラとの距離の変化を検出する方法を示している。図11では、顔距離検出部130が、顔認識情報に含まれるメガネのレンズの「端部」の位置を表す特徴点を用いて、ユーザーの顔のカメラとの距離の変化を検出する場合の一例を示している。
Further, in the example shown in FIG. 11, for example, when the user wears glasses such as sunglasses, the distance between the left and right “pupils” is added to the user's face recognition information input from the
より具体的には、顔距離検出部130は、図11(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、メガネの左右のレンズの「端部」の位置を表す2つの特徴点の間の距離(長さ)を算出して初期値とする。図11(a)には、メガネの左側のレンズの左側の「端部」の位置を表す特徴点と、メガネの右側のレンズの右側の「端部」の位置を表す特徴点との間の距離D3を算出して初期値とする場合の一例を示している。なお、顔距離検出部130は、図9に示した一例と同様に、初期値とした距離D3に基づいて、カメラとユーザーの顔との距離の絶対値を推定してもよい。
More specifically, as shown in FIG. 11A, the face
その後、顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれるメガネの左側のレンズの左側の「端部」の位置を表す特徴点と、メガネの右側のレンズの右側の「端部」の位置を表す特徴点とに基づいて、2つの特徴点間の距離D3(以下、初期値とした距離D3と区別するため、「距離D31」という)を逐次算出する。そして、顔距離検出部130は、初期値とした距離D3と今回算出した距離D31との差に基づいて、ユーザーの顔の位置とカメラの位置との距離の変化を判定する。例えば、図11(b)に示したように、今回算出したユーザーが着用しているメガネの両端の距離を表す距離D31が、初期値としたメガネの両端の距離を表す距離D3よりも短くなっている場合、顔距離検出部130は、ユーザーの顔とカメラとの距離とが離れる方向に変化していると判定する。そして、顔距離検出部130は、図9に示した一例と同様に、判定したカメラの位置とユーザーの顔の位置との距離を表す情報を顔距離情報として逐次出力する。
After that, the face
このように、顔距離検出部130は、顔認識部110から逐次入力される顔認識情報に、ユーザーの顔の部位の特徴点の情報が含まれていない場合でも、それぞれの顔認識情報に含まれる他の特徴点の情報に基づいて、カメラとユーザーの顔との距離を検出することができる。なお、図11に示した一例では、ユーザーが着用しているメガネの左側のレンズの左側の「端部」の位置を表す特徴点と、メガネの右側のレンズの右側の「端部」の位置を表す特徴点とから距離D3を算出する場合について説明したが、例えば、ユーザーが着用しているメガネのいずれか一方のレンズの「端部」の位置を表す2つの特徴点の間の距離を算出することもできる。例えば、図11(a)に示したように、メガネの左側のレンズの左右の「端部」の位置を表す2つの特徴点の間の距離D4を算出することによっても同様に、カメラとユーザーの顔との距離を検出することができる。また、例えば、左右の「口角」の位置を表す2つの特徴点の間の距離を算出することによっても同様に、カメラとユーザーの顔との距離を検出することができる。
As described above, the face
このように、顔距離検出部130は、顔認識部110から入力される顔認識情報に含まれる特徴点の情報に基づいて、カメラの位置とユーザーの顔の位置との距離の変化を検出する。なお、顔距離検出部130における顔距離検出処理について、いくつかの例を説明したが、顔距離検出部130によるカメラとユーザーの顔との距離の検出方法は、図8〜図11に示した方法に限定されるものではない。例えば、顔距離検出部130が、顔認識部110から入力される顔認識情報に含まれる他の特徴点の情報を用いる場合でも、同様に考えることによって顔距離検出処理を行うことができる。また、例えば、図8〜図11に示した方法の一例とは異なる、既存の技術を用いて顔距離検出処理を行ってもよい。
In this manner, the face
また、図8〜図11では、ユーザーの顔とカメラとの距離とが離れる方向に変化している状態を検出する場合について説明したが、ユーザーの顔とカメラとの距離とが近づく方向に変化している状態を検出する場合であっても、顔距離検出部130による顔距離検出処理において適切な特徴点を用いることによって、同様に考えることができる。従って、顔距離検出部130によるユーザーの顔とカメラとの距離とが近づく方向に変化している状態を検出する方法の一例に関しての説明は省略する。
8 to 11, the case has been described in which the state in which the distance between the user's face and the camera changes is detected. However, the distance between the user's face and the camera changes in a direction closer to the camera. Even in the case of detecting a state in which the user is performing, it can be considered in the same way by using an appropriate feature point in the face distance detection processing by the face
<具体例>
次に、操作装置10によって操作対象機器を操作する具体例について説明する。以下の説明においては、操作装置10が車両に搭載され、操作装置10のユーザーが車両を運転しているときに、車両に搭載された操作対象機器に対する操作を行う場合の一例について説明する。ここで、車両に搭載された操作対象機器は、例えば、エアコンなどの空調機器と、ラジオなどのオーディオ機器とであり、エアコンの設定温度の変更、ラジオのチャンネルの変更、およびラジオの音量の変更を、操作装置10によって行う場合について説明する。なお、以下の説明においては、操作装置10がユーザーの顔の初期状態をすでに認識しているものとして説明を行う。
<Specific example>
Next, a specific example in which the operation target device is operated by the
図12は、本発明の実施形態の操作装置10と検出する(ユーザーの)顔との距離の一例を模式的に示した図である。なお、図12には、操作装置10内の撮像部200に備えたカメラ201の位置とユーザーの顔の位置との距離を示している。以下の説明においては、カメラ201の位置とユーザーの顔の位置との距離の値が、図12(a)に示したような距離D1(例えば、40[cm])であり、ユーザーの顔が正面を向いている状態を初期状態とする。そして、カメラ201の位置とユーザーの顔の位置との距離の値が、図12(b)に示したような距離D11(例えば、35[cm])であるときに、ユーザーの顔の向きの変化によってエアコンの設定温度を変更する操作を行うものとする。また、カメラ201の位置とユーザーの顔の位置との距離の値が、図12(c)に示したような距離D12(例えば、30[cm])であるときに、ユーザーの顔の向きの変化によってラジオのチャンネルを変更する操作を行うものとする。また、カメラ201の位置とユーザーの顔の位置との距離の値が、図12(d)に示したような距離D13(例えば、25[cm])であるときに、ユーザーの顔の向きの変化によってラジオの音量を変更する操作を行うものとする。
FIG. 12 is a diagram schematically illustrating an example of the distance between the
図13は、本発明の実施形態の操作装置10が検出した(ユーザーの)顔の状態によって操作する内容(操作情報)の一例を示した図である。図13に示した操作情報は、例えば、記憶部300に記憶されている。
FIG. 13 is a diagram illustrating an example of contents (operation information) to be operated according to the (user's) face state detected by the
図13(a)には、操作装置10が検出したカメラ201とユーザーの顔との距離の値、およびユーザーの顔の向きをそれぞれ変数(パラメータ)として、それぞれのパラメータの組み合わせで、車両に搭載された操作対象機器を操作する場合の操作情報の一例を示している。より具体的には、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D11(図12(b)参照)であることを表す顔距離情報を出力し、顔向き検出部120が、ユーザーの顔の向きが左方向であることを表す顔向き情報出力した場合、操作装置10は、図13(a)に示した操作情報に基づいて、設定温度を1[℃]下げる操作を表す操作信号を、通信部400を介してエアコンに伝送する。同様に、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D11であることを表す顔距離情報を出力し、顔向き検出部120が、ユーザーの顔の向きが右方向であることを表す顔向き情報出力した場合、操作装置10は、図13(a)に示した操作情報に基づいて、設定温度を1[℃]上げる操作を表す操作信号をエアコンに伝送する。また、例えば、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D12(図12(c)参照)であることを表す顔距離情報を出力し、顔向き検出部120が、ユーザーの顔の向きが左方向であることを表す顔向き情報出力した場合、操作装置10は、図13(a)に示した操作情報に基づいて、ラジオのチャンネルを1つ前に設定する操作を表す操作信号を、通信部400を介してラジオに伝送する。また、例えば、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D13(図12(d)参照)であることを表す顔距離情報を出力し、顔向き検出部120が、ユーザーの顔の向きが右方向であることを表す顔向き情報出力した場合、操作装置10は、図13(a)に示した操作情報に基づいて、ラジオの音量を1つ上げる操作を表す操作信号を、通信部400を介してラジオに伝送する。
In FIG. 13A, the value of the distance between the
また、図13(b)には、操作装置10が検出したカメラ201とユーザーの顔との距離の値、およびユーザーの顔の向きと角度θの値の組み合わせをそれぞれ(パラメータ)として、それぞれのパラメータの組み合わせで、車両に搭載された操作対象機器を操作する場合の操作情報の一例を示している。なお、図13(b)には、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D13(図12(d)参照)であることを表す顔距離情報を出力した場合のみの操作情報の一例を示している。そして、図13(b)では、図13(a)においてカメラ201の位置とユーザーの顔の位置とが距離D13である場合に操作した、ラジオの音量を変更する操作の一例を示している。より具体的には、顔向き検出部120が、ユーザーの顔の向きが左方向であり、その角度θの値が20度であることを表す顔向き情報出力した場合、操作装置10は、図13(b)に示した操作情報に基づいて、ラジオの音量を2つ下げる操作を表す操作信号を、通信部400を介してラジオに伝送する。同様に、顔向き検出部120が、ユーザーの顔の向きが左方向であり、その角度θの値が10度であることを表す顔向き情報出力した場合、操作装置10は、図13(b)に示した操作情報に基づいて、ラジオの音量を1つ下げる操作を表す操作信号をラジオに伝送する。また、例えば、顔向き検出部120が、ユーザーの顔の向きが右方向であり、その角度θの値が20度であることを表す顔向き情報出力した場合、操作装置10は、図13(b)に示した操作情報に基づいて、ラジオの音量を2つ上げる操作を表す操作信号を、通信部400を介してラジオに伝送する。
In FIG. 13B, each of the combinations of the value of the distance between the
なお、上述した操作装置10による操作対象機器の操作の一例では、ユーザーの顔の左右方向の向きをパラメータとしてそれぞれの操作対象機器を操作する場合を示している。しかし、ユーザーの顔の上下方向の向き(角度θの値を合わせてもよい)をパラメータとしたり、左右方向と上下方向の組み合わせ(角度θの値を合わせてもよい)をパラメータとしたりした場合でも、同様に操作情報を考えることができる。
In addition, in the example of the operation of the operation target device by the
また、上述した操作装置10による操作対象機器の操作の一例では、顔向き検出部120が検出したユーザーの顔の角度θの値、および顔距離検出部130が検出したカメラ201の位置とユーザーの顔の位置との距離の値が、それぞれの1つの値である場合について説明した。しかし、ユーザーが顔の位置を常に同じ位置にすることができるとは限らない。このため、操作装置10では、ユーザーの顔の角度θの値や、カメラ201の位置とユーザーの顔の位置との距離の値に予め定めた範囲を持たせ、この範囲内の値を同じ値であるものとして処理する構成にしてもよい。
Further, in an example of the operation of the operation target device by the
また、操作装置10は、検出したユーザーの顔の位置が、どの操作対象機器に対する操作を行うことができるかを表す情報を、例えば、音声などによってユーザーに通知してもよい。例えば、図13(a)に示した一例において、ユーザーの顔の向きが正面(初期状態)であるときに、カメラ201の位置とユーザーの顔の位置との距離が距離D1(初期状態)ではないことを検出した場合、検出した距離の値に応じて、操作対象機器の名称を音声で通知するようにしてもよい。また、操作装置10から操作信号が伝送された操作対象機器が、伝送された操作信号に応じて設定を変更したことや、変更した設定の内容を表す情報を、例えば、音声などによってユーザーに通知してもよい。
In addition, the
上記に述べたとおり、本発明を実施するための形態によれば、操作装置10内の撮像部200に備えたカメラ201が短い所定の時間間隔で撮影したそれぞれの画像から、ユーザーの顔の状態やその変化を検出する。より具体的には、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置との距離を検出し、顔向き検出部120が、ユーザーの顔の向きと角度θとを検出する。そして、本発明を実施するための形態によれば、検出したユーザーの顔の状態に応じた操作信号を、操作対象機器に伝送する。これにより、ユーザーは、操作対象の機器を直接操作することができない状況においても、視線を外すことなく顔の位置や向きを変えることによって、機器に対する所望の操作を行うことができる。
As described above, according to the embodiment for carrying out the present invention, the state of the user's face is obtained from each image captured by the
なお、本発明を実施するための形態では、カメラ201によってユーザーの顔が正面を向いている状態を撮影することができるものとして説明した。しかし、例えば、車両に設置されるカメラ201の位置によっては、カメラ201とユーザーの顔の実際の位置関係から、カメラ201がユーザーの顔を正面から撮影することができず、ユーザーの顔が正面を向いている状態を撮影して初期状態とすることができない場合も考えられる。この場合、操作装置10は、初期状態とするユーザーの顔が正面を向いている状態を、カメラ201が設置されている位置に応じて補正する。
In the embodiment for carrying out the present invention, it has been described that the
より具体的には、図14(a)に示したように、車両に設置されるカメラ201が、ユーザーの顔を正面から撮影することができる位置に設置されている場合には、ユーザーの顔が正面を向いている状態を初期状態とすることができる。しかしながら、図14(b)に示したように、カメラ201が車両の運転席を正面から撮影する位置に設置されていないなど、カメラ201がユーザーの顔を正面から撮影することができない位置に設置されている場合には、ユーザーの顔が正面を向いている状態を初期状態とすることができない。そこで、顔向き検出部120および顔距離検出部130は、例えば、カメラ201とユーザーの顔の実際の位置関係が図14(b)に示したような状態である場合、ユーザーの顔が少し左方向に傾いている状態の角度を、ユーザーの顔が正面を向いている初期状態の顔の角度とするように補正する。そして、顔向き検出部120および顔距離検出部130は、補正した初期状態を基準として、例えば、上述した方法で顔向き検出処理および顔距離検出処理を行う。これにより、操作装置10は、カメラ201がユーザーの顔を正面から撮影することができない場合でも、ユーザーの顔の向きの変化や、カメラの位置とユーザーの顔の位置との距離の変化を検出して、検出したユーザーの顔の状態に応じた操作信号を操作対象機器に伝送することができる。なお、ユーザーの顔の向きの補正は、一般的に用いられている、公知の顔検出および顔認識の技術を用いて行うことができるため、詳細な説明は省略する。
More specifically, as shown in FIG. 14A, when the
また、本発明を実施するための形態では、操作装置10が操作信号を伝送する操作対象機器が、車両に搭載されたエアコンなどの空調機器と、ラジオなどのオーディオ機器とである場合について説明した。しかし、操作装置10が操作信号を伝送する操作対象機器は、本発明を実施するための形態において示した機器に限定されるものではない。例えば、車両に搭載されるナビゲーション機器などの走行案内機器や、ラジオ以外のオーディオ機器などであってもよい。また、操作装置10が操作信号を伝送する操作対象機器は、車両に搭載される機器に限定されるものではなく、例えば、テレビなどの家庭内に設置される機器であっても同様に、本発明の考え方を適用することができる。
Further, in the embodiment for carrying out the present invention, a case has been described in which the operation target device to which the
なお、例えば、図1に示した制御部100や、制御部100に備えた構成要素(例えば、顔認識部110、顔向き検出部120、および顔距離検出部130)による処理を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本実施形態の操作装置10に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
For example, the
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic) in a computer system which becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what implement | achieves the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
また、本実施形態の操作装置10の一部(例えば、図1に示した制御部100や、制御部100に備えた顔認識部110、顔向き検出部120、顔距離検出部130などの構成要素)、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。また、本実施形態の操作装置10内の各構成要素は個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
In addition, a part of the
以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。 The embodiment of the present invention has been described above with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes various modifications within the scope of the present invention. It is.
なお、本発明は、次の態様でも実施することができる。
第1の態様の操作装置は、操作対象の機器における操作を制御する操作装置であって、顔を含んだ画像を撮影する撮像部と、前記画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識部と、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出部と、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出部と、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御部と、を備える。
In addition, this invention can be implemented also in the following aspect.
An operating device according to a first aspect is an operating device that controls an operation on a device to be operated, an imaging unit that captures an image including a face, and the face included in the image is recognized and recognized. A face recognition unit that outputs information of feature points representing the position of the face part as face recognition information; and a face direction that detects the face direction based on the face recognition information and represents the detected face direction. A face direction detection unit that outputs information, a face distance detection unit that detects a distance between the imaging unit and the face based on the face recognition information, and outputs face distance information representing the detected distance; With reference to the operation information representing the operation content for the device predetermined according to the orientation of the face and the distance between the imaging unit and the face, based on the face orientation information and the face distance information, An operation signal indicating an operation on the corresponding device And a control unit for outputting to the device.
また、第2の態様によれば、上記第1の態様の操作装置において、前記顔向き検出部は、前記顔の向きが、予め定めた顔の向きの初期状態から変化したときの方向および角度の情報を前記顔向き情報として出力し、前記顔距離検出部は、前記撮像部と前記顔との間の距離が、予め定めた距離の初期状態から変化したときの距離の情報を前記顔距離情報として出力し、前記制御部は、前記顔向き情報に含まれる前記顔の方向および角度の組み合わせによって表される前記顔の向きの値と、前記顔距離情報に含まれる前記撮像部と前記顔との間の距離によって表される前記顔の距離の値との組み合わせに応じて予め定められた操作量を表す前記操作信号を、対応する前記機器に出力してもよい。 Further, according to the second aspect, in the operating device according to the first aspect, the face direction detection unit is configured to determine a direction and an angle when the face direction changes from an initial state of a predetermined face direction. The face distance information is output as the face direction information, and the face distance detection unit outputs the distance information when the distance between the imaging unit and the face changes from an initial state of a predetermined distance. The information is output as information, and the control unit includes the face direction value represented by a combination of the face direction and angle included in the face direction information, and the imaging unit and the face included in the face distance information. The operation signal that represents a predetermined operation amount according to a combination with the value of the face distance represented by the distance between and the face may be output to the corresponding device.
また、第3の態様によれば、上記第2の態様の操作装置において、前記操作情報は、前記顔の距離の値ごとに、操作対象の異なる前記機器が予め定められており、前記制御部は、前記顔距離情報に含まれる前記顔の距離の値に対応する前記機器に、前記顔の向きの値に対応する前記操作量を表す前記操作信号を出力してもよい。 Further, according to a third aspect, in the operation device according to the second aspect, the operation information includes a predetermined device to be operated for each value of the face distance, and the control unit May output the operation signal representing the operation amount corresponding to the face orientation value to the device corresponding to the face distance value included in the face distance information.
また、第4の態様によれば、上記第2の態様または上記第3の態様の操作装置において、前記操作情報は、前記顔向き情報に含まれる前記顔の角度の値ごとに、同じ前記機器に対する前記操作量が予め定められており、前記制御部は、前記顔距離情報に含まれる前記顔の距離の値に対応する前記機器に、前記顔の角度の値に対応する前記操作量を表す前記操作信号を出力してもよい。 According to a fourth aspect, in the operation device according to the second aspect or the third aspect, the operation information is the same device for each value of the face angle included in the face orientation information. The operation amount is determined in advance, and the control unit represents the operation amount corresponding to the face angle value in the device corresponding to the face distance value included in the face distance information. The operation signal may be output.
また、第5の態様によれば、上記第2の態様から上記第4の態様のいずれか一態様の操作装置において、前記顔認識情報は、少なくとも一方の目の位置を表す特徴点の情報を含み、前記顔向き検出部は、前記目の位置を表す特徴点に基づいて、前記顔の向きを検出し、前記顔距離検出部は、前記目の位置を表す特徴点に基づいて、前記撮像部と前記顔との間の距離を検出してもよい。 According to the fifth aspect, in the operating device according to any one of the second aspect to the fourth aspect, the face recognition information includes information on a feature point representing at least one eye position. The face direction detection unit detects the face direction based on a feature point representing the eye position, and the face distance detection unit detects the imaging based on the feature point representing the eye position. You may detect the distance between a part and the said face.
また、第6の態様によれば、上記第2の態様から上記第5の態様のいずれか一態様の操作装置において、前記顔認識情報に目の位置を表す特徴点の情報を含まず、メガネの位置を表す特徴点の情報を含む場合、前記顔向き検出部は、前記メガネの位置を表す特徴点に基づいて、前記顔の向きを検出し、前記顔距離検出部は、前記メガネの位置を表す特徴点に基づいて、前記撮像部と前記顔との間の距離を検出してもよい。 According to the sixth aspect, in the operation device according to any one of the second aspect to the fifth aspect, the face recognition information does not include feature point information indicating an eye position, and glasses The face direction detection unit detects the face direction based on the feature point indicating the position of the glasses, and the face distance detection unit includes the position of the glasses. A distance between the imaging unit and the face may be detected based on a feature point representing.
また、第7の態様によれば、上記第2の態様から上記第6の態様のいずれか一態様の操作装置において、前記顔認識情報は、前記顔の領域を表す特徴点の情報を含み、前記顔向き検出部は、前記顔の領域を表す特徴点に基づいて、前記顔の向きを検出し、前記顔距離検出部は、前記顔の領域を表す特徴点に基づいて、前記撮像部と前記顔との間の距離を検出してもよい。 According to a seventh aspect, in the operating device according to any one of the second aspect to the sixth aspect, the face recognition information includes information on feature points representing the face area, The face direction detecting unit detects the face direction based on a feature point representing the face area, and the face distance detecting unit is based on the feature point representing the face area. You may detect the distance between the said faces.
また、第8の態様によれば、上記第2の態様から上記第7の態様のいずれか一態様の操作装置において、前記顔向き検出部および前記顔距離検出部は、前記撮像部が前記顔を撮影する際の角度に応じて、前記顔の向きを補正し、前記顔向き検出部は、補正した前記顔の向きに基づいて、前記顔の向きを検出し、前記顔距離検出部は、補正した前記顔の向きに基づいて、前記撮像部と前記顔との間の距離を検出してもよい。 According to an eighth aspect, in the operating device according to any one of the second aspect to the seventh aspect, the face direction detection unit and the face distance detection unit are configured such that the imaging unit is the face. The direction of the face is corrected according to the angle at the time of shooting, the face direction detection unit detects the direction of the face based on the corrected direction of the face, the face distance detection unit, A distance between the imaging unit and the face may be detected based on the corrected orientation of the face.
また、第9の態様によれば、上記第2の態様から上記第8の態様のいずれか一態様の操作装置において、前記機器と通信を行う通信部、をさらに備え、前記制御部は、前記通信部を介して、前記操作信号を対象の前記機器に出力してもよい。 According to a ninth aspect, in the operating device according to any one of the second aspect to the eighth aspect, the communication device further includes a communication unit that communicates with the device, The operation signal may be output to the target device via a communication unit.
また、第10の態様の操作方法は、操作対象の機器における操作を制御する操作装置における操作方法であって、撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、を含む。 An operation method according to a tenth aspect is an operation method in an operation device that controls an operation in a device to be operated, and recognizes the face included in an image including a face photographed by an imaging unit, and performs the recognition A face recognition step for outputting, as face recognition information, feature point information representing the position of the face part, and detecting the face direction based on the face recognition information and indicating the detected face direction A face orientation detecting step for outputting orientation information; a face distance detecting step for detecting a distance between the imaging unit and the face based on the face recognition information; and outputting face distance information representing the detected distance; , Referring to operation information representing operation details for the device determined in advance according to the orientation of the face and the distance between the imaging unit and the face, and based on the face orientation information and the face distance information The corresponding machine An operation signal representing the operation to, and a control step of outputting to the device.
また、第11の態様のプログラムは、操作対象の機器における操作を制御する操作装置のコンピュータに実行させるプログラムであって、撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、をコンピュータに実行させる。 The program of the eleventh aspect is a program that is executed by a computer of an operating device that controls an operation on a device to be operated, and recognizes the face included in an image including a face photographed by the imaging unit, A face recognition step of outputting information of feature points representing the position of the recognized part of the face as face recognition information; detecting the face direction based on the face recognition information; and detecting the detected face direction. A face direction detecting step for outputting face direction information to be expressed, and a face distance detection for detecting a distance between the imaging unit and the face based on the face recognition information and outputting face distance information representing the detected distance The operation information representing the operation content for the device determined in advance according to the step, the orientation of the face and the distance between the imaging unit and the face is referred to, and the face orientation information and the face distance information are Base There, the operation signal representing the operation to the corresponding said device to execute a control step of outputting to the device, to the computer.
また、第12の態様の記録媒体は、操作対象の機器における操作を制御する操作装置のコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。 The recording medium according to the twelfth aspect is a computer-readable recording medium that records a program to be executed by a computer of an operating device that controls an operation on a device to be operated, and includes a face taken by an imaging unit. A face recognition step of recognizing the face included in the image and outputting information of feature points representing the position of the recognized face portion as face recognition information; and detecting the face orientation based on the face recognition information A face direction detecting step for outputting face direction information representing the detected face direction; detecting a distance between the imaging unit and the face based on the face recognition information; and detecting the detected distance. A face distance detection step for outputting the face distance information to be expressed, and operation information representing the operation content for the device predetermined according to the orientation of the face and the distance between the imaging unit and the face. And a computer-readable recording of a program for causing a computer to execute a control step of outputting, to the device, an operation signal representing an operation for the corresponding device based on the face orientation information and the face distance information. It is a possible recording medium.
10・・・操作装置
100・・・制御部
110・・・顔認識部
120・・・顔向き検出部
130・・・顔距離検出部
200・・・撮像部
201・・・カメラ(撮像部)
300・・・記憶部
400・・・通信部
C・・・基準線
L1,L2,L21・・・左距離
R1・・・右距離
θ・・・角度
M1,M2・・・中心点
D1,D11,D2,D21,D3,D31,D4・・・距離
DESCRIPTION OF
300 ... Storage unit 400 ... Communication unit C ... Reference lines L1, L2, L21 ... Left distance R1 ... Right distance θ ... Angles M1, M2 ... Center points D1, D11 , D2, D21, D3, D31, D4 ... distance
Claims (5)
顔を含んだ画像を撮影する撮像部と、
前記画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識部と、
前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出部と、
前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出部と、
前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御部と、
を備える操作装置。 An operation device that controls an operation on an operation target device,
An imaging unit that captures an image including a face;
A face recognition unit that recognizes the face included in the image and outputs information of feature points representing the position of the recognized face part as face recognition information;
A face orientation detection unit that detects the orientation of the face based on the face recognition information and outputs face orientation information representing the detected face orientation;
A face distance detection unit that detects a distance between the imaging unit and the face based on the face recognition information, and outputs face distance information representing the detected distance;
With reference to the operation information representing the operation content for the device predetermined according to the orientation of the face and the distance between the imaging unit and the face, based on the face orientation information and the face distance information, A control unit that outputs an operation signal representing an operation to the corresponding device to the device;
An operating device comprising:
前記顔の向きが、予め定めた顔の向きの初期状態から変化したときの方向および角度の情報を前記顔向き情報として出力し、
前記顔距離検出部は、
前記撮像部と前記顔との間の距離が、予め定めた距離の初期状態から変化したときの距離の情報を前記顔距離情報として出力し、
前記制御部は、
前記顔向き情報に含まれる前記顔の方向および角度の組み合わせによって表される前記顔の向きの値と、前記顔距離情報に含まれる前記撮像部と前記顔との間の距離によって表される前記顔の距離の値との組み合わせに応じて予め定められた操作量を表す前記操作信号を、対応する前記機器に出力する、
請求項1に記載の操作装置。 The face orientation detection unit
Outputs the direction and angle information as the face direction information when the face direction changes from the initial state of the predetermined face direction,
The face distance detector
Outputs the distance information when the distance between the imaging unit and the face changes from the initial state of a predetermined distance as the face distance information,
The controller is
The face direction value represented by a combination of the face direction and angle included in the face direction information, and the distance between the imaging unit and the face included in the face distance information. Outputting the operation signal representing a predetermined operation amount according to a combination with a face distance value to the corresponding device;
The operating device according to claim 1.
前記顔の距離の値ごとに、操作対象の異なる前記機器が予め定められており、
前記制御部は、
前記顔距離情報に含まれる前記顔の距離の値に対応する前記機器に、前記顔の向きの値に対応する前記操作量を表す前記操作信号を出力する、
請求項2に記載の操作装置。 The operation information is
For each value of the face distance, the device to be operated is determined in advance,
The controller is
Outputting the operation signal representing the operation amount corresponding to the face orientation value to the device corresponding to the face distance value included in the face distance information;
The operating device according to claim 2.
前記顔向き情報に含まれる前記顔の角度の値ごとに、同じ前記機器に対する前記操作量が予め定められており、
前記制御部は、
前記顔距離情報に含まれる前記顔の距離の値に対応する前記機器に、前記顔の角度の値に対応する前記操作量を表す前記操作信号を出力する、
請求項2または請求項3に記載の操作装置。 The operation information is
The operation amount for the same device is predetermined for each value of the face angle included in the face orientation information,
The controller is
Outputting the operation signal representing the operation amount corresponding to the face angle value to the device corresponding to the face distance value included in the face distance information;
The operating device according to claim 2 or 3.
撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、
前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、
前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、
前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、
を含む操作方法。 An operation method in an operating device that controls an operation in an operation target device,
A face recognition step of recognizing the face included in the image including the face photographed by the imaging unit and outputting information of a feature point representing the position of the recognized face part as face recognition information;
Detecting a face orientation based on the face recognition information, and outputting face orientation information representing the detected face orientation; and
A face distance detection step of detecting a distance between the imaging unit and the face based on the face recognition information and outputting face distance information representing the detected distance;
With reference to the operation information representing the operation content for the device predetermined according to the orientation of the face and the distance between the imaging unit and the face, based on the face orientation information and the face distance information, A control step of outputting an operation signal representing an operation on the corresponding device to the device;
Operation method including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015039963A JP2016162164A (en) | 2015-03-02 | 2015-03-02 | Operation device and operation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015039963A JP2016162164A (en) | 2015-03-02 | 2015-03-02 | Operation device and operation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016162164A true JP2016162164A (en) | 2016-09-05 |
Family
ID=56845238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015039963A Pending JP2016162164A (en) | 2015-03-02 | 2015-03-02 | Operation device and operation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016162164A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112026790A (en) * | 2020-09-03 | 2020-12-04 | 上海商汤临港智能科技有限公司 | Control method and device for vehicle-mounted robot, vehicle, electronic device and medium |
-
2015
- 2015-03-02 JP JP2015039963A patent/JP2016162164A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112026790A (en) * | 2020-09-03 | 2020-12-04 | 上海商汤临港智能科技有限公司 | Control method and device for vehicle-mounted robot, vehicle, electronic device and medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210035362A1 (en) | Image processing method and apparatus, electronic device, and computer-readable storage medium | |
US7853051B2 (en) | Recognizing apparatus and method, recording media, and program | |
JP6103948B2 (en) | IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM | |
US11076144B2 (en) | Method and apparatus for obtaining image, storage medium and electronic device | |
EP3062286B1 (en) | Optical distortion compensation | |
EP3544286B1 (en) | Focusing method, device and storage medium | |
WO2019128101A1 (en) | Projection region-adaptive dynamic projection method, apparatus, and electronic device | |
US10956733B2 (en) | Image processing apparatus and image processing method | |
WO2017032035A1 (en) | Method and device for adjusting, and terminal | |
US11651518B2 (en) | System for determining an expected field of view | |
JP2011166305A (en) | Image processing apparatus and imaging apparatus | |
CN105554389A (en) | Photographing method and photographing apparatus | |
US11080888B2 (en) | Information processing device and information processing method | |
JPWO2011108043A1 (en) | Image display device and image display method | |
WO2017187694A1 (en) | Region of interest image generating device | |
CN110059590A (en) | A kind of face living body verification method, device, mobile terminal and readable storage medium storing program for executing | |
JP2006040232A (en) | Image processor and its method, imaging apparatus, program | |
KR102286006B1 (en) | Following apparatus and following system | |
TWI737588B (en) | System and method of capturing image | |
JP2016162164A (en) | Operation device and operation method | |
JP2015023294A (en) | Moving image processing apparatus and moving image processing method | |
US9830512B2 (en) | Method and apparatus for tracking gaze | |
JP2009278185A (en) | Image recognition apparatus | |
KR101576426B1 (en) | Apparatus and Method for surveillance using fish eyes lens | |
JP2012227830A (en) | Information processing equipment, processing method thereof, program, and imaging apparatus |