JP2016162164A - Operation device and operation method - Google Patents

Operation device and operation method Download PDF

Info

Publication number
JP2016162164A
JP2016162164A JP2015039963A JP2015039963A JP2016162164A JP 2016162164 A JP2016162164 A JP 2016162164A JP 2015039963 A JP2015039963 A JP 2015039963A JP 2015039963 A JP2015039963 A JP 2015039963A JP 2016162164 A JP2016162164 A JP 2016162164A
Authority
JP
Japan
Prior art keywords
face
distance
information
user
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015039963A
Other languages
Japanese (ja)
Inventor
秀基 瀬戸
Hideki Seto
秀基 瀬戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015039963A priority Critical patent/JP2016162164A/en
Publication of JP2016162164A publication Critical patent/JP2016162164A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation device capable of easily performing operation with respect to equipment, even in a situation where the equipment to be operated cannot be directly operated and to provide an operation method.SOLUTION: The operation device for controlling the operation in the equipment to be operated includes an imaging part which photographs an image including a face, a face recognition part which recognizes the face included in the image and outputs the information of a feature point indicating the position of the part of the recognized face as face recognition information, a face direction detection part which detects the direction of the face on the basis of the face recognition information and outputs face direction information indicating the detected face direction, a face distance detection part which detects a distance between the imaging part and the face on the basis of the face recognition information and outputs face distance information indicating the detected distance, and a control part which refers to operation information indicating an operation content for the equipment previously set according to the direction of the face and the distance between the imaging part and the face and outputs an operation signal indicating the operation with respect to corresponding equipment to the equipment on the basis of the face direction information and the face distance information.SELECTED DRAWING: Figure 1

Description

本発明は、操作装置および操作方法に関する。   The present invention relates to an operating device and an operating method.

例えば、車両の運転中などに、車両に搭載された操作対象の機器(以下、「操作対象機器」という)に視線を向けることができず、さらには、手探りなどによっても操作を行うことができない状況がある。このため、従来から、操作対象機器を直接操作することができない状況においても、操作対象機器に対して所望の操作を行うことができる方法が求められている。このような要望を実現するため、例えば、特許文献1のような、音声によって操作対象機器に対する操作を行う技術が提案されている。   For example, while driving the vehicle, the line of sight cannot be directed to the operation target device (hereinafter referred to as “operation target device”) mounted on the vehicle, and further, the operation cannot be performed by groping. There is a situation. For this reason, there is a need for a method that can perform a desired operation on an operation target device even in a situation where the operation target device cannot be directly operated. In order to realize such a demand, for example, a technique for performing an operation on an operation target device by voice as in Patent Document 1 has been proposed.

特開2000−322078号公報JP 2000-322078 A

しかしながら、特許文献1で開示されたような、操作対象機器に対する操作を音声によって行う技術では、操作対象機器の誤動作を防止するなどの目的から、対話式で操作を指示することが行われている。このため、操作対象機器が音声によって指示された操作を受け付けるまでに時間を要するという問題がある。また、対話中の音声を誤認識してしまった場合などには、最初から対話をやり直すなど、正しい操作への修正が困難であるという問題もある。   However, in the technique for performing an operation on the operation target device by voice as disclosed in Patent Document 1, the operation is instructed interactively for the purpose of preventing the operation target device from malfunctioning. . For this reason, there is a problem that it takes time for the operation target device to accept an operation instructed by voice. In addition, when the voice during the conversation is misrecognized, there is a problem that it is difficult to correct the correct operation, such as starting the conversation again from the beginning.

本発明は、上記の課題に基づいてなされたものであり、操作対象の機器を直接操作することができない状況においても、機器に対する操作を容易に行うことができる操作装置および操作方法を提供することを目的としている。   The present invention has been made based on the above-described problems, and provides an operating device and an operating method that can easily operate an apparatus even in a situation where the apparatus to be operated cannot be directly operated. It is an object.

上記の課題を解決するため、本発明の一態様の操作装置は、操作対象の機器における操作を制御する操作装置であって、顔を含んだ画像を撮影する撮像部と、前記画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識部と、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出部と、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出部と、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御部と、を備える。   In order to solve the above-described problem, an operation device according to one embodiment of the present invention is an operation device that controls an operation in a device to be operated, and is included in an imaging unit that captures an image including a face, and the image A face recognition unit for recognizing the face and outputting feature point information representing the position of the recognized face part as face recognition information; detecting the orientation of the face based on the face recognition information; A face direction detection unit that outputs face direction information indicating the orientation of the face, a distance between the imaging unit and the face is detected based on the face recognition information, and face distance information indicating the detected distance A face distance detection unit that outputs the operation information representing the operation content for the device determined in advance according to the orientation of the face and the distance between the imaging unit and the face, and the face direction information Based on the face distance information, the corresponding machine An operation signal representing the operation to, and a control unit for outputting to the device.

また、本発明の一態様の操作方法は、操作対象の機器における操作を制御する操作装置における操作方法であって、撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、を含む。   Further, an operation method according to one embodiment of the present invention is an operation method in an operation device that controls an operation in a device to be operated, and recognizes the face included in an image including a face photographed by an imaging unit, A face recognition step of outputting information of feature points representing the position of the recognized face part as face recognition information, detecting the face direction based on the face recognition information, and expressing the detected face direction A face direction detecting step for outputting face direction information; a face distance detecting step for detecting a distance between the imaging unit and the face based on the face recognition information; and outputting face distance information representing the detected distance. Based on the face orientation information and the face distance information, referring to the operation information representing the operation contents for the device determined in advance according to the orientation of the face and the distance between the imaging unit and the face. The corresponding said An operation signal representing the operation to the vessel, and a control step of outputting to the device.

本発明によれば、操作対象の機器を直接操作することができない状況においても、機器に対する操作を容易に行うことができるという効果が得られる。   According to the present invention, it is possible to easily perform an operation on a device even in a situation where the device to be operated cannot be directly operated.

本発明の実施形態における操作装置の概略構成を示したブロック図である。It is the block diagram which showed schematic structure of the operating device in embodiment of this invention. 本発明の実施形態の操作装置における処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the process in the operating device of embodiment of this invention. 本発明の実施形態の操作装置に備えた顔認識部における顔認識の処理を説明する図である。It is a figure explaining the process of face recognition in the face recognition part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置に備えた顔向き検出部における顔の向きの検出処理の一例を説明する図である。It is a figure explaining an example of the detection process of the face direction in the face direction detection part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置に備えた顔向き検出部における顔の向きの検出処理の別の一例を説明する図である。It is a figure explaining another example of the detection process of the face direction in the face direction detection part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置に備えた顔向き検出部における顔の向きの検出処理のさらに別の一例を説明する図である。It is a figure explaining another example of the detection process of the face direction in the face direction detection part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置に備えた顔向き検出部における顔の向きの検出処理のさらに別の一例を説明する図である。It is a figure explaining another example of the detection process of the face direction in the face direction detection part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置に備えた顔距離検出部における顔の距離の検出処理の一例を説明する図である。It is a figure explaining an example of the detection process of the face distance in the face distance detection part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置に備えた顔距離検出部における顔の距離の検出処理の別の一例を説明する図である。It is a figure explaining another example of the detection process of the face distance in the face distance detection part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置に備えた顔距離検出部における顔の距離の検出処理のさらに別の一例を説明する図である。It is a figure explaining another example of the detection process of the face distance in the face distance detection part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置に備えた顔距離検出部における顔の距離の検出処理のさらに別の一例を説明する図である。It is a figure explaining another example of the detection process of the face distance in the face distance detection part with which the operating device of embodiment of this invention was equipped. 本発明の実施形態の操作装置と検出する顔との距離の一例を模式的に示した図である。It is the figure which showed typically an example of the distance of the operating device of embodiment of this invention, and the face to detect. 本発明の実施形態の操作装置が検出した顔の状態によって操作する内容の一例を示した図である。It is the figure which showed an example of the content operated according to the state of the face which the operating device of embodiment of this invention detected. 本発明の実施形態の操作装置と検出する顔との位置関係の一例を模式的に示した図である。It is the figure which showed typically an example of the positional relationship of the operating device of embodiment of this invention, and the face to detect.

以下、本発明の実施形態について、図面を参照して説明する。図1は、本発明の実施形態における操作装置の概略構成を示したブロック図である。操作装置10は、制御部100と、撮像部200と、記憶部300と、通信部400とを含んで構成されている。操作装置10は、使用者(ユーザー)が所望する操作を行うための指示を、不図示の操作対象の機器(以下、「操作対象機器」という)に出力するためのユーザーインターフェース装置である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an operating device according to an embodiment of the present invention. The operating device 10 includes a control unit 100, an imaging unit 200, a storage unit 300, and a communication unit 400. The operation device 10 is a user interface device for outputting an instruction for performing an operation desired by a user (user) to a device to be operated (not shown) (hereinafter referred to as “operation target device”).

制御部100は、操作装置10内のそれぞれの構成要素、つまり、操作装置10の全体を制御する。制御部100は、顔認識部110と、顔向き検出部120と、顔距離検出部130とを含んで構成され、例えば、CPU(Central Processing Unit)などの処理装置で実現される。   The control unit 100 controls each component in the controller device 10, that is, the entire controller device 10. The control unit 100 includes a face recognition unit 110, a face direction detection unit 120, and a face distance detection unit 130, and is realized by a processing device such as a CPU (Central Processing Unit), for example.

撮像部200は、撮影機能としてカメラを備え、制御部100からの制御に応じて、画像を撮影する。操作装置10において撮像部200は、短い所定の時間間隔で、ユーザーの顔を含む画像を撮影する。撮像部200は、撮影した画像を順次、記憶部300に記憶する。   The imaging unit 200 includes a camera as a shooting function, and takes an image in accordance with control from the control unit 100. In the operation device 10, the imaging unit 200 captures an image including the user's face at a short predetermined time interval. The imaging unit 200 stores the captured images in the storage unit 300 sequentially.

記憶部300は、制御部100または制御部100内の構成要素が種々の処理を実行するためのプログラムや、処理に使用するデータを記憶する。記憶部300は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの種々のメモリや、HDD(Hard disk drive)などの記憶装置で構成される。記憶部300は、制御部100からの制御に応じて、データの記憶(書き込み)やデータの出力(読み出し)を行う。   The storage unit 300 stores a program for the control unit 100 or components in the control unit 100 to execute various processes and data used for the processes. The storage unit 300 includes, for example, various memories such as a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory (Flash Memory), and a storage device such as an HDD (Hard Disk Drive). The storage unit 300 stores (writes) data and outputs (reads) data in accordance with control from the control unit 100.

通信部400は、制御部100からの制御に応じて、無線ネットワークや有線ネットワークなどを介して、操作対象機器との通信を行う。より具体的には、例えば、通信部400は、ブルートゥース(Bluetooth(登録商標))などの短距離無線通信や、WiFi(登録商標)などの無線通信によって、ユーザーが所望する操作を表す信号(操作信号)を、操作対象機器に出力(伝送)する。また、例えば、通信部400は、操作対象機器と接続された通信ケールによって、操作信号を操作対象機器に伝送する。   The communication unit 400 communicates with the operation target device via a wireless network, a wired network, or the like in accordance with control from the control unit 100. More specifically, for example, the communication unit 400 uses a short-range wireless communication such as Bluetooth (registered trademark) or a wireless communication such as WiFi (registered trademark) to indicate a signal (operation indicating a user's desired operation). Signal) is output (transmitted) to the operation target device. In addition, for example, the communication unit 400 transmits an operation signal to the operation target device using a communication cable connected to the operation target device.

顔認識部110は、撮像部200が撮影した画像に含まれるユーザーの顔の全体を認識する顔認識処理を行う処理部である。顔認識部110は、撮像部200によって所定の短い時間間隔で撮影されたそれぞれの画像に対して顔認識処理を順次行い、顔認識処理を行った結果を、顔向き検出部120および顔距離検出部130に順次出力する。つまり、顔認識部110は、認識したユーザーの顔の情報(以下、「顔認識情報」という)を逐次、顔向き検出部120および顔距離検出部130に出力する。これにより、顔向き検出部120および顔距離検出部130は、それぞれの処理を精度よく行うことができる。なお、顔認識部110における顔認識処理の処理機能は、例えば、記憶部300に記憶されたプログラムを実行するソフトウェアによって実現される構成であってもよい。なお、顔認識部110の処理に関する詳細な説明は、後述する。   The face recognition unit 110 is a processing unit that performs face recognition processing for recognizing the entire face of the user included in the image captured by the imaging unit 200. The face recognition unit 110 sequentially performs face recognition processing on each image captured at a predetermined short time interval by the imaging unit 200, and the result of the face recognition processing is determined as the face direction detection unit 120 and the face distance detection. Sequentially output to the unit 130. That is, the face recognition unit 110 sequentially outputs the information of the recognized user's face (hereinafter referred to as “face recognition information”) to the face direction detection unit 120 and the face distance detection unit 130. Thereby, the face direction detection part 120 and the face distance detection part 130 can perform each process accurately. Note that the processing function of the face recognition process in the face recognition unit 110 may be realized by software that executes a program stored in the storage unit 300, for example. Detailed description regarding the processing of the face recognition unit 110 will be described later.

顔向き検出部120は、顔認識部110から入力されたユーザーの顔認識情報に基づいて、ユーザーの顔の向きを検出する処理部である。顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に基づいて、ユーザーの顔の向きを検出する検出処理(以下、「顔向き検出処理」という)を逐次行う。これにより、顔向き検出部120は、それぞれの顔向き検出処理の結果から、ユーザーの顔の向きの変化(例えば、縦方向への変化や横方向への変化)を追跡することができ、例えば、ユーザーの顔の上下方向や左右方向への傾きを検出することができる。顔向き検出部120は、検出したユーザーの顔の向きを表す情報(以下、「顔向き情報」という)を出力する。なお、顔向き検出部120における顔向き検出処理の処理機能は、例えば、記憶部300に記憶されたプログラムを実行するソフトウェアによって実現される構成であってもよい。なお、顔向き検出部120の処理に関する詳細な説明は、後述する。   The face orientation detection unit 120 is a processing unit that detects the orientation of the user's face based on the user's face recognition information input from the face recognition unit 110. The face orientation detection unit 120 sequentially performs detection processing (hereinafter referred to as “face orientation detection processing”) for detecting the orientation of the user's face based on each face recognition information sequentially input from the face recognition unit 110. Thereby, the face direction detection unit 120 can track changes in the user's face direction (for example, changes in the vertical direction and changes in the horizontal direction) from the results of the respective face direction detection processes, for example, The inclination of the user's face in the vertical direction and the horizontal direction can be detected. The face orientation detection unit 120 outputs information indicating the detected face orientation of the user (hereinafter referred to as “face orientation information”). Note that the processing function of the face orientation detection process in the face orientation detection unit 120 may be realized by software that executes a program stored in the storage unit 300, for example. A detailed description of the processing of the face orientation detection unit 120 will be described later.

顔距離検出部130は、顔認識部110から入力されたユーザーの顔認識情報に基づいて、ユーザーの顔と撮像部200に備えたカメラとの距離を検出する処理部である。顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に基づいて、ユーザーの顔とカメラとの距離を検出する検出処理(以下、「顔距離検出処理」という)を逐次行う。これにより、顔距離検出部130は、それぞれの顔距離検出処理の結果から、ユーザーの顔とカメラとの距離との変化(例えば、前後(手前、奥)方向への変化)を追跡することができ、例えば、ユーザーの顔の手前方向や奥方向への移動を検出することができる。顔距離検出部130は、検出したユーザーの顔とカメラとの距離を表す情報(以下、「顔距離情報」という)を出力する。なお、顔距離検出部130における顔距離検出処理の処理機能は、例えば、記憶部300に記憶されたプログラムを実行するソフトウェアによって実現される構成であってもよい。なお、顔距離検出部130の処理に関する詳細な説明は、後述する。   The face distance detection unit 130 is a processing unit that detects the distance between the user's face and the camera included in the imaging unit 200 based on the user's face recognition information input from the face recognition unit 110. The face distance detection unit 130 performs detection processing (hereinafter referred to as “face distance detection processing”) that detects the distance between the user's face and the camera based on each face recognition information sequentially input from the face recognition unit 110. Perform sequentially. Accordingly, the face distance detection unit 130 can track a change in the distance between the user's face and the camera (for example, a change in the front-rear (front and back) direction) from the result of each face distance detection process. For example, it is possible to detect the movement of the user's face toward the front or back. The face distance detection unit 130 outputs information indicating the distance between the detected user's face and the camera (hereinafter referred to as “face distance information”). Note that the processing function of the face distance detection process in the face distance detection unit 130 may be realized by software that executes a program stored in the storage unit 300, for example. Detailed description regarding the processing of the face distance detection unit 130 will be described later.

操作装置10では、ユーザーの顔の状態に応じた操作対象機器に対する操作内容を表す操作情報が、予め設定されている。この操作情報は、操作対象機器と、この操作対象機器に指示することができる操作の内容とが対応付けられた情報であり、例えば、記憶部300に記憶されている。制御部100は、操作情報を参照し、顔向き検出部120が出力した顔向き情報および顔距離検出部130が出力した顔距離情報に応じた操作、つまり、ユーザーが所望する操作を表す操作信号の操作対象機器への伝送を、通信部400を介して行う。   In the operation device 10, operation information indicating the operation content for the operation target device according to the state of the user's face is set in advance. The operation information is information in which the operation target device is associated with the content of the operation that can be instructed to the operation target device, and is stored in the storage unit 300, for example. The control unit 100 refers to the operation information, and operates according to the face direction information output from the face direction detection unit 120 and the face distance information output from the face distance detection unit 130, that is, an operation signal representing an operation desired by the user. Is transmitted to the operation target device via the communication unit 400.

次に、操作装置10がユーザーの顔の状態に応じて操作対象機器を操作する処理手順について説明する。図2は、本発明の実施形態の操作装置10における処理(操作対象機器の操作処理)の処理手順を示したフローチャートである。なお、以下の説明においては、操作装置10がユーザーの顔の状態の変化を検出する際の基準となる初期状態をすでに認識しており、この初期状態を、例えば、記憶部300に記憶しているものとして説明を行う。   Next, a processing procedure in which the operation device 10 operates the operation target device according to the state of the user's face will be described. FIG. 2 is a flowchart illustrating a processing procedure of processing (operation processing of the operation target device) in the operation device 10 according to the embodiment of the present invention. In the following description, the operating device 10 has already recognized an initial state that becomes a reference when detecting a change in the face state of the user, and the initial state is stored in the storage unit 300, for example. The explanation will be made assuming that

操作装置10が動作を開始すると、まず、制御部100は、撮像部200を起動する(ステップS101)。そして、制御部100は、撮像部200に、接続されているカメラによって画像を撮影させる(ステップS102)。これにより、撮像部200は、撮影した画像を記憶部300に記憶する。   When the controller device 10 starts operating, first, the control unit 100 activates the imaging unit 200 (step S101). Then, the control unit 100 causes the imaging unit 200 to capture an image with the connected camera (step S102). Thereby, the imaging unit 200 stores the captured image in the storage unit 300.

続いて、制御部100は、記憶部300に記憶された画像を読み出し、顔認識部110によって読み出した画像に含まれるユーザーの顔に対する顔認識処理を行う。そして、制御部100は、顔認識部110によって読み出した画像に含まれるユーザーの顔を認識することができたか否かを判定する(ステップS104)。   Subsequently, the control unit 100 reads the image stored in the storage unit 300 and performs face recognition processing on the user's face included in the image read by the face recognition unit 110. Then, the control unit 100 determines whether or not the user's face included in the image read by the face recognition unit 110 has been recognized (step S104).

ステップS104の判定の結果、ユーザーの顔を認識することができないと判定した場合(ステップS104の“NO”)、制御部100は、ステップS102に戻って、撮像部200に、次の画像を撮影させ、ステップS103〜ステップS104までの処理を繰り返す。   As a result of the determination in step S104, when it is determined that the user's face cannot be recognized (“NO” in step S104), the control unit 100 returns to step S102 and takes the next image on the imaging unit 200. The process from step S103 to step S104 is repeated.

一方、ステップS104の判定の結果、ユーザーの顔を認識することができた(このとき、顔認識部110からは、認識したユーザーの顔認識情報が顔向き検出部120に出力されている)と判定した場合(ステップS104の“YES”)、制御部100は、顔向き検出部120によって認識したユーザーの顔の向きを検出する顔向き検出処理を行う(ステップS105)。なお、このステップS105の顔向き検出処理では、例えば、記憶部300に記憶しているユーザーの顔の初期状態も用いる。これにより、顔向き検出部120は、検出したユーザーの顔向き情報を出力する。   On the other hand, as a result of the determination in step S104, the user's face can be recognized (at this time, the recognized face recognition information of the user is output from the face recognition unit 110 to the face direction detection unit 120). When it determines ("YES" of step S104), the control part 100 performs the face direction detection process which detects the direction of the user's face recognized by the face direction detection part 120 (step S105). In the face orientation detection process in step S105, for example, the initial state of the user's face stored in the storage unit 300 is also used. As a result, the face orientation detection unit 120 outputs the detected user face orientation information.

続いて、制御部100は、顔距離検出部130によって認識したユーザーの顔とカメラとの距離を検出する顔距離検出処理を行う(ステップS106)。このとき、顔認識部110からは、認識したユーザーの顔認識情報が顔距離検出部130に出力されている。なお、このステップS106の顔距離検出処理では、例えば、記憶部300に記憶しているユーザーの顔の初期状態も用いる。これにより、顔距離検出部130は、検出したユーザーの顔距離情報を出力する。   Subsequently, the control unit 100 performs face distance detection processing for detecting the distance between the user's face recognized by the face distance detection unit 130 and the camera (step S106). At this time, the face recognition unit 110 outputs the recognized user face recognition information to the face distance detection unit 130. In the face distance detection process in step S106, for example, the initial state of the user's face stored in the storage unit 300 is also used. Thereby, the face distance detection unit 130 outputs the detected face distance information of the user.

続いて、制御部100は、顔向き検出部120から出力された顔向き情報と、顔距離検出部130から出力された顔距離情報とが表しているユーザーの顔の状態が、予め設定されている操作対象機器に対する操作内容であるか否かを判定する(ステップS107)。なお、このステップS107の判定の処理は、制御部100が、検出したユーザーの顔の状態と、例えば、記憶部300に記憶されている操作情報とを比較することによって行う。そして、制御部100は、現在比較しているユーザーの顔の状態が操作情報に含まれる場合には、ユーザーの顔の状態が操作対象機器に対する操作内容であると判定し、現在比較しているユーザーの顔の状態が操作情報に含まれない場合には、ユーザーの顔の状態が操作対象機器に対する操作内容ではないと判定する。   Subsequently, the control unit 100 sets in advance the face state of the user represented by the face direction information output from the face direction detection unit 120 and the face distance information output from the face distance detection unit 130. It is determined whether or not the operation content is for the operation target device (step S107). Note that the determination process in step S107 is performed by the control unit 100 comparing the detected face state of the user with, for example, operation information stored in the storage unit 300. Then, when the user's face state currently being compared is included in the operation information, the control unit 100 determines that the user's face state is the operation content for the operation target device, and is currently performing the comparison. When the user's face state is not included in the operation information, it is determined that the user's face state is not the operation content for the operation target device.

ステップS107の判定の結果、ユーザーの顔の状態が操作対象機器に対する操作内容であると判定した場合(ステップS107の“YES”)、制御部100は、ステップS108において通信部400を起動し、ユーザーの顔の状態に応じた操作を表す操作信号を、操作対象機器に伝送させる。そして、制御部100は、ステップS109に進む。   As a result of the determination in step S107, when it is determined that the state of the user's face is the operation content for the operation target device (“YES” in step S107), the control unit 100 activates the communication unit 400 in step S108, and the user An operation signal representing an operation corresponding to the face state of the user is transmitted to the operation target device. Then, the control unit 100 proceeds to step S109.

一方、ステップS107の判定の結果、ユーザーの顔の状態が操作対象機器に対する操作内容ではないと判定した場合(ステップS107の“NO”)、制御部100は、ステップS109に進む。   On the other hand, as a result of the determination in step S107, when it is determined that the state of the user's face is not the operation content for the operation target device (“NO” in step S107), the control unit 100 proceeds to step S109.

続いて、制御部100は、操作対象機器の操作処理を続けるか否かを判定する(ステップS109)。ステップS109の判定の結果、操作対象機器の操作処理を続けると判定した場合(ステップS109の“YES”)、制御部100は、ステップS102に戻って、撮像部200に、次の画像を撮影させ、ステップS103〜ステップS108までの処理を繰り返す。一方、ステップS109の判定の結果、操作対象機器の操作処理を続けないと判定した場合(ステップS109の“NO”)、制御部100は、操作対象機器に対する操作処理を終了する。   Subsequently, the control unit 100 determines whether or not to continue the operation process for the operation target device (step S109). As a result of the determination in step S109, when it is determined that the operation processing of the operation target device is to be continued (“YES” in step S109), the control unit 100 returns to step S102 and causes the imaging unit 200 to capture the next image. The processes from step S103 to step S108 are repeated. On the other hand, as a result of the determination in step S109, when it is determined that the operation process for the operation target device is not continued ("NO" in step S109), the control unit 100 ends the operation process for the operation target device.

このような構成および処理手順によって、操作装置10は、撮像部200に備えたカメラによって撮影したそれぞれの画像からユーザーの顔の状態の変化を検出し、検出したユーザーの顔の状態に基づいて、ユーザーが所望する操作を操作対象機器に出力する。   With such a configuration and processing procedure, the controller device 10 detects a change in the state of the user's face from each image captured by the camera provided in the imaging unit 200, and based on the detected state of the user's face, The operation desired by the user is output to the operation target device.

なお、図1に示した操作装置10の構成では、顔認識部110と、顔向き検出部120と、顔距離検出部130とを、制御部100内に構成した場合について説明した。しかし、顔認識部110と、顔向き検出部120と、顔距離検出部130とのそれぞれは、制御部100の構成要素ではなく、操作装置10の構成要素、つまり、顔認識部110と、顔向き検出部120と、顔距離検出部130とのそれぞれを、制御部100と接続される構成要素として操作装置10内に備える構成であってもよい。   In the configuration of the controller device 10 illustrated in FIG. 1, the case where the face recognition unit 110, the face direction detection unit 120, and the face distance detection unit 130 are configured in the control unit 100 has been described. However, each of the face recognition unit 110, the face orientation detection unit 120, and the face distance detection unit 130 is not a component of the control unit 100, but a component of the controller device 10, that is, the face recognition unit 110 and the face The configuration may be such that each of the orientation detection unit 120 and the face distance detection unit 130 is provided in the controller device 10 as a component connected to the control unit 100.

また、図2に示した操作装置10の処理手順では、操作装置10がユーザーの顔の初期状態をすでに認識している場合について説明した。しかし、操作装置10がユーザーの顔の初期状態をすでに認識していない場合、最初のステップS107の処理において、顔向き検出部120から出力された顔向き情報と、顔距離検出部130から出力された顔距離情報とが表しているユーザーの顔の状態を、ユーザーの顔の初期状態とすることによって、例えば、記憶部300にユーザーの顔の初期状態を記憶することができる。なお、操作装置10に顔の初期状態を認識させるときに、ユーザーが予め定めた操作や手順を行う構成であってもよい。例えば、操作装置10に顔の初期状態を認識させる指示を、ユーザーが音声で入力する構成であってもよい。   In the processing procedure of the controller device 10 illustrated in FIG. 2, the case where the controller device 10 has already recognized the initial state of the user's face has been described. However, when the controller device 10 has not already recognized the initial state of the user's face, in the first step S107, the face orientation information output from the face orientation detector 120 and the face distance detector 130 are output. For example, the initial state of the user's face can be stored in the storage unit 300 by setting the user's face state represented by the face distance information as the initial state of the user's face. In addition, when making the operating device 10 recognize the initial state of a face, the structure which a user performs predetermined operation and procedure may be sufficient. For example, a configuration in which the user inputs an instruction for recognizing the initial state of the face to the controller device 10 by voice may be used.

次に、操作装置10においてユーザーの顔の変化を検出する処理について説明する。まず、顔認識部110における顔認識処理について説明する。図3は、本発明の実施形態の操作装置10に備えた顔認識部110における顔認識の処理(顔認識処理)を説明する図である。図3には、撮像部200によって撮影された画像に含まれるユーザーの顔のみの一例を示している。   Next, a process for detecting a change in the user's face in the controller device 10 will be described. First, face recognition processing in the face recognition unit 110 will be described. FIG. 3 is a diagram illustrating face recognition processing (face recognition processing) in the face recognition unit 110 provided in the operation device 10 according to the embodiment of the present invention. FIG. 3 shows an example of only the user's face included in the image taken by the imaging unit 200.

顔認識部110は、図3に示したように、撮像部200が撮影した画像に含まれるユーザーの顔全体の領域を抽出する。そして、顔認識部110は、抽出したユーザーの顔全体の領域に含まれる顔のそれぞれの部位を検出し、検出した顔の部位の位置を表す特徴点を、顔認識情報として顔向き検出部120および顔距離検出部130に出力する。図3には、ユーザーの「眉」、「目」(「瞳」、「目頭」、および「目尻」)、「鼻」(「鼻の頂点」および「小鼻」)、「口」(「口角」)、「下顎」、「耳」のそれぞれの位置を特徴点として検出した場合の一例を示している。なお、顔認識部110における顔全体の領域を抽出および顔の部位の特徴点の検出方法は、例えば、デジタルスチルカメラやデジタルビデオカメラなどにおいて一般的に用いられている、公知の顔検出および顔認識の技術を用いて行うことができるため、詳細な説明は省略する。   As shown in FIG. 3, the face recognition unit 110 extracts the entire area of the user's face included in the image captured by the imaging unit 200. Then, the face recognition unit 110 detects each part of the face included in the extracted entire area of the user's face, and uses the feature points representing the position of the detected face part as face recognition information. And output to the face distance detection unit 130. In FIG. 3, the user's “brow”, “eyes” (“pupil”, “eye head”, and “eye corner”), “nose” (“nose apex” and “nose”), “mouth” )), “Mandible”, and “ear” are detected as feature points. Note that the method of extracting the entire face region and detecting the feature points of the facial part in the face recognition unit 110 is a well-known face detection and face method generally used in, for example, digital still cameras and digital video cameras. Detailed description is omitted because it can be performed using a recognition technique.

続いて、顔向き検出部120における顔向き検出処理について説明する。顔向き検出部120は、顔認識部110から入力されたユーザーの顔認識情報に基づいて、ユーザーの顔が正面を向いている状態を初期状態とし、ユーザーの顔が初期状態から上下および左右に傾いている割合によって、ユーザーの顔の向きの変化を検出する。   Next, the face direction detection process in the face direction detection unit 120 will be described. Based on the user's face recognition information input from the face recognition unit 110, the face orientation detection unit 120 sets the user's face facing the front as an initial state, and the user's face is up and down and left and right from the initial state. A change in the orientation of the user's face is detected based on the inclination rate.

図4は、本発明の実施形態の操作装置10に備えた顔向き検出部120における顔の向きの検出処理(顔向き検出処理)の一例を説明する図である。図4には、顔向き検出部120が、ユーザーの顔の向きが左右に傾いている状態を検出する場合の一例を示している。より具体的には、顔向き検出部120は、図4に示したように、顔認識部110から入力されたユーザーの顔認識情報に含まれる左右の「瞳」の位置を表す特徴点と、左右の「耳」の位置を表す特徴点とを用いて、ユーザーの顔が中心からずれている割合を判定することによって、ユーザーの顔の左右への傾きを検出する。   FIG. 4 is a diagram illustrating an example of face orientation detection processing (face orientation detection processing) in the face orientation detection unit 120 provided in the operation device 10 according to the embodiment of the present invention. FIG. 4 illustrates an example in which the face direction detection unit 120 detects a state in which the user's face is tilted left and right. More specifically, as shown in FIG. 4, the face direction detection unit 120 includes feature points that represent the positions of the left and right “pupils” included in the user's face recognition information input from the face recognition unit 110. By using the feature points representing the positions of the left and right “ears”, the right / left inclination of the user's face is detected by determining the ratio of the user's face being displaced from the center.

さらに具体的には、顔向き検出部120は、図4(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、左右の「耳」の位置を表す2つの特徴点の間の距離(長さ)を算出し、算出した2つの特徴点間の長さの1/2の位置、すなわち、中心の位置に、垂直方向に直線(以下「基準線C」という)を仮定する。そして、顔向き検出部120は、図4(a)に示したように、基準線Cとユーザーの左側の「耳」の特徴点との間の距離(長さ)を左側の距離(以下、「左距離」という)L1とし、基準線Cとユーザーの右側の「耳」の特徴点との間の距離(長さ)を右側の距離(以下、「右距離」という)R1とする。顔向き検出部120は、基準線Cの位置と、左距離L1および右距離R1のそれぞれが表す長さを、ユーザーの顔が正面を向いている状態を表す初期状態とする。   More specifically, as shown in FIG. 4A, the face direction detection unit 120 represents the positions of the left and right “ears” when the user's face is facing the front. A distance (length) between two feature points is calculated, and a straight line (hereinafter referred to as “reference line C”) is formed at a position that is half the length between the two feature points, that is, at the center position. ”). Then, as shown in FIG. 4A, the face direction detection unit 120 determines the distance (length) between the reference line C and the feature point of the “ear” on the left side of the user on the left side (hereinafter, L1 is referred to as “left distance”, and the distance (length) between the reference line C and the “ear” feature point on the right side of the user is referred to as right distance (hereinafter referred to as “right distance”) R1. The face direction detection unit 120 sets the position indicated by the reference line C and the length represented by each of the left distance L1 and the right distance R1 as an initial state representing a state where the user's face is facing the front.

その後、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「瞳」と左右の「耳」とのそれぞれの位置を表す特徴点に基づいて、左距離L1および右距離R1のそれぞれの長さを逐次算出する。そして、顔向き検出部120は、図4(a)に示したように、左距離L1が表す長さと右距離R1が表す長さとが同じ長さ、または予め定めた短い長さの差以内である場合に、ユーザーの顔は正面を向いている状態であると判定する。また、顔向き検出部120は、図4(b)に示したように、左距離L1が表す長さの方が、右距離R1が表す長さよりも長い場合には、ユーザーの顔は右方向を向いている状態であると判定する。また、顔向き検出部120は、図4(c)に示したように、左距離L1が表す長さの方が、右距離R1が表す長さよりも短い場合には、ユーザーの顔は左方向を向いている状態であると判定する。   Thereafter, the face orientation detection unit 120 is based on feature points representing the positions of the left and right “pupils” and the left and right “ears” included in the respective face recognition information sequentially input from the face recognition unit 110. The lengths of the left distance L1 and the right distance R1 are sequentially calculated. Then, as shown in FIG. 4A, the face direction detection unit 120 has a length that is represented by the left distance L1 and a length that is represented by the right distance R1 within the same length or within a predetermined short length difference. In some cases, it is determined that the user's face is facing the front. Further, as shown in FIG. 4B, the face orientation detection unit 120 determines that the user's face is in the right direction when the length represented by the left distance L1 is longer than the length represented by the right distance R1. Is determined to be in a state of facing. Further, as shown in FIG. 4C, the face direction detection unit 120 determines that the user's face is leftward when the length represented by the left distance L1 is shorter than the length represented by the right distance R1. Is determined to be in a state of facing.

そして、顔向き検出部120は、左距離L1が表す長さと右距離R1が表す長さとの関係から、ユーザーの顔が右方向または左方向を向いている状態における角度θ、すなわち、ユーザーの顔の左右への傾きを検出する(図4(b)および図4(c)参照)。顔向き検出部120は、検出したユーザーの顔の左右への傾き(方向および角度θ)を表す情報を、ユーザーの顔の向きを表す顔向き情報として逐次出力する。   Then, the face orientation detection unit 120 determines, from the relationship between the length represented by the left distance L1 and the length represented by the right distance R1, the angle θ when the user's face is facing right or left, that is, the user's face. Is detected (see FIG. 4B and FIG. 4C). The face orientation detection unit 120 sequentially outputs information representing the detected left and right tilt (direction and angle θ) of the user's face as face orientation information representing the user's face orientation.

このような方法によって顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に基づいて、ユーザーの顔の基準線Cからのずれを逐次検出し、検出した結果を顔向き情報として逐次出力する。   By such a method, the face direction detection unit 120 sequentially detects the deviation of the user's face from the reference line C based on the respective face recognition information sequentially input from the face recognition unit 110, and the detected result is detected as a face. Output sequentially as direction information.

なお、顔向き検出部120によるユーザーの顔の向きの検出方法は、図4に示した方法に限定されるものではなく、顔認識部110から逐次入力されるそれぞれの顔認識情報を用いた種々の方法が考えられる。図5〜図7は、本発明の実施形態の操作装置10に備えた顔向き検出部120における顔の向きの検出処理(顔向き検出処理)の別の一例を説明する図である。なお、図5〜図7に示した一例においても、顔向き検出部120が、ユーザーの顔の向きが左右に傾いている状態を検出する場合を示している。   Note that the method of detecting the orientation of the user's face by the face orientation detection unit 120 is not limited to the method shown in FIG. 4, and various methods using each face recognition information sequentially input from the face recognition unit 110. Can be considered. 5-7 is a figure explaining another example of the face direction detection process (face direction detection process) in the face direction detection part 120 with which the operating device 10 of embodiment of this invention was equipped. Note that the example shown in FIGS. 5 to 7 also illustrates a case where the face orientation detection unit 120 detects a state in which the orientation of the user's face is tilted left and right.

図5に示した一例は、顔向き検出部120が、顔認識部110から入力されたユーザーの顔認識情報に含まれる左右の「瞳」の位置を表す特徴点を用いて、ユーザーの顔が中心からずれている割合を判定することによって、ユーザーの顔の左右への傾きを検出する方法である。   In the example illustrated in FIG. 5, the face orientation detection unit 120 uses the feature points representing the positions of the left and right “pupils” included in the user face recognition information input from the face recognition unit 110 to detect the face of the user. This is a method of detecting the right / left inclination of the user's face by determining the ratio of deviation from the center.

より具体的には、顔向き検出部120は、図5(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、左右の「瞳」の位置を表す2つの特徴点の間の長さを算出し、図4(a)に示した一例と同様に、算出した2つの特徴点間の長さの中心の位置に基準線Cを仮定する。そして、顔向き検出部120は、図5(a)に示したように、算出した2つの特徴点間の長さの中心の位置に、中心点M1を設定する。顔向き検出部120は、中心点M1の位置が基準線C上にある状態を、ユーザーの顔が正面を向いている状態を表す初期状態とする。   More specifically, as shown in FIG. 5A, the face direction detection unit 120 represents the positions of the left and right “pupils” when the user's face is facing the front. The length between the two feature points is calculated, and the reference line C is assumed at the center position of the length between the two calculated feature points, as in the example shown in FIG. Then, as shown in FIG. 5A, the face orientation detection unit 120 sets the center point M1 at the center position of the calculated length between the two feature points. The face direction detection unit 120 sets a state where the position of the center point M1 is on the reference line C as an initial state indicating a state where the user's face is facing the front.

その後、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「瞳」のそれぞれの位置を表す特徴点に基づいて、中心点M1の位置を逐次算出する。そして、顔向き検出部120は、図5(a)に示したように、中心点M1の位置が基準線C上にある、または予め定めた小さい角度以内のずれである場合に、ユーザーの顔は正面を向いている状態であると判定する。また、顔向き検出部120は、図5(b)に示したように、中心点M1の位置が、基準線Cから右側に予め定めた角度θ以上ずれていることを検出した場合には、ユーザーの顔は右方向を向いている状態であると判定する。また、顔向き検出部120は、図5(c)に示したように、中心点M1の位置が、基準線Cから左側に予め定めた角度θ以上ずれていることを検出した場合には、ユーザーの顔は左方向を向いている状態であると判定する。そして、顔向き検出部120は、判定したユーザーの顔の向きと、検出した角度θとの情報を、ユーザーの顔の向きを表す顔向き情報として逐次出力する。   Thereafter, the face direction detection unit 120 sequentially determines the position of the center point M1 based on the feature points representing the positions of the left and right “pupils” included in the respective face recognition information sequentially input from the face recognition unit 110. calculate. Then, as shown in FIG. 5A, the face orientation detection unit 120 detects the user's face when the position of the center point M1 is on the reference line C or is within a predetermined small angle. Is determined to be facing the front. Further, as shown in FIG. 5B, when the face direction detection unit 120 detects that the position of the center point M1 is shifted from the reference line C to the right by a predetermined angle θ or more, It is determined that the user's face is facing right. Further, as shown in FIG. 5C, the face direction detection unit 120 detects that the position of the center point M1 is shifted from the reference line C to the left by a predetermined angle θ or more. It is determined that the user's face is facing left. Then, the face orientation detection unit 120 sequentially outputs information on the determined user face orientation and the detected angle θ as face orientation information representing the user face orientation.

このように、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に基づいて、ユーザーの顔の基準線Cからの中心点M1のずれを逐次検出することによっても、ユーザーの顔の左右への傾きを検出することができる。   As described above, the face direction detection unit 120 also detects the deviation of the center point M1 from the reference line C of the user's face based on each face recognition information sequentially input from the face recognition unit 110. , The tilt of the user's face to the left and right can be detected.

また、図6に示した一例は、顔向き検出部120が、顔認識部110から入力されたユーザーの顔認識情報に含まれるいずれか一方の「瞳」の位置を表す特徴点を用いて、ユーザーの顔が中心からずれている割合を判定することによって、ユーザーの顔の左右への傾きを検出する方法である。図6に示した一例では、左側の「瞳」の位置を表す特徴点に基づいてユーザーの顔の左右への傾きを検出する場合の一例を示している。   In the example illustrated in FIG. 6, the face direction detection unit 120 uses a feature point that represents the position of one of the “pupils” included in the user's face recognition information input from the face recognition unit 110. This is a method of detecting the inclination of the user's face to the left and right by determining the ratio of the user's face being off-center. In the example illustrated in FIG. 6, an example in which the left / right inclination of the user's face is detected based on the feature point indicating the position of the left “pupil” is illustrated.

より具体的には、顔向き検出部120は、図6(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、図4(a)に示した一例と同様に、左右の「耳」の位置を表す2つの特徴点に基づいて基準線Cを仮定する。そして、顔向き検出部120は、図6(a)に示したように、基準線Cと左側の「瞳」の特徴点との間の長さを左距離L2とする。顔向き検出部120は、左距離L2が表す長さを、ユーザーの顔が正面を向いている状態を表す初期状態とする。   More specifically, as shown in FIG. 6A, the face direction detection unit 120 is an example shown in FIG. 4A when the user's face is facing the front. Similarly, a reference line C is assumed based on two feature points representing the positions of the left and right “ears”. Then, as shown in FIG. 6A, the face direction detection unit 120 sets the length between the reference line C and the left “pupil” feature point as the left distance L2. The face direction detection unit 120 sets the length represented by the left distance L2 as an initial state representing a state where the user's face is facing the front.

その後、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左側の「瞳」の位置を表す特徴点に基づいて、左距離L2(以下、初期状態の左距離L2と区別するため、「左距離L21」という)の長さを逐次算出する。そして、顔向き検出部120は、図6(a)に示したように、算出した左距離L21が表す長さが、初期状態の左距離L2が表す長さと同じ長さ、または予め定めた短い長さの差以内である場合に、ユーザーの顔は正面を向いている状態であると判定する。また、顔向き検出部120は、図6(b)に示したように、左距離L21が表す長さの方が、左距離L2が表す長さよりも短い場合には、ユーザーの顔は右方向を向いている状態であると判定する。また、顔向き検出部120は、図6(c)に示したように、左距離L21が表す長さの方が、左距離L2が表す長さよりも長い場合には、ユーザーの顔は左方向を向いている状態であると判定する。   Thereafter, the face direction detection unit 120 determines the left distance L2 (hereinafter referred to as the initial state) based on the feature point representing the position of the left “pupil” included in each face recognition information sequentially input from the face recognition unit 110. In order to distinguish from the left distance L2, the length of “left distance L21”) is sequentially calculated. Then, as shown in FIG. 6A, the face direction detection unit 120 has the calculated length represented by the left distance L21 equal to the length represented by the initial left distance L2 or a predetermined short length. If it is within the difference in length, it is determined that the user's face is facing the front. Further, as shown in FIG. 6B, the face direction detection unit 120 determines that the user's face is in the right direction when the length represented by the left distance L21 is shorter than the length represented by the left distance L2. Is determined to be in a state of facing. In addition, as shown in FIG. 6C, the face orientation detection unit 120 determines that the user's face is leftward when the length represented by the left distance L21 is longer than the length represented by the left distance L2. Is determined to be in a state of facing.

そして、顔向き検出部120は、左距離L21が表す長さから、ユーザーの顔が右方向または左方向を向いている状態における角度θ(ユーザーの顔の左右への傾き)を検出する(図6(b)および図6(c)参照)。顔向き検出部120は、図4(a)に示した一例と同様に、ユーザーの顔の向きと角度θとの情報を顔向き情報として逐次出力する。   Then, the face direction detection unit 120 detects an angle θ (the inclination of the user's face to the left and right) in a state where the user's face is facing rightward or leftward from the length represented by the left distance L21 (FIG. 6 (b) and FIG. 6 (c)). As in the example shown in FIG. 4A, the face orientation detection unit 120 sequentially outputs information on the user's face orientation and angle θ as face orientation information.

このように、顔向き検出部120は、顔認識部110から逐次入力される顔認識情報に、対となる特徴点の情報が含まれていない場合でも、いずれか一方の特徴点の情報に基づいて、ユーザーの顔の基準線Cからのずれを逐次検出することによっても、ユーザーの顔の左右への傾きを検出することができる。なお、図6に示した一例では、左側の「瞳」の位置を表す特徴点に基づいてユーザーの顔の左右への傾きを検出する場合について説明したが、同様に考えることによって、右側の「瞳」の位置を表す特徴点に基づいても、ユーザーの顔の左右への傾きを検出することができる。   As described above, the face direction detection unit 120 is based on the information of one of the feature points even when the face recognition information sequentially input from the face recognition unit 110 does not include the information of the paired feature points. Thus, it is possible to detect the inclination of the user's face to the left and right by sequentially detecting the deviation of the user's face from the reference line C. In the example illustrated in FIG. 6, the case where the left / right inclination of the user's face is detected based on the feature point indicating the position of the left “pupil” has been described. The tilt of the user's face to the left and right can also be detected based on the feature points representing the position of the “pupil”.

また、図7に示した一例は、例えば、ユーザーがサングラスなどのメガネを着用していることによって、顔認識部110から入力されたユーザーの顔認識情報に左右の「瞳」の位置を表す特徴点が含まれていない場合に、顔向き検出部120がユーザーの顔の左右への傾きを検出する一例である。図7に示した一例では、顔向き検出部120が、顔認識情報に含まれる左右の「口角」の位置を表す特徴点を用いて、ユーザーの顔が中心からずれている割合を判定し、ユーザーの顔の左右への傾きを検出する。   In the example shown in FIG. 7, for example, when the user wears glasses such as sunglasses, the left and right “pupil” positions are represented in the face recognition information of the user input from the face recognition unit 110. This is an example in which the face direction detection unit 120 detects the left / right inclination of the user's face when no point is included. In the example illustrated in FIG. 7, the face direction detection unit 120 determines the ratio of the user's face being deviated from the center using the feature points representing the positions of the left and right “mouth corners” included in the face recognition information. Detect the left / right tilt of the user's face.

より具体的には、顔向き検出部120は、図7(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、左右の「口角」の位置を表す2つの特徴点の間の長さを算出することによって、図4(a)に示した一例と同様に、算出した2つの特徴点間の長さの中心の位置に基準線Cを仮定する。そして、顔向き検出部120は、図7(a)に示したように、算出した2つの特徴点間の長さの中心の位置に、図5(a)に示した一例と同様に、中心点M2を設定する。顔向き検出部120は、中心点M2の位置が基準線C上にある状態を、ユーザーの顔が正面を向いている状態を表す初期状態とする。   More specifically, as shown in FIG. 7A, the face orientation detection unit 120 represents the positions of the left and right “mouth corners” when the user's face is facing the front. By calculating the length between the two feature points, a reference line C is assumed at the center position of the length between the two calculated feature points, as in the example shown in FIG. Then, as shown in FIG. 7A, the face direction detection unit 120 is centered at the center position of the length between the calculated two feature points, as in the example shown in FIG. Set point M2. The face direction detection unit 120 sets a state where the position of the center point M2 is on the reference line C as an initial state indicating a state where the user's face is facing the front.

その後、顔向き検出部120は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「口角」のそれぞれの位置を表す特徴点に基づいて、中心点M2の位置を逐次算出する。そして、顔向き検出部120は、図7(a)に示したように、中心点M2の位置が基準線C上にある、または予め定めた小さい角度以内のずれである場合に、ユーザーの顔は正面を向いている状態であると判定する。また、顔向き検出部120は、図7(b)に示したように、中心点M2の位置が、基準線Cから右側に予め定めた角度θ以上ずれていることを検出した場合には、ユーザーの顔は右方向を向いている状態であると判定する。また、顔向き検出部120は、図7(c)に示したように、中心点M2の位置が、基準線Cから左側に予め定めた角度θ以上ずれていることを検出した場合には、ユーザーの顔は左方向を向いている状態であると判定する。そして、顔向き検出部120は、図5に示した一例と同様に、判定したユーザーの顔の向きと、検出した角度θとの情報を、ユーザーの顔の向きを表す顔向き情報として逐次出力する。   After that, the face orientation detection unit 120 sequentially determines the position of the center point M2 based on the feature points representing the positions of the left and right “mouth corners” included in the respective face recognition information sequentially input from the face recognition unit 110. calculate. Then, as shown in FIG. 7A, the face direction detection unit 120 detects the user's face when the position of the center point M2 is on the reference line C or is within a predetermined small angle. Is determined to be facing the front. Further, as shown in FIG. 7B, when the face direction detection unit 120 detects that the position of the center point M2 is shifted from the reference line C to the right by a predetermined angle θ or more, It is determined that the user's face is facing right. Further, as shown in FIG. 7C, the face direction detection unit 120 detects that the position of the center point M2 is shifted from the reference line C to the left by a predetermined angle θ or more. It is determined that the user's face is facing left. Then, as in the example illustrated in FIG. 5, the face orientation detection unit 120 sequentially outputs information on the determined user face orientation and the detected angle θ as face orientation information representing the user face orientation. To do.

このように、顔向き検出部120は、顔認識部110から逐次入力される顔認識情報に、いずれかの特徴点の情報が含まれていない場合でも、それぞれの顔認識情報に含まれる他の特徴点の情報に基づいて、ユーザーの顔の基準線Cからの中心点M2のずれを逐次検出することによっても、ユーザーの顔の左右への傾きを検出することができる。なお、図7に示した一例では、左右の「口角」の位置を表す特徴点を用いてユーザーの顔の左右への傾きを検出する場合について説明したが、例えば、ユーザーが着用しているメガネのレンズの端部の位置や形状を表す特徴点の情報が顔認識部110から入力された顔認識情報に含まれている場合には、メガネの特徴点を用いてユーザーの顔の左右への傾きを検出することもできる。例えば、顔向き検出部120は、メガネの形状の特徴点から2つのレンズの間の中心点を算出し、基準線と算出した中心点との位置関係から、ユーザーの顔が中心からずれている割合を判定して、ユーザーの顔の左右への傾きを検出することもできる。   As described above, even when the face recognition information sequentially input from the face recognition unit 110 does not include any feature point information, the face direction detection unit 120 is not included in the other face recognition information. By sequentially detecting the shift of the center point M2 from the reference line C of the user's face based on the feature point information, the tilt of the user's face to the left and right can also be detected. In the example shown in FIG. 7, the case where the left / right inclination of the user's face is detected using the feature points representing the positions of the left and right “mouth corners” has been described. For example, the glasses worn by the user If the face recognition information input from the face recognition unit 110 includes feature point information representing the position and shape of the lens edge, the feature points of the glasses are used to move the user's face to the left and right. Tilt can also be detected. For example, the face orientation detection unit 120 calculates the center point between two lenses from the feature point of the shape of the glasses, and the user's face is shifted from the center based on the positional relationship between the reference line and the calculated center point. It is also possible to detect the inclination of the user's face to the left and right by determining the ratio.

このように、顔向き検出部120は、顔認識部110から入力される顔認識情報に含まれる特徴点の情報に基づいて、ユーザーの顔の向きの変化を検出する。なお、顔向き検出部120における顔向き検出処理について、いくつかの例を説明したが、顔向き検出部120によるユーザーの顔の向きの検出方法は、図4〜図7に示した方法に限定されるものではない。例えば、顔向き検出部120が、顔認識部110から入力される顔認識情報に含まれる他の特徴点の情報を用いる場合でも、同様に考えることによって顔向き検出処理を行うことができる。また、例えば、顔向き検出部120が、顔認識部110から入力される顔認識情報に含まれる顔の領域の特徴点を用いて、撮影した画像に含まれるユーザーの顔の領域の大きさや顔の領域の分布を判定することによっても、顔向き検出処理を行うことができる。また、例えば、図4〜図7に示した方法の一例とは異なる、既存の技術を用いて顔向き検出処理を行ってもよい。   As described above, the face orientation detection unit 120 detects a change in the orientation of the user's face based on the feature point information included in the face recognition information input from the face recognition unit 110. Note that some examples of the face direction detection processing in the face direction detection unit 120 have been described, but the method of detecting the face direction of the user by the face direction detection unit 120 is limited to the method illustrated in FIGS. Is not to be done. For example, even when the face orientation detection unit 120 uses information on other feature points included in the face recognition information input from the face recognition unit 110, the face orientation detection process can be performed by considering the same. In addition, for example, the face orientation detection unit 120 uses the feature points of the face area included in the face recognition information input from the face recognition unit 110, and the size and face of the user's face area included in the captured image. The face orientation detection process can also be performed by determining the distribution of the area. Further, for example, the face orientation detection process may be performed using an existing technique different from the example of the method illustrated in FIGS.

また、図4〜図7では、ユーザーの顔の向きが左右に傾いている状態を検出する場合について説明したが、ユーザーの顔の向きが上下に傾いている状態を検出する場合であっても、顔向き検出部120による顔向き検出処理において適切な特徴点を用いることによって、同様に考えることができる。例えば、左右の「瞳」の位置を表す特徴点を結ぶ水平方向の直線を基準線として仮定し、この基準線と「鼻の頂点」の位置を表す特徴点との間の距離(長さ)に基づいて、ユーザーの顔の上下への傾きを検出することができる。従って、顔向き検出部120によるユーザーの顔の向きの上下への傾きを検出する方法の一例に関しての説明は省略する。   4 to 7 describe the case of detecting the state in which the user's face is tilted to the left and right, but even when detecting the state in which the user's face is tilted up and down. The same can be considered by using appropriate feature points in the face orientation detection processing by the face orientation detector 120. For example, assuming a horizontal straight line connecting feature points representing the positions of the left and right “pupils” as a reference line, the distance (length) between the reference line and the feature point representing the position of the “nose apex” Based on the above, it is possible to detect the vertical inclination of the user's face. Therefore, description of an example of a method for detecting the upward / downward tilt of the user's face direction by the face direction detection unit 120 is omitted.

続いて、顔距離検出部130における顔距離検出処理について説明する。顔距離検出部130は、顔認識部110から入力されたユーザーの顔認識情報に基づいて、ユーザーの顔が正面を向いている現在の位置を初期状態とし、ユーザーの顔が初期状態から前後(手前、奥)方向に移動している割合によって、ユーザーの顔のカメラとの距離の変化を検出する。   Next, the face distance detection process in the face distance detection unit 130 will be described. Based on the user's face recognition information input from the face recognition unit 110, the face distance detection unit 130 sets the current position where the user's face is facing the front as an initial state, and the user's face before and after the initial state ( A change in the distance of the user's face from the camera is detected based on the rate of movement in the front and back directions.

図8は、本発明の実施形態の操作装置10に備えた顔距離検出部130における顔の距離の検出処理(顔距離検出処理)の一例を説明する図である。図8には、顔距離検出部130が、ユーザーの顔とカメラとの距離とが離れる方向に変化している状態を検出する場合の一例を示している。より具体的には、顔距離検出部130は、図8に示したように、顔認識部110から入力されたユーザーの顔認識情報に含まれる顔の領域の特徴点を用いて、撮影した画像に含まれるユーザーの顔の大きさを判定することによって、カメラの位置とユーザーの顔の位置との距離を検出する。   FIG. 8 is a diagram illustrating an example of face distance detection processing (face distance detection processing) in the face distance detection unit 130 included in the operation device 10 according to the embodiment of the present invention. FIG. 8 illustrates an example in which the face distance detection unit 130 detects a state in which the distance between the user's face and the camera changes in a direction away from the camera. More specifically, as shown in FIG. 8, the face distance detection unit 130 uses a facial region feature point included in the user face recognition information input from the face recognition unit 110 to capture a captured image. The distance between the position of the camera and the position of the user's face is detected by determining the size of the user's face included in.

さらに具体的には、顔距離検出部130は、図8(a)に示したように、撮像部200が撮影した画像の画角内にユーザーの顔全体が含まれている状態であるときに、顔の領域の特徴点から、顔の大きさを表す画素数(ピクセル数)を算出する。そして顔距離検出部130は、ここで算出した顔の大きさを表すピクセル数を初期状態(初期値)とする。なお、顔距離検出部130は、初期値とした顔の領域のピクセル数に基づいて、一般的に用いられている公知の顔検出の技術を用いて、例えば、カメラとユーザーの顔との実際の距離など、距離の絶対値を推定してもよい。   More specifically, as shown in FIG. 8A, the face distance detection unit 130 is in a state where the entire face of the user is included within the angle of view of the image captured by the imaging unit 200. The number of pixels (number of pixels) representing the size of the face is calculated from the feature points of the face area. The face distance detection unit 130 sets the number of pixels representing the size of the face calculated here as an initial state (initial value). The face distance detection unit 130 uses, for example, a well-known face detection technique that is generally used based on the number of pixels in the face area as an initial value, for example, the actual distance between the camera and the user's face. The absolute value of the distance, such as the distance, may be estimated.

その後、顔距離検出部130は、顔認識部110から逐次入力される顔認識情報に含まれる顔の領域の特徴点に基づいて、撮像部200によって今回撮影された画像の画角内に含まれるユーザーの顔の大きさを表すピクセル数を逐次算出する。そして、顔距離検出部130は、初期値としたピクセル数と今回算出したピクセル数との差に基づいて、ユーザーの顔の位置とカメラの位置との距離の変化を判定する。例えば、図8(b)に示したように、今回算出したユーザーの顔の大きさのピクセル数が、初期値とした顔の大きさのピクセル数よりも少なくなっている場合、顔距離検出部130は、ユーザーの顔とカメラとの距離とが離れる方向に変化していると判定する。なお、顔距離検出部130が距離の絶対値を推定している場合、初期値としたピクセル数と今回算出したピクセル数との差に基づいて、カメラとユーザーの顔との距離の変化量を相対的な距離として推定してもよい。顔距離検出部130は、検出したカメラの位置とユーザーの顔の位置との距離を表す情報を、ユーザーの顔の距離を表す顔距離情報として逐次出力する。   After that, the face distance detection unit 130 is included within the angle of view of the image captured this time by the imaging unit 200 based on the feature points of the face area included in the face recognition information sequentially input from the face recognition unit 110. The number of pixels representing the size of the user's face is sequentially calculated. Then, the face distance detection unit 130 determines a change in the distance between the user's face position and the camera position based on the difference between the initial number of pixels and the currently calculated number of pixels. For example, as shown in FIG. 8B, when the number of pixels of the user's face size calculated this time is smaller than the number of pixels of the face size set as the initial value, the face distance detection unit 130 determines that the distance between the user's face and the camera has changed in a direction away from the camera. When the face distance detection unit 130 estimates the absolute value of the distance, the amount of change in the distance between the camera and the user's face is calculated based on the difference between the initial number of pixels and the number of pixels calculated this time. It may be estimated as a relative distance. The face distance detection unit 130 sequentially outputs information indicating the distance between the detected camera position and the user's face position as face distance information indicating the distance of the user's face.

このような方法によって顔距離検出部130は、顔認識部110から逐次入力される顔認識情報に基づいて、カメラの位置とユーザーの顔の位置との距離の変化を逐次検出し、検出した結果を顔距離情報として逐次出力する。   By such a method, the face distance detection unit 130 sequentially detects a change in the distance between the camera position and the user's face position based on the face recognition information sequentially input from the face recognition unit 110, and the detection result Are sequentially output as face distance information.

なお、顔距離検出部130によるユーザーの顔のカメラとの距離の変化の検出方法は、図8に示した方法に限定されるものではなく、顔認識部110から逐次入力されるそれぞれの顔認識情報を用いた種々の方法が考えられる。図9〜図11は、本発明の実施形態の操作装置10に備えた顔距離検出部130におけるユーザーの顔のカメラとの距離の変化の検出処理(顔距離検出処理)の別の一例を説明する図である。なお、図9〜図11に示した一例においても、顔距離検出部130が、ユーザーの顔とカメラとの距離とが離れる方向に変化している状態を検出する場合を示している。なお、図9〜図11には、撮像部200が撮影した画像の画角を併せて示している。   Note that the method of detecting a change in the distance of the user's face from the camera by the face distance detection unit 130 is not limited to the method shown in FIG. 8, and each face recognition sequentially input from the face recognition unit 110. Various methods using information can be considered. 9 to 11 illustrate another example of detection processing (face distance detection processing) of a change in distance from the camera of the user's face in the face distance detection unit 130 provided in the operation device 10 according to the embodiment of the present invention. It is a figure to do. 9 to 11 also show a case where the face distance detection unit 130 detects a state in which the distance between the user's face and the camera changes in the direction away from the camera. 9 to 11 also show the angle of view of the image captured by the imaging unit 200. FIG.

図9に示した一例は、顔距離検出部130が、顔認識部110から入力されたユーザーの顔認識情報に含まれる左右の「瞳」の位置を表す特徴点を用いて左右の「瞳」の距離を判定し、ユーザーの顔のカメラとの距離の変化を検出する方法である。   In the example illustrated in FIG. 9, the face distance detection unit 130 uses the feature points representing the positions of the left and right “pupils” included in the user's face recognition information input from the face recognition unit 110, and uses the left and right “pupils”. This is a method for detecting a change in the distance between the user's face and the camera.

より具体的には、顔距離検出部130は、図9(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、左右の「瞳」の位置を表す2つの特徴点の間の距離(長さ)を算出し、算出した2つの特徴点間の距離(長さ)を距離D1とする。そして、顔距離検出部130は、距離D1を初期値とする。なお、顔距離検出部130は、初期値とした距離D1に基づいて、カメラとユーザーの顔との距離の絶対値を推定してもよい。   More specifically, as shown in FIG. 9A, the face distance detection unit 130 represents the positions of the left and right “pupils” when the user's face is facing the front. The distance (length) between the two feature points is calculated, and the calculated distance (length) between the two feature points is defined as a distance D1. Then, the face distance detection unit 130 sets the distance D1 as an initial value. The face distance detection unit 130 may estimate the absolute value of the distance between the camera and the user's face based on the initial distance D1.

その後、顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「瞳」のそれぞれの位置を表す特徴点に基づいて、左右の「瞳」の間の距離D1(以下、初期値とした距離D1と区別するため、「距離D11」という)を逐次算出する。そして、顔距離検出部130は、初期値とした距離D1と今回算出した距離D11との差に基づいて、ユーザーの顔の位置とカメラの位置との距離の変化を判定する。例えば、図9(b)に示したように、今回算出したユーザーの顔の距離D11が、初期値としたユーザーの顔の距離D1よりも短くなっている場合、顔距離検出部130は、ユーザーの顔とカメラとの距離とが離れる方向に変化していると判定する。そして、顔距離検出部130は、判定したカメラの位置とユーザーの顔の位置との距離を表す情報を、ユーザーの顔の距離を表す顔距離情報として逐次出力する。   Thereafter, the face distance detection unit 130 determines between the left and right “pupils” based on the feature points representing the positions of the left and right “pupils” included in the respective face recognition information sequentially input from the face recognition unit 110. Distance D1 (hereinafter, referred to as “distance D11” to be distinguished from the initial distance D1). Then, the face distance detection unit 130 determines a change in the distance between the user's face position and the camera position based on the difference between the initial distance D1 and the currently calculated distance D11. For example, as shown in FIG. 9B, when the user's face distance D11 calculated this time is shorter than the user's face distance D1 as the initial value, the face distance detection unit 130 It is determined that the distance between the face of the camera and the camera changes in a direction away from the camera. Then, the face distance detection unit 130 sequentially outputs information representing the distance between the determined camera position and the user's face position as face distance information representing the user's face distance.

このように、顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左右の「瞳」の位置を表す特徴点に基づいて、2つの特徴点の間の距離(長さ)を算出することによっても、カメラとユーザーの顔との距離を検出することができる。   In this way, the face distance detection unit 130 is based on the feature points representing the positions of the left and right “pupils” included in the respective face recognition information sequentially input from the face recognition unit 110. The distance between the camera and the user's face can also be detected by calculating the distance (length).

また、図10に示した一例は、顔距離検出部130が、顔認識部110から入力されたユーザーの顔認識情報に含まれるいずれか一方の「目」の「目頭」および「目尻」の位置を表す特徴点を用いて「目」の大きさを判定し、ユーザーの顔のカメラとの距離の変化を検出する方法である。図10には、左側の「目」の特徴点に基づいてユーザーの顔のカメラとの距離の変化を検出する場合の一例を示している。   Further, in the example shown in FIG. 10, the face distance detection unit 130 positions the “eye” and “eye corner” of one of the “eyes” included in the user's face recognition information input from the face recognition unit 110. This is a method of determining the size of the “eye” using the feature point representing the change of the distance between the user's face and the camera. FIG. 10 shows an example in which a change in the distance of the user's face from the camera is detected based on the left “eye” feature point.

より具体的には、顔距離検出部130は、図10(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、図9に示した一例と同様に、左側の「目」の「目頭」および「目尻」の位置を表す2つの特徴点の間の距離(長さ)、つまり、左側の「目」の大きさを表す距離D2を算出して初期値とする。なお、顔距離検出部130は、図9に示した一例と同様に、初期値とした距離D2に基づいて、カメラとユーザーの顔との距離の絶対値を推定してもよい。   More specifically, as shown in FIG. 10A, the face distance detection unit 130 is the same as the example shown in FIG. 9 when the user's face is facing the front. The distance (length) between the two feature points representing the positions of the “eye” and “eye corner” of the left “eye”, that is, the distance D2 representing the size of the “eye” on the left side is calculated and initialized. Value. The face distance detection unit 130 may estimate the absolute value of the distance between the camera and the user's face based on the distance D2 as an initial value, as in the example shown in FIG.

その後、顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれる左側の「目」の「目頭」および「目尻」の位置を表す特徴点に基づいて、左側の「目」の大きさを表す距離D2(以下、初期値とした距離D2と区別するため、「距離D21」という)を逐次算出する。そして、顔距離検出部130は、初期値とした距離D2と今回算出した距離D21との差に基づいて、ユーザーの顔の位置とカメラの位置との距離の変化を判定する。例えば、図10(b)に示したように、今回算出したユーザーの左側の「目」の大きさを表す距離D21が、初期値としたユーザーの左側の「目」の大きさを表す距離D2よりも短くなっている場合、顔距離検出部130は、ユーザーの顔とカメラとの距離とが離れる方向に変化していると判定する。そして、顔距離検出部130は、図9に示した一例と同様に、判定したカメラの位置とユーザーの顔の位置との距離を表す情報を顔距離情報として逐次出力する。   After that, the face distance detection unit 130 determines the left side based on the feature points representing the positions of the “eye” and “eye corner” of the left “eye” included in each face recognition information sequentially input from the face recognition unit 110. A distance D2 representing the size of the “eyes” (hereinafter, referred to as “distance D21” to be distinguished from the distance D2 as an initial value) is sequentially calculated. Then, the face distance detection unit 130 determines a change in the distance between the user's face position and the camera position based on the difference between the initial distance D2 and the currently calculated distance D21. For example, as shown in FIG. 10B, the distance D21 representing the size of the “eye” on the left side of the user calculated this time is the distance D2 representing the size of the “eye” on the left side of the user as an initial value. If the distance is shorter, the face distance detection unit 130 determines that the distance between the user's face and the camera is changing in a direction away from the camera. Similarly to the example shown in FIG. 9, the face distance detection unit 130 sequentially outputs information representing the distance between the determined camera position and the user's face position as face distance information.

このように、顔距離検出部130は、顔認識部110から逐次入力される顔認識情報に、左右の「瞳」の間の距離(長さ)を算出するために対となる2つの「瞳」の位置を表す特徴点の情報が含まれていない場合でも、いずれか一方の「目」の大きさを表す特徴点の情報に基づいて、カメラとユーザーの顔との距離を検出することができる。なお、図10に示した一例では、左側の「目」の大きさを算出するための特徴点に基づいてカメラとユーザーの顔との距離を検出する場合について説明したが、同様に考えることによって、右側の「目」の大きさを算出するための特徴点に基づいても、カメラとユーザーの顔との距離を検出することができる。   As described above, the face distance detection unit 130 adds two “pupils” that are paired to calculate the distance (length) between the left and right “pupils” in the face recognition information sequentially input from the face recognition unit 110. The distance between the camera and the user's face can be detected based on the feature point information indicating the size of one of the eyes even when the feature point information indicating the position of it can. In the example illustrated in FIG. 10, the case where the distance between the camera and the user's face is detected based on the feature point for calculating the size of the “eye” on the left side has been described. The distance between the camera and the user's face can also be detected based on the feature point for calculating the size of the right “eye”.

また、図11に示した一例は、例えば、ユーザーがサングラスなどのメガネを着用していることによって、顔認識部110から入力されたユーザーの顔認識情報に、左右の「瞳」の間の距離(長さ)を算出するための左右の「瞳」の位置を表す特徴点や、いずれか一方の「目」の大きさを算出するための「目頭」および「目尻」の位置を表す特徴点が含まれていない場合において、顔距離検出部130がユーザーの顔のカメラとの距離の変化を検出する方法を示している。図11では、顔距離検出部130が、顔認識情報に含まれるメガネのレンズの「端部」の位置を表す特徴点を用いて、ユーザーの顔のカメラとの距離の変化を検出する場合の一例を示している。   Further, in the example shown in FIG. 11, for example, when the user wears glasses such as sunglasses, the distance between the left and right “pupils” is added to the user's face recognition information input from the face recognition unit 110. Feature points that represent the positions of the left and right "pupils" for calculating (length), and feature points that represent the positions of the "eyes" and "eyes" for calculating the size of one of the "eyes" This shows a method in which the face distance detection unit 130 detects a change in the distance of the user's face from the camera when no is included. In FIG. 11, when the face distance detection unit 130 detects a change in the distance of the user's face from the camera using the feature point indicating the position of the “end” of the eyeglass lens included in the face recognition information. An example is shown.

より具体的には、顔距離検出部130は、図11(a)に示したように、ユーザーの顔の向きが正面を向いている状態であるときに、メガネの左右のレンズの「端部」の位置を表す2つの特徴点の間の距離(長さ)を算出して初期値とする。図11(a)には、メガネの左側のレンズの左側の「端部」の位置を表す特徴点と、メガネの右側のレンズの右側の「端部」の位置を表す特徴点との間の距離D3を算出して初期値とする場合の一例を示している。なお、顔距離検出部130は、図9に示した一例と同様に、初期値とした距離D3に基づいて、カメラとユーザーの顔との距離の絶対値を推定してもよい。   More specifically, as shown in FIG. 11A, the face distance detection unit 130 has the “end portions” of the left and right lenses of the glasses when the user's face is facing the front. The distance (length) between the two feature points representing the position “is calculated and set as an initial value. In FIG. 11A, there is a feature point that represents the position of the left “end” of the lens on the left side of the glasses and the feature point that represents the position of the “end” on the right side of the right lens of the glasses. An example in which the distance D3 is calculated and set as an initial value is shown. The face distance detection unit 130 may estimate the absolute value of the distance between the camera and the user's face based on the initial distance D3 as in the example illustrated in FIG.

その後、顔距離検出部130は、顔認識部110から逐次入力されるそれぞれの顔認識情報に含まれるメガネの左側のレンズの左側の「端部」の位置を表す特徴点と、メガネの右側のレンズの右側の「端部」の位置を表す特徴点とに基づいて、2つの特徴点間の距離D3(以下、初期値とした距離D3と区別するため、「距離D31」という)を逐次算出する。そして、顔距離検出部130は、初期値とした距離D3と今回算出した距離D31との差に基づいて、ユーザーの顔の位置とカメラの位置との距離の変化を判定する。例えば、図11(b)に示したように、今回算出したユーザーが着用しているメガネの両端の距離を表す距離D31が、初期値としたメガネの両端の距離を表す距離D3よりも短くなっている場合、顔距離検出部130は、ユーザーの顔とカメラとの距離とが離れる方向に変化していると判定する。そして、顔距離検出部130は、図9に示した一例と同様に、判定したカメラの位置とユーザーの顔の位置との距離を表す情報を顔距離情報として逐次出力する。   After that, the face distance detection unit 130 includes a feature point indicating the position of the “edge” on the left side of the left lens of the glasses included in each face recognition information sequentially input from the face recognition unit 110, and the right side of the glasses. A distance D3 between the two feature points (hereinafter, referred to as “distance D31” in order to distinguish from the initial distance D3) based on the feature point representing the position of the “end” on the right side of the lens. To do. Then, the face distance detection unit 130 determines a change in the distance between the user's face position and the camera position based on the difference between the initial distance D3 and the currently calculated distance D31. For example, as shown in FIG. 11B, the distance D31 that represents the distance between the ends of the glasses worn by the user calculated this time is shorter than the distance D3 that represents the distance between the ends of the glasses as the initial value. The face distance detection unit 130 determines that the distance between the user's face and the camera has changed in a direction away from the camera. Similarly to the example shown in FIG. 9, the face distance detection unit 130 sequentially outputs information representing the distance between the determined camera position and the user's face position as face distance information.

このように、顔距離検出部130は、顔認識部110から逐次入力される顔認識情報に、ユーザーの顔の部位の特徴点の情報が含まれていない場合でも、それぞれの顔認識情報に含まれる他の特徴点の情報に基づいて、カメラとユーザーの顔との距離を検出することができる。なお、図11に示した一例では、ユーザーが着用しているメガネの左側のレンズの左側の「端部」の位置を表す特徴点と、メガネの右側のレンズの右側の「端部」の位置を表す特徴点とから距離D3を算出する場合について説明したが、例えば、ユーザーが着用しているメガネのいずれか一方のレンズの「端部」の位置を表す2つの特徴点の間の距離を算出することもできる。例えば、図11(a)に示したように、メガネの左側のレンズの左右の「端部」の位置を表す2つの特徴点の間の距離D4を算出することによっても同様に、カメラとユーザーの顔との距離を検出することができる。また、例えば、左右の「口角」の位置を表す2つの特徴点の間の距離を算出することによっても同様に、カメラとユーザーの顔との距離を検出することができる。   As described above, the face distance detection unit 130 includes the face recognition information sequentially input from the face recognition unit 110 even when the feature point information of the part of the user's face is not included. The distance between the camera and the user's face can be detected based on the information of other feature points. In the example shown in FIG. 11, the feature point indicating the position of the “end” on the left side of the lens on the left side of the glasses worn by the user, and the position of the “end” on the right side of the lens on the right side of the glasses However, for example, the distance between two feature points representing the position of the “end” of one of the lenses of the glasses worn by the user is described. It can also be calculated. For example, as shown in FIG. 11 (a), the camera and the user can be similarly calculated by calculating the distance D4 between two feature points representing the positions of the left and right “ends” of the left lens of the glasses. It is possible to detect the distance from the face. Further, for example, the distance between the camera and the user's face can also be detected by calculating the distance between two feature points representing the positions of the left and right “mouth corners”.

このように、顔距離検出部130は、顔認識部110から入力される顔認識情報に含まれる特徴点の情報に基づいて、カメラの位置とユーザーの顔の位置との距離の変化を検出する。なお、顔距離検出部130における顔距離検出処理について、いくつかの例を説明したが、顔距離検出部130によるカメラとユーザーの顔との距離の検出方法は、図8〜図11に示した方法に限定されるものではない。例えば、顔距離検出部130が、顔認識部110から入力される顔認識情報に含まれる他の特徴点の情報を用いる場合でも、同様に考えることによって顔距離検出処理を行うことができる。また、例えば、図8〜図11に示した方法の一例とは異なる、既存の技術を用いて顔距離検出処理を行ってもよい。   In this manner, the face distance detection unit 130 detects a change in the distance between the camera position and the user face position based on the feature point information included in the face recognition information input from the face recognition unit 110. . Although some examples of the face distance detection processing in the face distance detection unit 130 have been described, the method of detecting the distance between the camera and the user's face by the face distance detection unit 130 is shown in FIGS. The method is not limited. For example, even when the face distance detection unit 130 uses information on other feature points included in the face recognition information input from the face recognition unit 110, the face distance detection process can be performed by considering the same. Further, for example, the face distance detection process may be performed using an existing technique different from the example of the method illustrated in FIGS.

また、図8〜図11では、ユーザーの顔とカメラとの距離とが離れる方向に変化している状態を検出する場合について説明したが、ユーザーの顔とカメラとの距離とが近づく方向に変化している状態を検出する場合であっても、顔距離検出部130による顔距離検出処理において適切な特徴点を用いることによって、同様に考えることができる。従って、顔距離検出部130によるユーザーの顔とカメラとの距離とが近づく方向に変化している状態を検出する方法の一例に関しての説明は省略する。   8 to 11, the case has been described in which the state in which the distance between the user's face and the camera changes is detected. However, the distance between the user's face and the camera changes in a direction closer to the camera. Even in the case of detecting a state in which the user is performing, it can be considered in the same way by using an appropriate feature point in the face distance detection processing by the face distance detection unit 130. Therefore, description of an example of a method of detecting a state in which the distance between the user's face and the camera is changing in the direction in which the face distance detection unit 130 approaches is omitted.

<具体例>
次に、操作装置10によって操作対象機器を操作する具体例について説明する。以下の説明においては、操作装置10が車両に搭載され、操作装置10のユーザーが車両を運転しているときに、車両に搭載された操作対象機器に対する操作を行う場合の一例について説明する。ここで、車両に搭載された操作対象機器は、例えば、エアコンなどの空調機器と、ラジオなどのオーディオ機器とであり、エアコンの設定温度の変更、ラジオのチャンネルの変更、およびラジオの音量の変更を、操作装置10によって行う場合について説明する。なお、以下の説明においては、操作装置10がユーザーの顔の初期状態をすでに認識しているものとして説明を行う。
<Specific example>
Next, a specific example in which the operation target device is operated by the operation device 10 will be described. In the following description, an example will be described in which the operation device 10 is mounted on a vehicle and a user of the operation device 10 operates the operation target device mounted on the vehicle when the vehicle is driven. Here, the operation target devices mounted on the vehicle are, for example, an air conditioner such as an air conditioner and an audio device such as a radio, and change of the set temperature of the air conditioner, change of the radio channel, and change of the volume of the radio. A case where the operation is performed by the operation device 10 will be described. In the following description, it is assumed that the controller device 10 has already recognized the initial state of the user's face.

図12は、本発明の実施形態の操作装置10と検出する(ユーザーの)顔との距離の一例を模式的に示した図である。なお、図12には、操作装置10内の撮像部200に備えたカメラ201の位置とユーザーの顔の位置との距離を示している。以下の説明においては、カメラ201の位置とユーザーの顔の位置との距離の値が、図12(a)に示したような距離D1(例えば、40[cm])であり、ユーザーの顔が正面を向いている状態を初期状態とする。そして、カメラ201の位置とユーザーの顔の位置との距離の値が、図12(b)に示したような距離D11(例えば、35[cm])であるときに、ユーザーの顔の向きの変化によってエアコンの設定温度を変更する操作を行うものとする。また、カメラ201の位置とユーザーの顔の位置との距離の値が、図12(c)に示したような距離D12(例えば、30[cm])であるときに、ユーザーの顔の向きの変化によってラジオのチャンネルを変更する操作を行うものとする。また、カメラ201の位置とユーザーの顔の位置との距離の値が、図12(d)に示したような距離D13(例えば、25[cm])であるときに、ユーザーの顔の向きの変化によってラジオの音量を変更する操作を行うものとする。   FIG. 12 is a diagram schematically illustrating an example of the distance between the operation device 10 according to the embodiment of the present invention and the detected (user's) face. Note that FIG. 12 shows the distance between the position of the camera 201 provided in the imaging unit 200 in the controller device 10 and the position of the user's face. In the following description, the value of the distance between the position of the camera 201 and the position of the user's face is a distance D1 (for example, 40 [cm]) as shown in FIG. Let the state which is facing the front be an initial state. When the distance value between the position of the camera 201 and the position of the user's face is a distance D11 (for example, 35 [cm]) as shown in FIG. It is assumed that an operation for changing the set temperature of the air conditioner is performed according to the change. Further, when the distance between the position of the camera 201 and the position of the user's face is a distance D12 (for example, 30 [cm]) as shown in FIG. An operation to change the radio channel according to the change is performed. Further, when the distance between the position of the camera 201 and the position of the user's face is a distance D13 (for example, 25 [cm]) as shown in FIG. It is assumed that an operation for changing the volume of the radio according to the change is performed.

図13は、本発明の実施形態の操作装置10が検出した(ユーザーの)顔の状態によって操作する内容(操作情報)の一例を示した図である。図13に示した操作情報は、例えば、記憶部300に記憶されている。   FIG. 13 is a diagram illustrating an example of contents (operation information) to be operated according to the (user's) face state detected by the operation device 10 according to the embodiment of the present invention. The operation information illustrated in FIG. 13 is stored in the storage unit 300, for example.

図13(a)には、操作装置10が検出したカメラ201とユーザーの顔との距離の値、およびユーザーの顔の向きをそれぞれ変数(パラメータ)として、それぞれのパラメータの組み合わせで、車両に搭載された操作対象機器を操作する場合の操作情報の一例を示している。より具体的には、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D11(図12(b)参照)であることを表す顔距離情報を出力し、顔向き検出部120が、ユーザーの顔の向きが左方向であることを表す顔向き情報出力した場合、操作装置10は、図13(a)に示した操作情報に基づいて、設定温度を1[℃]下げる操作を表す操作信号を、通信部400を介してエアコンに伝送する。同様に、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D11であることを表す顔距離情報を出力し、顔向き検出部120が、ユーザーの顔の向きが右方向であることを表す顔向き情報出力した場合、操作装置10は、図13(a)に示した操作情報に基づいて、設定温度を1[℃]上げる操作を表す操作信号をエアコンに伝送する。また、例えば、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D12(図12(c)参照)であることを表す顔距離情報を出力し、顔向き検出部120が、ユーザーの顔の向きが左方向であることを表す顔向き情報出力した場合、操作装置10は、図13(a)に示した操作情報に基づいて、ラジオのチャンネルを1つ前に設定する操作を表す操作信号を、通信部400を介してラジオに伝送する。また、例えば、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D13(図12(d)参照)であることを表す顔距離情報を出力し、顔向き検出部120が、ユーザーの顔の向きが右方向であることを表す顔向き情報出力した場合、操作装置10は、図13(a)に示した操作情報に基づいて、ラジオの音量を1つ上げる操作を表す操作信号を、通信部400を介してラジオに伝送する。   In FIG. 13A, the value of the distance between the camera 201 and the user's face detected by the operation device 10 and the orientation of the user's face are set as variables (parameters), and the combination of the respective parameters is mounted on the vehicle. 3 shows an example of operation information when operating the designated operation target device. More specifically, the face distance detection unit 130 outputs face distance information indicating that the position of the camera 201 and the position of the user's face is the distance D11 (see FIG. 12B), and detects the face orientation. When the unit 120 outputs face direction information indicating that the user's face direction is the left direction, the controller device 10 sets the set temperature to 1 [° C.] based on the operation information illustrated in FIG. An operation signal representing the operation to be lowered is transmitted to the air conditioner via the communication unit 400. Similarly, the face distance detection unit 130 outputs face distance information indicating that the position of the camera 201 and the position of the user's face is the distance D11, and the face direction detection unit 120 determines that the user's face direction is right. When the face orientation information indicating the direction is output, the controller device 10 transmits an operation signal indicating an operation for raising the set temperature by 1 [° C.] to the air conditioner based on the operation information illustrated in FIG. . For example, the face distance detection unit 130 outputs face distance information indicating that the position of the camera 201 and the position of the user's face is a distance D12 (see FIG. 12C), and the face direction detection unit 120 However, when the face orientation information indicating that the face orientation of the user is the left direction is output, the controller device 10 sets the radio channel to the previous one based on the operation information shown in FIG. An operation signal representing an operation to be performed is transmitted to the radio via the communication unit 400. For example, the face distance detection unit 130 outputs face distance information indicating that the position of the camera 201 and the position of the user's face is a distance D13 (see FIG. 12D), and the face direction detection unit 120 However, when face orientation information indicating that the user's face orientation is rightward is output, the controller device 10 performs an operation to increase the radio volume by one based on the operation information shown in FIG. An operation signal to be represented is transmitted to the radio via the communication unit 400.

また、図13(b)には、操作装置10が検出したカメラ201とユーザーの顔との距離の値、およびユーザーの顔の向きと角度θの値の組み合わせをそれぞれ(パラメータ)として、それぞれのパラメータの組み合わせで、車両に搭載された操作対象機器を操作する場合の操作情報の一例を示している。なお、図13(b)には、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置とが距離D13(図12(d)参照)であることを表す顔距離情報を出力した場合のみの操作情報の一例を示している。そして、図13(b)では、図13(a)においてカメラ201の位置とユーザーの顔の位置とが距離D13である場合に操作した、ラジオの音量を変更する操作の一例を示している。より具体的には、顔向き検出部120が、ユーザーの顔の向きが左方向であり、その角度θの値が20度であることを表す顔向き情報出力した場合、操作装置10は、図13(b)に示した操作情報に基づいて、ラジオの音量を2つ下げる操作を表す操作信号を、通信部400を介してラジオに伝送する。同様に、顔向き検出部120が、ユーザーの顔の向きが左方向であり、その角度θの値が10度であることを表す顔向き情報出力した場合、操作装置10は、図13(b)に示した操作情報に基づいて、ラジオの音量を1つ下げる操作を表す操作信号をラジオに伝送する。また、例えば、顔向き検出部120が、ユーザーの顔の向きが右方向であり、その角度θの値が20度であることを表す顔向き情報出力した場合、操作装置10は、図13(b)に示した操作情報に基づいて、ラジオの音量を2つ上げる操作を表す操作信号を、通信部400を介してラジオに伝送する。   In FIG. 13B, each of the combinations of the value of the distance between the camera 201 and the user's face detected by the controller 10 and the value of the user's face direction and angle θ is set as a parameter. An example of operation information in the case of operating an operation target device mounted on a vehicle with a combination of parameters is shown. In FIG. 13B, the face distance detection unit 130 outputs face distance information indicating that the position of the camera 201 and the position of the user's face are the distance D13 (see FIG. 12D). An example of operation information only in the case is shown. FIG. 13B shows an example of an operation for changing the volume of the radio performed when the position of the camera 201 and the position of the user's face in FIG. 13A are the distance D13. More specifically, when the face direction detection unit 120 outputs face direction information indicating that the user's face direction is the left direction and the value of the angle θ is 20 degrees, the controller device 10 Based on the operation information shown in 13 (b), an operation signal representing an operation of lowering the volume of the radio by two is transmitted to the radio via the communication unit 400. Similarly, when the face orientation detection unit 120 outputs face orientation information indicating that the orientation of the user's face is the left direction and the value of the angle θ is 10 degrees, the controller device 10 displays FIG. ), An operation signal representing an operation of lowering the volume of the radio by one is transmitted to the radio. Further, for example, when the face orientation detection unit 120 outputs face orientation information indicating that the orientation of the user's face is the right direction and the value of the angle θ is 20 degrees, the controller device 10 displays FIG. Based on the operation information shown in b), an operation signal representing an operation to increase the volume of the radio by two is transmitted to the radio via the communication unit 400.

なお、上述した操作装置10による操作対象機器の操作の一例では、ユーザーの顔の左右方向の向きをパラメータとしてそれぞれの操作対象機器を操作する場合を示している。しかし、ユーザーの顔の上下方向の向き(角度θの値を合わせてもよい)をパラメータとしたり、左右方向と上下方向の組み合わせ(角度θの値を合わせてもよい)をパラメータとしたりした場合でも、同様に操作情報を考えることができる。   In addition, in the example of the operation of the operation target device by the operation device 10 described above, a case where each operation target device is operated using the horizontal direction of the user's face as a parameter is illustrated. However, when the vertical direction of the user's face (the value of angle θ may be adjusted) is used as a parameter, or the combination of the horizontal direction and the vertical direction (the value of angle θ may be adjusted) is used as a parameter However, operation information can be considered similarly.

また、上述した操作装置10による操作対象機器の操作の一例では、顔向き検出部120が検出したユーザーの顔の角度θの値、および顔距離検出部130が検出したカメラ201の位置とユーザーの顔の位置との距離の値が、それぞれの1つの値である場合について説明した。しかし、ユーザーが顔の位置を常に同じ位置にすることができるとは限らない。このため、操作装置10では、ユーザーの顔の角度θの値や、カメラ201の位置とユーザーの顔の位置との距離の値に予め定めた範囲を持たせ、この範囲内の値を同じ値であるものとして処理する構成にしてもよい。   Further, in an example of the operation of the operation target device by the operation device 10 described above, the value of the user's face angle θ detected by the face direction detection unit 120, the position of the camera 201 detected by the face distance detection unit 130, and the user's The case where the value of the distance from the face position is one value has been described. However, the user cannot always make the face position the same. Therefore, the controller device 10 has a predetermined range for the value of the angle θ of the user's face and the value of the distance between the position of the camera 201 and the position of the user's face, and values in this range are set to the same value. You may make it the structure processed as that.

また、操作装置10は、検出したユーザーの顔の位置が、どの操作対象機器に対する操作を行うことができるかを表す情報を、例えば、音声などによってユーザーに通知してもよい。例えば、図13(a)に示した一例において、ユーザーの顔の向きが正面(初期状態)であるときに、カメラ201の位置とユーザーの顔の位置との距離が距離D1(初期状態)ではないことを検出した場合、検出した距離の値に応じて、操作対象機器の名称を音声で通知するようにしてもよい。また、操作装置10から操作信号が伝送された操作対象機器が、伝送された操作信号に応じて設定を変更したことや、変更した設定の内容を表す情報を、例えば、音声などによってユーザーに通知してもよい。   In addition, the controller device 10 may notify the user of information indicating which operation target device the detected position of the user's face can perform, for example, by voice. For example, in the example shown in FIG. 13A, when the orientation of the user's face is the front (initial state), the distance between the position of the camera 201 and the position of the user's face is the distance D1 (initial state). When the absence is detected, the name of the operation target device may be notified by voice according to the detected distance value. In addition, the operation target device to which the operation signal is transmitted from the operation device 10 changes the setting according to the transmitted operation signal, and notifies the user of information indicating the content of the changed setting, for example, by voice. May be.

上記に述べたとおり、本発明を実施するための形態によれば、操作装置10内の撮像部200に備えたカメラ201が短い所定の時間間隔で撮影したそれぞれの画像から、ユーザーの顔の状態やその変化を検出する。より具体的には、顔距離検出部130が、カメラ201の位置とユーザーの顔の位置との距離を検出し、顔向き検出部120が、ユーザーの顔の向きと角度θとを検出する。そして、本発明を実施するための形態によれば、検出したユーザーの顔の状態に応じた操作信号を、操作対象機器に伝送する。これにより、ユーザーは、操作対象の機器を直接操作することができない状況においても、視線を外すことなく顔の位置や向きを変えることによって、機器に対する所望の操作を行うことができる。   As described above, according to the embodiment for carrying out the present invention, the state of the user's face is obtained from each image captured by the camera 201 included in the imaging unit 200 in the controller device 10 at a short predetermined time interval. And detect changes. More specifically, the face distance detection unit 130 detects the distance between the position of the camera 201 and the position of the user's face, and the face direction detection unit 120 detects the direction of the user's face and the angle θ. And according to the form for implementing this invention, the operation signal according to the detected state of the user's face is transmitted to the operation target device. Thus, even in a situation where the user cannot directly operate the operation target device, the user can perform a desired operation on the device by changing the position and orientation of the face without removing the line of sight.

なお、本発明を実施するための形態では、カメラ201によってユーザーの顔が正面を向いている状態を撮影することができるものとして説明した。しかし、例えば、車両に設置されるカメラ201の位置によっては、カメラ201とユーザーの顔の実際の位置関係から、カメラ201がユーザーの顔を正面から撮影することができず、ユーザーの顔が正面を向いている状態を撮影して初期状態とすることができない場合も考えられる。この場合、操作装置10は、初期状態とするユーザーの顔が正面を向いている状態を、カメラ201が設置されている位置に応じて補正する。   In the embodiment for carrying out the present invention, it has been described that the camera 201 can shoot a state where the user's face is facing the front. However, for example, depending on the position of the camera 201 installed in the vehicle, the camera 201 cannot capture the user's face from the front because the actual positional relationship between the camera 201 and the user's face, and the user's face is the front It is also conceivable that the initial state cannot be obtained by photographing the state facing the camera. In this case, the controller device 10 corrects the state in which the user's face, which is the initial state, is facing the front according to the position where the camera 201 is installed.

より具体的には、図14(a)に示したように、車両に設置されるカメラ201が、ユーザーの顔を正面から撮影することができる位置に設置されている場合には、ユーザーの顔が正面を向いている状態を初期状態とすることができる。しかしながら、図14(b)に示したように、カメラ201が車両の運転席を正面から撮影する位置に設置されていないなど、カメラ201がユーザーの顔を正面から撮影することができない位置に設置されている場合には、ユーザーの顔が正面を向いている状態を初期状態とすることができない。そこで、顔向き検出部120および顔距離検出部130は、例えば、カメラ201とユーザーの顔の実際の位置関係が図14(b)に示したような状態である場合、ユーザーの顔が少し左方向に傾いている状態の角度を、ユーザーの顔が正面を向いている初期状態の顔の角度とするように補正する。そして、顔向き検出部120および顔距離検出部130は、補正した初期状態を基準として、例えば、上述した方法で顔向き検出処理および顔距離検出処理を行う。これにより、操作装置10は、カメラ201がユーザーの顔を正面から撮影することができない場合でも、ユーザーの顔の向きの変化や、カメラの位置とユーザーの顔の位置との距離の変化を検出して、検出したユーザーの顔の状態に応じた操作信号を操作対象機器に伝送することができる。なお、ユーザーの顔の向きの補正は、一般的に用いられている、公知の顔検出および顔認識の技術を用いて行うことができるため、詳細な説明は省略する。   More specifically, as shown in FIG. 14A, when the camera 201 installed in the vehicle is installed at a position where the user's face can be photographed from the front, the user's face The state in which is facing the front can be the initial state. However, as shown in FIG. 14 (b), the camera 201 is not installed at a position where the driver's seat of the vehicle is photographed from the front, and the camera 201 cannot be photographed from the front. In the case where the user's face is facing the front, the initial state cannot be set. Therefore, the face direction detection unit 120 and the face distance detection unit 130 may be slightly left when the actual positional relationship between the camera 201 and the user's face is as shown in FIG. The angle of the state tilted in the direction is corrected to be the angle of the face in the initial state where the user's face is facing the front. Then, the face direction detection unit 120 and the face distance detection unit 130 perform the face direction detection process and the face distance detection process by the above-described method, for example, with the corrected initial state as a reference. Accordingly, the controller device 10 detects a change in the orientation of the user's face and a change in the distance between the camera position and the user's face even when the camera 201 cannot capture the user's face from the front. Thus, an operation signal corresponding to the detected face state of the user can be transmitted to the operation target device. The correction of the orientation of the user's face can be performed using a commonly used technique of face detection and face recognition, and thus detailed description thereof is omitted.

また、本発明を実施するための形態では、操作装置10が操作信号を伝送する操作対象機器が、車両に搭載されたエアコンなどの空調機器と、ラジオなどのオーディオ機器とである場合について説明した。しかし、操作装置10が操作信号を伝送する操作対象機器は、本発明を実施するための形態において示した機器に限定されるものではない。例えば、車両に搭載されるナビゲーション機器などの走行案内機器や、ラジオ以外のオーディオ機器などであってもよい。また、操作装置10が操作信号を伝送する操作対象機器は、車両に搭載される機器に限定されるものではなく、例えば、テレビなどの家庭内に設置される機器であっても同様に、本発明の考え方を適用することができる。   Further, in the embodiment for carrying out the present invention, a case has been described in which the operation target device to which the operation device 10 transmits an operation signal is an air conditioner such as an air conditioner mounted on a vehicle and an audio device such as a radio. . However, the operation target device to which the operation device 10 transmits the operation signal is not limited to the device shown in the embodiment for carrying out the present invention. For example, it may be a travel guidance device such as a navigation device mounted on a vehicle, or an audio device other than a radio. Further, the operation target device to which the operation device 10 transmits the operation signal is not limited to the device mounted on the vehicle. For example, even if the device is installed in a home such as a television set, The idea of the invention can be applied.

なお、例えば、図1に示した制御部100や、制御部100に備えた構成要素(例えば、顔認識部110、顔向き検出部120、および顔距離検出部130)による処理を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本実施形態の操作装置10に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   For example, the control unit 100 illustrated in FIG. 1 and the components provided in the control unit 100 (for example, the face recognition unit 110, the face orientation detection unit 120, and the face distance detection unit 130) are implemented. The program is recorded on a computer-readable recording medium, the program recorded on the recording medium is read into a computer system, and executed, thereby performing the above-described various processes related to the operating device 10 of the present embodiment. May be. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic) in a computer system which becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what implement | achieves the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

また、本実施形態の操作装置10の一部(例えば、図1に示した制御部100や、制御部100に備えた顔認識部110、顔向き検出部120、顔距離検出部130などの構成要素)、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。また、本実施形態の操作装置10内の各構成要素は個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   In addition, a part of the operation device 10 according to the present embodiment (for example, the configuration of the control unit 100 illustrated in FIG. Elements) or all of them may be realized as an integrated circuit such as an LSI (Large Scale Integration). In addition, each component in the operating device 10 of the present embodiment may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。   The embodiment of the present invention has been described above with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes various modifications within the scope of the present invention. It is.

なお、本発明は、次の態様でも実施することができる。
第1の態様の操作装置は、操作対象の機器における操作を制御する操作装置であって、顔を含んだ画像を撮影する撮像部と、前記画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識部と、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出部と、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出部と、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御部と、を備える。
In addition, this invention can be implemented also in the following aspect.
An operating device according to a first aspect is an operating device that controls an operation on a device to be operated, an imaging unit that captures an image including a face, and the face included in the image is recognized and recognized. A face recognition unit that outputs information of feature points representing the position of the face part as face recognition information; and a face direction that detects the face direction based on the face recognition information and represents the detected face direction. A face direction detection unit that outputs information, a face distance detection unit that detects a distance between the imaging unit and the face based on the face recognition information, and outputs face distance information representing the detected distance; With reference to the operation information representing the operation content for the device predetermined according to the orientation of the face and the distance between the imaging unit and the face, based on the face orientation information and the face distance information, An operation signal indicating an operation on the corresponding device And a control unit for outputting to the device.

また、第2の態様によれば、上記第1の態様の操作装置において、前記顔向き検出部は、前記顔の向きが、予め定めた顔の向きの初期状態から変化したときの方向および角度の情報を前記顔向き情報として出力し、前記顔距離検出部は、前記撮像部と前記顔との間の距離が、予め定めた距離の初期状態から変化したときの距離の情報を前記顔距離情報として出力し、前記制御部は、前記顔向き情報に含まれる前記顔の方向および角度の組み合わせによって表される前記顔の向きの値と、前記顔距離情報に含まれる前記撮像部と前記顔との間の距離によって表される前記顔の距離の値との組み合わせに応じて予め定められた操作量を表す前記操作信号を、対応する前記機器に出力してもよい。   Further, according to the second aspect, in the operating device according to the first aspect, the face direction detection unit is configured to determine a direction and an angle when the face direction changes from an initial state of a predetermined face direction. The face distance information is output as the face direction information, and the face distance detection unit outputs the distance information when the distance between the imaging unit and the face changes from an initial state of a predetermined distance. The information is output as information, and the control unit includes the face direction value represented by a combination of the face direction and angle included in the face direction information, and the imaging unit and the face included in the face distance information. The operation signal that represents a predetermined operation amount according to a combination with the value of the face distance represented by the distance between and the face may be output to the corresponding device.

また、第3の態様によれば、上記第2の態様の操作装置において、前記操作情報は、前記顔の距離の値ごとに、操作対象の異なる前記機器が予め定められており、前記制御部は、前記顔距離情報に含まれる前記顔の距離の値に対応する前記機器に、前記顔の向きの値に対応する前記操作量を表す前記操作信号を出力してもよい。   Further, according to a third aspect, in the operation device according to the second aspect, the operation information includes a predetermined device to be operated for each value of the face distance, and the control unit May output the operation signal representing the operation amount corresponding to the face orientation value to the device corresponding to the face distance value included in the face distance information.

また、第4の態様によれば、上記第2の態様または上記第3の態様の操作装置において、前記操作情報は、前記顔向き情報に含まれる前記顔の角度の値ごとに、同じ前記機器に対する前記操作量が予め定められており、前記制御部は、前記顔距離情報に含まれる前記顔の距離の値に対応する前記機器に、前記顔の角度の値に対応する前記操作量を表す前記操作信号を出力してもよい。   According to a fourth aspect, in the operation device according to the second aspect or the third aspect, the operation information is the same device for each value of the face angle included in the face orientation information. The operation amount is determined in advance, and the control unit represents the operation amount corresponding to the face angle value in the device corresponding to the face distance value included in the face distance information. The operation signal may be output.

また、第5の態様によれば、上記第2の態様から上記第4の態様のいずれか一態様の操作装置において、前記顔認識情報は、少なくとも一方の目の位置を表す特徴点の情報を含み、前記顔向き検出部は、前記目の位置を表す特徴点に基づいて、前記顔の向きを検出し、前記顔距離検出部は、前記目の位置を表す特徴点に基づいて、前記撮像部と前記顔との間の距離を検出してもよい。   According to the fifth aspect, in the operating device according to any one of the second aspect to the fourth aspect, the face recognition information includes information on a feature point representing at least one eye position. The face direction detection unit detects the face direction based on a feature point representing the eye position, and the face distance detection unit detects the imaging based on the feature point representing the eye position. You may detect the distance between a part and the said face.

また、第6の態様によれば、上記第2の態様から上記第5の態様のいずれか一態様の操作装置において、前記顔認識情報に目の位置を表す特徴点の情報を含まず、メガネの位置を表す特徴点の情報を含む場合、前記顔向き検出部は、前記メガネの位置を表す特徴点に基づいて、前記顔の向きを検出し、前記顔距離検出部は、前記メガネの位置を表す特徴点に基づいて、前記撮像部と前記顔との間の距離を検出してもよい。   According to the sixth aspect, in the operation device according to any one of the second aspect to the fifth aspect, the face recognition information does not include feature point information indicating an eye position, and glasses The face direction detection unit detects the face direction based on the feature point indicating the position of the glasses, and the face distance detection unit includes the position of the glasses. A distance between the imaging unit and the face may be detected based on a feature point representing.

また、第7の態様によれば、上記第2の態様から上記第6の態様のいずれか一態様の操作装置において、前記顔認識情報は、前記顔の領域を表す特徴点の情報を含み、前記顔向き検出部は、前記顔の領域を表す特徴点に基づいて、前記顔の向きを検出し、前記顔距離検出部は、前記顔の領域を表す特徴点に基づいて、前記撮像部と前記顔との間の距離を検出してもよい。   According to a seventh aspect, in the operating device according to any one of the second aspect to the sixth aspect, the face recognition information includes information on feature points representing the face area, The face direction detecting unit detects the face direction based on a feature point representing the face area, and the face distance detecting unit is based on the feature point representing the face area. You may detect the distance between the said faces.

また、第8の態様によれば、上記第2の態様から上記第7の態様のいずれか一態様の操作装置において、前記顔向き検出部および前記顔距離検出部は、前記撮像部が前記顔を撮影する際の角度に応じて、前記顔の向きを補正し、前記顔向き検出部は、補正した前記顔の向きに基づいて、前記顔の向きを検出し、前記顔距離検出部は、補正した前記顔の向きに基づいて、前記撮像部と前記顔との間の距離を検出してもよい。   According to an eighth aspect, in the operating device according to any one of the second aspect to the seventh aspect, the face direction detection unit and the face distance detection unit are configured such that the imaging unit is the face. The direction of the face is corrected according to the angle at the time of shooting, the face direction detection unit detects the direction of the face based on the corrected direction of the face, the face distance detection unit, A distance between the imaging unit and the face may be detected based on the corrected orientation of the face.

また、第9の態様によれば、上記第2の態様から上記第8の態様のいずれか一態様の操作装置において、前記機器と通信を行う通信部、をさらに備え、前記制御部は、前記通信部を介して、前記操作信号を対象の前記機器に出力してもよい。   According to a ninth aspect, in the operating device according to any one of the second aspect to the eighth aspect, the communication device further includes a communication unit that communicates with the device, The operation signal may be output to the target device via a communication unit.

また、第10の態様の操作方法は、操作対象の機器における操作を制御する操作装置における操作方法であって、撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、を含む。   An operation method according to a tenth aspect is an operation method in an operation device that controls an operation in a device to be operated, and recognizes the face included in an image including a face photographed by an imaging unit, and performs the recognition A face recognition step for outputting, as face recognition information, feature point information representing the position of the face part, and detecting the face direction based on the face recognition information and indicating the detected face direction A face orientation detecting step for outputting orientation information; a face distance detecting step for detecting a distance between the imaging unit and the face based on the face recognition information; and outputting face distance information representing the detected distance; , Referring to operation information representing operation details for the device determined in advance according to the orientation of the face and the distance between the imaging unit and the face, and based on the face orientation information and the face distance information The corresponding machine An operation signal representing the operation to, and a control step of outputting to the device.

また、第11の態様のプログラムは、操作対象の機器における操作を制御する操作装置のコンピュータに実行させるプログラムであって、撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、をコンピュータに実行させる。   The program of the eleventh aspect is a program that is executed by a computer of an operating device that controls an operation on a device to be operated, and recognizes the face included in an image including a face photographed by the imaging unit, A face recognition step of outputting information of feature points representing the position of the recognized part of the face as face recognition information; detecting the face direction based on the face recognition information; and detecting the detected face direction. A face direction detecting step for outputting face direction information to be expressed, and a face distance detection for detecting a distance between the imaging unit and the face based on the face recognition information and outputting face distance information representing the detected distance The operation information representing the operation content for the device determined in advance according to the step, the orientation of the face and the distance between the imaging unit and the face is referred to, and the face orientation information and the face distance information are Base There, the operation signal representing the operation to the corresponding said device to execute a control step of outputting to the device, to the computer.

また、第12の態様の記録媒体は、操作対象の機器における操作を制御する操作装置のコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。   The recording medium according to the twelfth aspect is a computer-readable recording medium that records a program to be executed by a computer of an operating device that controls an operation on a device to be operated, and includes a face taken by an imaging unit. A face recognition step of recognizing the face included in the image and outputting information of feature points representing the position of the recognized face portion as face recognition information; and detecting the face orientation based on the face recognition information A face direction detecting step for outputting face direction information representing the detected face direction; detecting a distance between the imaging unit and the face based on the face recognition information; and detecting the detected distance. A face distance detection step for outputting the face distance information to be expressed, and operation information representing the operation content for the device predetermined according to the orientation of the face and the distance between the imaging unit and the face. And a computer-readable recording of a program for causing a computer to execute a control step of outputting, to the device, an operation signal representing an operation for the corresponding device based on the face orientation information and the face distance information. It is a possible recording medium.

10・・・操作装置
100・・・制御部
110・・・顔認識部
120・・・顔向き検出部
130・・・顔距離検出部
200・・・撮像部
201・・・カメラ(撮像部)
300・・・記憶部
400・・・通信部
C・・・基準線
L1,L2,L21・・・左距離
R1・・・右距離
θ・・・角度
M1,M2・・・中心点
D1,D11,D2,D21,D3,D31,D4・・・距離
DESCRIPTION OF SYMBOLS 10 ... Operating device 100 ... Control part 110 ... Face recognition part 120 ... Face direction detection part 130 ... Face distance detection part 200 ... Imaging part 201 ... Camera (imaging part)
300 ... Storage unit 400 ... Communication unit C ... Reference lines L1, L2, L21 ... Left distance R1 ... Right distance θ ... Angles M1, M2 ... Center points D1, D11 , D2, D21, D3, D31, D4 ... distance

Claims (5)

操作対象の機器における操作を制御する操作装置であって、
顔を含んだ画像を撮影する撮像部と、
前記画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識部と、
前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出部と、
前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出部と、
前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御部と、
を備える操作装置。
An operation device that controls an operation on an operation target device,
An imaging unit that captures an image including a face;
A face recognition unit that recognizes the face included in the image and outputs information of feature points representing the position of the recognized face part as face recognition information;
A face orientation detection unit that detects the orientation of the face based on the face recognition information and outputs face orientation information representing the detected face orientation;
A face distance detection unit that detects a distance between the imaging unit and the face based on the face recognition information, and outputs face distance information representing the detected distance;
With reference to the operation information representing the operation content for the device predetermined according to the orientation of the face and the distance between the imaging unit and the face, based on the face orientation information and the face distance information, A control unit that outputs an operation signal representing an operation to the corresponding device to the device;
An operating device comprising:
前記顔向き検出部は、
前記顔の向きが、予め定めた顔の向きの初期状態から変化したときの方向および角度の情報を前記顔向き情報として出力し、
前記顔距離検出部は、
前記撮像部と前記顔との間の距離が、予め定めた距離の初期状態から変化したときの距離の情報を前記顔距離情報として出力し、
前記制御部は、
前記顔向き情報に含まれる前記顔の方向および角度の組み合わせによって表される前記顔の向きの値と、前記顔距離情報に含まれる前記撮像部と前記顔との間の距離によって表される前記顔の距離の値との組み合わせに応じて予め定められた操作量を表す前記操作信号を、対応する前記機器に出力する、
請求項1に記載の操作装置。
The face orientation detection unit
Outputs the direction and angle information as the face direction information when the face direction changes from the initial state of the predetermined face direction,
The face distance detector
Outputs the distance information when the distance between the imaging unit and the face changes from the initial state of a predetermined distance as the face distance information,
The controller is
The face direction value represented by a combination of the face direction and angle included in the face direction information, and the distance between the imaging unit and the face included in the face distance information. Outputting the operation signal representing a predetermined operation amount according to a combination with a face distance value to the corresponding device;
The operating device according to claim 1.
前記操作情報は、
前記顔の距離の値ごとに、操作対象の異なる前記機器が予め定められており、
前記制御部は、
前記顔距離情報に含まれる前記顔の距離の値に対応する前記機器に、前記顔の向きの値に対応する前記操作量を表す前記操作信号を出力する、
請求項2に記載の操作装置。
The operation information is
For each value of the face distance, the device to be operated is determined in advance,
The controller is
Outputting the operation signal representing the operation amount corresponding to the face orientation value to the device corresponding to the face distance value included in the face distance information;
The operating device according to claim 2.
前記操作情報は、
前記顔向き情報に含まれる前記顔の角度の値ごとに、同じ前記機器に対する前記操作量が予め定められており、
前記制御部は、
前記顔距離情報に含まれる前記顔の距離の値に対応する前記機器に、前記顔の角度の値に対応する前記操作量を表す前記操作信号を出力する、
請求項2または請求項3に記載の操作装置。
The operation information is
The operation amount for the same device is predetermined for each value of the face angle included in the face orientation information,
The controller is
Outputting the operation signal representing the operation amount corresponding to the face angle value to the device corresponding to the face distance value included in the face distance information;
The operating device according to claim 2 or 3.
操作対象の機器における操作を制御する操作装置における操作方法であって、
撮像部が撮影した顔を含んだ画像に含まれる前記顔を認識し、該認識した前記顔の部位の位置を表す特徴点の情報を顔認識情報として出力する顔認識ステップと、
前記顔認識情報に基づいて前記顔の向きを検出し、該検出した前記顔の向きを表す顔向き情報を出力する顔向き検出ステップと、
前記顔認識情報に基づいて前記撮像部と前記顔との間の距離を検出し、該検出した距離を表す顔距離情報を出力する顔距離検出ステップと、
前記顔の向きおよび前記撮像部と前記顔との間の距離に応じて予め定められた前記機器に対する操作内容を表す操作情報を参照し、前記顔向き情報と前記顔距離情報とに基づいて、対応する前記機器に対する操作を表す操作信号を、前記機器に出力する制御ステップと、
を含む操作方法。
An operation method in an operating device that controls an operation in an operation target device,
A face recognition step of recognizing the face included in the image including the face photographed by the imaging unit and outputting information of a feature point representing the position of the recognized face part as face recognition information;
Detecting a face orientation based on the face recognition information, and outputting face orientation information representing the detected face orientation; and
A face distance detection step of detecting a distance between the imaging unit and the face based on the face recognition information and outputting face distance information representing the detected distance;
With reference to the operation information representing the operation content for the device predetermined according to the orientation of the face and the distance between the imaging unit and the face, based on the face orientation information and the face distance information, A control step of outputting an operation signal representing an operation on the corresponding device to the device;
Operation method including.
JP2015039963A 2015-03-02 2015-03-02 Operation device and operation method Pending JP2016162164A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015039963A JP2016162164A (en) 2015-03-02 2015-03-02 Operation device and operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015039963A JP2016162164A (en) 2015-03-02 2015-03-02 Operation device and operation method

Publications (1)

Publication Number Publication Date
JP2016162164A true JP2016162164A (en) 2016-09-05

Family

ID=56845238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015039963A Pending JP2016162164A (en) 2015-03-02 2015-03-02 Operation device and operation method

Country Status (1)

Country Link
JP (1) JP2016162164A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112026790A (en) * 2020-09-03 2020-12-04 上海商汤临港智能科技有限公司 Control method and device for vehicle-mounted robot, vehicle, electronic device and medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112026790A (en) * 2020-09-03 2020-12-04 上海商汤临港智能科技有限公司 Control method and device for vehicle-mounted robot, vehicle, electronic device and medium

Similar Documents

Publication Publication Date Title
US20210035362A1 (en) Image processing method and apparatus, electronic device, and computer-readable storage medium
US7853051B2 (en) Recognizing apparatus and method, recording media, and program
JP6103948B2 (en) IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM
US11076144B2 (en) Method and apparatus for obtaining image, storage medium and electronic device
EP3062286B1 (en) Optical distortion compensation
EP3544286B1 (en) Focusing method, device and storage medium
WO2019128101A1 (en) Projection region-adaptive dynamic projection method, apparatus, and electronic device
US10956733B2 (en) Image processing apparatus and image processing method
WO2017032035A1 (en) Method and device for adjusting, and terminal
US11651518B2 (en) System for determining an expected field of view
JP2011166305A (en) Image processing apparatus and imaging apparatus
CN105554389A (en) Photographing method and photographing apparatus
US11080888B2 (en) Information processing device and information processing method
JPWO2011108043A1 (en) Image display device and image display method
WO2017187694A1 (en) Region of interest image generating device
CN110059590A (en) A kind of face living body verification method, device, mobile terminal and readable storage medium storing program for executing
JP2006040232A (en) Image processor and its method, imaging apparatus, program
KR102286006B1 (en) Following apparatus and following system
TWI737588B (en) System and method of capturing image
JP2016162164A (en) Operation device and operation method
JP2015023294A (en) Moving image processing apparatus and moving image processing method
US9830512B2 (en) Method and apparatus for tracking gaze
JP2009278185A (en) Image recognition apparatus
KR101576426B1 (en) Apparatus and Method for surveillance using fish eyes lens
JP2012227830A (en) Information processing equipment, processing method thereof, program, and imaging apparatus