JP2020144551A - Control device and control method - Google Patents

Control device and control method Download PDF

Info

Publication number
JP2020144551A
JP2020144551A JP2019039963A JP2019039963A JP2020144551A JP 2020144551 A JP2020144551 A JP 2020144551A JP 2019039963 A JP2019039963 A JP 2019039963A JP 2019039963 A JP2019039963 A JP 2019039963A JP 2020144551 A JP2020144551 A JP 2020144551A
Authority
JP
Japan
Prior art keywords
unit
gesture operation
recognition
control
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019039963A
Other languages
Japanese (ja)
Inventor
秀太 新穂
Shuta Arao
秀太 新穂
聖 武野
Kiyoshi Takeno
聖 武野
竜樹 久保
Tatsuki Kubo
竜樹 久保
春人 若野
Haruto Wakano
春人 若野
佐藤 信一
Shinichi Sato
信一 佐藤
順子 樋渡
Junko Hiwatari
順子 樋渡
敦 山脇
Atsushi Yamawaki
敦 山脇
真行 阪口
Masayuki Sakaguchi
真行 阪口
山口 達也
Tatsuya Yamaguchi
達也 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019039963A priority Critical patent/JP2020144551A/en
Publication of JP2020144551A publication Critical patent/JP2020144551A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

To improve recognition accuracy of a gesture operation.SOLUTION: A control device according to an embodiment comprises a detection unit, a setting unit, and a recognition unit. The detection unit detects a specific portion of a user from a captured image. The setting unit sets a recognition area on the basis of the specific portion detected by the detection unit. The recognition unit recognizes a gesture operation in the recognition area set by the setting unit.SELECTED DRAWING: Figure 2

Description

本発明は、制御装置および制御方法に関する。 The present invention relates to a control device and a control method.

従来、車両内の車載機器に対するジェスチャー操作を受け付ける制御装置がある。かかる制御装置では、予め登録された乗員からのジェスチャー操作のみを受け付けることで、意図しない乗員からのジェスチャー操作を禁止することができる(例えば、特許文献1参照)。 Conventionally, there is a control device that accepts a gesture operation for an in-vehicle device in a vehicle. In such a control device, it is possible to prohibit an unintended occupant's gesture operation by accepting only a gesture operation from a pre-registered occupant (see, for example, Patent Document 1).

特開2012−121386号公報Japanese Unexamined Patent Publication No. 2012-121386

しかしながら、従来技術では、ジェスチャー操作の認識精度を向上させる点において、改善の余地があった。 However, in the prior art, there is room for improvement in improving the recognition accuracy of the gesture operation.

本発明は、上記に鑑みてなされたものであって、ジェスチャー操作の認識精度を向上させることができる制御装置および制御方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a control device and a control method capable of improving the recognition accuracy of a gesture operation.

上述した課題を解決し、目的を達成するために、本発明に係る制御装置は、検出部と、設定部と、認識部とを備える。前記検出部は、撮像画像からユーザの特定部位を検出する。前記設定部は、前記検出部によって検出された前記特定部位に基づいて認識エリアを設定する。前記認識部は、前記設定部によって設定された認識エリア内のジェスチャー操作を認識する。 In order to solve the above-mentioned problems and achieve the object, the control device according to the present invention includes a detection unit, a setting unit, and a recognition unit. The detection unit detects a specific part of the user from the captured image. The setting unit sets a recognition area based on the specific portion detected by the detection unit. The recognition unit recognizes a gesture operation in the recognition area set by the setting unit.

本発明によれば、ジェスチャー操作の認識精度を向上させることができる。 According to the present invention, the recognition accuracy of the gesture operation can be improved.

図1Aは、制御装置の搭載例を示す図である。FIG. 1A is a diagram showing a mounting example of a control device. 図1Bは、制御方法の概要を示す図である。FIG. 1B is a diagram showing an outline of a control method. 図2は、制御装置のブロック図である。FIG. 2 is a block diagram of the control device. 図3は、コマンド情報の具体例を示す図である。FIG. 3 is a diagram showing a specific example of command information. 図4は、調停情報の具体例を示す図である。FIG. 4 is a diagram showing a specific example of arbitration information. 図5は、制御装置が実行する処理手順を示すフローチャートである。FIG. 5 is a flowchart showing a processing procedure executed by the control device.

以下、添付図面を参照して、本願の開示する制御装置および制御方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the control device and control method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments shown below.

まず、図1Aおよび図1Bを用いて、実施形態に係る制御装置および制御方法の概要について説明する。図1Aは、制御装置の搭載例を示す図である。図1Bは、制御方法の概要を示す図である。 First, the outline of the control device and the control method according to the embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram showing a mounting example of a control device. FIG. 1B is a diagram showing an outline of a control method.

図1Aに示すように、実施形態に係る制御装置1は、車両Cに搭載され、各種車載機器50のユーザインターフェースとして機能する。具体的には、制御装置1は、カメラ10によって撮像された撮像画像から乗員のジェスチャー操作を認識し、認識したジェスチャー操作に応じた制御コマンドを車載機器50へ出力する。 As shown in FIG. 1A, the control device 1 according to the embodiment is mounted on the vehicle C and functions as a user interface of various in-vehicle devices 50. Specifically, the control device 1 recognizes the occupant's gesture operation from the captured image captured by the camera 10, and outputs a control command corresponding to the recognized gesture operation to the in-vehicle device 50.

ところで、ジェスチャー操作を認識する制御装置においては、予め設定されたジェスチャー操作を認識し、認識したジェスチャー操作に対応付けられた制御コマンドを出力するのが一般的である。しかしながら、制御装置では、乗員が意図して行っていない動作をジェスチャー操作として認識する場合がある。また、制御装置では、撮像画像全体をジェスチャー操作の認識対象とすると、ジェスチャー操作を認識する際の処理負荷が増加するため好ましくない。 By the way, in a control device that recognizes a gesture operation, it is common to recognize a preset gesture operation and output a control command associated with the recognized gesture operation. However, the control device may recognize an operation not intended by the occupant as a gesture operation. Further, in the control device, if the entire captured image is the recognition target of the gesture operation, the processing load when recognizing the gesture operation increases, which is not preferable.

そこで、実施形態に係る制御方法では、乗員の特定部位を認識し、認識した特定部位に基づき、ジェスチャー操作の認識対象となる認識エリアを設定することとした。具体的には、実施形態に係る制御方法では、図1Bに示すように、撮像画像Iからユーザの特定部位を検出する(ステップS1)。 Therefore, in the control method according to the embodiment, it is decided to recognize a specific part of the occupant and set a recognition area to be recognized for the gesture operation based on the recognized specific part. Specifically, in the control method according to the embodiment, as shown in FIG. 1B, a specific part of the user is detected from the captured image I (step S1).

図1Bに示す例では、特定部位が、ユーザの顔の各パーツ(耳、目、口等)である場合を示す。なお、特定部位は、特に限定されないが、例えば、手を用いたジェスチャー操作を認識する場合、手以外の部位であることが好ましい。 In the example shown in FIG. 1B, a case where the specific part is each part (ears, eyes, mouth, etc.) of the user's face is shown. The specific part is not particularly limited, but for example, when recognizing a gesture operation using a hand, it is preferable that the part is a part other than the hand.

続いて、実施形態に係る制御方法では、検出した特定部位(パーツ)に基づいて認識エリアRaを設定する(ステップS2)。 Subsequently, in the control method according to the embodiment, the recognition area Ra is set based on the detected specific portion (part) (step S2).

図1Bに示すように、認識エリアRaは、ステップS1にて検出した各パーツの近傍に設定され、ジェスチャー操作の認識対象となるエリアである。言い換えれば、実施形態に係る制御方法では、撮像画像Iにおいて、認識エリアRa以外の領域をジェスチャー操作の認識対象から除外する。 As shown in FIG. 1B, the recognition area Ra is set in the vicinity of each part detected in step S1 and is an area to be recognized for the gesture operation. In other words, in the control method according to the embodiment, in the captured image I, the area other than the recognition area Ra is excluded from the recognition target of the gesture operation.

そして、実施形態に係る制御方法では、ステップS2にて設定した認識エリアRaにおいて、ユーザのジェスチャー操作を認識する(ステップS3)。例えば、実施形態に係る制御方法では、認識エリアRaにおけるユーザの手の動きからジェスチャー操作を認識する。 Then, in the control method according to the embodiment, the user's gesture operation is recognized in the recognition area Ra set in step S2 (step S3). For example, in the control method according to the embodiment, the gesture operation is recognized from the movement of the user's hand in the recognition area Ra.

つまり、実施形態に係る制御方法では、認識エリアRaに限定してジェスチャー操作を認識する。これにより、実施形態に係る制御方法では、ユーザの意図しない動作に基づくジェスチャー操作の誤認識を抑制することができる。 That is, in the control method according to the embodiment, the gesture operation is recognized only in the recognition area Ra. Thereby, in the control method according to the embodiment, it is possible to suppress erroneous recognition of the gesture operation based on the unintended movement of the user.

したがって、実施形態に係る制御方法によれば、ジェスチャー操作の認識精度を向上させることが可能となる。 Therefore, according to the control method according to the embodiment, it is possible to improve the recognition accuracy of the gesture operation.

また、実施形態に係る制御方法では、認識エリアRaを設定することで、撮像画像I全体からジェスチャー操作を認識する場合に比べて、ジェスチャー操作の認識処理に費やす処理負荷を抑えることも可能である。 Further, in the control method according to the embodiment, by setting the recognition area Ra, it is possible to reduce the processing load spent on the recognition processing of the gesture operation as compared with the case of recognizing the gesture operation from the entire captured image I. ..

さらに、実施形態に係る制御方法では、後述するように、ユーザの顔のパーツごとに認識エリアRaを設定することもでき、認識エリアRa毎に異なる制御コマンドを対応付けることもできる。 Further, in the control method according to the embodiment, as will be described later, the recognition area Ra can be set for each part of the user's face, and different control commands can be associated with each recognition area Ra.

言い換えれば、実施形態に係る制御方法では、ユーザの同じ動作をジェスチャー操作として認識した場合であっても、認識エリアRa毎に異なる制御コマンドを出力することができる。これにより、多様な制御コマンドを出力することが可能となる。 In other words, in the control method according to the embodiment, even when the same operation of the user is recognized as a gesture operation, a different control command can be output for each recognition area Ra. This makes it possible to output various control commands.

次に、図2を用いて実施形態に係る制御装置の構成例について説明する。図2は、制御装置のブロック図である。なお、図2には、カメラ10および車載機器50を併せて示す。 Next, a configuration example of the control device according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram of the control device. Note that FIG. 2 also shows the camera 10 and the in-vehicle device 50.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えた車載カメラである。カメラ10は、例えば、運転席を撮像するように、車両Cに設けられる。カメラ10は、ドライバの顔の位置を撮像し、撮像した撮像画像Iを制御装置1へ随時出力する。 The camera 10 is an in-vehicle camera including an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is provided in the vehicle C, for example, so as to image the driver's seat. The camera 10 images the position of the driver's face and outputs the captured image I to the control device 1 at any time.

車載機器50は、車両Cに搭載された各種機器である。以下では、車載機器50が、オーディオ機能や、ハンズフリー通話機能等を備えたナビゲーション装置である場合について説明するが、車載機器50は、エアコンなどその他の機器であってもよい。 The in-vehicle device 50 is various devices mounted on the vehicle C. Hereinafter, the case where the in-vehicle device 50 is a navigation device having an audio function, a hands-free call function, and the like will be described, but the in-vehicle device 50 may be another device such as an air conditioner.

図2に示すように、実施形態に係る制御装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部21と、検出部22と、設定部23と、認識部24と、出力部25とを備える。記憶部3は、モデル情報31、コマンド情報32および調停情報33を記憶する。 As shown in FIG. 2, the control device 1 according to the embodiment includes a control unit 2 and a storage unit 3. The control unit 2 includes an acquisition unit 21, a detection unit 22, a setting unit 23, a recognition unit 24, and an output unit 25. The storage unit 3 stores model information 31, command information 32, and arbitration information 33.

制御装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control device 1 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a data flash, an input / output port, and various circuits.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部21、検出部22、設定部23、認識部24および出力部25として機能する。 The CPU of the computer functions as the acquisition unit 21, the detection unit 22, the setting unit 23, the recognition unit 24, and the output unit 25 of the control unit 2, for example, by reading and executing the program stored in the ROM.

また、制御部2の取得部21、検出部22、設定部23、認識部24および出力部25の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 Further, at least one or all of the acquisition unit 21, the detection unit 22, the setting unit 23, the recognition unit 24, and the output unit 25 of the control unit 2 are ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), or the like. It can also be configured with the hardware of.

また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、モデル情報31、コマンド情報32および調停情報33や、各種プログラムの情報等を記憶することができる。なお、制御装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Further, the storage unit 3 corresponds to, for example, a RAM or a data flash. The RAM or data flash can store model information 31, command information 32, arbitration information 33, information on various programs, and the like. The control device 1 may acquire the above-mentioned program and various information via another computer or a portable recording medium connected by a wired or wireless network.

モデル情報31は、撮像画像Iから特定部位を識別するための特徴モデルに関する情報である。本実施形態においては、特定部位は、顔の各パーツであり、モデル情報31は、顔の各パーツの特徴モデルに関する情報である。 The model information 31 is information about a feature model for identifying a specific part from the captured image I. In the present embodiment, the specific part is each part of the face, and the model information 31 is information about the feature model of each part of the face.

コマンド情報32は、ジェスチャー操作および制御コマンドが対応付けられた情報である。図3は、コマンド情報32の具体例を示す図である。図3に示すように、コマンド情報32は、「パーツ」、「ジェスチャー操作」および「制御コマンド」が互いに対応付けられた情報である。 The command information 32 is information to which the gesture operation and the control command are associated. FIG. 3 is a diagram showing a specific example of the command information 32. As shown in FIG. 3, the command information 32 is information in which "parts", "gesture operations", and "control commands" are associated with each other.

「パーツ」は、顔のパーツを示し、各パーツに設定された認識エリアRaを示す。図3に示す例では、パーツが、口、耳である場合を示す。「ジェスチャー操作」は、各パーツの認識エリアRaにおいて、認識対象となるジェスチャー操作を示す。 “Part” indicates a facial part, and indicates a recognition area Ra set for each part. In the example shown in FIG. 3, a case where the parts are a mouth and an ear is shown. “Gesture operation” indicates a gesture operation to be recognized in the recognition area Ra of each part.

図3に示すように、コマンド情報32において、パーツ毎に異なるジェスチャー操作が対応付けられる。例えば、「口」には、口元で人差し指を立てる動作や、手のひらで口元を覆う動作がジェスチャー操作として対応付けられる。また、「耳」には、耳元を裏側から手のひらで覆う動作がジェスチャー操作として対応付けられる。 As shown in FIG. 3, in the command information 32, different gesture operations are associated with each part. For example, the "mouth" is associated with the action of raising the index finger at the mouth and the action of covering the mouth with the palm as a gesture operation. Further, the action of covering the ear with the palm from the back side is associated with the "ear" as a gesture operation.

また、各ジェスチャー操作には、音量ダウン、ミュート、音量アップ、ミュート解除等の「制御コマンド」が対応付けられる。具体的には、「口」のジェスチャー操作には、音量ダウンや、ミュートなど、音量を下げるための制御コマンドが対応付けられており、「耳」のジェスチャー操作には、音量アップやミュート解除など、音量を上げるための制御コマンドが対応付けられる。 In addition, each gesture operation is associated with "control commands" such as volume down, mute, volume up, and mute release. Specifically, the "mouth" gesture operation is associated with control commands for lowering the volume such as volume down and mute, and the "ear" gesture operation is associated with volume up and mute release. , Control commands for raising the volume are associated.

すなわち、ユーザは、一般的に用いられる静寂を促すジェスチャー操作を行うと、音量を下げることができる一方、聞こえにくいことを表すジェスチャー操作を行うと、音量を上げることができる。 That is, the user can lower the volume by performing a commonly used gesture operation for promoting silence, while the user can raise the volume by performing a gesture operation indicating that it is difficult to hear.

つまり、音量に関する制御コマンドに、音量の上げ下げを直接的に連想するようなジェスチャー操作を対応付けることで、ユーザがジェスチャー操作に対応する制御コマンドを容易に覚えることができる。 That is, by associating the control command related to the volume with a gesture operation that directly associates the volume up / down, the user can easily remember the control command corresponding to the gesture operation.

言い換えれば、ユーザは、ジェスチャー操作によって意図する操作を容易に行うことが可能となる。なお、図3に示すコマンド情報32は、一例であり、任意に変更することができる。また、図3の例において、ジェスチャー操作を行う手は、右手であってもよく、左手であってもよいし、あるいは、右手と左手とで異なる制御コマンドを対応付けることにしてもよい。 In other words, the user can easily perform the intended operation by the gesture operation. The command information 32 shown in FIG. 3 is an example and can be arbitrarily changed. Further, in the example of FIG. 3, the hand performing the gesture operation may be the right hand, the left hand, or the right hand and the left hand may be associated with different control commands.

また、同一のジェスチャー操作であっても、「パーツ」によって異なる制御コマンドを対応付けることにしてもよいし、例えば、「パーツ」毎に、異なる機器への制御コマンドを対応付けることにしてもよい。これにより、多様な制御コマンドに応じたジェスチャー操作を受け付けることができる。 Further, even for the same gesture operation, different control commands may be associated with each "part", or for example, control commands for different devices may be associated with each "part". As a result, gesture operations corresponding to various control commands can be accepted.

また、図3に示すように、本実施形態では、顔の各パーツに認識エリアRaを設定する。顔のパーツは認識が容易であり、さらに、ユーザが手でジェスチャー操作を行うのが容易である。 Further, as shown in FIG. 3, in the present embodiment, the recognition area Ra is set for each part of the face. The facial parts are easy to recognize, and the user can easily perform gesture operations by hand.

つまり、顔のパーツは、認識エリアRaの設定が容易であるとともに、ユーザが手で触れやすいエリアである。したがって、認識エリアRaの誤設定の軽減および操作性の向上の双方に寄与することができる。 That is, the face part is an area where the recognition area Ra can be easily set and the user can easily touch it. Therefore, it is possible to contribute to both reduction of erroneous setting of the recognition area Ra and improvement of operability.

図2の説明に戻り、調停情報33について説明する。調停情報33は、車載機器50が出力する音声の優先度に関する情報であり、上述の制御コマンドの制御対象となる音声に関する情報である。 Returning to the description of FIG. 2, the arbitration information 33 will be described. The arbitration information 33 is information on the priority of the voice output by the vehicle-mounted device 50, and is information on the voice to be controlled by the above-mentioned control command.

図4は、調停情報33の具体例を示す図である。図4に示すように、調停情報33は、「状態」、「割込み」、「制御対象」、「制御コマンド」が互いに対応付けられた情報である。 FIG. 4 is a diagram showing a specific example of the arbitration information 33. As shown in FIG. 4, the arbitration information 33 is information in which a "state", an "interrupt", a "control target", and a "control command" are associated with each other.

「状態」は、現在出力中の音声種別を示し、「割込み」は、現在出力中の音声種別に対して割込みで出力する音声種別を示す。「制御対象」は、制御コマンドの制御対象となる音声種別を示し、「制御コマンド」は、制御対象に対して有効となる制御コマンドを示す。 "Status" indicates the audio type currently being output, and "interrupt" indicates the audio type to be output by an interrupt with respect to the audio type currently being output. “Control target” indicates a voice type to be controlled by the control command, and “control command” indicates a control command that is valid for the control target.

例えば、図4に示す例では、オーディオ音声の出力中に割込みなしの場合、制御対象は、オーディオ音声であり、制御コマンドは、ミュート、ミュート解除、音量アップ、音量ダウンが共に有効となる。 For example, in the example shown in FIG. 4, when there is no interrupt during the output of the audio audio, the control target is the audio audio, and the control commands are mute, unmute, volume up, and volume down.

また、HF(ハンズフリー)通話の着信音を出力中に、割込みなしの場合、制御対象は、HF通話(着信)であり、制御コマンドは、ミュートのみが有効となる。また、オーディオ音声を出力中に、HF電話(着信)の割込みが入った場合、制御対象は、HF電話(着信)であり、制御コマンドは、ミュートのみが有効となる。 Further, when there is no interrupt while the ringtone of the HF (hands-free) call is being output, the control target is the HF call (incoming call), and only mute is valid as the control command. Further, when an interrupt of the HF telephone (incoming call) is input while the audio / voice is being output, the control target is the HF telephone (incoming call), and only mute is valid as the control command.

後述するように、出力部25は、調停情報33を参照し、制御対象および制御コマンドを確認したうえで、制御コマンドを車載機器50へ出力することになる。なお、本実施形態において、ナビゲーション装置のガイダンス音声や、警告音等については、上記の制御対象から除外することにしてもよい。 As will be described later, the output unit 25 refers to the arbitration information 33, confirms the control target and the control command, and then outputs the control command to the in-vehicle device 50. In the present embodiment, the guidance voice of the navigation device, the warning sound, and the like may be excluded from the above-mentioned control targets.

図2の説明に戻り、制御部2の各構成について説明する。制御部2の取得部21は、カメラ10から入力される撮像画像Iを取得する。取得部21は、撮像画像Iの取得毎に、検出部22へ出力する。 Returning to the description of FIG. 2, each configuration of the control unit 2 will be described. The acquisition unit 21 of the control unit 2 acquires the captured image I input from the camera 10. The acquisition unit 21 outputs to the detection unit 22 each time the captured image I is acquired.

検出部22は、取得部21によって取得された撮像画像Iからユーザの特定部位を検出する。上述のように、カメラ10は、ドライバの顔を撮像する位置に設けられる。このため、検出部22は、ユーザの特定部位として、ドライバの顔の各パーツを検出する。 The detection unit 22 detects a specific part of the user from the captured image I acquired by the acquisition unit 21. As described above, the camera 10 is provided at a position where the driver's face is imaged. Therefore, the detection unit 22 detects each part of the driver's face as a specific part of the user.

すなわち、本実施形態において、ジェスチャー操作の対象者がドライバである。これにより、ドライバは、車両を運転操作中であっても、容易に車載機器をジェスチャー操作にて操作することが可能となる。 That is, in the present embodiment, the target person for the gesture operation is the driver. As a result, the driver can easily operate the in-vehicle device by gesture operation even while driving the vehicle.

具体的には、検出部22は、モデル情報31を参照し、各パーツの特徴点を撮像画像Iから抽出することで、各パーツを検出する。検出部22は、検出した各パーツの位置に関する情報を撮像画像Iに対応付けて設定部23へ渡す。なお、検出部22が検出する特定部位は、顔のパーツに限られず、顔以外の部位であってもよいし、顔全体を1つの特定部位として検出することにしてもよい。 Specifically, the detection unit 22 detects each part by referring to the model information 31 and extracting the feature points of each part from the captured image I. The detection unit 22 passes the information regarding the position of each detected part to the setting unit 23 in association with the captured image I. The specific portion detected by the detection unit 22 is not limited to the facial part, and may be a portion other than the face, or the entire face may be detected as one specific portion.

設定部23は、検出部22によって検出された特定部位に基づいて認識エリアRaを設定する。具体的には、設定部23は、例えば、特定部位として、顔の各パーツを中心とする所定領域に認識エリアRaを設定する。 The setting unit 23 sets the recognition area Ra based on the specific portion detected by the detection unit 22. Specifically, the setting unit 23 sets the recognition area Ra as a specific part in a predetermined area centered on each part of the face, for example.

そして、設定部23は、設定した認識エリアRaに顔のパーツを示す識別子を付与し、撮像画像Iとともに、認識部24へ渡す。 Then, the setting unit 23 assigns an identifier indicating a facial part to the set recognition area Ra, and passes it to the recognition unit 24 together with the captured image I.

認識部24は、設定部23によって設定された認識エリアRaにおけるジェスチャー操作を認識する。具体的には、認識部24は、各認識エリアRaにおいて認識対象となるジェスチャー操作を撮像画像Iから認識した場合に、かかるジェスチャー操作を認識する。一方で、認識部24は、各認識エリアRaにおいて、認識対象外のジェスチャー操作は認識しない。 The recognition unit 24 recognizes the gesture operation in the recognition area Ra set by the setting unit 23. Specifically, when the recognition unit 24 recognizes the gesture operation to be recognized in each recognition area Ra from the captured image I, the recognition unit 24 recognizes the gesture operation. On the other hand, the recognition unit 24 does not recognize gesture operations that are not the recognition target in each recognition area Ra.

すなわち、認識部24は、撮像画像Iにおいて、認識エリアRa外のジェスチャー操作や、認識エリアRaであっても、かかる認識エリアRaにおいて認識対象外のジェスチャー操作を認識しない。 That is, the recognition unit 24 does not recognize the gesture operation outside the recognition area Ra in the captured image I, or the gesture operation outside the recognition target in the recognition area Ra even if it is in the recognition area Ra.

つまり、認識部24は、認識エリアRa毎に異なるジェスチャー操作を認識することで、認識エリアRaと、認識エリアRaに紐付けられたジェスチャー操作とが共に合致するジェスチャー操作のみを認識する。 That is, by recognizing different gesture operations for each recognition area Ra, the recognition unit 24 recognizes only the gesture operations in which both the recognition area Ra and the gesture operation associated with the recognition area Ra match.

これにより、認識部24は、ユーザの意図しない動作をジェスチャー操作として認識する誤認識を抑えることが可能となる。また、認識部24は、各認識エリアRaのみにおいて、認識処理を行えばよいので、撮像画像I全体で認識処理を行う場合に比べて処理負荷を抑えることも可能である。 As a result, the recognition unit 24 can suppress erroneous recognition of recognizing an unintended operation of the user as a gesture operation. Further, since the recognition unit 24 only needs to perform the recognition process only in each recognition area Ra, it is possible to reduce the processing load as compared with the case where the recognition process is performed on the entire captured image I.

また、認識部24は、ジェスチャー操作を所定時間(例えば、3秒間)続けて認識したジェスチャー操作のみを認識結果とすることにしてもよい。これは、認識エリアRaにおいて、ユーザが偶然行った動作に対するジェスチャー動作の誤認識を防ぐためである。 Further, the recognition unit 24 may set only the gesture operation that recognizes the gesture operation continuously for a predetermined time (for example, 3 seconds) as the recognition result. This is to prevent erroneous recognition of the gesture operation for the operation accidentally performed by the user in the recognition area Ra.

これにより、認識部24は、ユーザが意図して行ったジェスチャー操作のみを認識することできるので、ジェスチャー操作の認識精度を向上させることができる。 As a result, the recognition unit 24 can recognize only the gesture operation intentionally performed by the user, so that the recognition accuracy of the gesture operation can be improved.

出力部25は、認識部24によって認識されたジェスチャー操作に応じた制御コマンドを車載機器50へ出力する。具体的には、出力部25は、コマンド情報32を参照し、認識部24によって認識されたジェスチャー操作に応じた制御コマンドを選択する。 The output unit 25 outputs a control command corresponding to the gesture operation recognized by the recognition unit 24 to the in-vehicle device 50. Specifically, the output unit 25 refers to the command information 32 and selects a control command according to the gesture operation recognized by the recognition unit 24.

続いて、出力部25は、車載機器50が現在出力中の音声種別に関する情報を取得し、調停情報33に基づいて制御対象や、有効である制御コマンドを確認する。そして、出力部25は、コマンド情報32から選択した制御コマンドが有効である場合に、制御対象宛ての制御コマンドを出力する。 Subsequently, the output unit 25 acquires information on the voice type currently being output by the in-vehicle device 50, and confirms the control target and valid control commands based on the arbitration information 33. Then, the output unit 25 outputs a control command addressed to the control target when the control command selected from the command information 32 is valid.

すなわち、図4に示したように、オーディオ音声を再生中に割込みなしの状況において、オーディオ音声が制御対象であり、全ての制御コマンドが有効であるものの、HF電話の着信音を再生中に割込みなしの状況においては、ミュートの制御コマンドのみが有効となる。 That is, as shown in FIG. 4, in a situation where there is no interruption during playback of audio-voice, the audio-voice is the control target and all control commands are valid, but the ringtone of the HF telephone is interrupted during playback. In the absence situation, only the mute control command is valid.

このため、出力部25は、HF電話の着信音を再生中に割込みなしの状況においては、認識部24がミュートに対応するジェスチャー操作を認識した場合にのみ、制御コマンドを車載機器50へ出力する。 Therefore, the output unit 25 outputs the control command to the in-vehicle device 50 only when the recognition unit 24 recognizes the gesture operation corresponding to the mute in the situation where there is no interruption while playing the ringtone of the HF telephone. ..

また、出力部25は、図4に示したように、オーディオ音声を再生中にHF電話の着信が割込みで入った場合、HF電話の着信音に対してミュートをかける制御コマンドを車載機器50へ出力することとなる。 Further, as shown in FIG. 4, the output unit 25 issues a control command to the in-vehicle device 50 to mute the ringtone of the HF telephone when an incoming HF telephone is interrupted during playback of the audio / voice. It will be output.

このように、出力部25は、車載機器50が現在出力中の音声種別に応じて、制御対象や制御コマンドを選択して出力することで、ユーザは同じジェスチャー操作で複数の制御対象を容易に操作することが可能となる。したがって、ユーザビリティを向上させることが可能となる。 In this way, the output unit 25 selects and outputs a control target or a control command according to the voice type currently being output by the in-vehicle device 50, so that the user can easily perform a plurality of control targets with the same gesture operation. It becomes possible to operate. Therefore, it is possible to improve usability.

次に、図5を用いて実施形態に係る制御装置1が実行する処理手順について説明する。図5は、制御装置1が実行する処理手順を示すフローチャートである。なお、かかる処理手順は、制御部2によって繰り返し実行される。 Next, the processing procedure executed by the control device 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing a processing procedure executed by the control device 1. The processing procedure is repeatedly executed by the control unit 2.

図5に示すように、制御装置1は、まず、カメラ10から撮像画像Iの取得を開始すると(ステップS101)、各撮像画像Iからユーザの特定部位を検出する(ステップS102)。 As shown in FIG. 5, when the control device 1 first starts acquiring the captured image I from the camera 10 (step S101), the control device 1 detects a specific part of the user from each captured image I (step S102).

続いて、制御装置1は、特定部位に基づいて認識エリアRaを設定し(ステップS103)、ジェスチャー操作の認識を開始したか否かを判定する(ステップS104)。制御装置1は、ジェスチャー操作の認識を開始した場合(ステップS104,Yes)、認識開始から所定時間経過したか否かを判定する(ステップS105)。 Subsequently, the control device 1 sets the recognition area Ra based on the specific portion (step S103), and determines whether or not the recognition of the gesture operation is started (step S104). When the control device 1 starts recognizing the gesture operation (step S104, Yes), it determines whether or not a predetermined time has elapsed from the start of recognition (step S105).

制御装置1は、所定時間経過したと判定した場合(ステップS105,Yes)、ジェスチャー操作が継続中か否かを判定する(ステップS106)。制御装置1は、ジェスチャー操作が継続中であった場合(ステップS106,Yes)、ジェスチャー操作として認識する(ステップS107)。 When the control device 1 determines that the predetermined time has elapsed (steps S105, Yes), the control device 1 determines whether or not the gesture operation is continuing (step S106). When the gesture operation is ongoing (step S106, Yes), the control device 1 recognizes it as a gesture operation (step S107).

続いて、制御装置1は、車載機器50で現在出力中の音声種別に関する情報を取得し(ステップS108)、ステップS107にて認識したジェスチャー操作および調停情報33に基づき、制御コマンド、制御対象を選択する(ステップS109)。 Subsequently, the control device 1 acquires information on the voice type currently being output by the in-vehicle device 50 (step S108), and selects a control command and a control target based on the gesture operation and arbitration information 33 recognized in step S107. (Step S109).

そして、制御装置1は、車載機器50へ制御コマンドを出力し(ステップS110)、処理を終了する。また、制御装置1は、ステップS104の判定でジェスチャー操作の認識を開始していない場合や(ステップS104,No)、ステップS106の判定でジェスチャー操作が継続中でない場合(ステップS106,No)、その時点で処理を終了する。 Then, the control device 1 outputs a control command to the in-vehicle device 50 (step S110), and ends the process. Further, when the control device 1 has not started recognizing the gesture operation in the determination in step S104 (step S104, No), or when the gesture operation is not continuing in the determination in step S106 (step S106, No), the same. The process ends at that point.

また、制御装置1は、ステップS105の判定において、所定時間経過していない場合(ステップS105,No)、ステップS105の処理を継続して行う。 Further, in the determination of step S105, if the predetermined time has not elapsed (steps S105, No), the control device 1 continues the process of step S105.

上述したように、実施形態に係る制御装置1は、検出部22と、設定部23と、認識部24とを備える。検出部22は、撮像画像Iからユーザの特定部位を検出する。設定部23は、検出部22によって検出された特定部位に基づいて認識エリアRaを設定する。 As described above, the control device 1 according to the embodiment includes a detection unit 22, a setting unit 23, and a recognition unit 24. The detection unit 22 detects a specific part of the user from the captured image I. The setting unit 23 sets the recognition area Ra based on the specific portion detected by the detection unit 22.

認識部24は、設定部23によって設定された認識エリアRa内のジェスチャー操作を認識する。したがって、実施形態に係る制御装置1によれば、ジェスチャー操作の認識精度を向上させることができる。 The recognition unit 24 recognizes the gesture operation in the recognition area Ra set by the setting unit 23. Therefore, according to the control device 1 according to the embodiment, the recognition accuracy of the gesture operation can be improved.

ところで、上述した実施形態では、制御装置1が、車両Cにおいてドライバのジェスチャー操作を認識する場合について説明したが、これに限定されるものではない。すなわち、制御装置1は、車両C以外に搭載されることにしてもよいし、あるいは、車載機器50以外を制御することにしてもよい。 By the way, in the above-described embodiment, the case where the control device 1 recognizes the gesture operation of the driver in the vehicle C has been described, but the present invention is not limited to this. That is, the control device 1 may be mounted on a vehicle other than the vehicle C, or may control a device other than the in-vehicle device 50.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な様態は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲および、その均等物によって定義される統括的な発明の概念の精神または範囲から逸脱することなく、様々な変化が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments described and described above. Therefore, various changes are possible without departing from the spirit or scope of the overall concept of the invention as defined by the appended claims and their equivalents.

1 制御装置
10 カメラ
21 取得部
22 検出部
23 設定部
24 認識部
25 出力部
I 撮像画像
Ra 認識エリア
1 Control device 10 Camera 21 Acquisition unit 22 Detection unit 23 Setting unit 24 Recognition unit 25 Output unit I Captured image Ra Recognition area

Claims (6)

画像データからユーザの特定部位を検出する検出部と、
前記検出部によって検出された特定部位に基づいて認識エリアを設定する設定部と、
前記設定部によって設定された認識エリア内のジェスチャー操作を認識する認識部と
を備えることを特徴とする制御装置。
A detector that detects a specific part of the user from image data,
A setting unit that sets a recognition area based on a specific part detected by the detection unit, and a setting unit.
A control device including a recognition unit that recognizes a gesture operation in a recognition area set by the setting unit.
前記検出部は、
特定部位として、顔の各パーツを検出し、
前記設定部は、
各パーツに対してそれぞれ認識エリアを設定すること
を特徴とする請求項1に記載の制御装置。
The detection unit
Detects each part of the face as a specific part,
The setting unit
The control device according to claim 1, wherein a recognition area is set for each part.
前記認識部は、
前記検出部によって検出された顔の各パーツに基づく認識エリア毎に異なるジェスチャー操作を認識すること
を特徴とする請求項2に記載の制御装置。
The recognition unit
The control device according to claim 2, wherein a different gesture operation is recognized for each recognition area based on each part of the face detected by the detection unit.
前記検出部は、
車内が撮像された画像データからユーザである運転者の特定部位を認識すること
を特徴とする請求項1,2または3に記載の制御装置。
The detection unit
The control device according to claim 1, 2, or 3, wherein the specific part of the driver who is the user is recognized from the image data captured in the vehicle.
前記認識部によって認識されたジェスチャー操作に応じて、車載機器を制御する制御コマンドを出力する出力部
をさらに備え、
前記出力部は、
前記車載機器から出力される音声の音量をジェスチャー操作に応じて調整すること
を特徴とする請求項4に記載の制御装置。
It is further provided with an output unit that outputs a control command for controlling an in-vehicle device in response to a gesture operation recognized by the recognition unit.
The output unit
The control device according to claim 4, wherein the volume of the voice output from the in-vehicle device is adjusted according to a gesture operation.
画像データからユーザの特定部位を検出する検出工程と、
前記検出工程によって検出された特定部位に基づいて認識エリアを設定する設定工程と、
前記設定工程によって設定された認識エリア内のジェスチャー操作を認識する認識工程と
を含むことを特徴とする制御方法。
A detection process that detects a specific part of the user from image data,
A setting step of setting a recognition area based on a specific part detected by the detection step, and
A control method including a recognition step of recognizing a gesture operation in the recognition area set by the setting step.
JP2019039963A 2019-03-05 2019-03-05 Control device and control method Pending JP2020144551A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019039963A JP2020144551A (en) 2019-03-05 2019-03-05 Control device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019039963A JP2020144551A (en) 2019-03-05 2019-03-05 Control device and control method

Publications (1)

Publication Number Publication Date
JP2020144551A true JP2020144551A (en) 2020-09-10

Family

ID=72354236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019039963A Pending JP2020144551A (en) 2019-03-05 2019-03-05 Control device and control method

Country Status (1)

Country Link
JP (1) JP2020144551A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022128366A (en) * 2021-02-22 2022-09-01 Rsupport株式会社 Teleconferencing Method for Motion Recognition Using Artificial Neural Network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009558A (en) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd Image recognition device, electrical device operation control unit, electric appliance, image recognition program, and semiconductor device
JP2010238145A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Information output device, remote control method and program
JP2012058884A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009558A (en) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd Image recognition device, electrical device operation control unit, electric appliance, image recognition program, and semiconductor device
JP2010238145A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Information output device, remote control method and program
JP2012058884A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022128366A (en) * 2021-02-22 2022-09-01 Rsupport株式会社 Teleconferencing Method for Motion Recognition Using Artificial Neural Network

Similar Documents

Publication Publication Date Title
US9706100B2 (en) Imaging apparatus, method for setting voice command, and storage medium
EP3264332B1 (en) Device and method for recognizing fingerprint
EP3136216A1 (en) Method for controlling mobile terminal and mobile terminal
CN106774803B (en) Fingerprint identification method and device
US20190126500A1 (en) Method and device for controlling a hair trimming apparatus and hair trimming apparatus
EP3163404A1 (en) Method and device for preventing accidental touch of terminal with touch screen
CN105991930A (en) Zoom processing method and device for dual cameras and mobile terminal
US10402619B2 (en) Method and apparatus for detecting pressure
US9924090B2 (en) Method and device for acquiring iris image
US9927974B2 (en) Automatic customization of keypad key appearance
CN108319886B (en) Fingerprint identification method and device
EP3327622A1 (en) Fingerprint template acquisition method and device
WO2017005020A1 (en) Mobile terminal, and method therefor for realizing automatic answering
CN106126082B (en) Terminal control method and device and terminal
EP3109741A1 (en) Method and device for determining character
EP3432210A1 (en) Pressure determination method and device and fingerprint recognition method and device
KR20150003501A (en) Electronic device and method for authentication using fingerprint information
JP2020144551A (en) Control device and control method
EP3264308B1 (en) Method and device for fingerprint verification
EP3211556A1 (en) Method and device for verifying fingerprint
US20220334648A1 (en) Wearable information terminal, control method thereof, and storage medium
US8280432B2 (en) Mobile communication device and method for operating a mobile communication device
CN107677363A (en) The method and intelligent terminal of noise prompting
CN111176601B (en) Processing method and device
CN107292305A (en) Character rotation method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221206