JP2020149228A - Control device and control method - Google Patents

Control device and control method Download PDF

Info

Publication number
JP2020149228A
JP2020149228A JP2019045004A JP2019045004A JP2020149228A JP 2020149228 A JP2020149228 A JP 2020149228A JP 2019045004 A JP2019045004 A JP 2019045004A JP 2019045004 A JP2019045004 A JP 2019045004A JP 2020149228 A JP2020149228 A JP 2020149228A
Authority
JP
Japan
Prior art keywords
gesture operation
reference point
recognition unit
unit
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019045004A
Other languages
Japanese (ja)
Inventor
秀太 新穂
Shuta Arao
秀太 新穂
聖 武野
Kiyoshi Takeno
聖 武野
竜樹 久保
Tatsuki Kubo
竜樹 久保
春人 若野
Haruto Wakano
春人 若野
佐藤 信一
Shinichi Sato
信一 佐藤
順子 樋渡
Junko Hiwatari
順子 樋渡
敦 山脇
Atsushi Yamawaki
敦 山脇
真行 阪口
Masayuki Sakaguchi
真行 阪口
山口 達也
Tatsuya Yamaguchi
達也 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019045004A priority Critical patent/JP2020149228A/en
Publication of JP2020149228A publication Critical patent/JP2020149228A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

To improve usability.SOLUTION: A control device is provided, comprising a recognition unit and a setting unit. The recognition unit recognizes first gesture manipulation pointing at a target device to be controlled. The setting unit sets a reference point based on the first gesture manipulation recognized by the recognition unit. The recognition unit recognizes second gesture manipulation based on the reference point set by the setting unit.SELECTED DRAWING: Figure 2

Description

本発明は、制御装置および制御方法に関する。 The present invention relates to a control device and a control method.

従来、車内の車載機器に対するジェスチャー操作を受け付ける車載装置がある(例えば、特許文献1参照)。 Conventionally, there is an in-vehicle device that accepts a gesture operation for an in-vehicle device in a vehicle (see, for example, Patent Document 1).

特開2012−121386号公報Japanese Unexamined Patent Publication No. 2012-121386

しかしながら、従来技術では、例えば、ジェスチャー操作によって、エアコンやオーディオ等の設定温度や音量の強弱の微調整を行うのが容易でなく、ユーザビリティを向上させる点において、改善の余地があった。 However, in the prior art, for example, it is not easy to finely adjust the set temperature and volume of the air conditioner, audio, etc. by gesture operation, and there is room for improvement in improving usability.

本発明は、上記に鑑みてなされたものであって、ユーザビリティを向上させることができる制御装置および制御方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a control device and a control method capable of improving usability.

上述した課題を解決し、目的を達成するために、本発明に係る制御装置は、認識部と、設定部とを備える。前記認識部は、制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する。前記設定部は、前記認識部によって認識された第1ジェスチャー操作に基づいて基準点を設定する。前記認識部は、前記設定部によって設定された基準点に基づいて第2ジェスチャー操作を認識する。 In order to solve the above-mentioned problems and achieve the object, the control device according to the present invention includes a recognition unit and a setting unit. The recognition unit recognizes the first gesture operation pointing to the target device to be controlled. The setting unit sets a reference point based on the first gesture operation recognized by the recognition unit. The recognition unit recognizes the second gesture operation based on the reference point set by the setting unit.

本発明によれば、ユーザビリティを向上させることができる。 According to the present invention, usability can be improved.

図1Aは、制御装置の搭載例を示す図である。FIG. 1A is a diagram showing a mounting example of a control device. 図1Bは、制御方法の概要を示す図である。FIG. 1B is a diagram showing an outline of a control method. 図2は、制御装置のブロック図である。FIG. 2 is a block diagram of the control device. 図3は、無効領域の具体例を示す図である。FIG. 3 is a diagram showing a specific example of the invalid region. 図4Aは、第2ジェスチャー操作の具体例を示す図(その1)である。FIG. 4A is a diagram (No. 1) showing a specific example of the second gesture operation. 図4Bは、第2ジェスチャー操作の具体例を示す図(その2)である。FIG. 4B is a diagram (No. 2) showing a specific example of the second gesture operation. 図4Cは、第2ジェスチャー操作の具体例を示す図(その3)である。FIG. 4C is a diagram (No. 3) showing a specific example of the second gesture operation. 図4Dは、第2ジェスチャー操作の具体例を示す図(その4)である。FIG. 4D is a diagram (No. 4) showing a specific example of the second gesture operation. 図5は、制御装置が実行するフローチャートである。FIG. 5 is a flowchart executed by the control device.

以下、添付図面を参照して、本願の開示する制御装置および制御方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the control device and control method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments shown below.

まず、図1Aおよび図1Bを用いて実施形態に係る制御装置および制御方法の概要について説明する。図1Aは、実施形態に係る制御装置の搭載例を示す図である。図1Bは、制御方法の概要を示す図である。また、本実施形態では、対象機器が車載機器50である場合を例に挙げて説明する。 First, the outline of the control device and the control method according to the embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram showing a mounting example of the control device according to the embodiment. FIG. 1B is a diagram showing an outline of a control method. Further, in the present embodiment, the case where the target device is the in-vehicle device 50 will be described as an example.

図1Aに示すように、実施形態に係る制御装置1は、車両Cに搭載され、各種車載機器50のユーザインターフェースとして機能する。具体的には、制御装置1は、車内の3次元情報を検出する3Dセンサ10の計測結果に基づいて乗員のジェスチャー操作を認識し、認識したジェスチャー操作に応じた制御コマンドを車載機器50へ出力する。 As shown in FIG. 1A, the control device 1 according to the embodiment is mounted on the vehicle C and functions as a user interface of various in-vehicle devices 50. Specifically, the control device 1 recognizes the occupant's gesture operation based on the measurement result of the 3D sensor 10 that detects the three-dimensional information in the vehicle, and outputs a control command corresponding to the recognized gesture operation to the in-vehicle device 50. To do.

例えば、車載機器50は、制御装置1から送信される制御コマンドに基づき、車両Cのパワーウインド(以下、窓と記載する)の開度を制御する。 For example, the in-vehicle device 50 controls the opening degree of the power window (hereinafter, referred to as a window) of the vehicle C based on the control command transmitted from the control device 1.

ここで、例えば、車両Cの助手席に着座したユーザは、後部座席の窓を開閉させるのは困難である。また、仮に、ユーザが、例えば、手を上下に動作させるジェスチャー操作によって窓を開閉させる場合、手をあげる動作と、手を下げる動作とをそれぞれ別々のジェスチャーとして認識されるおそれがあり、窓の開度の微調整が困難となる。 Here, for example, it is difficult for a user seated in the passenger seat of the vehicle C to open and close the window of the rear seat. Further, if the user opens and closes the window by, for example, a gesture operation of moving the hand up and down, the action of raising the hand and the action of lowering the hand may be recognized as separate gestures of the window. It becomes difficult to finely adjust the opening.

そこで、実施形態に係る制御方法では、基準点を設定し、設定した基準点に基づいてジェスチャー操作を認識することとした。つまり、実施形態に係る制御方法では、基準点からの手の移動量に応じて窓の開度を調節することが可能となる。 Therefore, in the control method according to the embodiment, it is decided to set a reference point and recognize the gesture operation based on the set reference point. That is, in the control method according to the embodiment, it is possible to adjust the opening degree of the window according to the amount of movement of the hand from the reference point.

具体的には、図1Bに示すように、まず、実施形態に係る制御方法では、第1ジェスチャー操作を認識する(ステップS1)。ここで、第1ジェスチャー操作は、制御対象となる対象機器を指し示す操作である。 Specifically, as shown in FIG. 1B, first, in the control method according to the embodiment, the first gesture operation is recognized (step S1). Here, the first gesture operation is an operation of pointing to a target device to be controlled.

例えば、実施形態に係る制御方法では、第1ジェスチャー操作が指し示す延長線上に対象機器である窓の窓枠Wがある場合、第1ジェスチャー操作として認識する。また、実施形態に係る制御方法では、第1ジェスチャー操作を認識することによってユーザが操作を所望する機器を検出することができる。 For example, in the control method according to the embodiment, when the window frame W of the window which is the target device is on the extension line pointed to by the first gesture operation, it is recognized as the first gesture operation. Further, in the control method according to the embodiment, the device that the user desires to operate can be detected by recognizing the first gesture operation.

続いて、実施形態に係る制御方法では、第1ジェスチャー操作に基づいて基準点Pを設定する(ステップS2)。例えば、実施形態に係る制御方法では、第1ジェスチャー操作における指の位置を基準点Pとして設定することができる。 Subsequently, in the control method according to the embodiment, the reference point P is set based on the first gesture operation (step S2). For example, in the control method according to the embodiment, the position of the finger in the first gesture operation can be set as the reference point P.

その後、実施形態に係る制御方法では、設定した基準点Pに基づいて第1ジェスチャー操作に続く第2ジェスチャー操作を認識する(ステップS3)。具体的には、実施形態に係る制御方法では、第2ジェスチャー操作の認識処理において、手の動きを認識し、基準点Pからの移動ベクトルVを算出する。 After that, in the control method according to the embodiment, the second gesture operation following the first gesture operation is recognized based on the set reference point P (step S3). Specifically, in the control method according to the embodiment, in the recognition process of the second gesture operation, the movement of the hand is recognized and the movement vector V from the reference point P is calculated.

そして、実施形態に係る制御方法では、移動ベクトルVを制御量に換算し、制御量に応じた制御コマンドを車載機器50へ出力する。この場合、移動ベクトルVが上向きである場合、窓を閉めることができ、移動ベクトルVが下向きである場合、窓を開けることができる。 Then, in the control method according to the embodiment, the movement vector V is converted into a control amount, and a control command corresponding to the control amount is output to the in-vehicle device 50. In this case, if the movement vector V is upward, the window can be closed, and if the movement vector V is downward, the window can be opened.

また、ユーザは、手を大きく動かすことで、移動ベクトルVが大きくなり、制御量を大きくすることができるとともに、手を小さく動かすことで、移動ベクトルVが小さくなり、制御量を小さくすることができる。 Further, the user can increase the movement vector V and increase the control amount by moving the hand greatly, and can decrease the movement vector V and decrease the control amount by moving the hand small. it can.

このように、実施形態に係る制御方法では、第1ジェスチャー操作に基づいて基準点Pを設定し、基準点Pを基準として、第1ジェスチャー操作に続く第2ジェスチャー操作を認識する。 As described above, in the control method according to the embodiment, the reference point P is set based on the first gesture operation, and the second gesture operation following the first gesture operation is recognized with the reference point P as a reference.

これにより、実施形態に係る制御方法によれば、ユーザが制御量を任意に調整することができるので、ユーザビリティを向上させることができる。 As a result, according to the control method according to the embodiment, the user can arbitrarily adjust the control amount, so that usability can be improved.

次に、図2を用いて実施形態に係る制御装置1の構成例について説明する。図2は、制御装置1のブロック図である。なお、図2には、3Dセンサ10および車載機器50を併せて示す。 Next, a configuration example of the control device 1 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram of the control device 1. Note that FIG. 2 also shows the 3D sensor 10 and the in-vehicle device 50.

3Dセンサ10は、車内の3次元情報を検出するセンサである。3Dセンサ10は、例えば、アクティブステレオ方式や、ToF(Time of Flight)方式を用いて車内の3次元情報を検出する。なお、3Dセンサ10は、上記の例に限られず、車内の3次元情報を算出可能な構成であれば、その他の構成であってもよい。 The 3D sensor 10 is a sensor that detects three-dimensional information in the vehicle. The 3D sensor 10 detects three-dimensional information in the vehicle by using, for example, an active stereo method or a ToF (Time of Flight) method. The 3D sensor 10 is not limited to the above example, and may have other configurations as long as it can calculate three-dimensional information in the vehicle.

また、3Dセンサ10に加え、車内を撮像するカメラを設けることにしてもよい。すなわち、制御装置1は、画像データと、3次元情報とを組み合わせてジェスチャー操作を認識することにしてもよい。 Further, in addition to the 3D sensor 10, a camera that images the inside of the vehicle may be provided. That is, the control device 1 may recognize the gesture operation by combining the image data and the three-dimensional information.

車載機器50は、制御装置1から入力される制御コマンドに応じて、窓の開度を制御する制御装置である。 The in-vehicle device 50 is a control device that controls the opening degree of the window in response to a control command input from the control device 1.

図2に示すように、実施形態に係る制御装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部21と、認識部22と、設定部23と、出力部24とを備える。記憶部3は、座標情報31、基準点情報32およびコマンド情報33を記憶する。 As shown in FIG. 2, the control device 1 according to the embodiment includes a control unit 2 and a storage unit 3. The control unit 2 includes an acquisition unit 21, a recognition unit 22, a setting unit 23, and an output unit 24. The storage unit 3 stores the coordinate information 31, the reference point information 32, and the command information 33.

制御装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control device 1 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a data flash, an input / output port, and various circuits.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部21、認識部22、設定部23および出力部24として機能する。 The CPU of the computer functions as the acquisition unit 21, the recognition unit 22, the setting unit 23, and the output unit 24 of the control unit 2, for example, by reading and executing the program stored in the ROM.

また、制御部2の取得部21、認識部22、設定部23および出力部24の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 Further, at least one or all of the acquisition unit 21, the recognition unit 22, the setting unit 23, and the output unit 24 of the control unit 2 are used by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). It can also be configured.

また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、座標情報31、基準点情報32およびコマンド情報33や、各種プログラムの情報等を記憶することができる。なお、制御装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Further, the storage unit 3 corresponds to, for example, a RAM or a data flash. The RAM or data flash can store coordinate information 31, reference point information 32, command information 33, information on various programs, and the like. The control device 1 may acquire the above-mentioned program and various information via another computer or a portable recording medium connected by a wired or wireless network.

座標情報31は、車内空間における窓枠Wの3次元座標および3Dセンサ10の設置位置に関する3次元座標、3Dセンサ10の取付角度に関する情報である。基準点情報32は、第1ジェスチャー操作に基づいて設定された基準点に関する情報である。コマンド情報33は、各第2ジェスチャー操作に紐付けられた制御コマンドに関する情報である。 The coordinate information 31 is information regarding the three-dimensional coordinates of the window frame W in the vehicle interior space, the three-dimensional coordinates regarding the installation position of the 3D sensor 10, and the mounting angle of the 3D sensor 10. The reference point information 32 is information about the reference point set based on the first gesture operation. The command information 33 is information related to the control command associated with each second gesture operation.

制御部2は、第1ジェスチャー操作を認識し、基準点Pを設定するとともに基準点に基づいて第2ジェスチャー操作を認識する。 The control unit 2 recognizes the first gesture operation, sets the reference point P, and recognizes the second gesture operation based on the reference point.

取得部21は、3Dセンサ10から入力される3次元情報を取得し、取得した3次元情報を取得毎に認識部22へ渡す。 The acquisition unit 21 acquires the three-dimensional information input from the 3D sensor 10, and passes the acquired three-dimensional information to the recognition unit 22 each time it is acquired.

認識部22は、3次元情報に基づいて制御対象機器を指し示す第1ジェスチャー操作を認識する。具体的には、まず、認識部22は、第1ジェスチャー操作の操作対象となるユーザの特定部位(腕や、手など)を認識する。 The recognition unit 22 recognizes the first gesture operation pointing to the device to be controlled based on the three-dimensional information. Specifically, first, the recognition unit 22 recognizes a specific part (arm, hand, etc.) of the user to be operated by the first gesture operation.

続いて、認識部22は、特定部位が指し示す方向を算出し、特定部位が指し示す方角に窓枠Wが存在するか否かを判定する。認識部22は、特定方位が指し示す方向に窓枠Wが存在する場合、第1ジェスチャー操作として認識する。 Subsequently, the recognition unit 22 calculates the direction pointed to by the specific portion, and determines whether or not the window frame W exists in the direction pointed by the specific portion. When the window frame W exists in the direction indicated by the specific direction, the recognition unit 22 recognizes it as the first gesture operation.

このとき、認識部22は、所定時間(例えば、3秒)継続して認識した第1ジェスチャー操作のみを第1ジェスチャー操作として認識することもできる。言い換えれば、認識部22は、ユーザが特定部位を窓枠Wに向けて所定時間、静止する動作を第1ジェスチャー操作として認識する。 At this time, the recognition unit 22 can also recognize only the first gesture operation that has been continuously recognized for a predetermined time (for example, 3 seconds) as the first gesture operation. In other words, the recognition unit 22 recognizes the operation in which the user points the specific portion toward the window frame W and stands still for a predetermined time as the first gesture operation.

これにより、ユーザの意図しない動作を第1ジェスチャー操作として認識する誤認識を抑制することができる。なお、認識部22は、上記の認識条件を満たさない場合、第1ジェスチャーとして認識しない。 As a result, it is possible to suppress erroneous recognition of recognizing an unintended operation of the user as a first gesture operation. If the recognition unit 22 does not satisfy the above recognition conditions, the recognition unit 22 does not recognize it as the first gesture.

また、認識部22は、設定部23によって設定された基準点に基づいて第2ジェスチャー操作を認識することもできるが、かかる点については、図4A〜図4Dを用いて後述する。 Further, the recognition unit 22 can recognize the second gesture operation based on the reference point set by the setting unit 23, and this point will be described later with reference to FIGS. 4A to 4D.

設定部23は、認識部22によって認識された第1ジェスチャー操作に基づいて基準点Pを設定する。具体的には、設定部23は、第1ジェスチャー操作における特定部位の位置を基準点Pとして設定する。設定部23は、基準点を設定すると、基準点に関する情報を基準点情報32として、記憶部3に格納する。認識部22は、かかる基準点情報32に基づいて第2ジェスチャー操作を認識することができる。 The setting unit 23 sets the reference point P based on the first gesture operation recognized by the recognition unit 22. Specifically, the setting unit 23 sets the position of the specific portion in the first gesture operation as the reference point P. When the reference point is set, the setting unit 23 stores the information about the reference point as the reference point information 32 in the storage unit 3. The recognition unit 22 can recognize the second gesture operation based on the reference point information 32.

また、例えば、設定部23は、認識部22が上下方向への動作を第2ジェスチャー操作として認識する場合、第2ジェスチャー操作に対する無効領域を設定することもできる。図3は、無効領域の具体例を示す図である。 Further, for example, when the recognition unit 22 recognizes the operation in the vertical direction as the second gesture operation, the setting unit 23 can set an invalid area for the second gesture operation. FIG. 3 is a diagram showing a specific example of the invalid region.

図3に示すように、設定部23は、基準点Pと高さが同一の基準線Plを設定する。基準線Plを基準として、基準線Plの幅方向(上下方向)に無効領域laが設けられる。この無効領域laは、第2ジェスチャー操作を認識しない領域となる。 As shown in FIG. 3, the setting unit 23 sets the reference line Pl having the same height as the reference point P. An invalid area la is provided in the width direction (vertical direction) of the reference line Pl with reference to the reference line Pl. This invalid area la is an area that does not recognize the second gesture operation.

これにより、車両Cの揺れに基づく第2ジェスチャー操作の誤認識を抑制することができる。すなわち、ユーザが第1ジェスチャー操作後に、意図せず手を動かす動作を第2ジェスチャー操作として認識対象から除外することができる。なお、無効領域laの上下方向の幅は、例えば、車両Cの振動等を考慮して、予め実験等に基づいて設定される。 As a result, it is possible to suppress erroneous recognition of the second gesture operation based on the shaking of the vehicle C. That is, the action of the user unintentionally moving the hand after the first gesture operation can be excluded from the recognition target as the second gesture operation. The width of the invalid area la in the vertical direction is set in advance based on an experiment or the like in consideration of vibration of the vehicle C or the like.

なお、ここでは、無効領域laが帯状の領域である場合について示したが、無効領域laは、基準点Pを中心とする領域であればよく、円状や楕円状などであってもよい。 Although the case where the invalid region la is a band-shaped region is shown here, the invalid region la may be a region centered on the reference point P and may be circular or elliptical.

図2の説明に戻り、出力部24について説明する。出力部24は、認識部22によって認識された第2ジェスチャー操作に応じた制御コマンドを生成し、車載機器50へ出力する。図4A〜図4Dは、第2ジェスチャー操作の具体例を示す図である。 Returning to the description of FIG. 2, the output unit 24 will be described. The output unit 24 generates a control command corresponding to the second gesture operation recognized by the recognition unit 22 and outputs the control command to the in-vehicle device 50. 4A to 4D are diagrams showing a specific example of the second gesture operation.

図4Aに示すように、認識部22は、5本の指を用いるジェスチャー操作を第2ジェスチャー操作として認識する。この場合、認識部22は、5本の指が基準線Plよりも下に移動した場合、窓を全開にし、5本の指が、基準線Plよりも上に移動した場合、窓を全閉にするジェスチャー操作として認識することができる。 As shown in FIG. 4A, the recognition unit 22 recognizes the gesture operation using five fingers as the second gesture operation. In this case, the recognition unit 22 fully opens the window when the five fingers move below the reference line Pl, and fully closes the window when the five fingers move above the reference line Pl. It can be recognized as a gesture operation.

すなわち、図1Bに示したように、1本の指を用いる第2ジェスチャー操作を認識した場合には、移動ベクトルVに基づいて窓の制御量が調整された制御コマンドが出力される。一方で、5本指を用いる第2ジェスチャー操作を認識した場合には、全開または全閉のいずれかの制御コマンドが出力されることとなる。 That is, as shown in FIG. 1B, when the second gesture operation using one finger is recognized, a control command in which the control amount of the window is adjusted based on the movement vector V is output. On the other hand, when the second gesture operation using five fingers is recognized, either the fully open or fully closed control command is output.

つまり、認識部22は、第2ジェスチャー操作に用いられる指の本数に応じて、制御コマンドの強弱を調節することで、ユーザによる操作を容易にすることができる。なお、ここでは、認識部22が第2ジェスチャー操作として認識する指の本数が、1本または5本である場合について示したが、2〜4本であってもよく、両手の指を用いて6本以上であってもよい。 That is, the recognition unit 22 can facilitate the operation by the user by adjusting the strength of the control command according to the number of fingers used for the second gesture operation. Although the number of fingers recognized by the recognition unit 22 as the second gesture operation is 1 or 5, it may be 2 to 4, and the fingers of both hands are used. It may be 6 or more.

また、認識部22は、指が基準線P1に沿って左右に移動するジェスチャー操作を第2ジェスチャー操作として認識してもよい。例えば、認識部22は、1本の指が基準線P1に沿って左右に移動した場合、これを窓の高さ位置を示すジェスチャー操作として認識することができる。例えば、基準線P1の高さ位置よりも窓が開いている状態で、1本の指が基準線P1に沿って左右に移動した場合、基準線P1の高さ位置まで窓が閉まり、基準線P1の高さ位置よりも窓が閉まっている状態で、1本の指が基準線P1に沿って左右に移動した場合、基準線P1の高さ位置まで窓が開くようにしてもよい。つまり、同じジェスチャー操作だが、操作時の状態(窓の開閉状態)に応じて異なる制御(窓開ける制御または窓を閉じる制御)が行われる。これによりユーザは複数のジェスチャーを覚えることなく現在の状態に応じた直感的な操作が可能となる。 Further, the recognition unit 22 may recognize the gesture operation in which the finger moves left and right along the reference line P1 as the second gesture operation. For example, when one finger moves left and right along the reference line P1, the recognition unit 22 can recognize this as a gesture operation indicating the height position of the window. For example, when one finger moves left and right along the reference line P1 while the window is open from the height position of the reference line P1, the window closes to the height position of the reference line P1 and the reference line is closed. When one finger moves left and right along the reference line P1 while the window is closed from the height position of P1, the window may be opened to the height position of the reference line P1. That is, although the same gesture operation is performed, different controls (window opening control or window closing control) are performed depending on the state at the time of operation (window opening / closing state). This allows the user to perform intuitive operations according to the current state without having to remember multiple gestures.

さらに、認識部22は、窓が全開または基準線P1の高さ位置よりも開いている状態で、5本の指が基準線P1に沿って左右に移動した場合、窓を全閉にするジェスチャー操作として認識し、反対に、窓が全閉または基準線P1の高さ位置よりも閉まっている状態で、5本の指が基準線P1に沿って左右に移動した場合、窓を全開にするジェスチャー操作として認識してもよい。この場合、ユーザは制御内容に応じてジェスチャー操作を変更する必要がないので煩わしさを低減できる。 Further, the recognition unit 22 makes a gesture of fully closing the window when the window is fully opened or opened from the height position of the reference line P1 and five fingers move left and right along the reference line P1. Recognize as an operation, and conversely, if the window is fully closed or closed from the height position of the reference line P1 and five fingers move left and right along the reference line P1, the window is fully opened. It may be recognized as a gesture operation. In this case, the user does not need to change the gesture operation according to the control content, so that the troublesomeness can be reduced.

また、図4Bに示すように、認識部22は、基準点Pを基準として、人差し指の先端と親指の先端とが近接した状態で、人差し指の先端と親指の先端とを、基準点Pから上下に離隔させたり、また、基準点Pに近接させたり、と移動させるような動作を第2ジェスチャーとして認識することができる。例えば、この場合、出力部24は、移動後の親指の先端と基準点Pとの距離および人差し指の先端と基準点Pとの距離の和に基づいて制御量、例えば、窓の開閉の制御量を調整する。尚、親指の先端と人差し指の先端との距離に基づいて、制御量を調整しても良い。 Further, as shown in FIG. 4B, the recognition unit 22 moves the tip of the index finger and the tip of the thumb up and down from the reference point P in a state where the tip of the index finger and the tip of the thumb are close to each other with the reference point P as a reference. As a second gesture, it is possible to recognize an action such as moving the finger to the reference point P or moving it closer to the reference point P. For example, in this case, the output unit 24 controls a control amount based on the sum of the distance between the tip of the thumb and the reference point P after movement and the distance between the tip of the index finger and the reference point P, for example, the control amount for opening and closing the window. To adjust. The control amount may be adjusted based on the distance between the tip of the thumb and the tip of the index finger.

また、図4Cに示すように、認識部22は、基準点Pを始点として、円弧状の軌跡を辿る動作を第2ジェスチャー操作として認識することもできる。この場合、認識部22は、基準点Pから右回りの軌跡Vrをとる場合、窓を開くジェスチャーとして認識し、基準点Pから左回りの軌跡Vlをとる場合、窓を閉めるジェスチャーとして認識する。 Further, as shown in FIG. 4C, the recognition unit 22 can also recognize the operation of following the arcuate locus starting from the reference point P as the second gesture operation. In this case, the recognition unit 22 recognizes as a gesture to open the window when taking a clockwise locus Vr from the reference point P, and recognizes as a gesture to close the window when taking a counterclockwise locus Vl from the reference point P.

また、この場合、出力部24は、軌跡Vr、Vlの軌道の長さや円の大きさに応じて、制御量を調整した制御コマンドを車載機器50へ出力する。 Further, in this case, the output unit 24 outputs a control command whose control amount is adjusted according to the length of the orbits of the loci Vr and Vl and the size of the circle to the in-vehicle device 50.

また、図4Dに示すように、認識部22は、第1ジェスチャー操作によって基準点Pを設定後、基準点Pで所定時間(例えば3秒)停止する動作を第2ジェスチャー操作として認識することもできる。 Further, as shown in FIG. 4D, the recognition unit 22 may recognize the operation of stopping at the reference point P for a predetermined time (for example, 3 seconds) as the second gesture operation after setting the reference point P by the first gesture operation. it can.

この場合、出力部24は、基準点Pに対応付けられた制御コマンドを出力する。本実施形態において、基準点Pに対応付けられた制御コマンドは、窓の開度を高さTaとする制御コマンドである。 In this case, the output unit 24 outputs a control command associated with the reference point P. In the present embodiment, the control command associated with the reference point P is a control command in which the opening degree of the window is set to the height Ta.

この場合、例えば、認識部22は、ユーザが指し示す窓枠Wの位置Tおよび高さTaを算出する。そして、出力部24は、窓の開度を高さTaとする制御コマンドを車載機器50へ出力する。 In this case, for example, the recognition unit 22 calculates the position T and the height Ta of the window frame W pointed to by the user. Then, the output unit 24 outputs a control command for setting the opening degree of the window to the height Ta to the in-vehicle device 50.

つまり、この場合、現在の窓の開度によらず、ユーザが指定した開度に調整することが可能となる。これにより、ユーザが指定した任意の高さに調整することができるので、ユーザビリティを向上させることが可能となる。 That is, in this case, it is possible to adjust to the opening degree specified by the user regardless of the current opening degree of the window. As a result, the height can be adjusted to an arbitrary height specified by the user, so that usability can be improved.

なお、ここでは、基準点Pに対応付けられた制御コマンドが、窓の開度を高さTaとする制御コマンドである場合について示したが、これに限定されるものではなく、任意に設定することにしてもよい。 Here, the case where the control command associated with the reference point P is a control command in which the opening degree of the window is the height Ta is shown, but the present invention is not limited to this, and the control command is arbitrarily set. You may decide.

次に、図5を用いて実施形態に係る制御装置1が実行する処理手順について説明する。図5は、制御装置1が実行する処理手順を示すフローチャートである。なお、かかる処理手順は、制御装置1の制御部2によって繰り返し実行される。 Next, the processing procedure executed by the control device 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing a processing procedure executed by the control device 1. The processing procedure is repeatedly executed by the control unit 2 of the control device 1.

図5に示すように、制御装置1は、まず、3次元情報を取得開始すると(ステップS101)、第1ジェスチャー操作を認識開始したか否かを判定する(ステップS102)。 As shown in FIG. 5, when the control device 1 first starts acquiring the three-dimensional information (step S101), it determines whether or not the first gesture operation has started recognizing (step S102).

制御装置1は、第1ジェスチャー操作の認識を開始した場合(ステップS102,Yes)、第1ジェスチャー操作を認識してから所定時間経過したか否かを判定する(ステップS103)。 When the control device 1 starts recognizing the first gesture operation (step S102, Yes), it determines whether or not a predetermined time has elapsed after recognizing the first gesture operation (step S103).

制御装置1は、ステップS103の処理において、所定時間経過したと判定した場合(ステップS103,Yes)、第1ジェスチャー操作が継続中か否かを判定する(ステップS104)。ステップS104の処理は、ジェスチャー操作の操作対象となる特定部位、例えば、指の動きが止まった(所定時間以上)か否かを判定することにより行われる。 When the control device 1 determines in the process of step S103 that a predetermined time has elapsed (steps S103, Yes), the control device 1 determines whether or not the first gesture operation is continuing (step S104). The process of step S104 is performed by determining whether or not a specific portion to be operated by the gesture operation, for example, the movement of the finger has stopped (or more than a predetermined time).

制御装置1は、ステップS104の処理において、第1ジェスチャー操作が継続中であると判定した場合(ステップS104,Yes)、第1ジェスチャー操作に基づいて基準点Pを設定する(ステップS105)。 When the control device 1 determines in the process of step S104 that the first gesture operation is continuing (steps S104, Yes), the control device 1 sets the reference point P based on the first gesture operation (step S105).

続いて、制御装置1は、基準点Pに基づき、第1ジェスチャー操作に続く第2ジェスチャー操作を認識し(ステップS106)、第2ジェスチャー操作に応じた制御コマンドを生成する(ステップS107)。 Subsequently, the control device 1 recognizes the second gesture operation following the first gesture operation (step S106) based on the reference point P, and generates a control command corresponding to the second gesture operation (step S107).

そして、制御装置1は、車載機器50へ制御コマンドを出力して(ステップS108)、処理を終了する。また、制御装置1は、ステップS102の判定処理において、第1ジェスチャー操作の認識を開始していない場合(ステップS102,No)や、ステップS104の判定処理において、第1ジェスチャー操作が継続されていない場合(ステップS104,No)、ステップS102の処理へ移行する。 Then, the control device 1 outputs a control command to the in-vehicle device 50 (step S108), and ends the process. Further, when the control device 1 has not started recognizing the first gesture operation in the determination process of step S102 (steps S102, No), or the first gesture operation is not continued in the determination process of step S104. In the case (step S104, No), the process proceeds to step S102.

また、制御装置1は、ステップS103の処理において、所定時間経過していない場合(ステップS103,No)、ステップS103の処理を継続して行う。 Further, in the process of step S103, if the predetermined time has not elapsed (steps S103, No), the control device 1 continues the process of step S103.

上述したように、実施形態に係る制御装置1は、認識部22と、設定部23とを備える。認識部22は、制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する。設定部23は、認識部22によって認識された第1ジェスチャー操作に基づいて基準点Pを設定する。 As described above, the control device 1 according to the embodiment includes a recognition unit 22 and a setting unit 23. The recognition unit 22 recognizes the first gesture operation pointing to the target device to be controlled. The setting unit 23 sets the reference point P based on the first gesture operation recognized by the recognition unit 22.

認識部22は、設定部23によって設定された基準点Pに基づいて第2ジェスチャー操作を認識する。したがって、実施形態に係る制御装置1によれば、ユーザビリティを向上させることができる。 The recognition unit 22 recognizes the second gesture operation based on the reference point P set by the setting unit 23. Therefore, according to the control device 1 according to the embodiment, usability can be improved.

ところで、上述した実施形態では、制御装置1が車両Cに搭載され、対象機器が窓である場合について説明したが、これに限定されるものではない。すなわち、制御装置1は、車両以外に搭載することにしてもよいし、窓以外の対象機器を制御することにしてもよい。 By the way, in the above-described embodiment, the case where the control device 1 is mounted on the vehicle C and the target device is a window has been described, but the present invention is not limited to this. That is, the control device 1 may be mounted on a vehicle other than the vehicle, or may control a target device other than the window.

また、上述した実施形態では、第1ジェスチャー操作に基づいて基準点Pを設定し、基準点Pに基づいて第1ジェスチャー操作に続く第2ジェスチャー操作を認識する場合について説明したが、これに限定されるものではない。 Further, in the above-described embodiment, the case where the reference point P is set based on the first gesture operation and the second gesture operation following the first gesture operation is recognized based on the reference point P has been described, but the present invention is limited to this. It is not something that is done.

すなわち、過去に設定した基準点Pに基づいて第2ジェスチャー操作を認識することにしてもよい。言い換えれば、一度設定した基準点Pを使いまわして用いることにしてもよい。 That is, the second gesture operation may be recognized based on the reference point P set in the past. In other words, the reference point P once set may be reused and used.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な様態は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲および、その均等物によって定義される統括的な発明の概念の精神または範囲から逸脱することなく、様々な変化が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments described and described above. Therefore, various changes are possible without departing from the spirit or scope of the overall concept of the invention as defined by the appended claims and their equivalents.

1 制御装置
10 3Dセンサ
21 取得部
22 認識部
23 設定部
24 出力部
P 基準点
Pl 基準線
la 無効領域
1 Control device 10 3D sensor 21 Acquisition unit 22 Recognition unit 23 Setting unit 24 Output unit P Reference point Pl Reference line la Invalid area

Claims (6)

制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する認識部と、
前記認識部によって認識された第1ジェスチャー操作に基づいて基準点を設定する設定部と
を備え、
前記認識部は、
前記設定部によって設定された基準点に基づいて第2ジェスチャー操作を認識すること
を特徴とする制御装置。
A recognition unit that recognizes the first gesture operation that points to the target device to be controlled,
It is provided with a setting unit that sets a reference point based on the first gesture operation recognized by the recognition unit.
The recognition unit
A control device characterized by recognizing a second gesture operation based on a reference point set by the setting unit.
前記設定部は、
第1ジェスチャー操作に基づいて設定した基準点を基準とした所定範囲に第2ジェスチャー操作に対する無効領域を設定すること
を特徴とする請求項1に記載の制御装置。
The setting unit
The control device according to claim 1, wherein an invalid area for the second gesture operation is set in a predetermined range based on a reference point set based on the first gesture operation.
前記認識部は、
所定時間継続された第1ジェスチャー操作を認識すること
を特徴とする請求項1または2に記載の制御装置。
The recognition unit
The control device according to claim 1 or 2, wherein the first gesture operation continued for a predetermined time is recognized.
前記認識部によって認識した第2ジェスチャー操作に応じた制御コマンドを前記対象機器へ出力する出力部
をさらに備え、
前記認識部は、
第2ジェスチャー操作に用いられる指の本数を認識し、
前記出力部は、
前記認識部によって認識された指の本数に応じて、制御コマンドの強弱を変更すること
を特徴とする請求項1、2または3に記載の制御装置。
An output unit that outputs a control command corresponding to the second gesture operation recognized by the recognition unit to the target device is further provided.
The recognition unit
Recognize the number of fingers used for the second gesture operation
The output unit
The control device according to claim 1, 2 or 3, wherein the strength of the control command is changed according to the number of fingers recognized by the recognition unit.
前記認識部は、
前記設定部によって設定した基準点で停止する第2ジェスチャー操作を認識し、
前記出力部は、
前記基準点に対応する制御コマンドを出力すること
を特徴とする請求項4に記載の制御装置。
The recognition unit
Recognizes the second gesture operation that stops at the reference point set by the setting unit,
The output unit
The control device according to claim 4, wherein a control command corresponding to the reference point is output.
制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する認識工程と、
前記認識工程によって認識された第1ジェスチャー操作に基づいて基準点を設定する設定工程と
を含み、
前記認識工程は、
前記設定工程によって設定された基準点に基づいて第2ジェスチャー操作を認識すること
を特徴とする制御方法。
A recognition process that recognizes the first gesture operation that points to the target device to be controlled,
Including a setting step of setting a reference point based on the first gesture operation recognized by the recognition step.
The recognition step is
A control method comprising recognizing a second gesture operation based on a reference point set by the setting step.
JP2019045004A 2019-03-12 2019-03-12 Control device and control method Pending JP2020149228A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019045004A JP2020149228A (en) 2019-03-12 2019-03-12 Control device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019045004A JP2020149228A (en) 2019-03-12 2019-03-12 Control device and control method

Publications (1)

Publication Number Publication Date
JP2020149228A true JP2020149228A (en) 2020-09-17

Family

ID=72432036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019045004A Pending JP2020149228A (en) 2019-03-12 2019-03-12 Control device and control method

Country Status (1)

Country Link
JP (1) JP2020149228A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145722A (en) * 2002-10-25 2004-05-20 Keio Gijuku Hand pattern switching device
JP2007266772A (en) * 2006-03-27 2007-10-11 Toshiba Corp Apparatus operating unit and apparatus operating method
JP2013037454A (en) * 2011-08-05 2013-02-21 Ikutoku Gakuen Posture determination method, program, device, and system
WO2013137412A1 (en) * 2012-03-15 2013-09-19 オムロン株式会社 Control device, electronic device, control method, control program, and computer-readable recording medium which stores control program
JP2015034459A (en) * 2013-07-08 2015-02-19 テイ・エス テック株式会社 Window opening/closing system
JP2016194780A (en) * 2015-03-31 2016-11-17 コニカミノルタ株式会社 Content display device, content display device program, and recording medium having content display device program recorded
JP2018206073A (en) * 2017-06-05 2018-12-27 株式会社東海理化電機製作所 Remote operation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145722A (en) * 2002-10-25 2004-05-20 Keio Gijuku Hand pattern switching device
JP2007266772A (en) * 2006-03-27 2007-10-11 Toshiba Corp Apparatus operating unit and apparatus operating method
JP2013037454A (en) * 2011-08-05 2013-02-21 Ikutoku Gakuen Posture determination method, program, device, and system
WO2013137412A1 (en) * 2012-03-15 2013-09-19 オムロン株式会社 Control device, electronic device, control method, control program, and computer-readable recording medium which stores control program
JP2015034459A (en) * 2013-07-08 2015-02-19 テイ・エス テック株式会社 Window opening/closing system
JP2016194780A (en) * 2015-03-31 2016-11-17 コニカミノルタ株式会社 Content display device, content display device program, and recording medium having content display device program recorded
JP2018206073A (en) * 2017-06-05 2018-12-27 株式会社東海理化電機製作所 Remote operation system

Similar Documents

Publication Publication Date Title
US10048793B2 (en) Electronic device and method of controlling electronic device using grip sensing
KR101646616B1 (en) Apparatus and Method for Controlling Object
KR101542986B1 (en) System and control method for gestures recognition using holographic
KR102349666B1 (en) Method and device for waking up a voice recognition function in a mobile terminal
CN109725782B (en) Method and device for realizing virtual reality, intelligent equipment and storage medium
US9927974B2 (en) Automatic customization of keypad key appearance
US20170102790A1 (en) Navigation trace calibrating method and related optical navigation device
WO2016078405A1 (en) Method and device for adjusting object attribute information
CN107992841A (en) The method and device of identification objects in images, electronic equipment, readable storage medium storing program for executing
US11507194B2 (en) Methods and devices for hand-on-wheel gesture interaction for controls
CN108369451B (en) Information processing apparatus, information processing method, and computer-readable storage medium
US10444831B2 (en) User-input apparatus, method and program for user-input
US10228769B2 (en) Equipment control device, equipment control method, and non-transitory recording medium
JP7062930B2 (en) Controls and programs
JP2020149228A (en) Control device and control method
JP2017191426A (en) Input device, input control method, computer program, and storage medium
CN112383826A (en) Control method and device of vehicle-mounted entertainment terminal, storage medium, terminal and automobile
WO2023216613A1 (en) Control method, electronic device and computer storage medium
JP4563723B2 (en) Instruction motion recognition device and instruction motion recognition program
WO2020029556A1 (en) Plane adaptation method and device, and computer readable storage medium
CN113534957B (en) Single-hand control method and device and mobile terminal
JP5676959B2 (en) Information processing apparatus and control method thereof
KR102548369B1 (en) Apparatus and method for assisting driver
KR20150022238A (en) Electronic device and method for image processing in electronic device
CN112922892B (en) Fan control method, fan and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905