JP2018032123A - Operation input device - Google Patents

Operation input device Download PDF

Info

Publication number
JP2018032123A
JP2018032123A JP2016162444A JP2016162444A JP2018032123A JP 2018032123 A JP2018032123 A JP 2018032123A JP 2016162444 A JP2016162444 A JP 2016162444A JP 2016162444 A JP2016162444 A JP 2016162444A JP 2018032123 A JP2018032123 A JP 2018032123A
Authority
JP
Japan
Prior art keywords
touch
unit
input unit
gesture
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016162444A
Other languages
Japanese (ja)
Inventor
晋也 石丸
Shinya Ishimaru
晋也 石丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2016162444A priority Critical patent/JP2018032123A/en
Publication of JP2018032123A publication Critical patent/JP2018032123A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation input device capable of selecting information by an operation which is seamless and high in affinity.SOLUTION: An operation input device 1 is configured to perform various operations such as a selecting operation, a determining operation and an additional operation or the like in menu display as an operator performs various input operations by performing a gesture operation, a touch operation and a rotary operation with his or her finger. The operation input device comprises a main body 10 placed via a mounting reference surface 50 on a mounting object 70, and a gesture input part 100 is provided on an inclined surface 30 having a predetermined inclination (angle θ) with the mounting reference surface 50 in the main body 10. Also, three touch input parts are provided at a frustum part (circular truncated cone) 20 of the main body 10. Also, a rotary dial input part 300 is provided coaxially with a center line CL1 of the frustum part (circular truncated cone) 20.SELECTED DRAWING: Figure 1

Description

本発明は、操作入力装置に関する。   The present invention relates to an operation input device.

従来の技術として、多機能をより小さいスペースで実現することが可能な操作入力装置が知られている(例えば、特許文献1参照)。   As a conventional technique, an operation input device capable of realizing multiple functions in a smaller space is known (for example, see Patent Document 1).

特許文献1の操作入力装置は、第1タッチ操作面と、第1タッチ操作面に対して角度をなす第2タッチ操作面とを有する本体部と、第1タッチ操作面に対する操作を検出する第1センサと、第2タッチ操作面に対する操作を検出する第2センサと、第1タッチ操作面に対する操作を検出したときに第1機能を実現し、第2タッチ操作面に対する操作を検出したときに、第1機能とは異なる第2機能を実現する処理装置と含むように構成されている。   The operation input device disclosed in Patent Document 1 includes a main body having a first touch operation surface, a second touch operation surface that forms an angle with respect to the first touch operation surface, and a first operation that detects an operation on the first touch operation surface. 1 sensor, a second sensor that detects an operation on the second touch operation surface, and a first function that is realized when an operation on the first touch operation surface is detected, and an operation on the second touch operation surface is detected And a processing device that implements a second function different from the first function.

このような構成により、ユーザは、本体部の第1タッチ操作面及び第2タッチ操作面に対して多様な操作を行うことで、多様な機能を実現させることができる。すなわち、本体部は、複数の機械的なスイッチを備える操作装置と同様の機能を実現できる。これにより、多機能をより小さいスペースで実現することができるとされている。   With such a configuration, the user can realize various functions by performing various operations on the first touch operation surface and the second touch operation surface of the main body. That is, the main body can realize the same function as that of an operating device including a plurality of mechanical switches. Thereby, it is said that multiple functions can be realized in a smaller space.

特開2015−228118号公報JP2015-228118A

しかし、従来の特許文献1の操作入力装置は、手指の位置やその動きを考慮した立体的なデバイス形状とそれらに適したスイッチの配置として十分ではなかった。また、各センサへの操作を繋ぐ親和性が低く、シームレスな連続操作には十分ではないという問題があった。   However, the conventional operation input device of Patent Document 1 is not sufficient as a three-dimensional device shape in consideration of the position and movement of a finger and a switch arrangement suitable for them. In addition, there is a problem that the affinity for connecting the operations to each sensor is low, which is not sufficient for seamless continuous operation.

従って、本発明の目的は、情報の取捨選択をシームレスで親和性の高い操作により可能とする操作入力装置を提供することにある。   Therefore, an object of the present invention is to provide an operation input device that enables selection of information by a seamless and high-affinity operation.

[1]本発明は、上記目的を達成するために、ジェスチャー操作により入力操作がされるジェスチャー入力部と、タッチ操作により入力操作がされ、錐台部の一部に設けられた第1のタッチ入力部と、を有し、前記ジェスチャー入力部は、前記錐台部の中心線よりも一方側に設けられた領域であり、かつ前記錐台部とは別の領域に配置され、前記第1のタッチ入力部は、前記錐台部の中心線よりも他方側に配置されていることを特徴とする操作入力装置を提供する。 [1] In order to achieve the above object, the present invention provides a gesture input unit that performs an input operation by a gesture operation, and a first touch that is input by a touch operation and is provided on a part of a frustum unit. The gesture input unit is a region provided on one side of the center line of the frustum unit, and is disposed in a region different from the frustum unit, the first unit The touch input unit is provided on the other side of the center line of the frustum unit.

[2]回転操作により入力操作がされる回転ダイヤル入力部を有していることを特徴とする上記[1]に記載の操作入力装置であってもよい。 [2] The operation input device according to [1], further including a rotary dial input unit that performs an input operation by a rotation operation.

[3]また、前記回転ダイヤル入力部は、前記錐台部と同軸に配置されていることを特徴とする上記[2]に記載の操作入力装置であってもよい。 [3] The operation input device according to [2], wherein the rotary dial input unit is arranged coaxially with the frustum unit.

[4]また、前記錐台部において、前記錐台部の中心線よりも前記一方側に、さらに前記第1のタッチ入力部とは別体の第2のタッチ入力部を有していることを特徴とする上記[1]から[3]のいずれか1に記載の操作入力装置であってもよい。 [4] The frustum portion further includes a second touch input portion that is separate from the first touch input portion on the one side of the center line of the frustum portion. The operation input device described in any one of [1] to [3] above may be used.

[5]また、前記ジェスチャー入力部の入力面は、搭載基準面に対して所定の傾きを有していることを特徴とする上記[1]から[4]のいずれか1に記載の操作入力装置であってもよい。 [5] The operation input according to any one of [1] to [4], wherein the input surface of the gesture input unit has a predetermined inclination with respect to the mounting reference surface. It may be a device.

本発明によれば、情報の取捨選択をシームレスで親和性の高い操作により可能とする操作入力装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the operation input apparatus which enables selection of information by operation with seamless and high affinity can be provided.

図1(a)は、本発明の実施の形態に係る操作入力装置の全体外観を示す斜視図であり、図1(b)は、上平面図であり、図1(c)は、正面図である。Fig.1 (a) is a perspective view which shows the whole external appearance of the operation input apparatus which concerns on embodiment of this invention, FIG.1 (b) is a top plan view, FIG.1 (c) is a front view. It is. 図2は、本発明の実施の形態に係る操作入力装置の構成を示す構成ブロック図である。FIG. 2 is a block diagram showing the configuration of the operation input device according to the embodiment of the present invention. 図3は、ジェスチャー入力部へジェスチャー操作をしている状態を示す斜視図である。FIG. 3 is a perspective view illustrating a state in which a gesture operation is performed on the gesture input unit. 図4(a)は、ジェスチャー入力部である静電式近接センサの概略構成を示す図であり、図4(b)は、ジェスチャー入力操作により取得された静電容量値の分布を示す図である。FIG. 4A is a diagram illustrating a schematic configuration of an electrostatic proximity sensor that is a gesture input unit, and FIG. 4B is a diagram illustrating a distribution of capacitance values acquired by a gesture input operation. is there. 図5は、タッチ入力部へタッチ操作をしている状態を示す斜視図である。FIG. 5 is a perspective view illustrating a state in which a touch operation is performed on the touch input unit. 図6(a)は、タッチ入力部である静電式タッチセンサの概略構成を示す図であり、図6(b)は、タッチ入力操作により取得された静電容量値の分布を示す図である。FIG. 6A is a diagram illustrating a schematic configuration of an electrostatic touch sensor that is a touch input unit, and FIG. 6B is a diagram illustrating a distribution of capacitance values acquired by a touch input operation. is there. 図7は、回転ダイヤル入力部へ回転操作をしている状態を示す斜視図である。FIG. 7 is a perspective view showing a state where the rotary dial input unit is being rotated. 図8は、第3タッチ入力部へタッチ操作をしている状態を示す斜視図である。FIG. 8 is a perspective view illustrating a state in which a touch operation is performed on the third touch input unit. 図9(a)〜(f)は、メニュー画面の操作例をそれぞれ示す図である。FIGS. 9A to 9F are diagrams illustrating examples of operations on the menu screen.

図1(a)は、本発明の実施の形態に係る操作入力装置の全体外観を示す斜視図であり、図1(b)は、上平面図であり、図1(c)は、正面図である。また、図2は、本発明の実施の形態に係る操作入力装置の構成を示す構成ブロック図である。本発明の実施の形態に係る操作入力装置1は、操作者が手指により、ジェスチャー操作、タッチ操作、回転操作を行なうことにより種々の入力操作を行ない、これによりメニュー表示における選択操作、決定操作、追加操作等の種々の操作を行なうものである。   Fig.1 (a) is a perspective view which shows the whole external appearance of the operation input apparatus which concerns on embodiment of this invention, FIG.1 (b) is a top plan view, FIG.1 (c) is a front view. It is. FIG. 2 is a block diagram showing the configuration of the operation input device according to the embodiment of the present invention. The operation input device 1 according to the embodiment of the present invention performs various input operations by an operator performing gesture operation, touch operation, and rotation operation with fingers, thereby selecting operation in menu display, determination operation, Various operations such as an additional operation are performed.

本実施の形態に係る操作入力装置1は、ジェスチャー操作により入力操作がされるジェスチャー入力部100と、タッチ操作により入力操作がされ、錐台部20の一部に設けられた第1のタッチ入力部であるタッチ入力部200と、を有し、ジェスチャー入力部100は、錐台部20の中心線よりも一方側に設けられた領域であり、かつ錐台部20とは別の領域に配置され、タッチ入力部200は、錐台部20の中心線よりも他方側に配置されて構成されている。   The operation input device 1 according to the present embodiment includes a gesture input unit 100 in which an input operation is performed by a gesture operation, and a first touch input provided in a part of the frustum unit 20 by an input operation by a touch operation. The gesture input unit 100 is a region provided on one side of the center line of the frustum unit 20 and disposed in a region different from the frustum unit 20. The touch input unit 200 is arranged on the other side of the center line of the frustum unit 20.

図1(a)に示すように、操作入力装置1は、搭載対象物70上に搭載基準面50を介して載置される本体部10を有し、この本体部10には、搭載基準面50と所定の傾き(角度θ)を有する傾斜面30上にジェスチャー入力部100が設けられている。また、本体部10の錐台部(円錐台部)20には、タッチ入力部200が3か所設けられている。また、錐台部(円錐台部)20の中心線CL1と同軸に、回転ダイヤル入力部300が設けられている。なお、搭載対象物70は、一例を挙げれば、車両のセンターコンソール等である。   As shown in FIG. 1A, the operation input device 1 has a main body portion 10 placed on a mounting object 70 via a mounting reference surface 50, and the main body portion 10 includes a mounting reference surface. The gesture input unit 100 is provided on an inclined surface 30 having a predetermined inclination (angle θ) of 50. The frustum portion (conical frustum portion) 20 of the main body portion 10 is provided with three touch input portions 200. A rotary dial input unit 300 is provided coaxially with the center line CL1 of the frustum portion (conical frustum portion) 20. The mounting object 70 is, for example, a vehicle center console or the like.

図1(b)に示すように、錐台部(円錐台部)20の中心を通る中心線CL2に対して、ジェスチャー入力部100は一方側(図1(b)において左側)に配置され、タッチ入力部200(第1タッチ入力部205、第2タッチ入力部206)は他方側(図1(b)において右側)に配置されている。   As shown in FIG. 1B, the gesture input unit 100 is arranged on one side (left side in FIG. 1B) with respect to the center line CL2 passing through the center of the frustum portion (conical frustum portion) 20, The touch input unit 200 (the first touch input unit 205 and the second touch input unit 206) is disposed on the other side (the right side in FIG. 1B).

ジェスチャー入力部100は、静電容量により近接した手指等の誘電体の位置、静電容量分布を検出するもので、図2に示すように、制御部500と接続されている。タッチ入力部200は、静電容量によりタッチ(接触)した手指等の位置、静電容量分布を検出するもので、図2に示すように、制御部500と接続されている。また、回転ダイヤル入力部300は、回転エンコーダ等の回転センサにより回転位置を検出するもので、図2に示すように、制御部500と接続されている。また、回転ダイヤル入力部300の中心部には、独立してプッシュ操作が可能なプッシュスイッチ400が設けられてプッシュ操作を検出するもので、図2に示すように、制御部500と接続されている。   The gesture input unit 100 detects the position of a dielectric such as a finger that is closer to the capacitance, and the capacitance distribution, and is connected to the control unit 500 as shown in FIG. The touch input unit 200 detects the position of a finger or the like touched (contacted) by electrostatic capacitance, and the electrostatic capacitance distribution, and is connected to the control unit 500 as shown in FIG. The rotary dial input unit 300 detects a rotational position by a rotation sensor such as a rotary encoder, and is connected to the control unit 500 as shown in FIG. In addition, a push switch 400 that can be independently operated by a push operation is provided at the center of the rotary dial input unit 300 to detect the push operation, and is connected to the control unit 500 as shown in FIG. Yes.

図2に示すように、制御部500には、操作入力装置1から近接信号Sn、タッチ信号St1、St2、St3、ダイヤル信号Sd、プッシュ信号Spが入力される。制御部500は、これらの入力信号の信号処理を行なうことにより、メニュー画面600において、表示メニューの選択、追加等の処理、制御を行なう。また、これに基づいて、制御対象機器700を制御することができる。 As shown in FIG. 2, a proximity signal Sn, touch signals S t1 , S t2 , S t3 , a dial signal Sd, and a push signal Sp are input from the operation input device 1 to the control unit 500. Control unit 500 performs processing such as selection and addition of a display menu on menu screen 600 by performing signal processing of these input signals. Based on this, the control target device 700 can be controlled.

(ジェスチャー入力部100)
ジェスチャー入力部100は、図3に示すように、手指90の近接状態(ホバー状態)を静電容量値の分布により検出するものである。図3は、ジェスチャー入力部へジェスチャー操作をしている状態を示す斜視図である。特に、手指90の指部の動きをジェスチャーとして検出する。
(Gesture input unit 100)
As shown in FIG. 3, the gesture input unit 100 detects the proximity state (hover state) of the finger 90 based on the distribution of capacitance values. FIG. 3 is a perspective view illustrating a state in which a gesture operation is performed on the gesture input unit. In particular, the movement of the finger part of the finger 90 is detected as a gesture.

図4(a)は、ジェスチャー入力部である静電式近接センサの概略構成を示す図であり、図4(b)は、ジェスチャー入力操作により取得された静電容量値の分布を示す図である。   FIG. 4A is a diagram illustrating a schematic configuration of an electrostatic proximity sensor that is a gesture input unit, and FIG. 4B is a diagram illustrating a distribution of capacitance values acquired by a gesture input operation. is there.

ジェスチャー入力部100は、図4(a)に示すように、複数の駆動電極101と、複数の検出電極102と、駆動部120と、読出部140と、を備えて概略構成されている。図4(a)に示すように、左隅部から右方向にx軸、上隅部から下方向にy軸が設定されている。このx軸、y軸は、操作入力座標(x、y)として、タッチ操作の入力の基準となる。   As shown in FIG. 4A, the gesture input unit 100 is schematically configured to include a plurality of drive electrodes 101, a plurality of detection electrodes 102, a drive unit 120, and a reading unit 140. As shown in FIG. 4A, the x-axis is set from the left corner to the right, and the y-axis is set from the upper corner to the bottom. The x-axis and y-axis serve as the input reference for the touch operation as the operation input coordinates (x, y).

駆動電極101及び検出電極102は、例えば、ITO(tin-doped indium oxide)などを用いた透明電極として構成されている。この駆動電極101と検出電極102は、互いに絶縁されながら交差するように配置されている。   The drive electrode 101 and the detection electrode 102 are configured as transparent electrodes using, for example, ITO (tin-doped indium oxide). The drive electrode 101 and the detection electrode 102 are arranged so as to cross each other while being insulated from each other.

駆動電極101は、例えば、x軸と平行に等間隔で配置されると共に駆動部120と電気的に接続されている。制御部500は、周期的に駆動電極101との接続を切り替えて駆動信号Sを供給する。 For example, the drive electrodes 101 are arranged at equal intervals in parallel with the x-axis and are electrically connected to the drive unit 120. Control unit 500 supplies the driving signals S 1 switches the connection to periodically drive electrode 101.

検出電極102は、例えば、y軸と平行に等間隔で配置されると共に読出部140と電気的に接続されている。読出部140は、1つの駆動電極101に駆動信号Sが供給されている間に検出電極102の接続を周期的に切り替え、駆動電極101と検出電極102の組み合わせで生成される静電容量(相互容量)を読み出す。そして読出部140は、一例として、読み出した静電容量に対してアナログ・デジタル変換処理などを行った静電容量カウント値としての近接信号Snを生成して制御部500に出力する。 For example, the detection electrodes 102 are arranged at equal intervals in parallel with the y-axis and are electrically connected to the reading unit 140. The readout unit 140 periodically switches the connection of the detection electrode 102 while the drive signal S1 is supplied to one drive electrode 101, and generates a capacitance (a capacitance generated by the combination of the drive electrode 101 and the detection electrode 102). Read mutual capacity). For example, the reading unit 140 generates a proximity signal Sn as a capacitance count value obtained by performing analog-digital conversion processing on the read capacitance and outputs the proximity signal Sn to the control unit 500.

この近接信号Snは、設定された解像度に応じて生成される。具体的には、読出部140は、図4(b)に示すように、座標x〜座標x12、座標y〜座標y12、静電容量カウント値の組み合わせで近接信号Snが得られるように処理を行う。 This proximity signal Sn is generated according to the set resolution. Specifically, as illustrated in FIG. 4B, the reading unit 140 obtains the proximity signal Sn by a combination of coordinates x 1 to x 12 , coordinates y 1 to coordinates y 12 , and capacitance count values. Process as follows.

制御部500は、例えば、1周期分の近接信号Snを近接値分布情報150として記憶する。この近接値分布情報150は、例えば、図4(b)に示すように、座標x〜座標x12、座標y〜座標y12の組み合わせに対応する静電容量カウント値を割り当てて生成された分布の情報である。 For example, the control unit 500 stores the proximity signal Sn for one period as the proximity value distribution information 150. For example, as illustrated in FIG. 4B, the proximity value distribution information 150 is generated by assigning capacitance count values corresponding to combinations of the coordinates x 1 to the coordinates x 12 and the coordinates y 1 to the coordinates y 12. Distribution information.

なお、このジェスチャー入力部100は、近接検出と共に接触検出もできるが、ジェスチャー操作を検出するために手指90の近接状態を検出しやすいように、いわゆる2次元タッチセンサの感度を高めた構成とされている。   The gesture input unit 100 can perform contact detection as well as proximity detection, but is configured to increase the sensitivity of a so-called two-dimensional touch sensor so that the proximity state of the finger 90 can be easily detected in order to detect a gesture operation. ing.

(タッチ入力部200)
第1のタッチ入力部であるタッチ入力部200は、図1(b)に示すように、錐台部20の中心線よりも他方側、すなわち、錐台部(円錐台部)20の中心を通る中心線CL2に対して、ジェスチャー入力部100と反対側の錐台部20に設けられている。第1のタッチ入力部であるタッチ入力部200は、右手親指検知のための第1タッチ入力部205と、左手親指検知のための第2タッチ入力部206が設けられている。
(Touch input unit 200)
As shown in FIG. 1B, the touch input unit 200 that is the first touch input unit is located on the other side of the center line of the frustum portion 20, that is, the center of the frustum portion (conical frustum portion) 20. It is provided on the frustum portion 20 opposite to the gesture input portion 100 with respect to the passing center line CL2. The touch input unit 200 that is a first touch input unit is provided with a first touch input unit 205 for detecting the right thumb and a second touch input unit 206 for detecting the left thumb.

図5は、タッチ入力部へタッチ操作をしている状態を示す斜視図である。例えば、右手でタッチ操作(なぞり操作等)をする場合は、図5に示すように、例えば、右手親指92と人差指93で操作し、右手親指92が第1タッチ入力部205をタッチ操作(なぞり操作等)することを想定している。同様に、左手でタッチ操作(なぞり操作等)をする場合は、例えば、左手親指と人差し指で操作し、左手親指が第2タッチ入力部206をタッチ操作(なぞり操作等)することを想定している。   FIG. 5 is a perspective view illustrating a state in which a touch operation is performed on the touch input unit. For example, when a touch operation (such as a tracing operation) is performed with the right hand, as illustrated in FIG. 5, for example, the right thumb 92 and the index finger 93 are operated. Operation). Similarly, when a touch operation (such as a tracing operation) is performed with the left hand, for example, it is assumed that the left thumb and an index finger operate, and the left thumb performs a touch operation (such as a tracing operation) on the second touch input unit 206. Yes.

図6(a)は、タッチ入力部である静電式タッチセンサの概略構成を示す図であり、図6(b)は、タッチ入力操作により取得された静電容量値の分布を示す図である。なお、以下の説明は、第1タッチ入力部205で行なうが、第2タッチ入力部206においても同様である。   FIG. 6A is a diagram illustrating a schematic configuration of an electrostatic touch sensor that is a touch input unit, and FIG. 6B is a diagram illustrating a distribution of capacitance values acquired by a touch input operation. is there. The following description will be given by the first touch input unit 205, but the same applies to the second touch input unit 206.

第1タッチ入力部205は、図6(a)に示すように、複数の駆動電極201と、複数の検出電極202と、駆動部220と、読出部240と、を備えて概略構成されている。図6(a)に示すように、左隅部から右方向にx軸、上隅部から下方向にy軸が設定されている。このx軸、y軸は、操作入力座標(x、y)として、タッチ操作の入力の基準となる。なお、第1タッチ入力部205は、錐台部(円錐台部)20の表面に配置されるので、駆動電極201は錐台の母線であり、検出電極202はそれぞれの駆動電極201と直交する線となり、展開して図示すると、図6(b)に示すような扇型の形状となる。   As shown in FIG. 6A, the first touch input unit 205 is schematically configured to include a plurality of drive electrodes 201, a plurality of detection electrodes 202, a drive unit 220, and a reading unit 240. . As shown in FIG. 6A, the x-axis is set from the left corner to the right, and the y-axis is set from the upper corner to the bottom. The x-axis and y-axis serve as the input reference for the touch operation as the operation input coordinates (x, y). Since the first touch input unit 205 is disposed on the surface of the frustum part (conical frustum part) 20, the drive electrode 201 is a bus bar of the frustum, and the detection electrode 202 is orthogonal to each drive electrode 201. When it becomes a line and is developed and illustrated, it has a fan shape as shown in FIG.

駆動電極201及び検出電極202は、例えば、ITO(tin-doped indium oxide)などを用いた透明電極として構成されている。この駆動電極201と検出電極202は、互いに絶縁されながら交差するように配置されている。   The drive electrode 201 and the detection electrode 202 are configured as transparent electrodes using, for example, ITO (tin-doped indium oxide). The drive electrode 201 and the detection electrode 202 are arranged so as to intersect with each other while being insulated from each other.

駆動電極201は、例えば、x軸と平行に等間隔で配置されると共に駆動部220と電気的に接続されている。制御部500は、周期的に駆動電極201との接続を切り替えて駆動信号Sを供給する。 For example, the drive electrodes 201 are arranged at equal intervals in parallel with the x-axis and are electrically connected to the drive unit 220. Control unit 500 supplies a drive signal S 2 by switching the connection between the periodically drive electrode 201.

検出電極202は、例えば、y軸と平行に等間隔で配置されると共に読出部240と電気的に接続されている。読出部240は、1つの駆動電極201に駆動信号Sが供給されている間に検出電極202の接続を周期的に切り替え、駆動電極201と検出電極202の組み合わせで生成される静電容量(相互容量)を読み出す。そして読出部240は、一例として、読み出した静電容量に対してアナログ・デジタル変換処理などを行った静電容量カウント値としてのタッチ信号St1を生成して制御部500に出力する。 For example, the detection electrodes 202 are arranged at equal intervals in parallel with the y-axis and are electrically connected to the reading unit 240. The reading unit 240 periodically switches the connection of the detection electrode 202 while the drive signal S 2 is supplied to one drive electrode 201, and generates a capacitance generated by the combination of the drive electrode 201 and the detection electrode 202 ( Read mutual capacity). For example, the reading unit 240 generates a touch signal St1 as a capacitance count value obtained by performing analog-digital conversion processing on the read capacitance and outputs the generated touch signal St1 to the control unit 500.

このタッチ信号St1は、設定された解像度に応じて生成される。具体的には、読出部240は、図6(b)に示すように、座標x〜座標x12、座標y〜座標y、静電容量カウント値の組み合わせでタッチ信号St1が得られるように処理を行う。 The touch signal St1 is generated according to the set resolution. Specifically, the reading unit 240, as shown in FIG. 6 (b), the coordinates x 1 ~ coordinate x 12, coordinate y 1 ~ coordinate y 7, the touch signal S t1 in combination capacitance count value obtained Process.

制御部500は、例えば、1周期分のタッチ信号St1をタッチ分布情報250として記憶する。このタッチ分布情報250は、例えば、図6(b)に示すように、座標x〜座標x12、座標y〜座標yの組み合わせに対応する静電容量カウント値が所定の閾値を超えた領域(図6(b)で示すハッチング部分)の分布の情報である。 For example, the control unit 500 stores the touch signal St1 for one cycle as the touch distribution information 250. In the touch distribution information 250, for example, as shown in FIG. 6B, the capacitance count value corresponding to the combination of the coordinates x 1 to x 12 and the coordinates y 1 to y 7 exceeds a predetermined threshold. The distribution information of the region (hatched portion shown in FIG. 6B).

(回転ダイヤル入力部300)
回転ダイヤル入力部300は、図1(a)、(b)、(c)に示すように、錐台部(円錐台部)20の中心線CL1と同軸に配置されている。図7は、回転ダイヤル入力部300へ回転操作をしている状態を示す斜視図である。手指90により回転ノブ310を回転操作することにより、回転角を検出する。
(Rotary dial input unit 300)
The rotary dial input unit 300 is arranged coaxially with the center line CL1 of the frustum portion (conical frustum portion) 20 as shown in FIGS. FIG. 7 is a perspective view showing a state where the rotary dial input unit 300 is being rotated. The rotation angle is detected by rotating the rotary knob 310 with the fingers 90.

回転検出は種々の方式により可能であるが、本実施の形態では、一例として、図1(c)に示すように、ロータリーエンコーダ320により回転角を検出する。ロータリーエンコーダ320は、例えば、回転ノブ310と連動又は一体的に回転するエンコーダ盤と光学的にエンコーダ盤からの反射光あるいは透過光を読み取ることにより回転検出するものである。この回転検出値は、ダイヤル信号Sdとして制御部500に出力される。   Although rotation detection is possible by various methods, in this embodiment, as an example, the rotation angle is detected by a rotary encoder 320 as shown in FIG. The rotary encoder 320, for example, detects rotation by optically reading reflected light or transmitted light from the encoder board and an encoder board that rotates in conjunction with or integrally with the rotary knob 310. This rotation detection value is output to control unit 500 as dial signal Sd.

(プッシュスイッチ400)
プッシュスイッチ400は、図1(a)、(b)、(c)に示すように、回転ダイヤル入力部300の中心部に独立してプッシュ操作が可能にプッシュ部410が設けられている。プッシュスイッチ400は、プッシュ操作を検出するもので、図2に示すように、制御部500と接続されている。
(Push switch 400)
As shown in FIGS. 1A, 1 </ b> B, and 1 </ b> C, the push switch 400 is provided with a push portion 410 at the center of the rotary dial input portion 300 so that a push operation can be performed independently. The push switch 400 detects a push operation and is connected to the control unit 500 as shown in FIG.

プッシュスイッチ400は、プッシュ部410が押圧されることにより、例えば、図1(c)に示すように、スイッチ部420がオンすることにより、プッシュ信号Spを制御部500に出力する。   The push switch 400 outputs a push signal Sp to the control unit 500 when the push unit 410 is pressed, for example, as shown in FIG.

(第3タッチ入力部230)
図8は、第3タッチ入力部へタッチ操作をしている状態を示す斜視図である。第2のタッチ入力部である第3タッチ入力部230は、第1のタッチ入力部(第1タッチ入力部205、第2タッチ入力部206)とは別に、例えば、人差指でスライド操作、なぞり操作をするために、追加手段として、錐台部20に設けられている。この第3タッチ入力部230は、錐台部(円錐台部)20の中心線よりも一方側、すなわち、錐台部(円錐台部)20の中心を通る中心線CL2に対して、ジェスチャー入力部100と同じ側の錐台部20に設けられている。
(Third touch input unit 230)
FIG. 8 is a perspective view illustrating a state in which a touch operation is performed on the third touch input unit. The third touch input unit 230, which is the second touch input unit, is different from the first touch input unit (the first touch input unit 205 and the second touch input unit 206), for example, a slide operation or a tracing operation with the index finger. In order to do this, the frustum unit 20 is provided as an additional means. The third touch input unit 230 is configured to input a gesture with respect to a center line CL2 passing through the center line of the frustum portion (conical frustum portion) 20 on one side of the frustum portion (conical frustum portion) 20. The frustum portion 20 is provided on the same side as the portion 100.

第3タッチ入力部230は、第1タッチ入力部205、第2タッチ入力部206と同様の構成であるタッチセンサであり、スライド操作、なぞり操作によるタッチ信号St3を生成して制御部500に出力する。 The third touch input unit 230, the first touch input unit 205, a touch sensor which is the same configuration as the second touch input unit 206, a slide operation, the control unit 500 generates a touch signal S t3 by tracing operation Output.

(制御部500)
制御部500は、例えば、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)、半導体メモリであるRAM(Random Access Memory)及びROM(Read Only Memory)などから構成されるマイクロコンピュータである。制御部500は、ジェスチャー入力部100、タッチ入力部200(第1タッチ入力部205、第2タッチ入力部206)、第3タッチ入力部230、回転ダイヤル入力部300、プッシュスイッチ400等の制御を行なうと共に、ジェスチャー処理部510、タッチ処理部520、回転ダイヤル処理部530、スライド処理部540を有して構成されている。ROMには、例えば、制御部500が動作するためのプログラムと、各処理部を実行するためのプログラムが格納されている。また、ジェスチャー判定、タッチ判定等の各種テンプレート、閾値等が参照可能な形態で格納されている。また、RAMは、例えば、一時的に演算結果などを格納する作業領域、記憶領域として用いられ、近接値分布情報150、タッチ分布情報250等が生成される。
(Control unit 500)
The control unit 500 includes, for example, a CPU (Central Processing Unit) that performs operations and processes on acquired data according to a stored program, a RAM (Random Access Memory) that is a semiconductor memory, a ROM (Read Only Memory), and the like. Microcomputer. The control unit 500 controls the gesture input unit 100, the touch input unit 200 (first touch input unit 205, second touch input unit 206), the third touch input unit 230, the rotary dial input unit 300, the push switch 400, and the like. And a gesture processing unit 510, a touch processing unit 520, a rotary dial processing unit 530, and a slide processing unit 540. In the ROM, for example, a program for operating the control unit 500 and a program for executing each processing unit are stored. In addition, various templates such as gesture determination and touch determination, threshold values, and the like are stored in a referable form. The RAM is used as a work area and a storage area for temporarily storing calculation results, for example, and the proximity value distribution information 150, the touch distribution information 250, and the like are generated.

(ジェスチャー入力部100の検出によるジェスチャー判定)
制御部500は、図4(b)に示した近接値分布情報150に基づいて、ジェスチャー判定を行なう。ジェスチャー判定は種々の判定方法があるが、以下に、その一例を示す。
(Gesture determination by detection of gesture input unit 100)
The control unit 500 performs gesture determination based on the proximity value distribution information 150 illustrated in FIG. There are various determination methods for gesture determination, and an example is shown below.

図4(b)に示した近接値分布情報150は、静電容量カウント値の分布により構成され、この分布は手指90の位置、姿勢に対応したものである。図4(b)において、制御部500は、重心G及び指先位置Pを検出する。   The proximity value distribution information 150 shown in FIG. 4B is composed of a distribution of capacitance count values, and this distribution corresponds to the position and posture of the finger 90. In FIG. 4B, the control unit 500 detects the center of gravity G and the fingertip position P.

重心Gの位置のx座標は、図4(b)の中の静電容量カウント値の平均値である。平均値は、手指90が存在するx座標の値の合計を、手指90が存在する座標数で割ることにより計算できる。同様にして、重心Gの位置のy座標は、図4(b)の中の静電容量カウント値の平均値である。平均値は、手指90が存在するy座標の値の合計を、手指90が存在する座標数で割ることにより、重心G(x、y)を算出する。   The x coordinate of the position of the center of gravity G is the average value of the capacitance count values in FIG. The average value can be calculated by dividing the sum of the x-coordinate values where the finger 90 is present by the number of coordinates where the finger 90 is present. Similarly, the y coordinate of the position of the center of gravity G is the average value of the capacitance count values in FIG. For the average value, the center of gravity G (x, y) is calculated by dividing the sum of the y-coordinate values where the fingers 90 are present by the number of coordinates where the fingers 90 are present.

また、指先位置Pは、算出された重心Gから最も遠い点Pを基準点として検出する。制御部500は、図4(b)のように求められた近接値分布情報150を、例えば、テンプレートマッチングにより、指先部分を抽出する。この抽出された分布において、重心Gから最も遠いx座標、y座標を求める。これにより、重心Gから最も遠い点Pを検出することができ、これを、ジェスチャー判定の基準点とする。なお、手において重心Gから最も遠い点Pは、例えば、図4(b)に示すように、指先である。   In addition, the fingertip position P is detected using a point P farthest from the calculated center of gravity G as a reference point. The control unit 500 extracts the fingertip portion of the proximity value distribution information 150 obtained as shown in FIG. 4B by, for example, template matching. In this extracted distribution, an x coordinate and a y coordinate farthest from the center of gravity G are obtained. Thereby, the point P farthest from the center of gravity G can be detected, and this is set as a reference point for gesture determination. Note that the point P farthest from the center of gravity G in the hand is the fingertip, for example, as shown in FIG.

制御部500は、ジェスチャー処理部510において、近接値分布情報150の時系列変化から、ジェスチャー判定を行なうことができる。例えば、重心Gと指先位置Pとの関係から、手指90の平行移動、回転、回転移動等が判定できる。すなわち、重心Gと指先位置Pのそれぞれの移動ベクトルを算出し、これらの位置の差分、移動ベクトルの差分をそれぞれ算出することにより、平行移動、回転、回転移動等のジェスチャー判定を行なうことができる。   In the gesture processing unit 510, the control unit 500 can make a gesture determination from the time series change of the proximity value distribution information 150. For example, from the relationship between the center of gravity G and the fingertip position P, the parallel movement, rotation, rotation movement, and the like of the finger 90 can be determined. That is, by calculating the respective movement vectors of the center of gravity G and the fingertip position P, and calculating the difference between these positions and the difference between the movement vectors, gesture determination such as translation, rotation, and rotational movement can be performed. .

(第1タッチ入力部205の検出によるタッチ判定)
制御部500は、図6(b)に示したタッチ分布情報250に基づいて、タッチ判定を行なう。タッチ判定は種々の判定方法があるが、以下に、その一例を示す。
(Touch determination by detection of the first touch input unit 205)
The control unit 500 performs touch determination based on the touch distribution information 250 illustrated in FIG. There are various determination methods for touch determination, and an example is shown below.

図6(b)に示したタッチ分布情報250は、静電容量カウント値が所定の閾値を超えた領域の分布により構成され、この分布は手指90のタッチ領域に対応したものである。図6(b)において、制御部500は、重心Gを検出する。   The touch distribution information 250 shown in FIG. 6B is configured by a distribution of regions where the capacitance count value exceeds a predetermined threshold, and this distribution corresponds to the touch region of the finger 90. In FIG. 6B, the control unit 500 detects the center of gravity G.

重心Gの位置のx座標は、図6(b)の分布の平均値である。平均値は、手指90が存在するx座標の値の合計を、手指90が存在する座標数で割ることにより計算できる。同様にして、重心Gの位置のy座標は、図4(b)の分布の平均値である。平均値は、手指90が存在するy座標の値の合計を、手指90が存在する座標数で割ることにより、重心G(x、y)を算出する。   The x coordinate of the position of the center of gravity G is the average value of the distribution in FIG. The average value can be calculated by dividing the sum of the x-coordinate values where the finger 90 is present by the number of coordinates where the finger 90 is present. Similarly, the y coordinate of the position of the center of gravity G is an average value of the distribution of FIG. For the average value, the center of gravity G (x, y) is calculated by dividing the sum of the y-coordinate values where the fingers 90 are present by the number of coordinates where the fingers 90 are present.

制御部500は、タッチ処理部520において、タッチ分布情報250の時系列変化から、タッチ判定を行なうことができる。例えば、重心Gの時系列変化から、手指90の移動量、移動方向等が判定できる。これにより、制御部500は、なぞり操作、ピンチイン、ピンチアウト等のタッチ判定を行なうことができる。   In the touch processing unit 520, the control unit 500 can perform touch determination from the time series change of the touch distribution information 250. For example, the movement amount, movement direction, and the like of the finger 90 can be determined from the time series change of the center of gravity G. Thereby, the control part 500 can perform touch determination, such as a trace operation, pinch in, and pinch out.

制御部500は、同様にして、第2タッチ入力部206からのタッチ信号St2に基づいて、なぞり操作、ピンチイン、ピンチアウト等のタッチ判定を行なうことができる。 Control unit 500, similarly, based on the touch signal S t2 from the second touch input unit 206, a tracing operation, pinch, it is possible to perform a touch judgment, such as pinch-out.

制御部500は、回転ダイヤル処理部530において、ダイヤル信号Sdに基づいて、回転ノブ310の回転量を検出できる。   The control unit 500 can detect the amount of rotation of the rotary knob 310 based on the dial signal Sd in the rotary dial processing unit 530.

制御部500は、スライド処理部540において、タッチ処理部520と同様の処理により、第3タッチ入力部230からのタッチ信号St3に基づいて、スライド操作(なぞり操作)等のスライド判定を行なうことができる。 In the slide processing unit 540, the control unit 500 performs a slide determination such as a slide operation (tracing operation) based on the touch signal St3 from the third touch input unit 230 by the same processing as the touch processing unit 520. Can do.

制御部500は、プッシュスイッチ400のプッシュ信号Spに基づいて、プッシュオン、オフの検出ができる。   The controller 500 can detect push-on and off based on the push signal Sp of the push switch 400.

(操作入力装置1によるメニュー画面600の操作例)
図9(a)〜(f)は、メニュー画面の操作例をそれぞれ示す図である。図2に示すように、操作入力装置1のジェスチャー入力部100、タッチ入力部200(第1タッチ入力部205、第2タッチ入力部206)、第3タッチ入力部230、回転ダイヤル入力部300、プッシュスイッチ400により、制御部500を介して、メニュー画面600を操作することができる。
(Operation example of the menu screen 600 by the operation input device 1)
FIGS. 9A to 9F are diagrams illustrating examples of operations on the menu screen. 2, the gesture input unit 100, the touch input unit 200 (the first touch input unit 205, the second touch input unit 206), the third touch input unit 230, the rotary dial input unit 300 of the operation input device 1, The menu screen 600 can be operated by the push switch 400 via the control unit 500.

メニュー画面600は、図9(a)に示すように、複数の選択要素グループ610、620、630から構成されている。各選択要素グループ610、620、630は、それぞれ、複数の選択要素から構成されている。例えば、選択要素グループ610は、選択要素611、612、613から構成されている。この選択要素611、612、613は、例えば、アイコン、項目、サブメニュー等である。   As shown in FIG. 9A, the menu screen 600 includes a plurality of selection element groups 610, 620, and 630. Each selection element group 610, 620, 630 is composed of a plurality of selection elements. For example, the selection element group 610 includes selection elements 611, 612, and 613. The selection elements 611, 612, and 613 are, for example, icons, items, submenus, and the like.

操作者は、操作入力装置1のジェスチャー入力部100に対して手指90でジェスチャー操作することにより、図9(a)に示す矢印Aで示す方向に選択要素グループ610、620、630を回転操作して選択することが可能である。ジェスチャー操作の方向により、時計方向、反時計方向の回転操作が可能である。   The operator rotates the selected element group 610, 620, 630 in the direction indicated by the arrow A shown in FIG. 9A by performing a gesture operation with the finger 90 on the gesture input unit 100 of the operation input device 1. Can be selected. Depending on the direction of the gesture operation, clockwise and counterclockwise rotation operations are possible.

図9(b)は、上記示したジェスチャー操作により、選択要素グループ610(地図グループ)が選択された状態を示す図である。この状態で、操作者は、操作入力装置1の回転ダイヤル入力部300を回転操作することにより、図9(b)に示す矢印Bで示す方向に選択要素611、612、613を回転操作して選択することが可能である。回転ノブ310の回転の方向により、時計方向、反時計方向の回転操作が可能である。この回転操作により、図9(b)では、選択要素612が選択された状態を示す。   FIG. 9B is a diagram illustrating a state where the selected element group 610 (map group) is selected by the gesture operation described above. In this state, the operator rotates the rotary dial input unit 300 of the operation input device 1 to rotate the selection elements 611, 612, and 613 in the direction indicated by the arrow B shown in FIG. It is possible to select. Depending on the direction of rotation of the rotary knob 310, clockwise and counterclockwise rotation operations are possible. FIG. 9B shows a state where the selection element 612 is selected by this rotation operation.

図9(c)は、図9(b)で示した選択要素612が選択された状態で、プッシュスイッチ400が操作されてプッシュ信号Spがオン出力され、地図の基本情報612aが展開表示された図である。このように、操作者は、任意の選択要素を選択し、プッシュスイッチ400による決定操作により、基本情報612aを展開表示することができる。   FIG. 9C shows a state in which the selection element 612 shown in FIG. 9B is selected, the push switch 400 is operated, the push signal Sp is turned on, and the basic information 612a of the map is expanded and displayed. FIG. As described above, the operator can select an arbitrary selection element and expand and display the basic information 612a by the determination operation by the push switch 400.

図9(d)は、図9(c)で示した基本情報612aの表示を詳細情報612bに表示変更した図である。操作者は、タッチ入力部200(第1タッチ入力部205、第2タッチ入力部206)を手指でタッチ操作して、例えば、ピンチイン操作により基本情報612aの表示から詳細情報612bへの表示変更、ピンチアウト操作により詳細情報612bの表示から基本情報612aへの表示変更、等ができる。   FIG. 9D is a diagram in which the display of the basic information 612a shown in FIG. 9C is changed to the detailed information 612b. The operator touches the touch input unit 200 (the first touch input unit 205 and the second touch input unit 206) with a finger, for example, a display change from the display of the basic information 612a to the detailed information 612b by a pinch-in operation, The display can be changed from the display of the detailed information 612b to the basic information 612a by a pinch-out operation.

図9(e)は、別の選択要素グループ640(天気グループ)が追加された状態を示す図である。操作者は、追加手段として、第3タッチ入力部230をなぞり操作することにより、新たな選択要素グループ640(天気グループ)をメニュー画面600に追加することができる。   FIG. 9E is a diagram showing a state where another selection element group 640 (weather group) is added. The operator can add a new selection element group 640 (weather group) to the menu screen 600 by tracing the third touch input unit 230 as an adding means.

図9(f)は、図9(a)で示した選択要素グループ610(地図グループ)に、新たな選択要素614が追加された状態を示す図である。操作者は、追加手段として、第3タッチ入力部230をなぞり操作することにより、新たな選択要素614を選択要素グループ610(地図グループ)に追加することができる。   FIG. 9F is a diagram showing a state where a new selection element 614 is added to the selection element group 610 (map group) shown in FIG. The operator can add a new selection element 614 to the selection element group 610 (map group) by tracing the third touch input unit 230 as an adding means.

上記示した追加手段は、第3タッチ入力部230のなぞり操作により可能とされるが、例えば、選択要素グループの追加は1本指によるなぞり操作、選択要素の追加は2本指によるなぞり操作等に設定することが可能である。   The adding means shown above is made possible by a tracing operation of the third touch input unit 230. For example, a selection element group is added by a tracing operation with one finger, a selection element is added by a tracing operation with two fingers, etc. Can be set.

(実施の形態の効果)
本実施の形態においては、以下のような効果を有する。
(1)本実施の形態に係る操作入力装置1は、ジェスチャー操作により入力操作がされるジェスチャー入力部100と、タッチ操作により入力操作がされるタッチ入力部200と、回転操作により入力操作がされる回転ダイヤル入力部300と、を有し、タッチ入力部200は、錐台部20の一部に設けられて構成されている。これにより、ジェスチャー操作やタッチ操作により、スマートフォンに準じた方法(なぞり、ピンチイン、ピンチアウト)とダイレクトスイッチ操作による確実な操作を組み合わせることで、情報の取捨選択をシームレスで親和性の高い操作により可能とすることができる。
(2)本体部10には、搭載基準面50と所定の傾き(角度θ)を有する傾斜面30上にジェスチャー入力部100が設けられている。この図1(c)に示す角度θは、操作入力装置1の搭載位置や角度、ユーザの好み等に応じて設定することが可能である。この傾斜したジェスチャー入力部100により、操作者のジェスチャー操作が容易になり、特に、錐台部(円錐台部)20との関係で、操作性が向上する。
(3)操作入力装置1は、特に、車両のセンターコンソール等に搭載することにより、種々の車載機器を操作することに適用可能である。また、右手親指検知のための第1タッチ入力部205と、左手親指検知のための第2タッチ入力部206を備えているので、D席、P席どちらからの操作にも対応が可能である。
(Effect of embodiment)
The present embodiment has the following effects.
(1) The operation input device 1 according to the present embodiment includes a gesture input unit 100 that performs an input operation by a gesture operation, a touch input unit 200 that performs an input operation by a touch operation, and an input operation by a rotation operation. The touch dial 200 is provided on a part of the frustum unit 20. This makes it possible to select information with seamless and high-affinity operations by combining gesture-based and touch operations with methods similar to smartphones (race, pinch-in, pinch-out) and reliable operations using direct switch operations. It can be.
(2) The gesture input unit 100 is provided on the main body unit 10 on the inclined surface 30 having a predetermined inclination (angle θ) with respect to the mounting reference surface 50. The angle θ shown in FIG. 1C can be set according to the mounting position and angle of the operation input device 1, the user's preference, and the like. The tilted gesture input unit 100 facilitates an operator's gesture operation. In particular, the operability is improved in relation to the frustum portion (conical frustum portion) 20.
(3) The operation input device 1 is particularly applicable to operating various in-vehicle devices by being mounted on a vehicle center console or the like. In addition, since the first touch input unit 205 for detecting the right hand thumb and the second touch input unit 206 for detecting the left thumb are provided, it is possible to handle operations from either the D seat or the P seat. .

以上、本発明のいくつかの実施の形態を説明したが、これらの実施の形態は、一例に過ぎず、特許請求の範囲に係る発明を限定するものではない。
例えば、上記実施形態におけるジェスチャー入力部100、第1タッチ入力部205、及び第2タッチ入力部206は、複数の駆動電極と複数の検出電極とが互いに絶縁されながら交差するように構成されていたが、ジェスチャー入力部100、第1タッチ入力部205、及び第2タッチ入力部206は、単数の駆動電極と複数の検出電極とが互いに絶縁されながら交差するように構成された入力検出部が、検出電極の配設方向に沿って、複数配置されることで構成されていてもよい。
更に言えば、ジェスチャー入力部100,タッチ入力部200は、上述した入力検出部が一つだけ設けられた構成でもよい。
なお、回転ダイヤル入力部300は、省略されていてもよい。
また、これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、本発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更等を行うことができる。また、これら実施の形態の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない。さらに、これら実施の形態及びその変形例は、発明の範囲及び要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
As mentioned above, although some embodiment of this invention was described, these embodiment is only an example and does not limit the invention which concerns on a claim.
For example, the gesture input unit 100, the first touch input unit 205, and the second touch input unit 206 in the above embodiment are configured such that a plurality of drive electrodes and a plurality of detection electrodes intersect with each other while being insulated from each other. However, the gesture input unit 100, the first touch input unit 205, and the second touch input unit 206 include an input detection unit configured such that a single drive electrode and a plurality of detection electrodes intersect with each other while being insulated from each other. You may be comprised by arranging two or more along the arrangement | positioning direction of a detection electrode.
Furthermore, the gesture input unit 100 and the touch input unit 200 may have a configuration in which only one input detection unit described above is provided.
The rotary dial input unit 300 may be omitted.
Moreover, these novel embodiments can be implemented in various other forms, and various omissions, replacements, changes, and the like can be made without departing from the scope of the present invention. In addition, not all the combinations of features described in these embodiments are essential to the means for solving the problems of the invention. Furthermore, these embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…操作入力装置 10…本体部 20…錐台部 30…傾斜面 50…搭載基準面 70…搭載対象物 90…手指、92…右手親指、93…人差指 100…ジェスチャー入力部 101…駆動電極、102…検出電極 120…駆動部、140…読出部 150…近接値分布情報 200…タッチ入力部 201…駆動電極、202…検出電極 205…第1タッチ入力部、206…第2タッチ入力部 220…駆動部 230…第3タッチ入力部 240…読出部 250…タッチ分布情報 300…回転ダイヤル入力部、310…回転ノブ、320…ロータリーエンコーダ 400…プッシュスイッチ、410…プッシュ部、420…スイッチ部 500…制御部 510…ジェスチャー処理部 520…タッチ処理部 530…回転ダイヤル処理部 540…スライド処理部 600…メニュー画面 700…制御対象機器 CL1…中心線、CL2…中心線 G…重心、P…指先位置 DESCRIPTION OF SYMBOLS 1 ... Operation input device 10 ... Main-body part 20 ... Frustum part 30 ... Inclined surface 50 ... Mounting reference plane 70 ... Mounted object 90 ... Finger, 92 ... Right thumb, 93 ... Index finger 100 ... Gesture input part 101 ... Drive electrode, DESCRIPTION OF SYMBOLS 102 ... Detection electrode 120 ... Drive part, 140 ... Reading part 150 ... Proximity value distribution information 200 ... Touch input part 201 ... Drive electrode, 202 ... Detection electrode 205 ... 1st touch input part, 206 ... 2nd touch input part 220 ... Drive unit 230 ... third touch input unit 240 ... reading unit 250 ... touch distribution information 300 ... rotary dial input unit, 310 ... rotary knob, 320 ... rotary encoder 400 ... push switch, 410 ... push unit, 420 ... switch unit 500 ... Control unit 510... Gesture processing unit 520. Touch processing unit 530. 540 ... Slide processing unit 600 ... Menu screen 700 ... Control target device CL1 ... Center line, CL2 ... Center line G ... Center of gravity, P ... Fingertip position

Claims (5)

ジェスチャー操作により入力操作がされるジェスチャー入力部と、
タッチ操作により入力操作がされ、錐台部の一部に設けられた第1のタッチ入力部と、を有し、
前記ジェスチャー入力部は、前記錐台部の中心線よりも一方側に設けられた領域であり、かつ前記錐台部とは別の領域に配置され、
前記第1のタッチ入力部は、前記錐台部の中心線よりも他方側に配置されていることを特徴とする操作入力装置。
A gesture input unit that is operated by a gesture operation;
An input operation by a touch operation, and a first touch input unit provided in a part of the frustum unit
The gesture input portion is a region provided on one side of the center line of the frustum portion, and is disposed in a region different from the frustum portion,
The operation input device, wherein the first touch input unit is arranged on the other side of the center line of the frustum unit.
回転操作により入力操作がされる回転ダイヤル入力部を有していることを特徴とする請求項1に記載の操作入力装置。   The operation input device according to claim 1, further comprising a rotary dial input unit that performs an input operation by a rotation operation. 前記回転ダイヤル入力部は、前記錐台部と同軸に配置されていることを特徴とする請求項2に記載の操作入力装置。   The operation input device according to claim 2, wherein the rotary dial input unit is arranged coaxially with the frustum unit. 前記錐台部において、前記錐台部の中心線よりも前記一方側に、さらに前記第1のタッチ入力部とは別体の第2のタッチ入力部を有していることを特徴とする請求項1から3のいずれか1項に記載の操作入力装置。   The frustum portion further includes a second touch input portion that is separate from the first touch input portion on the one side of the center line of the frustum portion. Item 4. The operation input device according to any one of Items 1 to 3. 前記ジェスチャー入力部の入力面は、搭載基準面に対して所定の傾きを有していることを特徴とする請求項1から4のいずれか1項に記載の操作入力装置。   The operation input device according to claim 1, wherein an input surface of the gesture input unit has a predetermined inclination with respect to a mounting reference surface.
JP2016162444A 2016-08-23 2016-08-23 Operation input device Pending JP2018032123A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016162444A JP2018032123A (en) 2016-08-23 2016-08-23 Operation input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016162444A JP2018032123A (en) 2016-08-23 2016-08-23 Operation input device

Publications (1)

Publication Number Publication Date
JP2018032123A true JP2018032123A (en) 2018-03-01

Family

ID=61304542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016162444A Pending JP2018032123A (en) 2016-08-23 2016-08-23 Operation input device

Country Status (1)

Country Link
JP (1) JP2018032123A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109747565A (en) * 2019-01-11 2019-05-14 北京汽车股份有限公司 Operating device, steering wheel assembly and the vehicle of vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109747565A (en) * 2019-01-11 2019-05-14 北京汽车股份有限公司 Operating device, steering wheel assembly and the vehicle of vehicle

Similar Documents

Publication Publication Date Title
KR101471267B1 (en) Method and device for generating dynamically touch keyboard
TWI478010B (en) Dual pointer management method using cooperating input sources and efficient dynamic coordinate remapping
JP5640486B2 (en) Information display device
TWI452494B (en) Method for combining at least two touch signals in a computer system
JP2016009300A (en) Vehicle input device and vehicle cockpit module
JP5008707B2 (en) Input display board and table
JP6497941B2 (en) Electronic device, control method and program thereof, and recording medium
WO2017047416A1 (en) Operation detection device
KR101424742B1 (en) An apparatus for touch inputs of a mobile terminal and the method thereof
JPWO2012111227A1 (en) Touch-type input device, electronic apparatus, and input method
CN106796462B (en) Determining a position of an input object
JP2014191560A (en) Input device, input method, and recording medium
JP6058118B2 (en) Operation detection device
JP2012164047A (en) Information processor
JP2018032123A (en) Operation input device
JP6255321B2 (en) Information processing apparatus, fingertip operation identification method and program
JP5995171B2 (en) Electronic device, information processing method, and information processing program
JP2018032122A (en) Display operation device
WO2016126712A1 (en) Using a perpendicular bisector of a multi-finger gesture to control motion of objects shown in a multi-dimensional environment on a display
WO2015122259A1 (en) Input method and input device
KR101116414B1 (en) Handwriting input device using for capacitive touch pannel
JP2008204375A (en) Panel input device, stylus pen for panel input, panel input system, and panel input processing program
US20140267054A1 (en) Pivotable input pad
JP7001368B2 (en) Operation device
KR20140086805A (en) Electronic apparatus, method for controlling the same and computer-readable recording medium