JP6585431B2 - INPUT DEVICE, INTEGRATED INPUT SYSTEM, INPUT DEVICE CONTROL METHOD, AND PROGRAM - Google Patents

INPUT DEVICE, INTEGRATED INPUT SYSTEM, INPUT DEVICE CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6585431B2
JP6585431B2 JP2015171161A JP2015171161A JP6585431B2 JP 6585431 B2 JP6585431 B2 JP 6585431B2 JP 2015171161 A JP2015171161 A JP 2015171161A JP 2015171161 A JP2015171161 A JP 2015171161A JP 6585431 B2 JP6585431 B2 JP 6585431B2
Authority
JP
Japan
Prior art keywords
vibration
unit
user
control target
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015171161A
Other languages
Japanese (ja)
Other versions
JP2017049699A (en
Inventor
修 久木元
修 久木元
将嘉 伊井野
将嘉 伊井野
寛 松涛
寛 松涛
斉 津田
斉 津田
輝 沢田
輝 沢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015171161A priority Critical patent/JP6585431B2/en
Priority to US15/240,238 priority patent/US20170060245A1/en
Publication of JP2017049699A publication Critical patent/JP2017049699A/en
Application granted granted Critical
Publication of JP6585431B2 publication Critical patent/JP6585431B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

開示の実施形態は、入力装置、統合入力システム、入力装置の制御方法およびプログラムに関する。   Embodiments disclosed herein relate to an input device, an integrated input system, an input device control method, and a program.

従来、ユーザに触覚を与えることで入力を受け付けたことを知らせる入力装置が知られている。かかる入力装置では、例えばユーザによる押圧力に応じて振動を発生させることで、ユーザに対して入力を受け付けたことを知らせている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is known an input device that notifies a user that an input has been accepted by giving a tactile sensation. In such an input device, for example, vibration is generated according to the pressing force by the user, thereby informing the user that the input has been accepted (see, for example, Patent Document 1).

特開2013−235614号公報JP 2013-235614 A

しかしながら、従来の入力装置では、接触位置におけるユーザの押圧力に応じて振動を発生させているに過ぎず、例えばユーザが操作面に対して接触位置を移動させる操作を行った場合に、どのように触覚をフィードバックするか考慮されていなかった。このように、従来の入力装置では、ユーザの操作性を向上させるうえで更なる改善の余地がある。   However, in the conventional input device, only vibration is generated according to the pressing force of the user at the contact position. For example, what happens when the user performs an operation of moving the contact position with respect to the operation surface. The tactile feedback was not considered. Thus, in the conventional input device, there is room for further improvement in improving user operability.

また、例えば多様な機器が搭載され、これら機器や各機器の有するモード等をユーザが制御対象とする必要のある車載システム等においては、これら多様な制御対象をより操作性高くユーザに操作させたいというニーズがある。   In addition, for example, in an in-vehicle system in which various devices are mounted and the user needs to control the modes of these devices and the devices, etc., the user wants to operate these various control targets with higher operability. There is a need.

実施形態の一態様は、上記に鑑みてなされたものであって、多様な制御対象を操作性高く操作することができる入力装置、統合入力システム、入力装置の制御方法およびプログラムを提供することを目的とする。   One aspect of the embodiments has been made in view of the above, and provides an input device, an integrated input system, an input device control method, and a program capable of operating various control objects with high operability. Objective.

実施形態の一態様に係る入力装置は、一つの操作面と、選択部と、検出部と、少なくとも一つの振動素子と、設定部と、振動制御部とを備える。前記選択部は、操作面を用いた制御対象をユーザの挙動に基づいて選択する。前記検出部は、前記操作面に対する前記ユーザの所定の接触操作を検出する。前記振動素子は、前記操作面を振動させる。前記設定部は、前記検出部によって前記接触操作が検出された場合の該接触操作に対応する前記振動素子の振動状態を、前記選択部によって選択された前記制御対象に応じて設定する。前記振動制御部は、前記検出部によって前記接触操作が検出された場合に、前記設定部によって設定された前記振動状態となるように前記振動素子を制御する。また、前記接触操作は、前記操作面への接触を含む数個の平易なジェスチャ操作であって、前記設定部は、前記ジェスチャ操作のそれぞれに対応する前記振動状態の組み合わせが前記制御対象によって異なるように規定された組み合わせ情報に基づき、前記選択部によって選択された前記制御対象へ向けて前記ジェスチャ操作のそれぞれが行われた場合における前記振動状態を設定する。 An input device according to an aspect of an embodiment includes one operation surface, a selection unit, a detection unit, at least one vibration element, a setting unit, and a vibration control unit. The said selection part selects the control object using an operation surface based on a user's behavior. The detection unit detects a predetermined contact operation of the user with respect to the operation surface. The vibration element vibrates the operation surface. The setting unit sets a vibration state of the vibration element corresponding to the contact operation when the contact operation is detected by the detection unit according to the control target selected by the selection unit. The vibration control unit controls the vibration element to be in the vibration state set by the setting unit when the contact operation is detected by the detection unit. Further, the contact operation is several simple gesture operations including a contact with the operation surface, and the setting unit has a combination of the vibration states corresponding to each of the gesture operations depending on the control target. Based on the combination information defined as described above, the vibration state is set when each of the gesture operations is performed toward the control target selected by the selection unit.

実施形態の一態様によれば、多様な制御対象を操作性高く操作することができる。   According to one aspect of the embodiment, various control objects can be operated with high operability.

図1Aは、実施形態に係る入力装置の制御方法の概要を示す図(その1)である。FIG. 1A is a diagram (part 1) illustrating an overview of a method for controlling an input device according to an embodiment. 図1Bは、実施形態に係る入力装置の制御方法の概要を示す図(その2)である。FIG. 1B is a diagram (part 2) illustrating an overview of the control method of the input device according to the embodiment. 図1Cは、実施形態に係る入力装置の制御方法の概要を示す図(その3)である。FIG. 1C is a diagram (part 3) illustrating an overview of the control method of the input device according to the embodiment. 図2は、実施形態に係る統合入力システムのブロック図である。FIG. 2 is a block diagram of the integrated input system according to the embodiment. 図3Aは、触覚のフィードバックの具体例を示す図(その1)である。FIG. 3A is a diagram (part 1) illustrating a specific example of tactile feedback. 図3Bは、触覚のフィードバックの具体例を示す図(その2)である。FIG. 3B is a second diagram illustrating a specific example of tactile feedback. 図3Cは、触覚のフィードバックの具体例を示す図(その3)である。FIG. 3C is a third diagram illustrating a specific example of tactile feedback. 図3Dは、触覚のフィードバックの具体例を示す図(その4)である。FIG. 3D is a diagram (part 4) illustrating a specific example of tactile feedback. 図4Aは、ジェスチャ操作の具体例を示す図(その1)である。FIG. 4A is a diagram (part 1) illustrating a specific example of the gesture operation. 図4Bは、ジェスチャ操作の具体例を示す図(その2)である。FIG. 4B is a second diagram illustrating a specific example of the gesture operation. 図4Cは、ジェスチャ操作の具体例を示す図(その3)である。FIG. 4C is a diagram (No. 3) illustrating a specific example of the gesture operation. 図5Aは、組み合わせ情報の具体例を示す図である。FIG. 5A is a diagram illustrating a specific example of combination information. 図5Bは、振動状態情報の具体例を示す図である。FIG. 5B is a diagram illustrating a specific example of vibration state information. 図6は、実施形態に係る入力装置が実行する処理手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a processing procedure executed by the input device according to the embodiment. 図7は、実施形態に係る統合入力システムの機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 7 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the integrated input system according to the embodiment.

以下、添付図面を参照して、本願の開示する入力装置、統合入力システム、入力装置の制御方法およびプログラムの実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of an input device, an integrated input system, an input device control method, and a program disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

また、以下では、本実施形態に係る入力装置10の制御方法の概要について図1A〜図1Cを用いて説明した後に、入力装置10およびこれを含む統合入力システム1について、図2〜図7を用いて説明することとする。なお、本実施形態では、統合入力システム1が車載用のシステムとして構成される例を挙げる。   Moreover, below, after describing the outline | summary of the control method of the input device 10 which concerns on this embodiment using FIG. 1A-FIG. 1C, FIG. 2-7 is demonstrated about the input device 10 and the integrated input system 1 containing this. It will be explained using. In the present embodiment, an example in which the integrated input system 1 is configured as an in-vehicle system is given.

まず、本実施形態に係る入力装置10の制御方法の概要について、図1A〜図1Cを用いて説明する。図1A〜図1Cは、実施形態に係る入力装置10の制御方法の概要を示す図(その1)〜(その3)である。   First, the outline | summary of the control method of the input device 10 which concerns on this embodiment is demonstrated using FIG. 1A-FIG. 1C. 1A to 1C are diagrams (No. 1) to (No. 3) illustrating an outline of a control method of the input device 10 according to the embodiment.

図1Aに示すように、統合入力システム1は、入力装置10を備える。入力装置10は、操作面Pを有する。操作面Pは、例えば静電容量方式の情報入力機能を有するタッチパッドを用いて構成され、ユーザDの制御対象となる各種機器60(図2にて後述)を制御するための接触操作をユーザDから受け付ける。   As shown in FIG. 1A, the integrated input system 1 includes an input device 10. The input device 10 has an operation surface P. The operation surface P is configured by using, for example, a touch pad having a capacitive information input function, and the user performs contact operations for controlling various devices 60 (described later in FIG. 2) to be controlled by the user D. Accept from D.

入力装置10は、かかる操作面Pが、例えば運転席のシフトレバー近傍の、運転中のユーザDから届く位置に配置されるように設けられる。   The input device 10 is provided such that the operation surface P is disposed at a position that can be reached from the driving user D, for example, in the vicinity of the shift lever of the driver's seat.

より具体的に、入力装置10は、図1Bの(a)に示すように、操作面Pを振動させる振動素子13aを少なくとも一つ備える。なお、ここでは、振動素子13aを二つ備えた例を図示している。   More specifically, the input device 10 includes at least one vibration element 13a that vibrates the operation surface P, as shown in FIG. Here, an example in which two vibration elements 13a are provided is illustrated.

振動素子13aは、例えば圧電素子であり、操作面Pを高周波振動させることができる。例えばユーザDの指U1が操作面Pを押下した状態で振動素子13aを振動させると、指U1と操作面Pとの間の摩擦力を変化させることができる。   The vibration element 13a is, for example, a piezoelectric element, and can vibrate the operation surface P at high frequency. For example, when the vibration element 13a is vibrated in a state where the finger U1 of the user D presses the operation surface P, the frictional force between the finger U1 and the operation surface P can be changed.

かかる状態で指U1を動かすと、変化した摩擦力に応じた触覚を指U1にフィードバックすることができる。また、振動素子13aの振動状態を変化させることで、指U1と操作面Pとの間の摩擦力の大きさを変化させることができ、指U1にフィードバックする触覚を変化させることができる。   When the finger U1 is moved in such a state, a tactile sensation according to the changed frictional force can be fed back to the finger U1. Also, by changing the vibration state of the vibration element 13a, the magnitude of the frictional force between the finger U1 and the operation surface P can be changed, and the tactile sensation fed back to the finger U1 can be changed.

例えば、図1Bの(a)および(b)に示すように、X軸方向に沿って指U1を左右にスライドさせる場合に、区間D1において摩擦力をその他の区間よりも大きくなるように変化させることによって、ユーザDに対し、操作面Pに例えばボタンB1があるような触覚をフィードバックすることができる。なお、かかる触覚の態様はあくまで一例であって、その他の具体的な例については、図3A〜図3Dを用いて後述する。   For example, as shown in FIGS. 1B and 1B, when the finger U1 is slid to the left and right along the X-axis direction, the frictional force is changed to be larger in the section D1 than in the other sections. Thus, a tactile sensation such as the button B1 on the operation surface P can be fed back to the user D. Note that such a tactile aspect is merely an example, and other specific examples will be described later with reference to FIGS. 3A to 3D.

また、図1Aに示すように、統合入力システム1は、マイク20と、撮像部30とを備える。マイク20および撮像部30は、例えばステアリングコラムの上部に配置される。マイク20は、ユーザDが発話する音声を集音し、入力する。撮像部30は、運転席に着座したユーザDの例えば顔画像を撮像する。   As shown in FIG. 1A, the integrated input system 1 includes a microphone 20 and an imaging unit 30. The microphone 20 and the imaging unit 30 are disposed, for example, at the top of the steering column. The microphone 20 collects and inputs the voice uttered by the user D. The imaging unit 30 captures, for example, a face image of the user D seated in the driver's seat.

また、統合入力システム1は、表示部40(図2にて後述)として、例えばセンターディスプレイ41と、HUD(ヘッドアップディスプレイ)42とを備える。   Further, the integrated input system 1 includes, for example, a center display 41 and a HUD (head-up display) 42 as a display unit 40 (described later in FIG. 2).

センターディスプレイ41は、例えば各種機器60の一つとして搭載されるAV一体型のナビ装置の表示部として用いられ、ナビモードやオーディオモードといった選択中のモードごとにおける各種情報出力を行う。HUD42は、運転中のユーザDの視野内において、例えば車速やエンジンの回転数といった運転状況に関する各種情報出力を行う。   The center display 41 is used as a display unit of an AV-integrated navigation device mounted as one of the various devices 60, for example, and outputs various information for each selected mode such as a navigation mode and an audio mode. The HUD 42 outputs various information related to the driving situation such as the vehicle speed and the engine speed within the field of view of the user D who is driving.

また、統合入力システム1は、その他の各種機器60の一つとして、エアコン61を備える。また、統合入力システム1は、スピーカ70を備える。   The integrated input system 1 includes an air conditioner 61 as one of the other various devices 60. The integrated input system 1 includes a speaker 70.

このように多様な機器を搭載するシステムにおいては、ユーザDの制御対象となる各種機器60やその各モードへ向けた操作態様もまた多様となりがちである。このため、これら多様な制御対象を操作性高く操作できることが、ユーザDに対する利便性の向上や安全性の確保の観点から望まれていた。   In such a system in which various devices are mounted, the various devices 60 to be controlled by the user D and the operation modes for the respective modes tend to be diverse. For this reason, it has been desired that these various control objects can be operated with high operability from the viewpoint of improving convenience for the user D and ensuring safety.

そこで、本実施形態に係る統合入力システム1では、基本的に1つの操作面Pにおける接触操作によって、多様な各種機器60やその各モード等を集中的に操作可能とするようにした。また、このとき、操作面Pに対しては、ユーザDの所望する制御対象となる各種機器60およびその各モードに応じた異なる触覚をフィードバックすることとした。   Therefore, in the integrated input system 1 according to the present embodiment, various devices 60, their modes, and the like can be operated intensively by contact operation on one operation surface P basically. In addition, at this time, for the operation surface P, various tactile sensations according to various devices 60 to be controlled by the user D and their respective modes are fed back.

なお、異なる制御対象の選択については、操作面Pにおける接触操作以外の手法、例えば音声入力操作等を複合的に組み合わせることができる。   In addition, about selection of a different control object, methods other than contact operation in the operation surface P, for example, audio | voice input operation etc., can be combined combining.

これにより、例えば制御対象をユーザDが視認することなく、ブラインドタッチ操作のみで制御することも可能になる。具体的には、図1Cに示すように、ユーザDは、制御対象としたい各種機器60やその各モードを例えば発話する。図1Cに示す例では、ユーザDは「オーディオ!」と発話したものとする。   Thereby, for example, it becomes possible to control only the blind touch operation without the user D visually recognizing the control target. Specifically, as shown in FIG. 1C, the user D utters, for example, various devices 60 to be controlled and their modes. In the example shown in FIG. 1C, it is assumed that the user D utters “audio!”.

かかる場合、本実施形態では、入力装置10が、かかるユーザDの発話内容をマイク20を介して入力して受け付け、操作面Pによる制御対象がカーナビゲーションのオーディオモードとなるように選択する(図中のステップS1参照)。   In this case, in the present embodiment, the input device 10 receives and accepts the utterance content of the user D via the microphone 20, and selects the control target by the operation surface P to be the audio mode of the car navigation (FIG. Step S1 in the middle).

そして、入力装置10は、選択された制御対象であるオーディオモードに応じた振動素子13aの振動状態の設定を行う(図中のステップS2参照)。これにより、入力装置10には、オーディオモードにおいてユーザDの指U1により操作面Pへの接触操作が行われた場合の、オーディオモードに固有の振動素子13aの振動状態が設定される。   Then, the input device 10 sets the vibration state of the vibration element 13a according to the audio mode that is the selected control target (see step S2 in the figure). Thereby, the vibration state of the vibration element 13a unique to the audio mode when the contact operation to the operation surface P is performed with the finger U1 of the user D in the audio mode is set in the input device 10.

そして、かかる設定状態において、入力装置10は、ユーザDによる操作面Pへの接触操作を検出したならば、ステップS2において設定された振動状態となるように振動素子13aを制御することによって、制御対象であるオーディオモードに応じた触覚をフィードバックする(図中のステップS3参照)。   In this setting state, when the input device 10 detects a contact operation on the operation surface P by the user D, the input device 10 controls the vibration element 13a so as to be in the vibration state set in step S2. A tactile sensation corresponding to the target audio mode is fed back (see step S3 in the figure).

これにより、一つの操作面Pによって多様な制御対象を操作することが可能となる。なお、ここで、接触操作は、平易な数個のジェスチャ操作であって、そのそれぞれに対応する振動状態の組み合わせが制御対象によって異なるように設定される。   Thereby, it becomes possible to operate various control objects by one operation surface P. Here, the contact operation is a few simple gesture operations, and the combination of vibration states corresponding to each of the gesture operations is set to be different depending on the control target.

すなわち、本実施形態では、異なる制御対象の間で共通に用いることができる平易なジェスチャ操作のセットによって制御対象をそれぞれ操作できるが、制御対象が異なれば、その各ジェスチャ操作にはそれぞれ異なる触覚がフィードバックされるようにした。   That is, in this embodiment, each control object can be operated by a set of simple gesture operations that can be used in common among different control objects. However, if the control objects are different, each gesture operation has a different tactile sensation. Added feedback.

これにより、ユーザDは、数個の平易なジェスチャ操作を覚えるだけで、多様な制御対象を同様のブラインドタッチ操作で操作することが可能となる。すなわち、操作性高く多様な制御対象を操作することができる。   Thereby, the user D can operate various control objects with the same blind touch operation only by learning several simple gesture operations. That is, various control objects can be operated with high operability.

なお、制御対象ごとの各ジェスチャ操作の組み合わせの具体例については、図5Aおよび図5Bを用いて後述する。また、制御対象の選択手法は、ユーザDの挙動に基づくものであればよく、上述した音声入力によるものに限られない。この点については、図2を用いた説明で補足することとする。   A specific example of a combination of gesture operations for each control target will be described later with reference to FIGS. 5A and 5B. Moreover, the selection method of a control object should just be based on the behavior of the user D, and is not restricted to the thing by the audio | voice input mentioned above. This point will be supplemented by the description using FIG.

このように、本実施形態では、ユーザDの挙動に基づいて制御対象を選択し、選択された制御対象に応じた振動状態を設定し、ユーザDによる操作面Pへの接触操作が検出されたならば、設定された振動状態となるように振動素子13aを制御することによって、制御対象に応じた触覚をフィードバックすることとした。したがって、本実施形態によれば、多様な制御対象を操作性高く操作することができる。   As described above, in this embodiment, the control object is selected based on the behavior of the user D, the vibration state corresponding to the selected control object is set, and the contact operation on the operation surface P by the user D is detected. Then, the tactile sensation according to the controlled object is fed back by controlling the vibration element 13a so as to be in the set vibration state. Therefore, according to this embodiment, various control objects can be operated with high operability.

なお、ここでは、入力装置10の操作面Pが例えばタッチパッドである場合について説明したが、これに限られない。例えばセンターディスプレイ41と一体になったタッチパネルなどであってもよい。以下、上述した制御方法によって制御される入力装置10を含む統合入力システム1についてさらに具体的に説明する。   In addition, although the case where the operation surface P of the input device 10 is, for example, a touch pad has been described here, the present invention is not limited to this. For example, a touch panel integrated with the center display 41 may be used. Hereinafter, the integrated input system 1 including the input device 10 controlled by the above-described control method will be described more specifically.

図2は、実施形態に係る統合入力システム1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。   FIG. 2 is a block diagram of the integrated input system 1 according to the embodiment. In FIG. 2, only components necessary for explaining the features of the present embodiment are represented by functional blocks, and descriptions of general components are omitted.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。   In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or a part thereof is functionally or physically distributed in arbitrary units according to various loads or usage conditions.・ It can be integrated and configured.

図2に示すように、統合入力システム1は、入力装置10と、マイク20と、撮像部30と、表示部40と、表示制御部50と、各種機器60と、スピーカ70と、記憶部80とを備える。   As shown in FIG. 2, the integrated input system 1 includes an input device 10, a microphone 20, an imaging unit 30, a display unit 40, a display control unit 50, various devices 60, a speaker 70, and a storage unit 80. With.

マイク20は、ユーザDの発話する音声を集音し、入力装置10へ入力する。撮像部30は、例えば赤外線LEDと赤外線カメラとを含んで構成され、赤外線LEDによってユーザDを照らしつつ赤外線カメラによってユーザDの例えば顔画像を撮像し、入力装置10へ入力する。   The microphone 20 collects the voice spoken by the user D and inputs it to the input device 10. The imaging unit 30 includes, for example, an infrared LED and an infrared camera. The imaging unit 30 captures, for example, a face image of the user D with the infrared camera while illuminating the user D with the infrared LED, and inputs the image to the input device 10.

表示部40は、例えば上述したセンターディスプレイ41やHUD42等であって、表示制御部50が出力する視覚情報としての画像をユーザDへ提示する。   The display unit 40 is, for example, the center display 41 or the HUD 42 described above, and presents an image as visual information output from the display control unit 50 to the user D.

表示制御部50は、例えば入力装置10がユーザDから受け付けた操作内容に基づき、表示部40に表示させる画像を生成し、表示部40へ出力する。また、表示制御部50は、表示部40を制御して、ユーザDに画像を提示させる。   For example, the display control unit 50 generates an image to be displayed on the display unit 40 based on the operation content received by the input device 10 from the user D, and outputs the image to the display unit 40. In addition, the display control unit 50 controls the display unit 40 to cause the user D to present an image.

各種機器60は、例えば上述したナビ装置やエアコン61等であって、入力装置10を介したユーザDの制御対象である。スピーカ70は、例えば入力装置10がユーザDから受け付けた操作内容に基づき、聴覚情報としての音声をユーザDへ提示する。   The various devices 60 are, for example, the above-described navigation device, the air conditioner 61, and the like, and are objects to be controlled by the user D via the input device 10. The speaker 70 presents audio as auditory information to the user D based on, for example, the operation content received by the input device 10 from the user D.

記憶部80は、ハードディスクドライブや不揮発性メモリ、レジスタといった記憶デバイスであって、組み合わせ情報80aと、振動状態情報80bとを記憶する。   The storage unit 80 is a storage device such as a hard disk drive, a nonvolatile memory, or a register, and stores combination information 80a and vibration state information 80b.

入力装置10は、既に述べたように例えばタッチパッドやタッチパネル等を含む情報入力デバイスであって、ユーザDからの入力操作を受け付け、その操作内容に応じた信号を表示制御部50や各種機器60、スピーカ70へ出力する。   As described above, the input device 10 is an information input device including, for example, a touch pad, a touch panel, and the like. The input device 10 receives an input operation from the user D and outputs a signal corresponding to the operation content to the display control unit 50 and various devices 60. And output to the speaker 70.

入力装置10は、操作部11と、制御部12と、振動部13とを備える。まず、操作部11と振動部13について説明する。操作部11は、例えば上述のタッチパッドやタッチパネル等の平板状のセンサであり、ユーザDによる入力操作を受け付ける操作面P(例えば図1A参照)を備える。ユーザDが操作面Pに対し接触動作を行うと、操作部11はユーザDの接触操作に応じたセンサ値を制御部12へ出力する。   The input device 10 includes an operation unit 11, a control unit 12, and a vibration unit 13. First, the operation unit 11 and the vibration unit 13 will be described. The operation unit 11 is, for example, a flat plate sensor such as the touch pad or the touch panel described above, and includes an operation surface P (see, for example, FIG. 1A) that receives an input operation by the user D. When the user D performs a contact operation on the operation surface P, the operation unit 11 outputs a sensor value corresponding to the contact operation of the user D to the control unit 12.

振動部13は、少なくとも一つの振動素子13a(例えば図1Bの(a)参照)を備える。振動素子13aは、例えば圧電素子(ピエゾ素子)等の圧電アクチュエータであって、制御部12から与えられた電圧信号に応じて伸縮することで操作部11を振動させる。振動素子13aは、例えば操作部11の端部など、ユーザDが視認できない位置に、操作部11と接するように配置される。   The vibration unit 13 includes at least one vibration element 13a (for example, see FIG. 1B (a)). The vibration element 13 a is a piezoelectric actuator such as a piezoelectric element (piezo element), for example, and vibrates the operation unit 11 by expanding and contracting according to a voltage signal given from the control unit 12. The vibration element 13a is disposed so as to be in contact with the operation unit 11 at a position where the user D cannot visually recognize, such as an end of the operation unit 11, for example.

なお、既に図1Bの(a)に示した例では、振動素子13aは、操作面Pの左右外側の領域であって、操作面Pと対向する面に配置される場合を示したが、かかる配置は一例であり、これに限られるものではない。   In the example shown in (a) of FIG. 1B, the vibration element 13a is a region on the left and right outer sides of the operation surface P and is disposed on the surface facing the operation surface P. The arrangement is an example, and the present invention is not limited to this.

例えば一つの振動素子13aのみで操作面Pを振動させてもよい。このように、振動素子13aの個数や配置は任意であるが、操作面Pの全体を均一に振動させるような個数および配置とすることが好ましい。また、振動素子13aは圧電素子に限られず、例えば操作面Pを超音波周波数帯で振動させることが可能な素子であればよい。   For example, the operation surface P may be vibrated with only one vibration element 13a. As described above, the number and arrangement of the vibration elements 13a are arbitrary, but the number and arrangement are preferable so as to vibrate the entire operation surface P uniformly. The vibration element 13a is not limited to a piezoelectric element, and may be any element that can vibrate the operation surface P in an ultrasonic frequency band, for example.

つづいて制御部12について説明する。図2に示すように、制御部12は、音声受付部12aと、視線検出部12bと、選択部12cと、設定部12dと、検出部12eと、振動制御部12fと、操作処理部12gとを備える。   Next, the control unit 12 will be described. As shown in FIG. 2, the control unit 12 includes a voice reception unit 12a, a line-of-sight detection unit 12b, a selection unit 12c, a setting unit 12d, a detection unit 12e, a vibration control unit 12f, and an operation processing unit 12g. Is provided.

制御部12は、入力装置10の各部を制御する。音声受付部12aは、マイク20から入力される音声を受け付けて音声内容を解析し、解析結果を選択部12cへ渡す。   The control unit 12 controls each unit of the input device 10. The voice reception unit 12a receives the voice input from the microphone 20, analyzes the voice content, and passes the analysis result to the selection unit 12c.

視線検出部12bは、撮像部30によって撮像された顔画像中の、例えば眼球上に生じる赤外照明反射像(角膜反射)と瞳孔との位置関係によりユーザDの視線方向を検出し、検出結果を選択部12cへ渡す。   The line-of-sight detection unit 12b detects the direction of the line of sight of the user D based on the positional relationship between, for example, an infrared illumination reflection image (corneal reflection) generated on the eyeball in the face image captured by the imaging unit 30, and the detection result. To the selection unit 12c.

選択部12cは、音声受付部12aの解析結果を受け取った場合、かかる解析結果に基づいてユーザDの所望する制御対象を選択する。また、選択部12cは、視線検出部12bの検出結果を受け取った場合、かかる検出結果に基づいてユーザDの所望する制御対象を選択する。   When receiving the analysis result of the voice reception unit 12a, the selection unit 12c selects a control target desired by the user D based on the analysis result. Further, when receiving the detection result of the line-of-sight detection unit 12b, the selection unit 12c selects a control target desired by the user D based on the detection result.

すなわち、選択部12cは、ユーザDの注視している方向から制御対象を選択することができる。また、選択部12cは、選択した制御対象を設定部12dへ通知する。   That is, the selection unit 12c can select a control target from the direction in which the user D is gazing. The selection unit 12c notifies the selected control target to the setting unit 12d.

設定部12dは、ユーザDの接触操作が検出された場合のこの接触操作に対応する振動素子13aの振動状態を、選択部12cによって選択された制御対象に応じて設定する。   The setting unit 12d sets the vibration state of the vibration element 13a corresponding to the contact operation when the contact operation of the user D is detected according to the control target selected by the selection unit 12c.

具体的に、設定部12dは、上述のジェスチャ操作のそれぞれに対応する振動素子13aの振動状態の組み合わせが制御対象によって異なるように規定された組み合わせ情報80aに基づき、選択部12cによって選択された制御対象へ向けてジェスチャ操作のそれぞれが行われた場合における各制御対象に固有の振動素子13aの振動状態を設定する。組み合わせ情報80aの一例については図5Aを用いて後述する。   Specifically, the setting unit 12d selects the control selected by the selection unit 12c based on the combination information 80a that is defined so that the combination of vibration states of the vibration element 13a corresponding to each of the gesture operations described above varies depending on the control target. The vibration state of the vibration element 13a unique to each control object when each gesture operation is performed toward the object is set. An example of the combination information 80a will be described later with reference to FIG. 5A.

また、設定部12dは、設定された設定内容を振動状態情報80bとして記憶部80へ記憶させる。例えば、振動状態情報80bは、振動素子13aの制御値を含む情報である。振動状態情報80bの一例については図5Bを用いて後述する。   The setting unit 12d stores the set content in the storage unit 80 as vibration state information 80b. For example, the vibration state information 80b is information including a control value of the vibration element 13a. An example of the vibration state information 80b will be described later with reference to FIG. 5B.

検出部12eは、操作部11が出力するセンサ値に基づき、操作面Pに対するユーザDの所定のジェスチャ操作を検出し、検出結果を振動制御部12fおよび操作処理部12gへ渡す。   The detection unit 12e detects a predetermined gesture operation of the user D with respect to the operation surface P based on the sensor value output from the operation unit 11, and passes the detection result to the vibration control unit 12f and the operation processing unit 12g.

振動制御部12fは、検出部12eによってジェスチャ操作が検出された場合に、設定部12dによって設定された振動状態となるように、振動状態情報80bに基づいて振動部13の振動素子13aを制御する。振動制御部12fの振動素子13aの制御による触覚のフィードバックの具体例については図3A〜図3Dを用いて後述する。   The vibration control unit 12f controls the vibration element 13a of the vibration unit 13 based on the vibration state information 80b so that the vibration state set by the setting unit 12d is obtained when a gesture operation is detected by the detection unit 12e. . A specific example of tactile feedback by the control of the vibration element 13a of the vibration control unit 12f will be described later with reference to FIGS. 3A to 3D.

操作処理部12gは、検出部12eによって検出されたジェスチャ操作に対応する操作内容を、表示制御部50に視覚的に表示部40へフィードバックさせる。また、操作処理部12gは、かかるジェスチャ操作に対応する操作内容を各種機器60へ反映させる処理を行う。   The operation processing unit 12g causes the display control unit 50 to visually feed back the operation content corresponding to the gesture operation detected by the detection unit 12e to the display unit 40. In addition, the operation processing unit 12g performs a process of reflecting the operation content corresponding to the gesture operation on the various devices 60.

また、操作処理部12gは、かかるジェスチャ操作に対応する例えばガイダンス音声をスピーカ70から出力させる。すなわち、ユーザDへ操作面Pから触覚をフィードバックする場合に、このようにスピーカ70からのガイダンス音声を併用することによって、ユーザDの例えばブラインドタッチ操作を聴覚的に支援し、操作性を高めることができる。   In addition, the operation processing unit 12g causes the speaker 70 to output, for example, a guidance voice corresponding to the gesture operation. That is, when a tactile sensation is fed back to the user D from the operation surface P, the guidance voice from the speaker 70 is used in this manner, thereby assisting the user D for example in a blind touch operation and enhancing operability. Can do.

次に、制御対象ごとの触覚のフィードバックの具体例について、図3A〜図3Dを用いて説明する。図3A〜図3Dは、触覚のフィードバックの具体例を示す図(その1)〜(その4)である。   Next, a specific example of tactile feedback for each control target will be described with reference to FIGS. 3A to 3D. 3A to 3D are diagrams (part 1) to (part 4) illustrating specific examples of tactile feedback.

まず図3Aおよび図3Bでは、制御対象がオーディオモードにおけるボリュームUP/DOWNの機能である場合について説明する。したがって、ユーザDが、例えば「ボリューム」といった発話を行い、制御対象として選択済みであるものとする。   First, in FIGS. 3A and 3B, a case where the control target is the function of volume UP / DOWN in the audio mode will be described. Therefore, it is assumed that the user D has made an utterance such as “volume” and has been selected as a control target.

かかる場合、図3Aに示すように、例えば入力装置10の操作面Pには、ボリューム調整ダイヤルに見立てた触覚のフィードバックが可能となるように、振動素子13aの振動状態が設定される。   In this case, as shown in FIG. 3A, for example, the vibration state of the vibration element 13a is set on the operation surface P of the input device 10 so as to enable tactile feedback as if it were a volume adjustment dial.

具体的には、かかる場合、例えば操作面Pに円形の軌跡を描くような領域R1が設定される。また、これ以外の領域は、領域R2として設定される。そして、領域R1は、摩擦力の小さい領域として設定され、領域R2は、相対的に摩擦力の大きい領域として設定される。   Specifically, in such a case, for example, a region R1 that draws a circular locus on the operation surface P is set. The other area is set as the area R2. The region R1 is set as a region where the frictional force is small, and the region R2 is set as a region where the frictional force is relatively large.

摩擦力の大小は、振動制御部12fによる振動素子13aの振動状態の制御によって実現される。すなわち、振動制御部12fは、指U1の接触位置が領域R1内である場合においては、例えば振動素子13aが高周波(例えば超音波周波数帯)で振動する電圧信号を生成し、かかる電圧信号によって振動素子13aを振動させる。   The magnitude of the frictional force is realized by controlling the vibration state of the vibration element 13a by the vibration control unit 12f. That is, when the contact position of the finger U1 is within the region R1, the vibration control unit 12f generates a voltage signal that causes the vibration element 13a to vibrate at a high frequency (for example, an ultrasonic frequency band), and vibrates using the voltage signal. The element 13a is vibrated.

また、これに対し、振動制御部12fは、指U1の接触位置が領域R2内である場合においては、領域R1の場合よりも低い周波数帯で振動する電圧信号を生成し、かかる電圧信号によって振動素子13aを振動させる。   On the other hand, when the contact position of the finger U1 is in the region R2, the vibration control unit 12f generates a voltage signal that vibrates in a lower frequency band than in the region R1, and the vibration is generated by the voltage signal. The element 13a is vibrated.

これにより、領域R1においては、指U1が滑りやすい触覚をユーザDへフィードバックすることができる(図中の矢印301参照)。また、領域R1から逸れた領域R2においては、指U1が滑りにくい触覚をユーザDへフィードバックすることができる(図中の矢印302参照)。   Thereby, in area | region R1, the tactile sense that finger | toe U1 is easy to slip can be fed back to the user D (refer arrow 301 in a figure). Further, in the region R2 deviating from the region R1, a tactile sensation in which the finger U1 is difficult to slip can be fed back to the user D (see arrow 302 in the figure).

したがって、ユーザDは、滑りやすい触覚のフィードバックによって領域R1に沿って案内されつつ、指U1で操作面Pに実際のダイヤル調整のイメージに近い円形の軌跡を描くことによって、ボリュームUP/DOWNの機能の操作入力を行うことができる。なお、このとき、表示部40には、図3Aに示すように例えばボリューム調整ダイヤルの画像が視覚的にフィードバックされていてもよい。   Accordingly, the user D is guided along the region R1 by slippery tactile feedback, and draws a circular locus close to the image of actual dial adjustment on the operation surface P with the finger U1, so that the function of the volume UP / DOWN The operation input can be performed. At this time, for example, an image of a volume adjustment dial may be visually fed back to the display unit 40 as shown in FIG. 3A.

これは、例えば視線検出部12bによってユーザDがセンターディスプレイ41を継続して注視していることが明らかである場合等に有効である。すなわち、この場合には、ユーザDが運転動作にないことが想定されるので、触覚に視覚のフィードバックを併用することによって確実な制御対象の操作が可能になる。   This is effective, for example, when it is clear that the user D is continuously gazing at the center display 41 by the line-of-sight detection unit 12b. That is, in this case, since it is assumed that the user D is not in the driving operation, the operation of the controlled object can be surely performed by using visual feedback together with the sense of touch.

一方、例えば視線検出部12bによってユーザDがHUD42を注視していることが明らかである場合は、ユーザDが運転動作にあることが想定されるので、安全性の観点から表示部40への視覚的なフィードバックは限定的にとどめ、操作面Pからの例えばブラインドタッチ操作のみ受け付けることが好ましい。   On the other hand, for example, when it is clear that the user D is gazing at the HUD 42 by the line-of-sight detection unit 12b, it is assumed that the user D is in the driving operation. It is preferable that the feedback is limited and only a blind touch operation from the operation surface P is accepted.

そのようなブラインドタッチ操作を支援する触覚のフィードバックの例としては、例えば図3Bに示すように、指U1に円形の軌跡を描かせた場合に(図中の矢印303参照)、ボリューム調整ダイヤルの目盛りに対応する位置で「カチッ!」とした境界を乗り越える触覚を与えられるように摩擦力を変化させる制御を行ってもよい。   As an example of tactile feedback that supports such a blind touch operation, for example, as shown in FIG. 3B, when a circular locus is drawn on the finger U1 (see arrow 303 in the figure), the volume adjustment dial Control may be performed to change the frictional force so as to give a tactile sensation over the boundary “click” at the position corresponding to the scale.

このとき、例えばスピーカ70を介して「カチッ!」という音を出力してもよく、あるいは振動制御部12fによって振動部13の振動素子13aを可聴領域で振動させることで音を出力するようにしてもよい。   At this time, for example, a “click!” Sound may be output via the speaker 70, or the sound may be output by vibrating the vibration element 13a of the vibration unit 13 in the audible region by the vibration control unit 12f. Also good.

次に図3Cおよび図3Dでは、制御対象がエアコン61の設定温度調整の機能である場合について説明する。したがって、ユーザDが、例えば「エアコン温度」といった発話を行い、制御対象として選択済みであるものとする。   Next, with reference to FIGS. 3C and 3D, a case where the control target is a function of adjusting the set temperature of the air conditioner 61 will be described. Therefore, it is assumed that the user D has made a speech such as “air conditioner temperature” and has been selected as a control target.

かかる場合、図3Cに示すように、例えば入力装置10の操作面Pには、温度調整のUP/DOWNボタンに見立てた触覚のフィードバックが可能となるように、振動素子13aの振動状態が設定される。   In this case, as shown in FIG. 3C, for example, the vibration state of the vibration element 13a is set on the operation surface P of the input device 10 so as to enable tactile feedback as if it were an UP / DOWN button for temperature adjustment. The

具体的には、かかる場合、例えば操作面PにUPボタンに対応する領域R11とDOWNボタンに対応する領域R12とが設定される。これら領域R11,R12は、摩擦力の大きい領域として設定される。また、領域R11,R12以外の領域は、相対的に摩擦力の小さい領域として設定される。   Specifically, in this case, for example, an area R11 corresponding to the UP button and an area R12 corresponding to the DOWN button are set on the operation surface P. These regions R11 and R12 are set as regions having a large frictional force. In addition, regions other than the regions R11 and R12 are set as regions having relatively small frictional forces.

これにより、領域R11においては、UPボタンが存在する触覚をユーザDへフィードバックすることができる。また、領域R12においては、DOWNボタンが存在する触覚をユーザDへフィードバックすることができる。   Thereby, in area | region R11, the tactile sense in which an UP button exists can be fed back to the user D. In the region R12, the sense of touch where the DOWN button exists can be fed back to the user D.

そして、ユーザDは、図3Dに示すように、例えば領域R11を押下することによって、エアコン61の設定温度を上げる操作を行うことができる。このとき、例えばユーザDが領域R11から指U1を離したタイミングで(図中の矢印304参照)、スピーカ70から「設定温度はXX℃です」といったガイダンス音声を出力することによって、上述したブラインドタッチ操作を操作性高く確実に行うのに資することができる。   Then, as shown in FIG. 3D, the user D can perform an operation of increasing the set temperature of the air conditioner 61 by pressing the region R11, for example. At this time, for example, at the timing when the user D releases the finger U1 from the region R11 (see the arrow 304 in the figure), the blind touch described above is output from the speaker 70 such as “the set temperature is XX ° C.”. It can contribute to performing the operation with high operability and reliability.

なお、図3Cおよび図3Dでは、温度調整のUP/DOWNボタンに対応する例を示したが、あくまで一例であって、例えば上下に延びる直線状のスライドバーに見立てた領域を設定し、かかる領域の摩擦力を小さくして、指U1をかかる領域で上げ下げすることで操作してもよい。   3C and 3D show an example corresponding to the temperature adjustment UP / DOWN button. However, the example is just an example, and for example, an area resembling a linear slide bar extending up and down is set. May be operated by raising and lowering the finger U1 in such a region.

次に、ジェスチャ操作について、図4A〜図4Cを用いて説明する。これまでは、例えば指U1で円形の軌跡を描く場合や、上下に上げ下げする場合を説明したため、ここではそれ以外の場合を説明する。   Next, the gesture operation will be described with reference to FIGS. 4A to 4C. So far, for example, a case where a circular locus is drawn with the finger U1 and a case where it is raised and lowered up and down have been described, and the other cases will be described here.

図4A〜図4Cは、ジェスチャ操作の具体例を示す図(その1)〜(その3)である。ジェスチャ操作は、上述したように、ユーザDの覚えやすい平易な態様であることが操作性を高めるうえで好ましい。   4A to 4C are diagrams (part 1) to (part 3) illustrating specific examples of the gesture operation. As described above, the gesture operation is preferably a simple mode that is easy for the user D to remember in order to improve operability.

その一つとして、例えば図4Aに示すように、指U1を操作面Pにおいて、左右方向にスライドさせるジェスチャ操作を挙げることができる。   As one of them, for example, as shown in FIG. 4A, a gesture operation of sliding the finger U1 on the operation surface P in the left-right direction can be exemplified.

また、他の一つとして、例えば図4Bに示すように、指U1を操作面Pにおいて、三角形の軌跡を描くようにスライドさせるジェスチャ操作を挙げることができる。   As another example, as shown in FIG. 4B, for example, a gesture operation in which the finger U1 is slid on the operation surface P so as to draw a triangular trajectory can be given.

また、他の一つとして、例えば図4Cに示すように、指U1を操作面Pにおいて、×印の軌跡を描くようにスライドさせるジェスチャ操作を挙げることができる。   As another example, as shown in FIG. 4C, for example, a gesture operation in which the finger U1 is slid on the operation surface P so as to draw a trajectory of an X mark can be given.

本実施形態では、これら平易で覚えやすい数個のジェスチャ操作のそれぞれに対応する振動状態の組み合わせを、制御対象によって異なるように設定する。   In the present embodiment, the combination of vibration states corresponding to each of these simple and easy-to-remember gesture operations is set to be different depending on the control target.

言い換えれば、本実施形態の入力装置10では、異なる制御対象の間で共通に用いることができる平易なジェスチャ操作のセットによって制御対象をそれぞれ操作し、制御対象が異なれば、その各ジェスチャ操作にはそれぞれ異なる触覚がフィードバックされることとなる。   In other words, in the input device 10 according to the present embodiment, each control object is operated by a set of simple gesture operations that can be used in common among different control objects. Different tactile sensations will be fed back.

これにより、ユーザDは、数個の平易なジェスチャ操作を覚えるだけで、多様な制御対象を同様のジェスチャ操作で操作でき、しかも異なる制御対象ごとに異なる触覚のフィードバックを受けることができるので、多様な制御対象を操作性高く操作することができる。   Thereby, the user D can operate various control objects with the same gesture operation only by learning several simple gesture operations, and can receive feedback of different tactile sensations for each different control object. It is possible to operate a simple control target with high operability.

これを実現するための、組み合わせ情報80aおよび振動状態情報80bの具体例について、図5Aおよび図5Bを用いて説明する。図5Aは、組み合わせ情報80aの具体例を示す図である。図5Bは、振動状態情報80bの具体例を示す図である。   Specific examples of the combination information 80a and the vibration state information 80b for realizing this will be described with reference to FIGS. 5A and 5B. FIG. 5A is a diagram illustrating a specific example of the combination information 80a. FIG. 5B is a diagram illustrating a specific example of the vibration state information 80b.

まず、組み合わせ情報80aは、既に述べたように、ジェスチャ操作のそれぞれに対応する振動素子13aの振動状態の組み合わせが制御対象によって異なるように規定された情報である。   First, the combination information 80a is information that is defined so that the combination of vibration states of the vibration element 13a corresponding to each gesture operation varies depending on the control target, as described above.

具体的には、図5Aに示すように、組み合わせ情報80aは、例えば制御対象項目と、ジェスチャ操作項目と、機能項目と、振動状態項目とを含んでいる。制御対象項目は例えばさらに機器項目とかかる機器の有するモード項目とに内訳される。   Specifically, as illustrated in FIG. 5A, the combination information 80a includes, for example, a control target item, a gesture operation item, a function item, and a vibration state item. Control target items are further broken down into, for example, device items and mode items possessed by such devices.

例えばナビ装置は、制御対象としてナビモード、オーディオモードといった複数のモードを有する。各モードには、共通のジェスチャ操作のセットが割り当てられる。例えばここでは、先に示した「上下」、「左右」、「円形」、「三角形」、「×印」の五つのジェスチャ操作のセットを想定している。   For example, the navigation apparatus has a plurality of modes such as a navigation mode and an audio mode as control targets. Each mode is assigned a common set of gesture operations. For example, here, the above-described set of five gesture operations “upper and lower”, “left and right”, “circular”, “triangle”, and “x” is assumed.

そして、ナビ装置のナビモードにおいては、例えば「上下」のジェスチャ操作に地図スクロール(上下)の機能が割り当てられ、振動状態項目にはこれに固有に対応する第1の振動状態が対応付けられる。   In the navigation mode of the navigation device, for example, a map scroll (up / down) function is assigned to the “up / down” gesture operation, and the vibration state item is associated with a first vibration state corresponding to the map state.

一方、ナビ装置のオーディオモードにおいては、同じ「上下」のジェスチャ操作にトラック切替の機能が割り当てられ、振動状態項目にはこれに固有に対応する第6の振動状態が対応付けられる。   On the other hand, in the audio mode of the navigation device, a track switching function is assigned to the same “up / down” gesture operation, and a sixth vibration state corresponding to the vibration state item is associated with the vibration state item.

同様に、ナビモードおよびオーデイオモードにおける「左右」、「円形」、「三角形」、「×印」の各ジェスチャ操作にもそれぞれ個別の機能が割り当てられ、振動状態項目にはこれらにそれぞれ固有に対応する第2〜5および7〜10の振動状態が対応付けられる。   Similarly, separate functions are assigned to each gesture operation of “Left / Right”, “Circle”, “Triangle”, and “X” in the navigation mode and audio mode, and the vibration state items correspond to these individually. The 2nd to 5th and 7th to 10th vibration states are associated.

エアコン61については、例えば「上下」のジェスチャ操作に対し設定温度UP/DOWNの機能が割り当てられ、これに固有に対応する例えば第11の振動状態が対応付けられる。   For the air conditioner 61, for example, the function of the set temperature UP / DOWN is assigned to the “up / down” gesture operation, and, for example, the eleventh vibration state corresponding to the function is uniquely associated.

ところで、制御対象となる各種機器60およびその各モードは、未接続であったり故障中であったりすることで選択自体が無効である場合がある。かかる場合のため、組み合わせ情報80aは、例えば「共通」的に、振動素子13aを振動させない第12の振動状態を含むことができる。   By the way, various devices 60 to be controlled and their modes may be invalid because they are not connected or are in failure. For such a case, the combination information 80a can include a twelfth vibration state in which the vibration element 13a is not vibrated, for example, “in common”.

上述した設定部12dは、例えば図5Aのように規定された組み合わせ情報80aを参照し、検出部12eによってジェスチャ操作が検出された場合のこのジェスチャ操作に対応する振動素子13aの振動状態を、選択部12cによって選択された制御対象に応じて設定することとなる。かかる設定は、例えば振動状態情報80bにいずれの振動状態が選択されたかを示す情報を設定部12dが書き込むことによって行われる。   The setting unit 12d described above refers to, for example, the combination information 80a defined as illustrated in FIG. 5A, and selects the vibration state of the vibration element 13a corresponding to the gesture operation when the gesture operation is detected by the detection unit 12e. This is set according to the control target selected by the unit 12c. Such setting is performed, for example, when the setting unit 12d writes information indicating which vibration state is selected in the vibration state information 80b.

振動状態情報80bは、各振動状態における振動素子13aの制御値を含む情報である。具体的には、図5Bに示すように、振動状態情報80bは、例えば設定中項目と、振動状態項目と、接触位置座標項目と、振動周波数項目とを含んでいる。   The vibration state information 80b is information including a control value of the vibration element 13a in each vibration state. Specifically, as shown in FIG. 5B, the vibration state information 80b includes, for example, a setting item, a vibration state item, a contact position coordinate item, and a vibration frequency item.

振動状態項目は、各振動状態を識別する情報であり、各振動状態には、操作面Pにおける指U1の接触位置座標が定義されている。そして、各接触位置座標には、例えば振動素子13aを振動させる振動周波数が対応付けられる。   The vibration state item is information for identifying each vibration state, and the contact position coordinates of the finger U1 on the operation surface P are defined for each vibration state. Each contact position coordinate is associated with a vibration frequency for vibrating the vibration element 13a, for example.

そして、設定中項目には、いずれの振動状態が選択されたかを示す情報が設定部12dにより書き込まれる。例えば図5Bには、第1の振動状態にチェックマークが付いている例を示しているが、設定部12dがチェックマークを付けたことにより、第1の振動状態が設定中であることを示すものである。   In the setting item, information indicating which vibration state has been selected is written by the setting unit 12d. For example, FIG. 5B shows an example in which a check mark is added to the first vibration state, but the setting unit 12d adds a check mark to indicate that the first vibration state is being set. Is.

なお、図5Bには、例えば図5Aで振動素子13aを振動させないとした第12の振動状態に関する例も示している。かかる第12の振動状態では、接触位置座標や振動周波数といった制御値は、例えば定義されない。   FIG. 5B also shows an example relating to the twelfth vibration state in which the vibration element 13a is not vibrated in FIG. 5A, for example. In the twelfth vibration state, control values such as contact position coordinates and vibration frequency are not defined, for example.

振動制御部12fは、このような振動状態情報80bを参照し、設定中である振動状態に対応付けられた接触位置座標および振動周波数といった制御値を用いることによって、振動素子13aを制御することとなる。   The vibration control unit 12f refers to such vibration state information 80b and controls the vibration element 13a by using control values such as contact position coordinates and vibration frequency associated with the vibration state being set. Become.

なお、図5Aおよび図5Bに示した組み合わせ情報80aおよび振動状態情報80bはあくまで一例であって、その構成を限定するものではない。   Note that the combination information 80a and the vibration state information 80b illustrated in FIGS. 5A and 5B are merely examples, and the configurations thereof are not limited.

次に、実施形態に係る入力装置10が実行する処理手順について、図6を用いて説明する。図6は、実施形態に係る入力装置10が実行する処理手順を示すフローチャートである。   Next, a processing procedure executed by the input device 10 according to the embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating a processing procedure executed by the input device 10 according to the embodiment.

図6に示すように、入力装置10は、まず選択部12cが、ユーザDの挙動に基づいて制御対象を選択する(ステップS101)。つづいて、設定部12dが、選択部12cの選択した制御対象に応じた振動素子13aの振動状態を設定する(ステップS102)。   As illustrated in FIG. 6, in the input device 10, the selection unit 12 c first selects a control target based on the behavior of the user D (Step S <b> 101). Subsequently, the setting unit 12d sets the vibration state of the vibration element 13a corresponding to the control target selected by the selection unit 12c (step S102).

つづいて、検出部12eが、操作面Pに対するユーザDの接触操作を検出する(ステップS103)。   Subsequently, the detection unit 12e detects the contact operation of the user D with respect to the operation surface P (step S103).

そして、振動制御部12fが、設定された振動状態情報80bに基づき、振動部13の振動素子13aを制御する。   Then, the vibration control unit 12f controls the vibration element 13a of the vibration unit 13 based on the set vibration state information 80b.

このとき振動制御部12fは、操作が有効である場合(ステップS104,Yes)、すなわち制御対象が選択部12cによって有効に選択されていれば、振動状態情報80bに基づいて振動素子13aを振動させることによって制御対象に応じた触覚をフィードバックし(ステップS105)、処理を終了する。   At this time, the vibration control unit 12f vibrates the vibration element 13a based on the vibration state information 80b if the operation is valid (Yes in step S104), that is, if the control target is effectively selected by the selection unit 12c. Thus, the tactile sensation according to the controlled object is fed back (step S105), and the process is terminated.

なお、ステップS105にて上述の各ジェスチャ操作に応じた振動状態とするためには、ユーザDが所望するジェスチャ操作に対応する振動状態を選択する必要があるが、例えば上述のマイク20からの音声認識等によって選択すればよい。   Note that in order to obtain a vibration state corresponding to each gesture operation described above in step S105, it is necessary to select a vibration state corresponding to the gesture operation desired by the user D. For example, the sound from the microphone 20 described above is selected. It may be selected by recognition or the like.

音声認識の場合、具体的には、次のような手順を踏むこととなる。まずユーザDが、「円形」のジェスチャ操作を行いたければ、例えば「円」との発話を行い、音声受付部12aがこのときの音声を受け付けて解析結果を選択部12cへ渡す。   In the case of speech recognition, specifically, the following procedure is taken. First, if the user D wants to perform a “circular” gesture operation, he / she utters “circle”, for example, and the voice reception unit 12a receives the voice at this time and passes the analysis result to the selection unit 12c.

選択部12cは、解析結果に基づいて「円形」のジェスチャ操作を選択し、設定部12dへ通知する。設定部12dは、かかる通知を受けて、選択中の制御対象におけるこの「円形」のジェスチャ操作に応じた振動状態を組み合わせ情報80aから選択し、かかる振動状態を「設定中」であると振動状態情報80bへ設定する。   The selection unit 12c selects a “circular” gesture operation based on the analysis result, and notifies the setting unit 12d of the gesture operation. Upon receiving the notification, the setting unit 12d selects a vibration state corresponding to the “circular” gesture operation on the control target being selected from the combination information 80a, and if the vibration state is “setting”, the vibration state Information 80b is set.

そして、その設定結果に基づき、振動制御部12fが、ユーザDの所望の「円形」のジェスチャ操作に対応する振動状態となるように振動部13の振動素子13aを制御する。後はユーザDは、例えば既に図3Aで示した領域R1に沿って案内されつつ、指U1を動かして「円形」のジェスチャ操作を行えばよい。   Then, based on the setting result, the vibration control unit 12f controls the vibration element 13a of the vibration unit 13 so as to be in a vibration state corresponding to the desired “circular” gesture operation of the user D. Thereafter, for example, the user D may perform a “circular” gesture operation by moving the finger U1 while being guided along the region R1 shown in FIG. 3A.

また、図6に示すように、振動制御部12fは、操作が無効である場合(ステップS104,No)、すなわち選択部12cによる制御対象の選択が無効であれば、振動状態情報80bに基づいて振動素子13aを振動させないことによって制御対象に応じた触覚をフィードバックせずに(ステップS106)、処理を終了する。   Further, as shown in FIG. 6, the vibration control unit 12f is based on the vibration state information 80b when the operation is invalid (No at Step S104), that is, when the selection of the control target by the selection unit 12c is invalid. By not vibrating the vibration element 13a, the process is terminated without feeding back the tactile sensation according to the control target (step S106).

本実施形態に係る統合入力システム1は、図7に一例として示す構成のコンピュータ600で実現することができる。図7は、実施形態に係る統合入力システム1の機能を実現するコンピュータの一例を示すハードウェア構成図である。   The integrated input system 1 according to the present embodiment can be realized by a computer 600 having a configuration shown as an example in FIG. FIG. 7 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the integrated input system 1 according to the embodiment.

コンピュータ600は、CPU(Central Processing Unit)610と、ROM(Read Only Memory)620と、RAM(Random Access Memory)630と、HDD(Hard Disk Drive)640とを備える。また、コンピュータ600は、メディアインターフェイス(I/F)650と、通信インターフェイス(I/F)660と、入出力インターフェイス(I/F)670とを備える。   The computer 600 includes a CPU (Central Processing Unit) 610, a ROM (Read Only Memory) 620, a RAM (Random Access Memory) 630, and an HDD (Hard Disk Drive) 640. The computer 600 also includes a media interface (I / F) 650, a communication interface (I / F) 660, and an input / output interface (I / F) 670.

なお、コンピュータ600は、SSD(Solid State Drive)を備え、かかるSSDがHDD640の一部または全ての機能を実行するようにしてもよい。また、HDD640に代えてSSDを設けることとしてもよい。   The computer 600 may include an SSD (Solid State Drive), and the SSD may execute a part or all of the functions of the HDD 640. Further, an SSD may be provided instead of the HDD 640.

CPU610は、ROM620およびHDD640の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM620は、コンピュータ600の起動時にCPU610によって実行されるブートプログラムや、コンピュータ600のハードウェアに依存するプログラムなどを格納する。HDD640は、CPU610によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。   The CPU 610 operates based on a program stored in at least one of the ROM 620 and the HDD 640 and controls each unit. The ROM 620 stores a boot program executed by the CPU 610 when the computer 600 starts up, a program depending on the hardware of the computer 600, and the like. The HDD 640 stores a program executed by the CPU 610, data used by the program, and the like.

メディアI/F650は、記憶媒体680に格納されたプログラムやデータを読み取り、RAM630を介してCPU610に提供する。CPU610は、かかるプログラムを、メディアI/F650を介して記憶媒体680からRAM630上にロードし、ロードしたプログラムを実行する。あるいは、CPU610は、かかるデータを用いてプログラムを実行する。記憶媒体680は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。   The media I / F 650 reads programs and data stored in the storage medium 680 and provides them to the CPU 610 via the RAM 630. The CPU 610 loads such a program from the storage medium 680 onto the RAM 630 via the media I / F 650, and executes the loaded program. Alternatively, the CPU 610 executes a program using such data. The storage medium 680 is, for example, a magneto-optical recording medium such as a DVD (Digital Versatile Disc), an SD card, or a USB memory.

通信I/F660は、ネットワーク690を介して他の機器からデータを受信してCPU610に送り、CPU610が生成したデータを、ネットワーク690を介して他の機器へ送信する。あるいは、通信I/F660は、ネットワーク690を介して他の機器からプログラムを受信してCPU610に送り、CPU610がかかるプログラムを実行する。   The communication I / F 660 receives data from other devices via the network 690 and sends the data to the CPU 610, and transmits the data generated by the CPU 610 to other devices via the network 690. Alternatively, the communication I / F 660 receives a program from another device via the network 690, sends the program to the CPU 610, and the CPU 610 executes the program.

CPU610は、入出力I/F670を介して、ディスプレイ等の表示部40、スピーカ70等の出力部、キーボードやマウス、ボタン、操作部11等の入力部を制御する。CPU610は、入出力I/F670を介して、入力部からデータを取得する。また、CPU610は、生成したデータを入出力I/F670を介して表示部40や出力部に出力する。   The CPU 610 controls a display unit 40 such as a display, an output unit such as a speaker 70, and an input unit such as a keyboard, a mouse, a button, and an operation unit 11 via the input / output I / F 670. The CPU 610 acquires data from the input unit via the input / output I / F 670. In addition, the CPU 610 outputs the generated data to the display unit 40 and the output unit via the input / output I / F 670.

例えば、コンピュータ600が統合入力システム1として機能する場合、コンピュータ600のCPU610は、RAM630上にロードされたプログラムを実行することにより、音声受付部12aと、視線検出部12bと、選択部12cと、設定部12dと、検出部12eと、振動制御部12fと、操作処理部12gとを含む入力装置10の制御部12および表示制御部50の各機能を実現する。   For example, when the computer 600 functions as the integrated input system 1, the CPU 610 of the computer 600 executes a program loaded on the RAM 630, so that the voice reception unit 12 a, the line-of-sight detection unit 12 b, the selection unit 12 c, Each function of the control unit 12 and the display control unit 50 of the input device 10 including the setting unit 12d, the detection unit 12e, the vibration control unit 12f, and the operation processing unit 12g is realized.

コンピュータ600のCPU610は、例えばこれらのプログラムを記憶媒体680から読み取って実行するが、他の例として、他の装置からネットワーク690を介してこれらのプログラムを取得してもよい。また、HDD640は、記憶部80が記憶する情報を記憶することができる。   For example, the CPU 610 of the computer 600 reads these programs from the storage medium 680 and executes them, but as another example, these programs may be acquired from other devices via the network 690. Further, the HDD 640 can store information stored in the storage unit 80.

上述してきたように、実施形態に係る入力装置は、一つの操作面と、選択部と、検出部と、少なくとも一つの振動素子と、設定部と、振動制御部とを備える。選択部は、操作面を用いた制御対象をユーザの挙動に基づいて選択する。   As described above, the input device according to the embodiment includes one operation surface, a selection unit, a detection unit, at least one vibration element, a setting unit, and a vibration control unit. The selection unit selects a control target using the operation surface based on a user's behavior.

検出部は、操作面に対するユーザの所定の接触操作を検出する。振動素子は、操作面を振動させる。設定部は、検出部によって接触操作が検出された場合のかかる接触操作に対応する振動素子の振動状態を、選択部によって選択された制御対象に応じて設定する。   The detection unit detects a predetermined contact operation of the user with respect to the operation surface. The vibration element vibrates the operation surface. The setting unit sets the vibration state of the vibration element corresponding to the contact operation when the contact operation is detected by the detection unit according to the control target selected by the selection unit.

振動制御部は、検出部によって接触操作が検出された場合に、設定部によって設定された振動状態となるように振動素子を制御する。   The vibration control unit controls the vibration element so as to be in a vibration state set by the setting unit when a contact operation is detected by the detection unit.

したがって、実施形態に係る入力装置によれば、多様な制御対象を操作性高く操作することができる。   Therefore, according to the input device according to the embodiment, various control objects can be operated with high operability.

なお、上述した実施形態では、選択部12cが、マイク20からの音声入力や、ユーザDの視線検出に基づいて制御対象を選択する場合を例に挙げたが、これに限られるものではない。例えば、入力装置10が、制御対象を切り替えるスイッチを備えることとしたうえで、単にこれを押下して切り替えるユーザDの挙動によって制御対象を選択してもよい。   In the above-described embodiment, the case where the selection unit 12c selects the control target based on the voice input from the microphone 20 or the detection of the line of sight of the user D is taken as an example, but the present invention is not limited to this. For example, the input device 10 may include a switch for switching the control target, and the control target may be selected based on the behavior of the user D who simply presses the switch to switch.

また、上述した実施形態では、操作面Pが一つである場合を例に挙げたが、かかる一つの操作面Pを複数の領域に分割し、各領域で異なる触覚をフィードバックするように、振動制御部12fが振動素子13aを制御してもよい。   In the above-described embodiment, the case where there is one operation surface P has been described as an example. However, the single operation surface P is divided into a plurality of regions, and vibration is performed so that different haptics are fed back in each region. The control unit 12f may control the vibration element 13a.

この場合、各領域に、例えばナビ装置の各モードを割り当て、ユーザDがその各領域を触覚のフィードバックに従って選択することによって、選択部12cが操作面Pの制御対象とするモードを選択することとしてもよい。これにより、ユーザDは、音声認識や視線検出によることなく容易に、制御対象とするモード選択操作を行うことができる。   In this case, for example, each mode of the navigation device is assigned to each region, and the user D selects each region according to tactile feedback, so that the selection unit 12c selects a mode to be controlled by the operation surface P. Also good. Thereby, the user D can easily perform a mode selection operation to be controlled without using voice recognition or line-of-sight detection.

具体的には、操作面Pは、複数の分割領域を有し、分割領域のそれぞれには異なるモードが割り当てられ、振動制御部12fは、分割領域のそれぞれで異なる振動状態となるように振動素子13aを制御する。選択部12cは、ユーザDが分割領域それぞれからの触覚のフィードバックに従って選択した分割領域に対応するモードを選択することとなる。   Specifically, the operation surface P has a plurality of divided areas, and a different mode is assigned to each of the divided areas, and the vibration control unit 12f causes the vibration element to be in a different vibration state in each of the divided areas. 13a is controlled. The selection unit 12c selects the mode corresponding to the divided area selected by the user D according to the tactile feedback from each of the divided areas.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 統合入力システム
10 入力装置
11 操作部
12 制御部
12a 音声受付部
12b 視線検出部
12c 選択部
12d 設定部
12e 検出部
12f 振動制御部
12g 操作処理部
13 振動部
13a 振動素子
20 マイク
30 撮像部
40 表示部
50 表示制御部
60 各種機器
70 スピーカ
80 記憶部
D ユーザ
P 操作面
U1 指
DESCRIPTION OF SYMBOLS 1 Integrated input system 10 Input device 11 Operation part 12 Control part 12a Audio | voice reception part 12b Eye-gaze detection part 12c Selection part 12d Setting part 12e Detection part 12f Vibration control part 12g Operation processing part 13 Vibration part 13a Vibration element 20 Microphone 30 Imaging part 40 Display unit 50 Display control unit 60 Various devices 70 Speaker 80 Storage unit D User P Operation surface U1 Finger

Claims (13)

一つの操作面と、
前記操作面を用いた制御対象をユーザの挙動に基づいて選択する選択部と、
前記操作面に対する前記ユーザの所定の接触操作を検出する検出部と、
前記操作面を振動させる少なくとも一つの振動素子と、
前記検出部によって前記接触操作が検出された場合の該接触操作に対応する前記振動素子の振動状態を、前記選択部によって選択された前記制御対象に応じて設定する設定部と、
前記検出部によって前記接触操作が検出された場合に、前記設定部によって設定された前記振動状態となるように前記振動素子を制御する振動制御部と
を備え
前記接触操作は、前記操作面への接触を含む数個の平易なジェスチャ操作であって、
前記設定部は、
前記ジェスチャ操作のそれぞれに対応する前記振動状態の組み合わせが前記制御対象によって異なるように規定された組み合わせ情報に基づき、前記選択部によって選択された前記制御対象へ向けて前記ジェスチャ操作のそれぞれが行われた場合における前記振動状態を設定すること
を特徴とする入力装置。
One operating surface,
A selection unit that selects a control target using the operation surface based on a user's behavior;
A detection unit for detecting a predetermined contact operation of the user on the operation surface;
At least one vibration element for vibrating the operation surface;
A setting unit for setting a vibration state of the vibration element corresponding to the contact operation when the contact operation is detected by the detection unit according to the control target selected by the selection unit;
A vibration control unit that controls the vibration element so as to be in the vibration state set by the setting unit when the contact operation is detected by the detection unit ;
The contact operation is a number of simple gesture operations including contact with the operation surface,
The setting unit
Each of the gesture operations is performed toward the control target selected by the selection unit based on combination information that is defined so that combinations of the vibration states corresponding to the gesture operations differ depending on the control target. input apparatus characterized that you set the vibration state when the.
前記制御対象は、複数の機器のうちの一つであること
を特徴とする請求項に記載の入力装置。
The input device according to claim 1 , wherein the control target is one of a plurality of devices.
前記制御対象は、一つの機器が有する複数のモードのうちの一つであること
を特徴とする請求項またはに記載の入力装置。
The controlled object, an input apparatus according to claim 1 or 2, characterized in that one of a plurality of modes having the one device.
音声入力を受け付ける音声受付部
をさらに備え、
前記選択部は、
前記音声受付部によって受け付けられた前記音声入力の内容に基づいて前記制御対象を選択すること
を特徴とする請求項1、2または3に記載の入力装置。
A voice reception unit for receiving voice input;
The selection unit includes:
The input device according to claim 1 , wherein the control target is selected based on the content of the voice input received by the voice receiving unit.
前記ユーザを撮像する撮像部からの撮像画像に基づいて前記ユーザの視線方向を検出する視線検出部
をさらに備え、
前記選択部は、
前記視線検出部の検出結果に基づいて前記制御対象を選択すること
を特徴とする請求項1〜のいずれか一つに記載の入力装置。
A line-of-sight detection unit that detects a line-of-sight direction of the user based on a captured image from an imaging unit that captures the user;
The selection unit includes:
The input device according to any one of claims 1 to 4 , wherein the control target is selected based on a detection result of the line-of-sight detection unit.
前記振動制御部は、
前記選択部によって前記制御対象が有効に選択された場合に、前記検出部により前記制御対象へ向けての前記接触操作が検出されたならば、前記ユーザへ前記操作面から触覚をフィードバックする振動状態となるように前記振動素子を制御すること
を特徴とする請求項1〜のいずれか一つに記載の入力装置。
The vibration control unit
When the control unit is effectively selected by the selection unit, if the contact operation toward the control target is detected by the detection unit, a vibration state that feeds back a tactile sensation from the operation surface to the user input device according to any one of claims 1-5, characterized in that for controlling the vibration element such that.
前記振動制御部は、
前記制御対象を前記選択部によって選択することが無効である場合に、前記検出部により前記制御対象へ向けての前記接触操作が検出されたならば、前記ユーザへ前記操作面から触覚をフィードバックしない振動状態となるように前記振動素子を制御すること
を特徴とする請求項1〜のいずれか一つに記載の入力装置。
The vibration control unit
When it is invalid to select the control target by the selection unit, if the contact operation toward the control target is detected by the detection unit, a tactile sensation is not fed back to the user from the operation surface. input device according to any one of claims 1-6, characterized by controlling the vibration element such that the vibration state.
前記操作面は、複数の分割領域を有し、前記分割領域のそれぞれには異なる前記制御対象が割り当てられ、
前記振動制御部は、
前記分割領域のそれぞれで異なる振動状態となるように前記振動素子を制御し、
前記選択部は
前記ユーザが前記分割領域の各々からの触覚のフィードバックに従って選択した該分割領域に対応する前記制御対象を選択すること
を特徴とする請求項1〜のいずれか一つに記載の入力装置。
The operation surface has a plurality of divided areas, and each of the divided areas is assigned a different control target,
The vibration control unit
Controlling the vibrating element to be in different vibration states in each of the divided regions;
The selection unit according to any one of claims 1-7, characterized in that selecting the control target corresponding to the divided area selected the user in accordance with tactile feedback from each of said divided areas Input device.
前記ユーザへ前記操作面から触覚をフィードバックする場合に、音声出力部によって出力されるガイダンス音声を併用すること
を特徴とする請求項1〜のいずれか一つに記載の入力装置。
The input device according to any one of claims 1 to 8 , wherein when a tactile sensation is fed back to the user from the operation surface, a guidance voice output by a voice output unit is used together.
前記振動制御部は、The vibration control unit
所定の前記ジェスチャ操作に対応する所定の軌跡として前記操作面に設定される一の領域から当該一の領域以外の他の領域へ逸れる前記接触操作が前記検出部により検出されたならば、前記他の領域において前記一の領域よりも摩擦力が大きい触覚をフィードバックする振動状態となるように前記振動素子を制御することIf the detection unit detects the contact operation deviating from one region set on the operation surface as a predetermined locus corresponding to the predetermined gesture operation to another region other than the one region, the other Controlling the vibration element so as to be in a vibration state that feeds back a tactile sensation having a frictional force larger than that in the one region.
を特徴とする請求項1〜9のいずれか一つに記載の入力装置。The input device according to any one of claims 1 to 9.
請求項1〜10のいずれか一つに記載の入力装置と、
前記操作面に対する前記ユーザの所定の接触操作に応じた画像を表示する表示部と
を備えることを特徴とする統合入力システム。
An input device according to any one of claims 1 to 10,
An integrated input system comprising: a display unit that displays an image corresponding to a predetermined contact operation of the user on the operation surface.
一つの操作面を備える入力装置の制御方法であって、
前記操作面を用いた制御対象をユーザの挙動に基づいて選択する選択工程と、
前記操作面に対する前記ユーザの所定の接触操作を検出する検出工程と、
少なくとも一つの振動素子によって前記操作面を振動させる振動工程と、
前記検出工程で前記接触操作が検出された場合の該接触操作に対応する前記振動素子の振動状態を、前記選択工程で選択された前記制御対象に応じて設定する設定工程と、
前記検出工程で前記接触操作が検出された場合に、前記設定工程で設定された前記振動状態となるように前記振動素子を制御する振動制御工程と
を含み、
前記接触操作は、前記操作面への接触を含む数個の平易なジェスチャ操作であって、
前記設定工程は、
前記ジェスチャ操作のそれぞれに対応する前記振動状態の組み合わせが前記制御対象によって異なるように規定された組み合わせ情報に基づき、前記選択工程で選択された前記制御対象へ向けて前記ジェスチャ操作のそれぞれが行われた場合における前記振動状態を設定すること
を特徴とする入力装置の制御方法。
A method for controlling an input device having one operation surface,
A selection step of selecting a control target using the operation surface based on a user's behavior;
A detection step of detecting a predetermined contact operation of the user with respect to the operation surface;
A vibration step of vibrating the operation surface by at least one vibration element;
A setting step of setting a vibration state of the vibration element corresponding to the contact operation when the contact operation is detected in the detection step according to the control object selected in the selection step;
Wherein when the touch operation is detected in the detection step, seen including a vibration controlling process of controlling the vibration element such that the vibration state set by the setting step,
The contact operation is a number of simple gesture operations including contact with the operation surface,
The setting step includes
Each of the gesture operations is performed toward the control target selected in the selection step based on combination information that is defined so that combinations of the vibration states corresponding to the gesture operations differ depending on the control target. A control method for an input device, characterized in that the vibration state in the event of a failure is set .
一つの操作面を用いた制御対象をユーザの挙動に基づいて選択する選択ステップと、
前記操作面に対する前記ユーザの所定の接触操作を検出する検出ステップと、
少なくとも一つの振動素子によって前記操作面を振動させる振動ステップと、
前記検出ステップで前記接触操作が検出された場合の該接触操作に対応する前記振動素子の振動状態を、前記選択ステップで選択された前記制御対象に応じて設定する設定ステップと、
前記検出ステップで前記接触操作が検出された場合に、前記設定ステップで設定された前記振動状態となるように前記振動素子を制御する振動制御ステップと
をコンピュータに実行させ
前記接触操作は、前記操作面への接触を含む数個の平易なジェスチャ操作であって、
前記設定ステップは、
前記ジェスチャ操作のそれぞれに対応する前記振動状態の組み合わせが前記制御対象によって異なるように規定された組み合わせ情報に基づき、前記選択ステップで選択された前記制御対象へ向けて前記ジェスチャ操作のそれぞれが行われた場合における前記振動状態を設定す
ことを特徴とするプログラム。
A selection step of selecting a control target using one operation surface based on a user's behavior;
A detection step of detecting a predetermined contact operation of the user on the operation surface;
A vibration step of vibrating the operation surface by at least one vibration element;
A setting step for setting a vibration state of the vibration element corresponding to the contact operation when the contact operation is detected in the detection step, according to the control object selected in the selection step;
When the contact operation is detected in the detection step, the computer executes a vibration control step for controlling the vibration element so as to be in the vibration state set in the setting step ,
The contact operation is a number of simple gesture operations including contact with the operation surface,
The setting step includes
Each of the gesture operations is performed toward the control target selected in the selection step based on combination information that is defined so that combinations of the vibration states corresponding to the gesture operations differ depending on the control target. a program characterized by to set the vibration state when the.
JP2015171161A 2015-08-31 2015-08-31 INPUT DEVICE, INTEGRATED INPUT SYSTEM, INPUT DEVICE CONTROL METHOD, AND PROGRAM Active JP6585431B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015171161A JP6585431B2 (en) 2015-08-31 2015-08-31 INPUT DEVICE, INTEGRATED INPUT SYSTEM, INPUT DEVICE CONTROL METHOD, AND PROGRAM
US15/240,238 US20170060245A1 (en) 2015-08-31 2016-08-18 Input device, integrated input system, input device control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015171161A JP6585431B2 (en) 2015-08-31 2015-08-31 INPUT DEVICE, INTEGRATED INPUT SYSTEM, INPUT DEVICE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2017049699A JP2017049699A (en) 2017-03-09
JP6585431B2 true JP6585431B2 (en) 2019-10-02

Family

ID=58279433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015171161A Active JP6585431B2 (en) 2015-08-31 2015-08-31 INPUT DEVICE, INTEGRATED INPUT SYSTEM, INPUT DEVICE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6585431B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6888590B2 (en) * 2018-08-07 2021-06-16 株式会社デンソー Input device
EP3846005A4 (en) * 2018-08-29 2022-05-04 Alps Alpine Co., Ltd. Input device, control method, and program
WO2022004705A1 (en) * 2020-07-03 2022-01-06 ファナック株式会社 Teaching device and computer program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160720A (en) * 1995-12-05 1997-06-20 Mitsubishi Electric Corp Touch operation device
JP3728553B2 (en) * 1998-05-25 2005-12-21 株式会社フジクラ Automotive input device
JP4522475B1 (en) * 2009-03-19 2010-08-11 Smk株式会社 Operation input device, control method, and program
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
US20140139451A1 (en) * 2012-11-20 2014-05-22 Vincent Levesque Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture
US9836150B2 (en) * 2012-11-20 2017-12-05 Immersion Corporation System and method for feedforward and feedback with haptic effects
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback

Also Published As

Publication number Publication date
JP2017049699A (en) 2017-03-09

Similar Documents

Publication Publication Date Title
US10394375B2 (en) Systems and methods for controlling multiple displays of a motor vehicle
JP2021166058A (en) Gesture based input system using tactile feedback in vehicle
US10168780B2 (en) Input device, display device, and method for controlling input device
US9223403B2 (en) Tactile input and output device
EP3260331A1 (en) Information processing device
US11136047B2 (en) Tactile and auditory sense presentation device
US10725543B2 (en) Input device, display device, and method for controlling input device
JP6625372B2 (en) Input device and in-vehicle device
JP6585431B2 (en) INPUT DEVICE, INTEGRATED INPUT SYSTEM, INPUT DEVICE CONTROL METHOD, AND PROGRAM
JP6731866B2 (en) Control device, input system and control method
JP6552342B2 (en) INPUT DEVICE, INTEGRATED INPUT SYSTEM, INPUT DEVICE CONTROL METHOD, AND PROGRAM
US20170060245A1 (en) Input device, integrated input system, input device control method, and program
JP2007042004A (en) Touch panel input device
KR20100107997A (en) Pen type tactile representive device and tactile interface system using thereof
JP6960716B2 (en) Input device, display device, input device control method and program
US10664056B2 (en) Control device, input system and control method
JP6393604B2 (en) Operating device
JP6590597B2 (en) INPUT DEVICE, DISPLAY DEVICE, INPUT DEVICE CONTROL METHOD, AND PROGRAM
US20200353818A1 (en) Contextual based user interface
WO2021132334A1 (en) Tactile presentation device and tactile presentation method
JP2018041299A (en) Tactile sense presentation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190905

R150 Certificate of patent or registration of utility model

Ref document number: 6585431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250