JP2014110010A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2014110010A JP2014110010A JP2012265548A JP2012265548A JP2014110010A JP 2014110010 A JP2014110010 A JP 2014110010A JP 2012265548 A JP2012265548 A JP 2012265548A JP 2012265548 A JP2012265548 A JP 2012265548A JP 2014110010 A JP2014110010 A JP 2014110010A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- image
- elastic body
- input
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、操作者の指操作によって表示部における情報表示のための入力を行う入力装置に関するものである。 The present invention relates to an input device that performs input for displaying information on a display unit by an operator's finger operation.
従来の入力装置(入力デバイス)として、例えば特許文献1に示されるものが知られている。特許文献1の入力装置では、操作面の表面に複数の突部の群が形成された弾性材のシート部が設けられて、各突部同士の間は、指のなぞり操作を行うときのガイドとなるガイド溝が縦方向および横方向に複数形成されている。また、該入力装置では、突部自体の変形も許容して、突部を押し込んで入力を行うことも可能となっている。 As a conventional input device (input device), for example, the one disclosed in Patent Document 1 is known. In the input device of Patent Document 1, a sheet portion of an elastic material in which a group of a plurality of protrusions is formed on the surface of the operation surface is provided, and a guide for performing a finger tracing operation between the protrusions is provided. A plurality of guide grooves are formed in the vertical direction and the horizontal direction. Further, in the input device, it is possible to allow the projection itself to be deformed and to input by pushing the projection.
近年、表示部における表示画面として、複数の階層画面に分かれており、操作者は所望する階層の画面に順次切替えて、切替えられた画面上で更に指操作することで所望の機器を作動させる必要があり、画面の切替え操作に手間のかかるものとなっている。 In recent years, the display screen in the display unit has been divided into a plurality of screens, and the operator needs to switch to the screen of the desired layer in order and operate the desired device by further operating the finger on the switched screen. Therefore, it takes time to change the screen.
本発明は、上記問題点に鑑みてなされたものであって、入力時における高い操作性を得ることのできる入力装置を提供することにある。 The present invention has been made in view of the above problems, and it is an object of the present invention to provide an input device capable of obtaining high operability during input.
上記目的を達成するために、請求項1に記載の発明は、
複数の階層に分かれた画像(60a、60b)を表示可能とする表示部(51)に対して別体で形成されており、操作面(32a)に対する使用者の指操作によって、画像(60a、60b)を操作するための入力が行われる入力装置であって、
指操作に伴う指の位置、および押圧状態を検出する検出手段(31)と、
検出手段(31)の表面(31a)全体に設けられる弾性体(32)と、
弾性体(32)の表面を操作面(32a)として、検出手段(31)によって、指が、操作面(32a)と、この操作面(32a)から所定距離だけ離れた位置との間となる表面領域で操作される第1操作状態であると検出されると、複数の階層の画像(60a、60b)のうち、1つの階層の画像(60a)に切替えて、この1つの階層の画像(60a)に対して表面領域における指操作による入力を許可すると共に、検出手段(31)によって、指が、弾性体(32)を押込んだ状態で操作される第2操作状態であると検出されると、複数の階層の画像(60a、60b)のうち、他の階層の画像(60b)に切替えて、この他の階層の画像(60b)に対して弾性体(32)を押込んだ状態での指操作による入力を許可する制御部(33)と、を備えることを特徴としている。
In order to achieve the above object, the invention described in claim 1
It is formed separately from the display unit (51) that can display the images (60a, 60b) divided into a plurality of layers, and the image (60a, 60b) is formed by the user's finger operation on the operation surface (32a). 60b) an input device for performing input for operating,
Detecting means (31) for detecting a finger position and a pressing state associated with a finger operation;
An elastic body (32) provided on the entire surface (31a) of the detection means (31);
Using the surface of the elastic body (32) as the operation surface (32a), the detection means (31) causes the finger to be between the operation surface (32a) and a position away from the operation surface (32a) by a predetermined distance. When it is detected that the operation state is the first operation state operated in the surface area, the image is switched to the image (60a) of one layer among the images (60a, 60b) of the plurality of layers, and the image of this one layer ( 60a) allows input by finger operation in the surface area, and the detection means (31) detects that the finger is in the second operation state operated with the elastic body (32) being pushed. Then, among the images (60a, 60b) of the plurality of layers, the state is switched to the image (60b) of the other layer and the elastic body (32) is pushed into the image (60b) of the other layer. Control unit (3 ) And is characterized in that it comprises.
この発明によれば、検出手段(31)の表面(31a)全体に弾性体(32)を設けるようにしているので、使用者は、自身の指を表面領域で指操作をしている場合(第1操作状態)であるのか、あるいは、弾性体(32)を押込んだ状態で指操作している場合(第2操作状態)であるのか、両者の違いを指先の接触感覚で明確に識別することができる。 According to the present invention, since the elastic body (32) is provided on the entire surface (31a) of the detection means (31), the user operates his / her finger in the surface area ( Whether it is in the first operation state) or when the finger is operated while the elastic body (32) is pushed in (second operation state), the difference between the two is clearly identified by the touch feeling of the fingertip. can do.
そして、表面領域において指操作を行うと、制御部(33)によって、画面は1つの階層の画像(60a)に切替えられて、この1つの階層の画像(60a)に対して、引き続き表面領域における指操作による入力が可能となる。また、弾性体(32)を押込んだ状態で指操作を行うと、制御部(33)によって、画像は他の階層の画像(60b)に切替えられて、この他の階層の画像(60b)に対して、引き続き弾性体(32)を押込んだ状態での指操作による入力が可能となる。よって、複数の階層画像の切替えを要するものにおいて、入力時における高い操作性を得ることができる。 Then, when a finger operation is performed in the surface area, the control unit (33) switches the screen to an image (60a) of one layer, and continues to the image (60a) of the one layer in the surface region. Input by finger operation is possible. When a finger operation is performed with the elastic body (32) pushed in, the control unit (33) switches the image to an image (60b) of another layer, and the image (60b) of this other layer. On the other hand, it is possible to input by finger operation in a state where the elastic body (32) is continuously pushed. Therefore, high operability at the time of input can be obtained in a case where switching of a plurality of hierarchical images is required.
また、請求項10に記載の発明では、
画像を表示する表示部(51)に対して別体で形成されており、操作面(32a)に対する使用者の指操作によって、画像を操作するための入力が行われる入力装置であって、
指操作に伴う指の位置、および押圧状態を検出する検出手段(31)と、
検出手段(31)の表面(31a)全体に設けられる弾性体(32)と、
弾性体(32)の表面を操作面(32a)として、検出手段(31)によって、指が、操作面(32a)と、この操作面(32a)から所定距離だけ離れた位置との間となる表面領域で操作される第1操作状態であると検出されると、画像に対して予め定められた第1の入力操作を許可すると共に、検出手段(31)によって、指が、弾性体(32)を押込んだ状態で操作される第2操作状態であると検出されると、画像に対して、第1の入力操作とは異なる第2の入力操作を許可する制御部(33)と、を備えることを特徴としている。
In the invention according to
An input device that is formed separately from the display unit (51) for displaying an image, and that performs input for operating the image by a user's finger operation on the operation surface (32a),
Detecting means (31) for detecting a finger position and a pressing state associated with a finger operation;
An elastic body (32) provided on the entire surface (31a) of the detection means (31);
Using the surface of the elastic body (32) as the operation surface (32a), the detection means (31) causes the finger to be between the operation surface (32a) and a position away from the operation surface (32a) by a predetermined distance. When it is detected that the first operation state operated in the surface area is detected, a predetermined first input operation is permitted for the image, and the detection means (31) causes the finger to move to the elastic body (32). ), A control unit (33) that permits a second input operation different from the first input operation to the image when it is detected that the second operation state is operated. It is characterized by having.
この発明によれば、上記請求項1に記載の発明と同様に、検出手段(31)の表面(31a)全体に弾性体(32)を設けるようにしているので、使用者は、自身の指を表面領域で指操作をしている場合(第1操作状態)であるのか、あるいは、弾性体(32)を押込んだ状態で指操作している場合(第2操作状態)であるのか、両者の違いを指先の接触感覚で明確に識別することができる。 According to the present invention, the elastic body (32) is provided on the entire surface (31a) of the detection means (31) as in the first aspect of the present invention. Whether the finger is operated in the surface region (first operation state) or the finger is operated in the state where the elastic body (32) is pushed in (second operation state). The difference between the two can be clearly identified by the touch sensation of the fingertip.
そして、表面領域において指操作を行うと、制御部(33)によって、表面領域における指操作による入力が可能となる。また、弾性体(32)を押込んだ状態で指操作を行うと、制御部(33)によって、弾性体(32)を押込んだ状態での指操作による入力が可能となる。よって、入力時における高い操作性を得ることができる。 When a finger operation is performed in the surface area, the control unit (33) enables input by a finger operation in the surface area. Further, when a finger operation is performed while the elastic body (32) is pushed in, the controller (33) enables input by a finger operation while the elastic body (32) is pushed in. Therefore, high operability at the time of input can be obtained.
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。 In addition, the code | symbol in the bracket | parenthesis of each said means shows a corresponding relationship with the specific means of embodiment description mentioned later.
以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。 Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings. In addition, the overlapping description may be abbreviate | omitted by attaching | subjecting the same code | symbol to the corresponding component in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other part of the configuration. In addition, not only combinations of configurations explicitly described in the description of each embodiment, but also the configurations of a plurality of embodiments can be partially combined even if they are not explicitly specified unless there is a problem with the combination. .
(第1実施形態)
第1実施形態は、本発明の入力装置を、ナビゲーション装置50を操作するための遠隔操作デバイス100に適用したものである。遠隔操作デバイス100は、図1〜図8に示すように、車両に搭載され、ナビゲーション装置50等と共に表示システム10を構成している。
(First embodiment)
In the first embodiment, the input device of the present invention is applied to a
図1、図2に示すように、遠隔操作デバイス100は、車両のセンターコンソールにてパームレスト39と隣接する位置に設置され、操作者(使用者)の手の届き易い範囲に操作面32aを露出させている。遠隔操作デバイス100は、タッチセンサ31を有しており、タッチセンサ31の表面(後述する弾性体32の表面)は、操作者の指操作が行われるタッチ面32aとして形成されている。そして、このタッチ面32aに隣接してプッシュスイッチ35が配置されている。
As shown in FIGS. 1 and 2, the
また、ナビゲーション装置50は、操作者から目視されるよう液晶ディスプレイ51の表示画面52を露出させ且つ表示画面52を運転席に向けた姿勢にて、車両のインスツルメントパネル内に設置されている。表示システム10(液晶ディスプレイ51)は、種々の表示画像60を表示画面52に切替えて表示する。上記の遠隔操作デバイス100は、ナビゲーション装置50に対して別体で形成されており、離れた位置に設定されている。
In addition, the
以下、遠隔操作デバイス100、およびナビゲーション装置50の各構成について、図3を用いて詳しく説明する。
Hereinafter, each configuration of the
遠隔操作デバイス100は、Controller Area Networkバス(以下、CANバス)90、および外部のバッテリ95等と接続されている。CANバス90は、車両に搭載された複数の車載装置を相互に接続してなる車内通信ネットワークにおいて、各車載装置間でのデータの伝送に用いられる伝送路である。遠隔操作デバイス100は、CANバス90を通じて、離れて位置するナビゲーション装置50と通信可能である。
The
遠隔操作デバイス100は、電源インターフェース21、22、通信制御部23、通信インターフェース24、タッチセンサ31、弾性体32、プッシュスイッチ35、および操作制御部33等によって構成されている。各電源インターフェース21、22は、バッテリ95から供給される電力を安定化して、操作制御部33に供給する。一方の電源インターフェース21には、バッテリ95から常に電力が供給されている。他方の電源インターフェース22には、車両のアクセサリ(ACC)電源がオン状態とされたことに基づいてスイッチ93が通電状態となることにより、バッテリ95から電力が供給される。
The
通信制御部23および通信インターフェース24は、操作制御部33によって処理された情報をCANバス90に出力すると共に、他の車載装置からCANバス90に出力された情報を取得するための構成である。通信制御部23および通信インターフェース24は、送信用の信号線TX及び受信用の信号線RXによって互いに接続されている。
The
タッチセンサ31は、図3、図4に示すように、静電容量式の検出手段であって、矩形の平板状に形成されており、表面31aに対する指による操作状態を検出する。タッチセンサ31は、x軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、操作制御部33と接続されている。各電極は、近接する指の位置(図2のx、y、z位置)に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が操作制御部33に出力されるようになっている。タッチセンサ31の表面31aは、絶縁材よりなる絶縁シートによって覆われている。
As shown in FIGS. 3 and 4, the
弾性体32は、例えば所定の厚さ(後述するDth1に相当する厚さ)を有する板状のウレタン等の発泡材等から形成されており、タッチセンサ31の表面31aの全体にわたって設けられている。弾性体32は、例えば、両面接着テープ等によって表面31aに接着されている。そして、弾性体32の表面は、例えば、指の滑りを良くする素材等が設けられて、操作面32aを形成している。操作面32a上、あるいは操作面32aから押込まれた位置におけるx座標、y座標、あるいはz座標方向の操作者の指操作により、表示画面52に表示される表示画像60(図4参照)に対する操作のための入力ができるように設定されている。
The
プッシュスイッチ35は、操作面32aを挟んでパームレスト39とは反対側に配置されている。操作者の指にてプッシュスイッチ35を押圧操作することにより、表示画面52に表示されるアイコン63(図4参照)を選択することができるように設定されている。
The
操作制御部33は、本発明の制御部であり、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、および演算処理に用いられるプログラム等が格納されたフラッシュメモリ等によって構成されている。加えて、操作制御部33は、各電源インターフェース21、22、通信制御部23、タッチセンサ31、およびプッシュスイッチ35等と接続されている。
The
操作制御部33は、所定のプログラムを実行することによってタッチセンサ31の各電極の静電容量の信号を計測することにより、タッチセンサ31の計測値としての感度値(Hth)を取得する。操作者の指が操作面32aを介して表面31aに近接すると、絶縁シートおよび弾性体32を挟んで電極と指との間に電荷が蓄えられる。操作制御部33は、表面31aに近接している指、あるいは弾性体32に押込まれている指の相対的な操作位置(以下、「相対位置」という)を示すx座標、y座標、さらに表面31aから指までの距離(以下、「操作距離d」という、図4)に相当するz座標を、感度値に基づく算出処理によって検出する。こうした感度値は、操作距離dが短くなるにしたがって増加し、操作距離dが長くなるに従って減少する(図7)。
The
また、操作制御部33は、操作者が指によって行うプッシュスイッチ35への押圧操作を検知する。そして操作制御部33は、指の位置を示す座標およびプッシュスイッチ35への押圧操作の有無を、通信制御部23および通信インターフェース24を通じて、CANバス90に出力する。
The
ナビゲーション装置50は、地図上における現在の位置表示や目的地案内等を行うナビゲーション機能に加えて、車両用オーディオに対するオーディオ作動設定機能、携帯電話フリーハンズ機能、および車両用空調装置に対する空調作動設定機能等を備えている。
The
ナビゲーション装置50は、遠隔操作デバイス100等と通信可能なようCANバス90と接続されており、表示制御部53および液晶ディスプレイ51を有している。
The
表示制御部53は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、画像の描画処理を行うグラフィックプロセッサ、描画処理の作業領域として機能するグラフィックRAM等によって構成されている。加えて表示制御部53は、演算処理及び描画処理に用いられるデータを格納するフラッシュメモリ、CANバス90と接続される通信インターフェース、および描画した画像データを液晶ディスプレイ51に出力する映像出力インターフェースを有している。表示制御部53は、CANバス90から取得する情報に基づいて、表示画面52に表示する表示画像60を描画する。そして表示制御部53は、描画した表示画像60の画像データを、映像出力インターフェースを通じて液晶ディスプレイ51に逐次出力する。
The
液晶ディスプレイ51は、表示画面52に配列された複数の画素を制御することにより、カラー表示を実現するドットマトリクス方式の表示部である。液晶ディスプレイ51は、表示制御部53から逐次取得する画像データを表示画面52に連続的に形成することにより、映像を表示する。
The
液晶ディスプレイ51に表示される表示画像60は、複数の階層に分かれた画像から構成されている。例えば、複数の階層の画像のうち、1つの階層の画像は、ナビゲーション装置50の各機能(ナビゲーション、オーディオ、携帯電話、空調装置等)を選択するためのメニュー用の第1階層画像60aとなっている。第1階層画像60aは、図4(a)に示すように、画像上部に帯状に並ぶ各種機能メニューが表示され、また、中央部には、操作面32aにおける指のスライドによって移動される各種機能に対応するサブメニュー65が順に表示される画像となっている。また、複数の階層の画像のうち、他の階層の画像は、各種機能に対する具体的な操作をするための操作用の第2階層画像60bとなっている。第2階層画像60bは、第1階層画像60aのサブメニュー65から選択表示されて、図4(b)に示すように、操作面32aにおいて指を弾性体32に押込んだ状態で、スライドすることで、各種アイコン63の選択ができるようになっている。
The display image 60 displayed on the
以上の表示システム10では、図4に示すように、タッチセンサ31の表面31aを基準位置として自然状態の弾性体32の厚さ分となる第1閾値距離Dth1だけ離れた位置と、表面31aを基準位置として第1閾値距離Dth1よりも大きく設定された第2閾値距離Dth2だけ離れた位置とが定義付けされている。
In the
また、図5に示すように、第1閾値距離Dth1におけるタッチセンサ31の感度値を第1感度値Hth1と対応させており、第2閾値距離Dth2におけるタッチセンサ31の感度値を第2感度値Hth2と対応させている。つまり、指の位置がタッチセンサ31の表面31aからどれだけ離れた位置にあるかが、感度値Hthと対応付けられている。操作制御部33には、図6に示すように、第1閾値距離Dth1に対応する第1感度値Hth1(例えば200count)が予め記憶されており、また、第2閾値距離Dth2に対応する第2感度値Hth2(例えば100count)が予め記憶されている。
Further, as shown in FIG. 5, the sensitivity value of the
タッチセンサ31の表面31aからの指の位置(操作距離d(図4(a))が、第1閾値距離Dth1だけ離れた位置(弾性体32の操作面32a位置)と、第2閾値距離Dth2だけ離れた位置(操作面32aから所定距離だけ離れた位置)との間となる表面領域にあると、操作制御部33は、指が表面操作状態にあるとして、液晶ディスプレイ51における表示画像60を第1階層画像60aに切替えて、表面領域において指を移動させる操作に応じて、切替えられた第1階層画像60a(サブメニュー65)を移動させる制御に関連付けするようになっている。以下、この制御を表面操作と定義する(図5、図7の縦軸方向の真ん中の領域)。表面操作状態は、本発明の第1操作状態に対応する。
The position of the finger from the
また、指が弾性体32を押込んだ状態となって、タッチセンサ31の表面31aからの指の位置(操作距離d(図4(b))が、タッチセンサ31の表面31aと、第1閾値距離Dth1だけ離れた位置との間となる押込み領域にあると、操作制御部33は、指が押込み操作状態にあるとして、液晶ディスプレイ51における表示画像60を第2階層画像60bに切替えて、弾性体32を押込んだ状態で指を移動させる操作に応じて、切替えられた第2階層画像60bのアイコン63を選択する制御に関連付けするようになっている。以下、この制御を押込み操作と定義する(図5、図7の縦軸方向の上側の領域)。押込み操作状態は、本発明の第2操作状態に対応する。
Further, the finger is pushed into the
尚、タッチセンサ31の表面31aからの指の位置(操作距離d)が、第2閾値距離Dth2よりも更に離れた位置にあると、操作制御部33は、指が非接触状態にあるとして、表示画像60に対する制御を行わないようになっている。
Note that if the position of the finger (operation distance d) from the
次に、操作制御部33によるタッチセンサ31からの入力処理の詳細を図8に基づいて説明する。
Next, details of input processing from the
まず、ステップS110では、タッチセンサ31の各電極にて検出される感度値を取得する取得処理を実施し、ステップS120に進む。ステップS120では、ステップS110にて取得される感度値から、操作面32aに対する指の相対位置を示すx座標、y座標、およびz座標の計算処理を実施し、操作距離dを示すz座標の計算値から、指の操作状態が、非接触状態、表面操作状態、あるいは押込み操作状態のいずれにあるかを算出する。
First, in step S110, the acquisition process which acquires the sensitivity value detected with each electrode of the
具体的には、タッチセンサ31の表面31aに対する操作位置dが、第2閾値距離Dth2よりも遠い位置では非接触状態、第2閾値距離Dth2と第1閾値距離Dth1との間では表面操作状態、第1閾値距離Dth1とタッチセンサ31の表面31aとの間では押込操作状態と算出する。
Specifically, the operation position d with respect to the
そして、ステップS130で、指操作状態は非接触状態ではなく、且つ、感度値がHth2以下の場合であるか否かを判定し、肯定判定すると、ステップS140で、操作状態を非接触状態に更新して、タッチセンサ入力処理を終了する。つまり、指が第2閾値距離Dth2を跨いで操作面32aから離間した場合に、操作状態を非接触状態へ更新する。そして、操作制御部33は、表示画像60に対する制御は、何も行わずに現状の状態を維持する。
In step S130, it is determined whether or not the finger operation state is not a non-contact state and the sensitivity value is equal to or lower than Hth2. If the determination is affirmative, the operation state is updated to a non-contact state in step S140. Then, the touch sensor input process ends. That is, when the finger is separated from the
次に、ステップS130で、否と判定すると、ステップS150で、1つ目の条件として操作状態は非接触状態であり、且つ感度値がHth2以上あるか、または2つ目の条件として操作状態は押込み操作状態であり、且つ感度値がHth1以下であるか、のいずれかであるか否かを判定する。ここで肯定判定すると、ステップS160で、操作状態を表面操作状態に更新して、タッチセンサ入力処理を終了する。つまり、指が第2閾値距離Dth2を跨いで操作領域に入った場合、あるいは、指が第1閾値距離Dth1を跨いで操作領域に入った場合に、操作状態を表面操作状態へ更新する。そして、操作制御部33は、液晶ディスプレイ51における表示画像60を第1階層画像60aに切替えて、表面領域において指を移動させる操作に応じて、切替えられた第1階層画像60a(サブメニュー65)を移動させる制御を実施(許可)する。
Next, when it is determined NO in step S130, in step S150, the operation state is a non-contact state as the first condition and the sensitivity value is Hth2 or more, or the operation state is as the second condition. It is determined whether or not the push operation state is set and the sensitivity value is Hth1 or less. If an affirmative determination is made here, the operation state is updated to the surface operation state in step S160, and the touch sensor input process is terminated. That is, when the finger enters the operation region across the second threshold distance Dth2, or when the finger enters the operation region across the first threshold distance Dth1, the operation state is updated to the surface operation state. Then, the
例えば、操作者がナビゲーション機能を使用しており、表示画面52に地図が表示されているとして、指を表面領域内に移動させると、図4(a)に示すように、表示画面52をメニュー用の第1階層画面60aに切替えて、指の移動に応じて、サブメニュー65を移動(スクロール)させる。
For example, assuming that the operator is using the navigation function and a map is displayed on the
次に、ステップS150で、否と判定すると、ステップS170で、操作状態は押込み操作状態ではなく、且つ感度値がHth1以上あるか否かを判定する。ここで肯定判定すると、ステップS180で、操作状態を押込み操作状態に更新して、タッチセンサ入力処理を終了する。つまり、指が第1閾値距離Dth1を跨いで弾性体32が押込まれた場合に、操作状態を押込み操作状態へ更新する。そして、操作制御部33は、液晶ディスプレイ51における表示画像60を第2階層画像60bに切替えて、弾性体32を押込んだ状態で指を移動させる操作に応じて、切替えられた第2階層画像60bのアイコン63を選択する制御を実施(許可)する。
Next, when it is determined as NO in step S150, it is determined in step S170 whether the operation state is not the push-in operation state and the sensitivity value is equal to or higher than Hth1. If an affirmative determination is made here, the operation state is updated to the push-in operation state in step S180, and the touch sensor input process is terminated. That is, when the
例えば、操作者が、第1階層画像60aに対して表面領域において指を移動させており、所望のサブメニュー65(空調作動設定メニュー)を選択するために、所望のサブメニュー65の位置で弾性体32を押込むと、図4(b)に示すように、表示画面52を所望のサブメニュー65を示す第2階層画像60bに切替えて、指の移動に応じて、アイコン63を選択する制御(吹出しモードの変更)を行う。
For example, the operator has moved his / her finger in the surface area with respect to the first hierarchical image 60a, and is elastic at the position of the desired
以上のように、本実施形態では、タッチセンサ31の表面31a全体に弾性体32を設けるようにしているので、操作者は、自身の指を表面領域で指操作をしている場合(表面操作状態)であるのか、あるいは、弾性体32を押込んだ状態で指操作している場合(押込み操作状態)であるのか、両者の違いを指先の接触感覚で明確に識別することができる。
As described above, in the present embodiment, since the
そして、表面領域において指操作を行うと、操作制御部33によって、画面は第1階層画像60aに切替えられて、この第1階層画像60aに対して、引き続き表面領域における指操作による入力が可能となる。また、弾性体32を押込んだ状態で指操作を行うと、操作制御部33によって、画像は第2階層画像60bに切替えられて、この第2階層画像60bに対して、引き続き弾性体32を押込んだ状態での指操作による入力が可能となる。よって、複数の階層画像の切替えを要するものにおいて、入力時における高い操作性を得ることができる。
When a finger operation is performed in the surface area, the screen is switched to the first hierarchical image 60a by the
また、第1階層画像60aを複数の階層に分かれた画像のうちの1番目の階層とし、第2階層画像60bを1番目の階層の下となる2番面の階層としており、表面領域における指操作を第1階層画像60aに対する入力操作制御に対応させ、また、押込み領域における指操作を第2階層画像60bに対する入力操作制御に対応させている。よって、操作面32a側からタッチセンサ31の表面31aに向かう指の動き(表面操作から押込み操作への動き)に応じて、第1階層画増60a、第2階層画像60bの順に力操作が可能となり、操作者の感覚に一致した制御が可能となる。
In addition, the first hierarchical image 60a is the first hierarchy among the images divided into a plurality of hierarchies, and the second hierarchical image 60b is the second hierarchy below the first hierarchy. The operation corresponds to the input operation control for the first hierarchical image 60a, and the finger operation in the push area corresponds to the input operation control for the second hierarchical image 60b. Therefore, a force operation can be performed in the order of the first layer image increase 60a and the second layer image 60b in accordance with the movement of the finger from the
(第2実施形態)
第2実施形態の遠隔操作デバイス100Aを図9に示す。第2実施形態の遠隔操作デバイス100Aは、上記第1実施形態の遠隔操作デバイス100に対して、弾性体32Aの操作面32aを、上側に突となる曲面状にしたものである。例えば、弾性体32Aは、パームレスト39側からプッシュスイッチ35(図9では省略)側に厚みが薄くなって、所定の曲率を有するように形成されている。所定の曲率は、自然状態における操作者の掌の指の曲がり状態に準じた曲率となっている。
(Second Embodiment)
A
これにより、操作者が弾性体32Aに対して掌を当てて指操作する場合に、第1実施形態のような平面形状に対して弾性体32Aの曲面形状が掌により良く馴染むようになるので、フィット感を向上させることができる。
Thereby, when the operator applies a palm to the
(第3実施形態)
第3実施形態の遠隔操作デバイス100Bを図10に示す。第3実施形態の遠隔操作デバイス100Bは、上記第1実施形態の遠隔操作デバイス100に対して、弾性体32Bの操作面32aを、階段状にしたものである。例えば、弾性体32Bの階段形状は、上記第1実施形態で説明した第1階層画像60aの各種機能メニューの位置、あるいは、第2階層画像60bのアイコン63の位置等にそれぞれの段が対応するように形成されている。
(Third embodiment)
A
これにより、操作者は、直接的に操作面32aを見なくても、指の感触によって階段状となる操作面32aのそれぞれの段の領域(つまり、各種機能メニューの位置、アイコン63の位置等)を認識して、指操作を行うことができる。つまり、ブラインド操作性を向上させることができる。
Thus, the operator does not directly look at the
(第4実施形態)
第4実施形態の遠隔操作デバイス100Cを図11に示す。第4実施形態の遠隔操作デバイス100Cは、上記第3実施形態の遠隔操作デバイス100Bに対して、弾性体32Bの操作面32aの所定領域に補強板34を設けたものである。所定領域は、例えば、階段状に設けられた1つの段部において、複数に分割された1つの領域となっている。
(Fourth embodiment)
A
これにより、補強板34の任意の部位を指で押込んだ場合でも、補強板34に対応する所定領域の全体を一度に沈み込ませることができるので、所定領域に対する押込み操作を確実に行うことができる。
As a result, even when an arbitrary portion of the reinforcing
更に、補強板34の設けられる部位と、そうでない部位との間に溝等を設けてやれば、補強板34の設けられた部位を、ボタンスイッチの如く形成することができるので、さらに指操作性を向上させることができる。
Further, if a groove or the like is provided between a portion where the reinforcing
尚、本実施形態では、補強板34は、階段状に形成された弾性体32Bに適用されるようにしたが、これに限らず、上記第1実施形態のように平面状に形成された弾性体32に適用するようにしても良い。
In the present embodiment, the reinforcing
(第5実施形態)
第5実施形態の遠隔操作デバイス100Dを図12に示す。第5実施形態の遠隔操作デバイス100Dは、上記第1実施形態の遠隔操作デバイス100に対して、弾性体32のタッチセンサ31側、つまり、弾性体32とタッチセンサ31との間に、もう1つの弾性体321を設けたものである。もう1つの弾性体321の弾性率(反発力)は、弾性体32の弾性率とは、異なるものとして設定されている。
(Fifth embodiment)
A
第5実施形態では、表示画像60は、3つ以上の階層に分かれた画像から構成されている。そして、弾性体32への指の押込みによって、指の位置がもう1つの弾性体321に至るように押込まれた状態で操作される第3の操作状態にあると、複数の階層の表示画像60のうち、第1、第2階層画像60a、60bとは異なる階層の画像に切替えて、この異なる階層の画像に対して、もう1つの弾性体321を押込んだ状態での指操作による入力が行われるようにしている。これにより、指操作の可能となる表示画像60の階層を増加させることができる。
In the fifth embodiment, the display image 60 is composed of images divided into three or more layers. When the finger is pushed into the
(第6実施形態)
第6実施形態の遠隔操作デバイス100Eを図13に示す。第6実施形態の遠隔操作デバイス100Eは、上記第5実施形態の遠隔操作デバイス100Dに対して、弾性体32の内部に、タッチセンサ31に対して、指の動きを所定方向にガイドするガイド部36を設けたものである。
(Sixth embodiment)
A
ガイド部36は、弾性体32よりも硬度が高く、例えば2本のレール状の部材によって形成されており、弾性体321の上面に設けられている。レール状部材の高さ寸法は、弾性体32の厚さ寸法よりも小さく設定されている。そして、両レール状部材の間に溝が形成されるようになっている。溝の方向は、例えは、x軸方向、あるいは、y軸方向、あるいはレール状部材を2組としてx軸およびy軸の両者とすることができる。
The
具体的には、ガイド部36は、例えば、第1階層画像60aの各種機能メニューの位置、あるいは、第2階層画像60bのアイコン63の位置に対応して設けられ、溝の方向は、各種機能メニューの延びる方向(x軸方向)、あるいは、アイコン63が並ぶ方向に(x軸方向)等とすることができる。
Specifically, the
これにより、弾性体32に対して押込み操作を行う場合に、指をガイド部36に沿って移動させることができ、所望する移動先に対する指のブレを抑制することができ、ブラインド操作性を向上させることができる。
Thereby, when performing pushing operation with respect to the
(その他の実施形態)
弾性体32、32A、32B等は、粘着性の比較的低い接着テープ等でタッチセンサ31、あるいは、弾性体321に接着する、あるいははめ込み式とする等により、取外し可能とすると(着脱可能とすると)、メンテナンス(例えば新品への交換)を容易にすることができる。また、入力操作の対象となる機器に合わせた弾性体32(階段状形状、補強板34の設定、ガイド部36等の設定異なるもの)とすることで、各機器に対して別の入力操作が可能となる。また、色、形、デザイン等の異なるものに交換することで、各操作者の嗜好に合った遠隔操作デバイスとすることができる。
(Other embodiments)
The
また、弾性体32、32A、32B等を多孔質部材から形成されるようにして、この多孔質部材に芳香剤を設けるようにすることで、車室内をさわやかな雰囲気にすることができる。
In addition, by forming the
また、上記各実施形態では、表面領域において指操作を行うと、操作制御部33によって、画面は第1階層画像60aに切替えられて、この第1階層画像60aに対して、引き続き表面領域における指操作による入力が可能となり、また、弾性体32を押込んだ状態で指操作を行うと、操作制御部33によって、画像は第2階層画像60bに切替えられて、この第2階層画像60bに対して、引き続き弾性体32を押込んだ状態での指操作による入力が可能となるものとして説明した。
In each of the above embodiments, when a finger operation is performed in the surface area, the screen is switched to the first hierarchical image 60a by the
しかしながら、これに限らず、基本の表示画像60を切替えることなく、表面操作状態であると(第1操作状態であると)、表示画像60に対して予め定められた第1の入力操作を許可し、また、押込み操作状態であると(第2操作状態であると)、表示画像60に対して第1の入力操作とは異なる第2の入力操作を許可するものとしても良い。 However, the present invention is not limited to this. If the surface operation state is set (the first operation state) without switching the basic display image 60, a predetermined first input operation is permitted for the display image 60. In addition, when in the push operation state (in the second operation state), a second input operation different from the first input operation may be permitted for the display image 60.
例えば、ナビゲーション機能を使用しており、表示画像60として地図が表示されている場合に、表面操作によって地図中のカーソルを移動(第1の入力操作)させる、あるいは押込み操作によって地図の移動(第2の入力操作)を行う、という具合である。 For example, when the navigation function is used and a map is displayed as the display image 60, the cursor in the map is moved (first input operation) by the surface operation, or the map is moved (first operation) by the push operation. 2 input operation).
また、上記各実施形態では、第1階層画像60aに対して表面操作を許可し、第2階層画像60bに対して、押込み操作を許可するものとしたが、両者が逆になるものとしても良い。 In each of the above embodiments, the surface operation is permitted for the first hierarchical image 60a and the pushing operation is permitted for the second hierarchical image 60b. However, both may be reversed. .
また、上記第1実施形態に対して、第2〜第6実施形態、およびその他の実施形態を複数組合わせたものとしても良い。 Further, a plurality of second to sixth embodiments and other embodiments may be combined with the first embodiment.
また、検出手段として静電容量式のタッチセンサ31を用いたが、これに限定されるものではなく、他の感圧式のタッチセンサ等としても良い。
Further, although the
また、表面操作として、第1閾値距離Dth1と第2閾値距離Dth2との間に指がある場合としたが、第2閾値距離Dth2を第1閾値距離Dth1と実質同一として、操作面32a上での指操作を表面操作としても良い。
Further, although the surface operation is a case where a finger is present between the first threshold distance Dth1 and the second threshold distance Dth2, the second threshold distance Dth2 is assumed to be substantially the same as the first threshold distance Dth1 on the
また、遠隔操作デバイス100におけるプッシュスイッチ35は、図2で説明したものであると、実際的には、操作者は親指で操作面32aの操作を行い、人差し指でプッシュスイッチ35を操作することが可能となる。これに対して、プッシュスイッチ35は、操作面32aとパームレスト39との間に配置されるもの、あるいは、遠隔操作デバイス100の運転席側の側面に配置されるものとしても良い。これによれば、操作者は人差し指で操作面32aの操作を行い、親指でプッシュスイッチ35を操作することが可能となる。
Further, if the
100 遠隔操作デバイス(入力装置)
31 タッチセンサ(検出手段)
31a 表面
32 弾性体、321 もう1つの弾性体
32a操作面
33 操作制御部(制御部)
34 補強板
36 ガイド部
50 ナビゲーション装置
51 液晶ディスプレイ(表示部)
60 表示画像
60a 第1階層画像(1つの階層の画像)
60b 第2階層画像(他の階層の画像)
100 Remote operation device (input device)
31 Touch sensor (detection means)
34 Reinforcing
60 display image 60a first layer image (image of one layer)
60b Second layer image (image of other layer)
Claims (10)
前記指操作に伴う指の位置、および押圧状態を検出する検出手段(31)と、
前記検出手段(31)の表面(31a)全体に設けられる弾性体(32)と、
前記弾性体(32)の表面を前記操作面(32a)として、前記検出手段(31)によって、前記指が、前記操作面(32a)と、この操作面(32a)から所定距離だけ離れた位置との間となる表面領域で操作される第1操作状態であると検出されると、前記複数の階層の画像(60a、60b)のうち、1つの階層の画像(60a)に切替えて、この1つの階層の画像(60a)に対して前記表面領域における指操作による入力を許可すると共に、前記検出手段(31)によって、前記指が、前記弾性体(32)を押込んだ状態で操作される第2操作状態であると検出されると、前記複数の階層の画像(60a、60b)のうち、他の階層の画像(60b)に切替えて、この他の階層の画像(60b)に対して前記弾性体(32)を押込んだ状態での指操作による入力を許可する制御部(33)と、を備えることを特徴とする入力装置。 It is formed separately from the display unit (51) that can display the images (60a, 60b) divided into a plurality of layers, and the image (60a) can be operated by a user's finger operation on the operation surface (32a). 60b), an input device for performing input,
Detecting means (31) for detecting a finger position and a pressing state associated with the finger operation;
An elastic body (32) provided on the entire surface (31a) of the detection means (31);
Using the surface of the elastic body (32) as the operation surface (32a), the detection means (31) causes the finger to be separated from the operation surface (32a) by a predetermined distance from the operation surface (32a). When it is detected that the operation state is the first operation state in the surface area between the two, the image is switched to one layer image (60a) among the plurality of layer images (60a, 60b). The input by the finger operation in the surface area is permitted to the image (60a) of one layer, and the finger is operated in a state where the elastic body (32) is pushed in by the detection means (31). When the second operation state is detected, the image (60a, 60b) of the plurality of layers is switched to the image (60b) of another layer, and the image (60b) of the other layer is switched. And push the elastic body (32) Controller to allow input by a finger operation while the (33), an input device, characterized in that it comprises a.
前記他の階層は、前記1番目の階層の下となる2番目の階層であることを特徴とする請求項1に記載の入力装置。 The one layer is a first layer of the plurality of layers,
The input device according to claim 1, wherein the other hierarchy is a second hierarchy below the first hierarchy.
前記補強板(34)への前記指の押込みによって、前記所定領域の全体が前記第2操作状態となるようにしたことを特徴とする請求項1〜請求項4のいずれか1つに記載の入力装置。 A reinforcing plate (34) is provided in a predetermined area of the operation surface (32a),
The whole of the predetermined region is brought into the second operation state by pushing the finger into the reinforcing plate (34), according to any one of claims 1 to 4. Input device.
前記制御部(33)は、前記検出手段(31)によって、前記指が、前記もう1つの弾性体(321)に至るように押込んだ状態で操作される第3操作状態であると検出されると、前記複数の階層の画像(60a、60b)のうち、更に異なる階層の画像に切替えて、この異なる階層の画像に対して前記もう1つの弾性体(321)を押込んだ状態での指操作による入力を許可することを特徴とする請求項1〜請求項5のいずれか1つに記載の入力装置。 Another elastic body (321) is interposed on the detection means (31) side of the elastic body (32),
The controller (33) is detected by the detecting means (31) as being in a third operation state in which the finger is operated in a state where the finger is pushed to reach the other elastic body (321). Then, among the images (60a, 60b) of the plurality of layers, the image is further switched to an image of a different layer, and the other elastic body (321) is pushed into the image of the different layer. 6. The input device according to claim 1, wherein input by a finger operation is permitted.
前記多孔質部材には、芳香剤が設けられたことを特徴とする請求項1〜請求項8のいずれか1つに記載の入力装置。 The elastic body (32) is formed of a porous member,
The input device according to claim 1, wherein a fragrance is provided on the porous member.
前記指操作に伴う指の位置、および押圧状態を検出する検出手段(31)と、
前記検出手段(31)の表面(31a)全体に設けられる弾性体(32)と、
前記弾性体(32)の表面を前記操作面(32a)として、前記検出手段(31)によって、前記指が、前記操作面(32a)と、この操作面(32a)から所定距離だけ離れた位置との間となる表面領域で操作される第1操作状態であると検出されると、前記画像に対して予め定められた第1の入力操作を許可すると共に、前記検出手段(31)によって、前記指が、前記弾性体(32)を押込んだ状態で操作される第2操作状態であると検出されると、前記画像に対して、前記第1の入力操作とは異なる第2の入力操作を許可する制御部(33)と、を備えることを特徴とする入力装置。 An input device that is formed separately from the display unit (51) for displaying an image, and that performs input for operating the image by a user's finger operation on the operation surface (32a),
Detecting means (31) for detecting a finger position and a pressing state associated with the finger operation;
An elastic body (32) provided on the entire surface (31a) of the detection means (31);
Using the surface of the elastic body (32) as the operation surface (32a), the detection means (31) causes the finger to be separated from the operation surface (32a) by a predetermined distance from the operation surface (32a). When it is detected that the first operation state is operated in the surface area between the first and second images, the first input operation predetermined for the image is permitted, and the detection means (31) When it is detected that the finger is in the second operation state operated with the elastic body (32) being pressed, a second input different from the first input operation is performed on the image. An input device comprising: a control unit (33) that permits operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012265548A JP5954145B2 (en) | 2012-12-04 | 2012-12-04 | Input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012265548A JP5954145B2 (en) | 2012-12-04 | 2012-12-04 | Input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014110010A true JP2014110010A (en) | 2014-06-12 |
JP5954145B2 JP5954145B2 (en) | 2016-07-20 |
Family
ID=51030582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012265548A Expired - Fee Related JP5954145B2 (en) | 2012-12-04 | 2012-12-04 | Input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5954145B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016126785A (en) * | 2014-12-31 | 2016-07-11 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | Feedback by modifying stiffness |
WO2017068955A1 (en) * | 2015-10-19 | 2017-04-27 | 富士フイルム株式会社 | Instruction reception device, information processing device, signal processing method, and program |
WO2017145746A1 (en) * | 2016-02-23 | 2017-08-31 | 京セラ株式会社 | Control unit for vehicle |
JP2019153313A (en) * | 2015-03-08 | 2019-09-12 | アップル インコーポレイテッドApple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137571A (en) * | 1998-10-29 | 2000-05-16 | Casio Comput Co Ltd | Handwriting input device and recording medium recording handwriting input processing program |
JP2002159568A (en) * | 2000-11-28 | 2002-06-04 | Inoac Corp | Perfume-containing tool |
JP2006268665A (en) * | 2005-03-25 | 2006-10-05 | Sharp Corp | Cursor movement device, cursor movement method, program and recording medium |
WO2006106714A1 (en) * | 2005-03-30 | 2006-10-12 | Xiroku, Inc. | Pressure distribution detection device |
US20090002199A1 (en) * | 2007-06-28 | 2009-01-01 | Nokia Corporation | Piezoelectric sensing as user input means |
JP2009181423A (en) * | 2008-01-31 | 2009-08-13 | Denso Corp | Operation input device |
JP2010092420A (en) * | 2008-10-10 | 2010-04-22 | Sony Corp | Information processing apparatus, method and system, and program for processing information |
JP2011503756A (en) * | 2007-11-19 | 2011-01-27 | サーク・コーポレーション | Touchpad with combined display and proximity and touch detection capabilities |
JP2011118857A (en) * | 2009-12-02 | 2011-06-16 | Hyundai Motor Co Ltd | User interface device for operations of multimedia system for vehicle |
JP2011141796A (en) * | 2010-01-08 | 2011-07-21 | Tokai Rika Co Ltd | Operation guide structure for planar input device |
JP2011221677A (en) * | 2010-04-07 | 2011-11-04 | Sony Corp | Electronic device and operation detection method |
JP2012084002A (en) * | 2010-10-13 | 2012-04-26 | Sharp Corp | Information terminal, control method thereof and control program thereof |
-
2012
- 2012-12-04 JP JP2012265548A patent/JP5954145B2/en not_active Expired - Fee Related
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137571A (en) * | 1998-10-29 | 2000-05-16 | Casio Comput Co Ltd | Handwriting input device and recording medium recording handwriting input processing program |
JP2002159568A (en) * | 2000-11-28 | 2002-06-04 | Inoac Corp | Perfume-containing tool |
JP2006268665A (en) * | 2005-03-25 | 2006-10-05 | Sharp Corp | Cursor movement device, cursor movement method, program and recording medium |
WO2006106714A1 (en) * | 2005-03-30 | 2006-10-12 | Xiroku, Inc. | Pressure distribution detection device |
US20090002199A1 (en) * | 2007-06-28 | 2009-01-01 | Nokia Corporation | Piezoelectric sensing as user input means |
JP2011503756A (en) * | 2007-11-19 | 2011-01-27 | サーク・コーポレーション | Touchpad with combined display and proximity and touch detection capabilities |
JP2009181423A (en) * | 2008-01-31 | 2009-08-13 | Denso Corp | Operation input device |
JP2010092420A (en) * | 2008-10-10 | 2010-04-22 | Sony Corp | Information processing apparatus, method and system, and program for processing information |
JP2011118857A (en) * | 2009-12-02 | 2011-06-16 | Hyundai Motor Co Ltd | User interface device for operations of multimedia system for vehicle |
JP2011141796A (en) * | 2010-01-08 | 2011-07-21 | Tokai Rika Co Ltd | Operation guide structure for planar input device |
JP2011221677A (en) * | 2010-04-07 | 2011-11-04 | Sony Corp | Electronic device and operation detection method |
JP2012084002A (en) * | 2010-10-13 | 2012-04-26 | Sharp Corp | Information terminal, control method thereof and control program thereof |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016126785A (en) * | 2014-12-31 | 2016-07-11 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | Feedback by modifying stiffness |
JP2019153313A (en) * | 2015-03-08 | 2019-09-12 | アップル インコーポレイテッドApple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
WO2017068955A1 (en) * | 2015-10-19 | 2017-04-27 | 富士フイルム株式会社 | Instruction reception device, information processing device, signal processing method, and program |
US10551982B2 (en) | 2015-10-19 | 2020-02-04 | Fujifilm Corporation | Instruction reception apparatus, information processing apparatus, signal processing method, and program |
WO2017145746A1 (en) * | 2016-02-23 | 2017-08-31 | 京セラ株式会社 | Control unit for vehicle |
JP2017149225A (en) * | 2016-02-23 | 2017-08-31 | 京セラ株式会社 | Control unit for vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP5954145B2 (en) | 2016-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5413448B2 (en) | Display system, display device, and operation device | |
JP5928397B2 (en) | Input device | |
CN106164824B (en) | Operating device for vehicle | |
JP5858059B2 (en) | Input device | |
US20070057915A1 (en) | Input system | |
WO2009128148A1 (en) | Remote control device | |
EP2918440A1 (en) | Vehicle operation apparatus | |
JP2013222214A (en) | Display operation device and display system | |
JP5954145B2 (en) | Input device | |
JP6127679B2 (en) | Operating device | |
JP5790578B2 (en) | Display system, display device, and operation device | |
JP2014074955A (en) | Operation device | |
JP5754483B2 (en) | Operation device | |
JP5849597B2 (en) | Vehicle control device | |
JP2016012313A (en) | Operating device | |
EP2988194A1 (en) | Operating device for vehicle | |
EP3361367A1 (en) | In-vehicle input device, in-vehicle input system, and in-vehicle input device control method | |
JP5985829B2 (en) | Vehicle control device | |
WO2014162698A1 (en) | Input device | |
US9898106B2 (en) | Information processing system, information processing apparatus, and information processing method | |
WO2015122259A1 (en) | Input method and input device | |
JP2015026177A (en) | Operation device | |
WO2016031148A1 (en) | Touch pad for vehicle and input interface for vehicle | |
JP2013182574A (en) | Operation device | |
JP2018122827A (en) | On-vehicle information input device and on-vehicle information input system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160530 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5954145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |