JP2014110010A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2014110010A
JP2014110010A JP2012265548A JP2012265548A JP2014110010A JP 2014110010 A JP2014110010 A JP 2014110010A JP 2012265548 A JP2012265548 A JP 2012265548A JP 2012265548 A JP2012265548 A JP 2012265548A JP 2014110010 A JP2014110010 A JP 2014110010A
Authority
JP
Japan
Prior art keywords
finger
image
elastic body
input
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012265548A
Other languages
Japanese (ja)
Other versions
JP5954145B2 (en
Inventor
Hiroyuki Mimura
浩之 三村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012265548A priority Critical patent/JP5954145B2/en
Publication of JP2014110010A publication Critical patent/JP2014110010A/en
Application granted granted Critical
Publication of JP5954145B2 publication Critical patent/JP5954145B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an input device capable of obtaining high operability in the case of performing input.SOLUTION: An input device includes: detection means 31 for detecting the position and pressing state of the finger accompanied by a finger operation; an elastic body 32 disposed on a whole surface 31a of the detection means 31; and a control part 33 for, when it is detected that the finger is in a first operational state where it is operated on the surface region of an operation surface 32a as the surface of the elastic body 32 by the detection means 31, switching a screen to an image 60a of one hierarchy between images 60a and 60b of a plurality of hierarchies, and for permitting an input with the finger operation in the surface region to the image 60a of one hierarchy, and for, when it is detected that the finger is in a second operational state where it is operated in the depressed state of the elastic body 32 by the detection means 31, switching the screen to the image 60b of the other hierarchy, and for permitting an input with the finger operation in the depressed state of the elastic body 32 to the image 60b of the other hierarchy.

Description

本発明は、操作者の指操作によって表示部における情報表示のための入力を行う入力装置に関するものである。   The present invention relates to an input device that performs input for displaying information on a display unit by an operator's finger operation.

従来の入力装置(入力デバイス)として、例えば特許文献1に示されるものが知られている。特許文献1の入力装置では、操作面の表面に複数の突部の群が形成された弾性材のシート部が設けられて、各突部同士の間は、指のなぞり操作を行うときのガイドとなるガイド溝が縦方向および横方向に複数形成されている。また、該入力装置では、突部自体の変形も許容して、突部を押し込んで入力を行うことも可能となっている。   As a conventional input device (input device), for example, the one disclosed in Patent Document 1 is known. In the input device of Patent Document 1, a sheet portion of an elastic material in which a group of a plurality of protrusions is formed on the surface of the operation surface is provided, and a guide for performing a finger tracing operation between the protrusions is provided. A plurality of guide grooves are formed in the vertical direction and the horizontal direction. Further, in the input device, it is possible to allow the projection itself to be deformed and to input by pushing the projection.

特開2011―141796号公報JP 2011-141796 A

近年、表示部における表示画面として、複数の階層画面に分かれており、操作者は所望する階層の画面に順次切替えて、切替えられた画面上で更に指操作することで所望の機器を作動させる必要があり、画面の切替え操作に手間のかかるものとなっている。   In recent years, the display screen in the display unit has been divided into a plurality of screens, and the operator needs to switch to the screen of the desired layer in order and operate the desired device by further operating the finger on the switched screen. Therefore, it takes time to change the screen.

本発明は、上記問題点に鑑みてなされたものであって、入力時における高い操作性を得ることのできる入力装置を提供することにある。   The present invention has been made in view of the above problems, and it is an object of the present invention to provide an input device capable of obtaining high operability during input.

上記目的を達成するために、請求項1に記載の発明は、
複数の階層に分かれた画像(60a、60b)を表示可能とする表示部(51)に対して別体で形成されており、操作面(32a)に対する使用者の指操作によって、画像(60a、60b)を操作するための入力が行われる入力装置であって、
指操作に伴う指の位置、および押圧状態を検出する検出手段(31)と、
検出手段(31)の表面(31a)全体に設けられる弾性体(32)と、
弾性体(32)の表面を操作面(32a)として、検出手段(31)によって、指が、操作面(32a)と、この操作面(32a)から所定距離だけ離れた位置との間となる表面領域で操作される第1操作状態であると検出されると、複数の階層の画像(60a、60b)のうち、1つの階層の画像(60a)に切替えて、この1つの階層の画像(60a)に対して表面領域における指操作による入力を許可すると共に、検出手段(31)によって、指が、弾性体(32)を押込んだ状態で操作される第2操作状態であると検出されると、複数の階層の画像(60a、60b)のうち、他の階層の画像(60b)に切替えて、この他の階層の画像(60b)に対して弾性体(32)を押込んだ状態での指操作による入力を許可する制御部(33)と、を備えることを特徴としている。
In order to achieve the above object, the invention described in claim 1
It is formed separately from the display unit (51) that can display the images (60a, 60b) divided into a plurality of layers, and the image (60a, 60b) is formed by the user's finger operation on the operation surface (32a). 60b) an input device for performing input for operating,
Detecting means (31) for detecting a finger position and a pressing state associated with a finger operation;
An elastic body (32) provided on the entire surface (31a) of the detection means (31);
Using the surface of the elastic body (32) as the operation surface (32a), the detection means (31) causes the finger to be between the operation surface (32a) and a position away from the operation surface (32a) by a predetermined distance. When it is detected that the operation state is the first operation state operated in the surface area, the image is switched to the image (60a) of one layer among the images (60a, 60b) of the plurality of layers, and the image of this one layer ( 60a) allows input by finger operation in the surface area, and the detection means (31) detects that the finger is in the second operation state operated with the elastic body (32) being pushed. Then, among the images (60a, 60b) of the plurality of layers, the state is switched to the image (60b) of the other layer and the elastic body (32) is pushed into the image (60b) of the other layer. Control unit (3 ) And is characterized in that it comprises.

この発明によれば、検出手段(31)の表面(31a)全体に弾性体(32)を設けるようにしているので、使用者は、自身の指を表面領域で指操作をしている場合(第1操作状態)であるのか、あるいは、弾性体(32)を押込んだ状態で指操作している場合(第2操作状態)であるのか、両者の違いを指先の接触感覚で明確に識別することができる。   According to the present invention, since the elastic body (32) is provided on the entire surface (31a) of the detection means (31), the user operates his / her finger in the surface area ( Whether it is in the first operation state) or when the finger is operated while the elastic body (32) is pushed in (second operation state), the difference between the two is clearly identified by the touch feeling of the fingertip. can do.

そして、表面領域において指操作を行うと、制御部(33)によって、画面は1つの階層の画像(60a)に切替えられて、この1つの階層の画像(60a)に対して、引き続き表面領域における指操作による入力が可能となる。また、弾性体(32)を押込んだ状態で指操作を行うと、制御部(33)によって、画像は他の階層の画像(60b)に切替えられて、この他の階層の画像(60b)に対して、引き続き弾性体(32)を押込んだ状態での指操作による入力が可能となる。よって、複数の階層画像の切替えを要するものにおいて、入力時における高い操作性を得ることができる。   Then, when a finger operation is performed in the surface area, the control unit (33) switches the screen to an image (60a) of one layer, and continues to the image (60a) of the one layer in the surface region. Input by finger operation is possible. When a finger operation is performed with the elastic body (32) pushed in, the control unit (33) switches the image to an image (60b) of another layer, and the image (60b) of this other layer. On the other hand, it is possible to input by finger operation in a state where the elastic body (32) is continuously pushed. Therefore, high operability at the time of input can be obtained in a case where switching of a plurality of hierarchical images is required.

また、請求項10に記載の発明では、
画像を表示する表示部(51)に対して別体で形成されており、操作面(32a)に対する使用者の指操作によって、画像を操作するための入力が行われる入力装置であって、
指操作に伴う指の位置、および押圧状態を検出する検出手段(31)と、
検出手段(31)の表面(31a)全体に設けられる弾性体(32)と、
弾性体(32)の表面を操作面(32a)として、検出手段(31)によって、指が、操作面(32a)と、この操作面(32a)から所定距離だけ離れた位置との間となる表面領域で操作される第1操作状態であると検出されると、画像に対して予め定められた第1の入力操作を許可すると共に、検出手段(31)によって、指が、弾性体(32)を押込んだ状態で操作される第2操作状態であると検出されると、画像に対して、第1の入力操作とは異なる第2の入力操作を許可する制御部(33)と、を備えることを特徴としている。
In the invention according to claim 10,
An input device that is formed separately from the display unit (51) for displaying an image, and that performs input for operating the image by a user's finger operation on the operation surface (32a),
Detecting means (31) for detecting a finger position and a pressing state associated with a finger operation;
An elastic body (32) provided on the entire surface (31a) of the detection means (31);
Using the surface of the elastic body (32) as the operation surface (32a), the detection means (31) causes the finger to be between the operation surface (32a) and a position away from the operation surface (32a) by a predetermined distance. When it is detected that the first operation state operated in the surface area is detected, a predetermined first input operation is permitted for the image, and the detection means (31) causes the finger to move to the elastic body (32). ), A control unit (33) that permits a second input operation different from the first input operation to the image when it is detected that the second operation state is operated. It is characterized by having.

この発明によれば、上記請求項1に記載の発明と同様に、検出手段(31)の表面(31a)全体に弾性体(32)を設けるようにしているので、使用者は、自身の指を表面領域で指操作をしている場合(第1操作状態)であるのか、あるいは、弾性体(32)を押込んだ状態で指操作している場合(第2操作状態)であるのか、両者の違いを指先の接触感覚で明確に識別することができる。   According to the present invention, the elastic body (32) is provided on the entire surface (31a) of the detection means (31) as in the first aspect of the present invention. Whether the finger is operated in the surface region (first operation state) or the finger is operated in the state where the elastic body (32) is pushed in (second operation state). The difference between the two can be clearly identified by the touch sensation of the fingertip.

そして、表面領域において指操作を行うと、制御部(33)によって、表面領域における指操作による入力が可能となる。また、弾性体(32)を押込んだ状態で指操作を行うと、制御部(33)によって、弾性体(32)を押込んだ状態での指操作による入力が可能となる。よって、入力時における高い操作性を得ることができる。   When a finger operation is performed in the surface area, the control unit (33) enables input by a finger operation in the surface area. Further, when a finger operation is performed while the elastic body (32) is pushed in, the controller (33) enables input by a finger operation while the elastic body (32) is pushed in. Therefore, high operability at the time of input can be obtained.

尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis of each said means shows a corresponding relationship with the specific means of embodiment description mentioned later.

ナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。It is explanatory drawing for demonstrating arrangement | positioning in the vehicle interior of a navigation apparatus and a remote control device. 遠隔操作デバイスを示す斜視図である。It is a perspective view which shows a remote control device. 第1実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。It is a block diagram which shows the structure of the navigation apparatus and remote control device in 1st Embodiment. 第1実施形態の遠隔操作デバイスにおいて、タッチセンサから指までの操作距離により、指の移動と関連付けられる画像部の切替えと入力操作とを説明するための図である。In the remote operation device of 1st Embodiment, it is a figure for demonstrating switching and input operation of the image part linked | related with movement of a finger | toe by the operation distance from a touch sensor to a finger | toe. 第1実施形態の遠隔操作デバイスにおいて、タッチセンサにより検出される感度値と、操作制御部により判定される操作状態との関係を説明するための図である。In the remote operation device of 1st Embodiment, it is a figure for demonstrating the relationship between the sensitivity value detected by a touch sensor, and the operation state determined by the operation control part. 第1実施形態の操作制御部に記憶されている各感度閾値を示すテーブルである。It is a table which shows each sensitivity threshold value memorize | stored in the operation control part of 1st Embodiment. 第1実施形態における指とタッチセンサとの距離と、タッチセンサにより検出される感度値との関係を説明するための図である。It is a figure for demonstrating the relationship between the distance of the finger | toe and touch sensor in 1st Embodiment, and the sensitivity value detected by a touch sensor. 第1実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。It is a flowchart which shows the input process implemented by the operation control part in the remote operation device of 1st Embodiment. 第2実施形態における遠隔操作デバイスを示す斜視図である。It is a perspective view which shows the remote control device in 2nd Embodiment. 第3実施形態における遠隔操作デバイスを示す斜視図である。It is a perspective view which shows the remote control device in 3rd Embodiment. 第4実施形態における遠隔操作デバイスを示す斜視図である。It is a perspective view which shows the remote control device in 4th Embodiment. 第5実施形態における遠隔操作デバイスを示す斜視図である。It is a perspective view which shows the remote control device in 5th Embodiment. 第6実施形態における遠隔操作デバイスを示す斜視図である。It is a perspective view which shows the remote control device in 6th Embodiment.

以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。   Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings. In addition, the overlapping description may be abbreviate | omitted by attaching | subjecting the same code | symbol to the corresponding component in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other part of the configuration. In addition, not only combinations of configurations explicitly described in the description of each embodiment, but also the configurations of a plurality of embodiments can be partially combined even if they are not explicitly specified unless there is a problem with the combination. .

(第1実施形態)
第1実施形態は、本発明の入力装置を、ナビゲーション装置50を操作するための遠隔操作デバイス100に適用したものである。遠隔操作デバイス100は、図1〜図8に示すように、車両に搭載され、ナビゲーション装置50等と共に表示システム10を構成している。
(First embodiment)
In the first embodiment, the input device of the present invention is applied to a remote operation device 100 for operating a navigation device 50. As shown in FIGS. 1 to 8, the remote operation device 100 is mounted on a vehicle and constitutes a display system 10 together with a navigation device 50 and the like.

図1、図2に示すように、遠隔操作デバイス100は、車両のセンターコンソールにてパームレスト39と隣接する位置に設置され、操作者(使用者)の手の届き易い範囲に操作面32aを露出させている。遠隔操作デバイス100は、タッチセンサ31を有しており、タッチセンサ31の表面(後述する弾性体32の表面)は、操作者の指操作が行われるタッチ面32aとして形成されている。そして、このタッチ面32aに隣接してプッシュスイッチ35が配置されている。   As shown in FIGS. 1 and 2, the remote operation device 100 is installed at a position adjacent to the palm rest 39 at the center console of the vehicle, and exposes the operation surface 32a in a range that can be easily reached by the operator (user). I am letting. The remote operation device 100 includes a touch sensor 31, and the surface of the touch sensor 31 (the surface of an elastic body 32 described later) is formed as a touch surface 32a on which an operator's finger operation is performed. A push switch 35 is disposed adjacent to the touch surface 32a.

また、ナビゲーション装置50は、操作者から目視されるよう液晶ディスプレイ51の表示画面52を露出させ且つ表示画面52を運転席に向けた姿勢にて、車両のインスツルメントパネル内に設置されている。表示システム10(液晶ディスプレイ51)は、種々の表示画像60を表示画面52に切替えて表示する。上記の遠隔操作デバイス100は、ナビゲーション装置50に対して別体で形成されており、離れた位置に設定されている。   In addition, the navigation device 50 is installed in the instrument panel of the vehicle with the display screen 52 of the liquid crystal display 51 exposed so as to be viewed by the operator and with the display screen 52 facing the driver's seat. . The display system 10 (liquid crystal display 51) switches various display images 60 to the display screen 52 and displays them. The remote operation device 100 is formed separately from the navigation apparatus 50 and is set at a remote position.

以下、遠隔操作デバイス100、およびナビゲーション装置50の各構成について、図3を用いて詳しく説明する。   Hereinafter, each configuration of the remote operation device 100 and the navigation device 50 will be described in detail with reference to FIG.

遠隔操作デバイス100は、Controller Area Networkバス(以下、CANバス)90、および外部のバッテリ95等と接続されている。CANバス90は、車両に搭載された複数の車載装置を相互に接続してなる車内通信ネットワークにおいて、各車載装置間でのデータの伝送に用いられる伝送路である。遠隔操作デバイス100は、CANバス90を通じて、離れて位置するナビゲーション装置50と通信可能である。   The remote operation device 100 is connected to a controller area network bus (hereinafter referred to as CAN bus) 90, an external battery 95, and the like. The CAN bus 90 is a transmission path used for data transmission between in-vehicle devices in an in-vehicle communication network formed by connecting a plurality of in-vehicle devices mounted on a vehicle. The remote operation device 100 can communicate with the navigation apparatus 50 located remotely via the CAN bus 90.

遠隔操作デバイス100は、電源インターフェース21、22、通信制御部23、通信インターフェース24、タッチセンサ31、弾性体32、プッシュスイッチ35、および操作制御部33等によって構成されている。各電源インターフェース21、22は、バッテリ95から供給される電力を安定化して、操作制御部33に供給する。一方の電源インターフェース21には、バッテリ95から常に電力が供給されている。他方の電源インターフェース22には、車両のアクセサリ(ACC)電源がオン状態とされたことに基づいてスイッチ93が通電状態となることにより、バッテリ95から電力が供給される。   The remote operation device 100 includes power supply interfaces 21 and 22, a communication control unit 23, a communication interface 24, a touch sensor 31, an elastic body 32, a push switch 35, an operation control unit 33, and the like. Each power supply interface 21, 22 stabilizes the power supplied from the battery 95 and supplies it to the operation control unit 33. One power interface 21 is always supplied with power from the battery 95. The other power interface 22 is supplied with electric power from the battery 95 when the switch 93 is energized when the accessory (ACC) power source of the vehicle is turned on.

通信制御部23および通信インターフェース24は、操作制御部33によって処理された情報をCANバス90に出力すると共に、他の車載装置からCANバス90に出力された情報を取得するための構成である。通信制御部23および通信インターフェース24は、送信用の信号線TX及び受信用の信号線RXによって互いに接続されている。   The communication control unit 23 and the communication interface 24 are configured to output information processed by the operation control unit 33 to the CAN bus 90 and to acquire information output to the CAN bus 90 from other in-vehicle devices. The communication control unit 23 and the communication interface 24 are connected to each other by a transmission signal line TX and a reception signal line RX.

タッチセンサ31は、図3、図4に示すように、静電容量式の検出手段であって、矩形の平板状に形成されており、表面31aに対する指による操作状態を検出する。タッチセンサ31は、x軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、操作制御部33と接続されている。各電極は、近接する指の位置(図2のx、y、z位置)に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が操作制御部33に出力されるようになっている。タッチセンサ31の表面31aは、絶縁材よりなる絶縁シートによって覆われている。   As shown in FIGS. 3 and 4, the touch sensor 31 is a capacitance type detection unit, and is formed in a rectangular flat plate shape, and detects an operation state of the surface 31 a with a finger. The touch sensor 31 is formed by arranging electrodes extending along the x-axis direction and electrodes extending along the y-axis direction in a lattice shape. These electrodes are connected to the operation control unit 33. Each electrode is configured such that the generated capacitance changes in accordance with the position of the adjacent finger (the x, y, and z positions in FIG. 2), and the generated capacitance signal (sensitivity value). ) Is output to the operation control unit 33. The surface 31a of the touch sensor 31 is covered with an insulating sheet made of an insulating material.

弾性体32は、例えば所定の厚さ(後述するDth1に相当する厚さ)を有する板状のウレタン等の発泡材等から形成されており、タッチセンサ31の表面31aの全体にわたって設けられている。弾性体32は、例えば、両面接着テープ等によって表面31aに接着されている。そして、弾性体32の表面は、例えば、指の滑りを良くする素材等が設けられて、操作面32aを形成している。操作面32a上、あるいは操作面32aから押込まれた位置におけるx座標、y座標、あるいはz座標方向の操作者の指操作により、表示画面52に表示される表示画像60(図4参照)に対する操作のための入力ができるように設定されている。   The elastic body 32 is formed from, for example, a foamed material such as a plate-like urethane having a predetermined thickness (a thickness corresponding to Dth1 described later), and is provided over the entire surface 31a of the touch sensor 31. . The elastic body 32 is bonded to the surface 31a with, for example, a double-sided adhesive tape. The surface of the elastic body 32 is provided with, for example, a material that improves finger slipping, and forms an operation surface 32a. Operations on the display image 60 (see FIG. 4) displayed on the display screen 52 by the operator's finger operation in the x-coordinate, y-coordinate, or z-coordinate direction on the operation surface 32a or the position pushed from the operation surface 32a. It is set to allow input for.

プッシュスイッチ35は、操作面32aを挟んでパームレスト39とは反対側に配置されている。操作者の指にてプッシュスイッチ35を押圧操作することにより、表示画面52に表示されるアイコン63(図4参照)を選択することができるように設定されている。   The push switch 35 is disposed on the opposite side of the palm rest 39 with the operation surface 32a interposed therebetween. The icon 63 (see FIG. 4) displayed on the display screen 52 can be selected by pressing the push switch 35 with an operator's finger.

操作制御部33は、本発明の制御部であり、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、および演算処理に用いられるプログラム等が格納されたフラッシュメモリ等によって構成されている。加えて、操作制御部33は、各電源インターフェース21、22、通信制御部23、タッチセンサ31、およびプッシュスイッチ35等と接続されている。   The operation control unit 33 is a control unit according to the present invention, and includes a processor that performs various types of arithmetic processing, a RAM that functions as a work area for arithmetic processing, a flash memory that stores programs used for arithmetic processing, and the like. ing. In addition, the operation control unit 33 is connected to the power supply interfaces 21 and 22, the communication control unit 23, the touch sensor 31, the push switch 35, and the like.

操作制御部33は、所定のプログラムを実行することによってタッチセンサ31の各電極の静電容量の信号を計測することにより、タッチセンサ31の計測値としての感度値(Hth)を取得する。操作者の指が操作面32aを介して表面31aに近接すると、絶縁シートおよび弾性体32を挟んで電極と指との間に電荷が蓄えられる。操作制御部33は、表面31aに近接している指、あるいは弾性体32に押込まれている指の相対的な操作位置(以下、「相対位置」という)を示すx座標、y座標、さらに表面31aから指までの距離(以下、「操作距離d」という、図4)に相当するz座標を、感度値に基づく算出処理によって検出する。こうした感度値は、操作距離dが短くなるにしたがって増加し、操作距離dが長くなるに従って減少する(図7)。   The operation control unit 33 acquires a sensitivity value (Hth) as a measurement value of the touch sensor 31 by measuring a capacitance signal of each electrode of the touch sensor 31 by executing a predetermined program. When the operator's finger approaches the surface 31a through the operation surface 32a, electric charges are stored between the electrode and the finger with the insulating sheet and the elastic body 32 interposed therebetween. The operation control unit 33 includes an x-coordinate, a y-coordinate indicating a relative operation position (hereinafter referred to as a “relative position”) of a finger close to the surface 31a or a finger pushed into the elastic body 32, and the surface. A z coordinate corresponding to the distance from 31a to the finger (hereinafter referred to as “operation distance d” in FIG. 4) is detected by a calculation process based on the sensitivity value. Such sensitivity values increase as the operation distance d becomes shorter and decrease as the operation distance d becomes longer (FIG. 7).

また、操作制御部33は、操作者が指によって行うプッシュスイッチ35への押圧操作を検知する。そして操作制御部33は、指の位置を示す座標およびプッシュスイッチ35への押圧操作の有無を、通信制御部23および通信インターフェース24を通じて、CANバス90に出力する。   The operation control unit 33 detects a pressing operation on the push switch 35 performed by the operator with a finger. Then, the operation control unit 33 outputs the coordinates indicating the position of the finger and the presence / absence of the pressing operation to the push switch 35 to the CAN bus 90 through the communication control unit 23 and the communication interface 24.

ナビゲーション装置50は、地図上における現在の位置表示や目的地案内等を行うナビゲーション機能に加えて、車両用オーディオに対するオーディオ作動設定機能、携帯電話フリーハンズ機能、および車両用空調装置に対する空調作動設定機能等を備えている。   The navigation device 50 has an audio operation setting function for vehicle audio, a mobile phone free hands function, and an air conditioning operation setting function for the vehicle air conditioner, in addition to a navigation function for displaying the current position on the map, destination guidance, and the like. Etc.

ナビゲーション装置50は、遠隔操作デバイス100等と通信可能なようCANバス90と接続されており、表示制御部53および液晶ディスプレイ51を有している。   The navigation device 50 is connected to the CAN bus 90 so as to be able to communicate with the remote operation device 100 and the like, and has a display control unit 53 and a liquid crystal display 51.

表示制御部53は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、画像の描画処理を行うグラフィックプロセッサ、描画処理の作業領域として機能するグラフィックRAM等によって構成されている。加えて表示制御部53は、演算処理及び描画処理に用いられるデータを格納するフラッシュメモリ、CANバス90と接続される通信インターフェース、および描画した画像データを液晶ディスプレイ51に出力する映像出力インターフェースを有している。表示制御部53は、CANバス90から取得する情報に基づいて、表示画面52に表示する表示画像60を描画する。そして表示制御部53は、描画した表示画像60の画像データを、映像出力インターフェースを通じて液晶ディスプレイ51に逐次出力する。   The display control unit 53 includes a processor that performs various types of arithmetic processing, a RAM that functions as a work area for arithmetic processing, a graphic processor that performs image drawing processing, a graphic RAM that functions as a work area for drawing processing, and the like. In addition, the display control unit 53 has a flash memory for storing data used for arithmetic processing and drawing processing, a communication interface connected to the CAN bus 90, and a video output interface for outputting drawn image data to the liquid crystal display 51. doing. The display control unit 53 draws a display image 60 to be displayed on the display screen 52 based on information acquired from the CAN bus 90. Then, the display control unit 53 sequentially outputs the image data of the drawn display image 60 to the liquid crystal display 51 through the video output interface.

液晶ディスプレイ51は、表示画面52に配列された複数の画素を制御することにより、カラー表示を実現するドットマトリクス方式の表示部である。液晶ディスプレイ51は、表示制御部53から逐次取得する画像データを表示画面52に連続的に形成することにより、映像を表示する。   The liquid crystal display 51 is a dot matrix type display unit that realizes color display by controlling a plurality of pixels arranged on the display screen 52. The liquid crystal display 51 displays video by continuously forming image data sequentially acquired from the display control unit 53 on the display screen 52.

液晶ディスプレイ51に表示される表示画像60は、複数の階層に分かれた画像から構成されている。例えば、複数の階層の画像のうち、1つの階層の画像は、ナビゲーション装置50の各機能(ナビゲーション、オーディオ、携帯電話、空調装置等)を選択するためのメニュー用の第1階層画像60aとなっている。第1階層画像60aは、図4(a)に示すように、画像上部に帯状に並ぶ各種機能メニューが表示され、また、中央部には、操作面32aにおける指のスライドによって移動される各種機能に対応するサブメニュー65が順に表示される画像となっている。また、複数の階層の画像のうち、他の階層の画像は、各種機能に対する具体的な操作をするための操作用の第2階層画像60bとなっている。第2階層画像60bは、第1階層画像60aのサブメニュー65から選択表示されて、図4(b)に示すように、操作面32aにおいて指を弾性体32に押込んだ状態で、スライドすることで、各種アイコン63の選択ができるようになっている。   The display image 60 displayed on the liquid crystal display 51 is composed of images divided into a plurality of layers. For example, among the images of a plurality of layers, the image of one layer is a first layer image 60a for a menu for selecting each function (navigation, audio, mobile phone, air conditioner, etc.) of the navigation device 50. ing. As shown in FIG. 4A, the first layer image 60a displays various function menus arranged in a strip shape at the top of the image, and various functions moved by sliding the finger on the operation surface 32a in the center. The submenu 65 corresponding to is an image displayed in order. In addition, among the images in a plurality of layers, the images in the other layers are second-layer images 60b for operation for performing specific operations for various functions. The second hierarchical image 60b is selected and displayed from the submenu 65 of the first hierarchical image 60a, and slides with the finger pressed into the elastic body 32 on the operation surface 32a as shown in FIG. 4B. Thus, various icons 63 can be selected.

以上の表示システム10では、図4に示すように、タッチセンサ31の表面31aを基準位置として自然状態の弾性体32の厚さ分となる第1閾値距離Dth1だけ離れた位置と、表面31aを基準位置として第1閾値距離Dth1よりも大きく設定された第2閾値距離Dth2だけ離れた位置とが定義付けされている。   In the above display system 10, as shown in FIG. 4, the surface 31 a is separated from the surface 31 a by the first threshold distance Dth1 that is the thickness of the elastic body 32 in the natural state with the surface 31 a of the touch sensor 31 as the reference position. A reference position is defined as a position separated by a second threshold distance Dth2 set larger than the first threshold distance Dth1.

また、図5に示すように、第1閾値距離Dth1におけるタッチセンサ31の感度値を第1感度値Hth1と対応させており、第2閾値距離Dth2におけるタッチセンサ31の感度値を第2感度値Hth2と対応させている。つまり、指の位置がタッチセンサ31の表面31aからどれだけ離れた位置にあるかが、感度値Hthと対応付けられている。操作制御部33には、図6に示すように、第1閾値距離Dth1に対応する第1感度値Hth1(例えば200count)が予め記憶されており、また、第2閾値距離Dth2に対応する第2感度値Hth2(例えば100count)が予め記憶されている。   Further, as shown in FIG. 5, the sensitivity value of the touch sensor 31 at the first threshold distance Dth1 is associated with the first sensitivity value Hth1, and the sensitivity value of the touch sensor 31 at the second threshold distance Dth2 is set to the second sensitivity value. This corresponds to Hth2. That is, how far the finger is located from the surface 31a of the touch sensor 31 is associated with the sensitivity value Hth. As shown in FIG. 6, the operation control unit 33 stores in advance a first sensitivity value Hth1 (for example, 200 count) corresponding to the first threshold distance Dth1, and also stores a second sensitivity value Hth1 corresponding to the second threshold distance Dth2. A sensitivity value Hth2 (for example, 100 count) is stored in advance.

タッチセンサ31の表面31aからの指の位置(操作距離d(図4(a))が、第1閾値距離Dth1だけ離れた位置(弾性体32の操作面32a位置)と、第2閾値距離Dth2だけ離れた位置(操作面32aから所定距離だけ離れた位置)との間となる表面領域にあると、操作制御部33は、指が表面操作状態にあるとして、液晶ディスプレイ51における表示画像60を第1階層画像60aに切替えて、表面領域において指を移動させる操作に応じて、切替えられた第1階層画像60a(サブメニュー65)を移動させる制御に関連付けするようになっている。以下、この制御を表面操作と定義する(図5、図7の縦軸方向の真ん中の領域)。表面操作状態は、本発明の第1操作状態に対応する。   The position of the finger from the surface 31a of the touch sensor 31 (the operation distance d (FIG. 4A)) is separated by the first threshold distance Dth1 (the position of the operation surface 32a of the elastic body 32) and the second threshold distance Dth2. If it is in a surface region that is between a position that is only a distance away from the operation surface 32a (a position that is a predetermined distance away from the operation surface 32a), the operation control unit 33 assumes that the finger is in the surface operation state, Switching to the first hierarchical image 60a is associated with control for moving the switched first hierarchical image 60a (submenu 65) in accordance with the operation of moving the finger in the surface region. Control is defined as surface operation (the middle region in the vertical axis direction of FIGS. 5 and 7), which corresponds to the first operation state of the present invention.

また、指が弾性体32を押込んだ状態となって、タッチセンサ31の表面31aからの指の位置(操作距離d(図4(b))が、タッチセンサ31の表面31aと、第1閾値距離Dth1だけ離れた位置との間となる押込み領域にあると、操作制御部33は、指が押込み操作状態にあるとして、液晶ディスプレイ51における表示画像60を第2階層画像60bに切替えて、弾性体32を押込んだ状態で指を移動させる操作に応じて、切替えられた第2階層画像60bのアイコン63を選択する制御に関連付けするようになっている。以下、この制御を押込み操作と定義する(図5、図7の縦軸方向の上側の領域)。押込み操作状態は、本発明の第2操作状態に対応する。   Further, the finger is pushed into the elastic body 32, and the position of the finger from the surface 31a of the touch sensor 31 (the operation distance d (FIG. 4B)) is the same as the surface 31a of the touch sensor 31 and the first position. If it is in the pushing area between the position separated by the threshold distance Dth1, the operation control unit 33 switches the display image 60 on the liquid crystal display 51 to the second layer image 60b, assuming that the finger is in the pushing operation state, The control is associated with the control for selecting the icon 63 of the switched second hierarchical image 60b in accordance with the operation of moving the finger while the elastic body 32 is pressed in. This control is hereinafter referred to as the pressing operation. (A region on the upper side in the vertical axis direction in FIGS. 5 and 7) The push-in operation state corresponds to the second operation state of the present invention.

尚、タッチセンサ31の表面31aからの指の位置(操作距離d)が、第2閾値距離Dth2よりも更に離れた位置にあると、操作制御部33は、指が非接触状態にあるとして、表示画像60に対する制御を行わないようになっている。   Note that if the position of the finger (operation distance d) from the surface 31a of the touch sensor 31 is further away from the second threshold distance Dth2, the operation control unit 33 assumes that the finger is in a non-contact state. The display image 60 is not controlled.

次に、操作制御部33によるタッチセンサ31からの入力処理の詳細を図8に基づいて説明する。   Next, details of input processing from the touch sensor 31 by the operation control unit 33 will be described with reference to FIG.

まず、ステップS110では、タッチセンサ31の各電極にて検出される感度値を取得する取得処理を実施し、ステップS120に進む。ステップS120では、ステップS110にて取得される感度値から、操作面32aに対する指の相対位置を示すx座標、y座標、およびz座標の計算処理を実施し、操作距離dを示すz座標の計算値から、指の操作状態が、非接触状態、表面操作状態、あるいは押込み操作状態のいずれにあるかを算出する。   First, in step S110, the acquisition process which acquires the sensitivity value detected with each electrode of the touch sensor 31 is implemented, and it progresses to step S120. In step S120, the x coordinate, y coordinate, and z coordinate indicating the relative position of the finger with respect to the operation surface 32a are calculated from the sensitivity value acquired in step S110, and the z coordinate indicating the operation distance d is calculated. From the value, it is calculated whether the operation state of the finger is in a non-contact state, a surface operation state, or a push-in operation state.

具体的には、タッチセンサ31の表面31aに対する操作位置dが、第2閾値距離Dth2よりも遠い位置では非接触状態、第2閾値距離Dth2と第1閾値距離Dth1との間では表面操作状態、第1閾値距離Dth1とタッチセンサ31の表面31aとの間では押込操作状態と算出する。   Specifically, the operation position d with respect to the surface 31a of the touch sensor 31 is in a non-contact state at a position farther than the second threshold distance Dth2, and the surface operation state is between the second threshold distance Dth2 and the first threshold distance Dth1, A pressing operation state is calculated between the first threshold distance Dth1 and the surface 31a of the touch sensor 31.

そして、ステップS130で、指操作状態は非接触状態ではなく、且つ、感度値がHth2以下の場合であるか否かを判定し、肯定判定すると、ステップS140で、操作状態を非接触状態に更新して、タッチセンサ入力処理を終了する。つまり、指が第2閾値距離Dth2を跨いで操作面32aから離間した場合に、操作状態を非接触状態へ更新する。そして、操作制御部33は、表示画像60に対する制御は、何も行わずに現状の状態を維持する。   In step S130, it is determined whether or not the finger operation state is not a non-contact state and the sensitivity value is equal to or lower than Hth2. If the determination is affirmative, the operation state is updated to a non-contact state in step S140. Then, the touch sensor input process ends. That is, when the finger is separated from the operation surface 32a across the second threshold distance Dth2, the operation state is updated to the non-contact state. Then, the operation control unit 33 maintains the current state without performing any control on the display image 60.

次に、ステップS130で、否と判定すると、ステップS150で、1つ目の条件として操作状態は非接触状態であり、且つ感度値がHth2以上あるか、または2つ目の条件として操作状態は押込み操作状態であり、且つ感度値がHth1以下であるか、のいずれかであるか否かを判定する。ここで肯定判定すると、ステップS160で、操作状態を表面操作状態に更新して、タッチセンサ入力処理を終了する。つまり、指が第2閾値距離Dth2を跨いで操作領域に入った場合、あるいは、指が第1閾値距離Dth1を跨いで操作領域に入った場合に、操作状態を表面操作状態へ更新する。そして、操作制御部33は、液晶ディスプレイ51における表示画像60を第1階層画像60aに切替えて、表面領域において指を移動させる操作に応じて、切替えられた第1階層画像60a(サブメニュー65)を移動させる制御を実施(許可)する。   Next, when it is determined NO in step S130, in step S150, the operation state is a non-contact state as the first condition and the sensitivity value is Hth2 or more, or the operation state is as the second condition. It is determined whether or not the push operation state is set and the sensitivity value is Hth1 or less. If an affirmative determination is made here, the operation state is updated to the surface operation state in step S160, and the touch sensor input process is terminated. That is, when the finger enters the operation region across the second threshold distance Dth2, or when the finger enters the operation region across the first threshold distance Dth1, the operation state is updated to the surface operation state. Then, the operation control unit 33 switches the display image 60 on the liquid crystal display 51 to the first layer image 60a, and switches the first layer image 60a (submenu 65) according to the operation of moving the finger in the surface area. Implement (permit) control to move.

例えば、操作者がナビゲーション機能を使用しており、表示画面52に地図が表示されているとして、指を表面領域内に移動させると、図4(a)に示すように、表示画面52をメニュー用の第1階層画面60aに切替えて、指の移動に応じて、サブメニュー65を移動(スクロール)させる。   For example, assuming that the operator is using the navigation function and a map is displayed on the display screen 52, when the finger is moved into the surface area, the display screen 52 is displayed on the menu as shown in FIG. The first menu screen 60a is switched to, and the submenu 65 is moved (scrolled) in accordance with the movement of the finger.

次に、ステップS150で、否と判定すると、ステップS170で、操作状態は押込み操作状態ではなく、且つ感度値がHth1以上あるか否かを判定する。ここで肯定判定すると、ステップS180で、操作状態を押込み操作状態に更新して、タッチセンサ入力処理を終了する。つまり、指が第1閾値距離Dth1を跨いで弾性体32が押込まれた場合に、操作状態を押込み操作状態へ更新する。そして、操作制御部33は、液晶ディスプレイ51における表示画像60を第2階層画像60bに切替えて、弾性体32を押込んだ状態で指を移動させる操作に応じて、切替えられた第2階層画像60bのアイコン63を選択する制御を実施(許可)する。   Next, when it is determined as NO in step S150, it is determined in step S170 whether the operation state is not the push-in operation state and the sensitivity value is equal to or higher than Hth1. If an affirmative determination is made here, the operation state is updated to the push-in operation state in step S180, and the touch sensor input process is terminated. That is, when the elastic body 32 is pushed across the first threshold distance Dth1, the operation state is updated to the push-in operation state. Then, the operation control unit 33 switches the display image 60 on the liquid crystal display 51 to the second layer image 60b, and switches the second layer image according to the operation of moving the finger while the elastic body 32 is pushed. Control (selection) is performed to select the icon 63 of 60b.

例えば、操作者が、第1階層画像60aに対して表面領域において指を移動させており、所望のサブメニュー65(空調作動設定メニュー)を選択するために、所望のサブメニュー65の位置で弾性体32を押込むと、図4(b)に示すように、表示画面52を所望のサブメニュー65を示す第2階層画像60bに切替えて、指の移動に応じて、アイコン63を選択する制御(吹出しモードの変更)を行う。   For example, the operator has moved his / her finger in the surface area with respect to the first hierarchical image 60a, and is elastic at the position of the desired submenu 65 in order to select the desired submenu 65 (air conditioning operation setting menu). When the body 32 is pushed in, as shown in FIG. 4B, the display screen 52 is switched to the second hierarchical image 60b showing the desired submenu 65, and the icon 63 is selected according to the movement of the finger. (Change the blowing mode).

以上のように、本実施形態では、タッチセンサ31の表面31a全体に弾性体32を設けるようにしているので、操作者は、自身の指を表面領域で指操作をしている場合(表面操作状態)であるのか、あるいは、弾性体32を押込んだ状態で指操作している場合(押込み操作状態)であるのか、両者の違いを指先の接触感覚で明確に識別することができる。   As described above, in the present embodiment, since the elastic body 32 is provided on the entire surface 31a of the touch sensor 31, the operator operates his / her finger on the surface region (surface operation). The difference between the two can be clearly identified by the contact sensation of the fingertips, or whether the finger is operated with the elastic body 32 pushed in (pressing operation state).

そして、表面領域において指操作を行うと、操作制御部33によって、画面は第1階層画像60aに切替えられて、この第1階層画像60aに対して、引き続き表面領域における指操作による入力が可能となる。また、弾性体32を押込んだ状態で指操作を行うと、操作制御部33によって、画像は第2階層画像60bに切替えられて、この第2階層画像60bに対して、引き続き弾性体32を押込んだ状態での指操作による入力が可能となる。よって、複数の階層画像の切替えを要するものにおいて、入力時における高い操作性を得ることができる。   When a finger operation is performed in the surface area, the screen is switched to the first hierarchical image 60a by the operation control unit 33, and it is possible to continuously input the first hierarchical image 60a by a finger operation in the surface area. Become. Further, when a finger operation is performed while the elastic body 32 is pressed, the operation control unit 33 switches the image to the second hierarchical image 60b, and the elastic body 32 is continuously applied to the second hierarchical image 60b. Input by finger operation in the depressed state is possible. Therefore, high operability at the time of input can be obtained in a case where switching of a plurality of hierarchical images is required.

また、第1階層画像60aを複数の階層に分かれた画像のうちの1番目の階層とし、第2階層画像60bを1番目の階層の下となる2番面の階層としており、表面領域における指操作を第1階層画像60aに対する入力操作制御に対応させ、また、押込み領域における指操作を第2階層画像60bに対する入力操作制御に対応させている。よって、操作面32a側からタッチセンサ31の表面31aに向かう指の動き(表面操作から押込み操作への動き)に応じて、第1階層画増60a、第2階層画像60bの順に力操作が可能となり、操作者の感覚に一致した制御が可能となる。   In addition, the first hierarchical image 60a is the first hierarchy among the images divided into a plurality of hierarchies, and the second hierarchical image 60b is the second hierarchy below the first hierarchy. The operation corresponds to the input operation control for the first hierarchical image 60a, and the finger operation in the push area corresponds to the input operation control for the second hierarchical image 60b. Therefore, a force operation can be performed in the order of the first layer image increase 60a and the second layer image 60b in accordance with the movement of the finger from the operation surface 32a side toward the surface 31a of the touch sensor 31 (movement from the surface operation to the pressing operation). Thus, control in accordance with the operator's feeling becomes possible.

(第2実施形態)
第2実施形態の遠隔操作デバイス100Aを図9に示す。第2実施形態の遠隔操作デバイス100Aは、上記第1実施形態の遠隔操作デバイス100に対して、弾性体32Aの操作面32aを、上側に突となる曲面状にしたものである。例えば、弾性体32Aは、パームレスト39側からプッシュスイッチ35(図9では省略)側に厚みが薄くなって、所定の曲率を有するように形成されている。所定の曲率は、自然状態における操作者の掌の指の曲がり状態に準じた曲率となっている。
(Second Embodiment)
A remote operation device 100A of the second embodiment is shown in FIG. In the remote operation device 100A of the second embodiment, the operation surface 32a of the elastic body 32A has a curved surface that protrudes upward from the remote operation device 100 of the first embodiment. For example, the elastic body 32A is formed so as to have a predetermined curvature with a reduced thickness from the palm rest 39 side to the push switch 35 (not shown in FIG. 9) side. The predetermined curvature is a curvature according to the bending state of the finger of the operator's palm in the natural state.

これにより、操作者が弾性体32Aに対して掌を当てて指操作する場合に、第1実施形態のような平面形状に対して弾性体32Aの曲面形状が掌により良く馴染むようになるので、フィット感を向上させることができる。   Thereby, when the operator applies a palm to the elastic body 32A and performs a finger operation, the curved surface shape of the elastic body 32A becomes more familiar with the palm than the planar shape as in the first embodiment. A feeling of fit can be improved.

(第3実施形態)
第3実施形態の遠隔操作デバイス100Bを図10に示す。第3実施形態の遠隔操作デバイス100Bは、上記第1実施形態の遠隔操作デバイス100に対して、弾性体32Bの操作面32aを、階段状にしたものである。例えば、弾性体32Bの階段形状は、上記第1実施形態で説明した第1階層画像60aの各種機能メニューの位置、あるいは、第2階層画像60bのアイコン63の位置等にそれぞれの段が対応するように形成されている。
(Third embodiment)
A remote control device 100B of the third embodiment is shown in FIG. The remote operation device 100B according to the third embodiment is obtained by making the operation surface 32a of the elastic body 32B into a step shape with respect to the remote operation device 100 according to the first embodiment. For example, each step of the staircase shape of the elastic body 32B corresponds to the position of various function menus of the first hierarchical image 60a described in the first embodiment or the position of the icon 63 of the second hierarchical image 60b. It is formed as follows.

これにより、操作者は、直接的に操作面32aを見なくても、指の感触によって階段状となる操作面32aのそれぞれの段の領域(つまり、各種機能メニューの位置、アイコン63の位置等)を認識して、指操作を行うことができる。つまり、ブラインド操作性を向上させることができる。   Thus, the operator does not directly look at the operation surface 32a, but each step region of the operation surface 32a that becomes a step shape by finger touch (that is, the position of various function menus, the position of the icon 63, etc.) ) And finger operation can be performed. That is, blind operability can be improved.

(第4実施形態)
第4実施形態の遠隔操作デバイス100Cを図11に示す。第4実施形態の遠隔操作デバイス100Cは、上記第3実施形態の遠隔操作デバイス100Bに対して、弾性体32Bの操作面32aの所定領域に補強板34を設けたものである。所定領域は、例えば、階段状に設けられた1つの段部において、複数に分割された1つの領域となっている。
(Fourth embodiment)
A remote operation device 100C of the fourth embodiment is shown in FIG. The remote operation device 100C according to the fourth embodiment is obtained by providing a reinforcing plate 34 in a predetermined region of the operation surface 32a of the elastic body 32B with respect to the remote operation device 100B according to the third embodiment. The predetermined region is, for example, one region divided into a plurality of portions in one step portion provided in a staircase shape.

これにより、補強板34の任意の部位を指で押込んだ場合でも、補強板34に対応する所定領域の全体を一度に沈み込ませることができるので、所定領域に対する押込み操作を確実に行うことができる。   As a result, even when an arbitrary portion of the reinforcing plate 34 is pushed in with a finger, the entire predetermined area corresponding to the reinforcing plate 34 can be sunk at a time, so that the pushing operation on the predetermined area is reliably performed. Can do.

更に、補強板34の設けられる部位と、そうでない部位との間に溝等を設けてやれば、補強板34の設けられた部位を、ボタンスイッチの如く形成することができるので、さらに指操作性を向上させることができる。   Further, if a groove or the like is provided between a portion where the reinforcing plate 34 is provided and a portion where the reinforcing plate 34 is not provided, the portion where the reinforcing plate 34 is provided can be formed like a button switch. Can be improved.

尚、本実施形態では、補強板34は、階段状に形成された弾性体32Bに適用されるようにしたが、これに限らず、上記第1実施形態のように平面状に形成された弾性体32に適用するようにしても良い。   In the present embodiment, the reinforcing plate 34 is applied to the elastic body 32B formed in a staircase shape. However, the present invention is not limited to this, and the elastic plate 34 is formed in a planar shape as in the first embodiment. You may make it apply to the body 32. FIG.

(第5実施形態)
第5実施形態の遠隔操作デバイス100Dを図12に示す。第5実施形態の遠隔操作デバイス100Dは、上記第1実施形態の遠隔操作デバイス100に対して、弾性体32のタッチセンサ31側、つまり、弾性体32とタッチセンサ31との間に、もう1つの弾性体321を設けたものである。もう1つの弾性体321の弾性率(反発力)は、弾性体32の弾性率とは、異なるものとして設定されている。
(Fifth embodiment)
A remote control device 100D of the fifth embodiment is shown in FIG. The remote operation device 100D according to the fifth embodiment is different from the remote operation device 100 according to the first embodiment in that the elastic body 32 is on the touch sensor 31 side, that is, between the elastic body 32 and the touch sensor 31. One elastic body 321 is provided. The elastic modulus (repulsive force) of the other elastic body 321 is set to be different from the elastic modulus of the elastic body 32.

第5実施形態では、表示画像60は、3つ以上の階層に分かれた画像から構成されている。そして、弾性体32への指の押込みによって、指の位置がもう1つの弾性体321に至るように押込まれた状態で操作される第3の操作状態にあると、複数の階層の表示画像60のうち、第1、第2階層画像60a、60bとは異なる階層の画像に切替えて、この異なる階層の画像に対して、もう1つの弾性体321を押込んだ状態での指操作による入力が行われるようにしている。これにより、指操作の可能となる表示画像60の階層を増加させることができる。   In the fifth embodiment, the display image 60 is composed of images divided into three or more layers. When the finger is pushed into the elastic body 32 and the finger is pushed so that the position of the finger reaches the other elastic body 321, the third operation state is operated. Among them, the image is switched to an image of a different layer from the first and second layer images 60a and 60b, and an input by a finger operation in a state where another elastic body 321 is pushed into the image of the different layer. To be done. Thereby, the hierarchy of the display image 60 which can perform finger operation can be increased.

(第6実施形態)
第6実施形態の遠隔操作デバイス100Eを図13に示す。第6実施形態の遠隔操作デバイス100Eは、上記第5実施形態の遠隔操作デバイス100Dに対して、弾性体32の内部に、タッチセンサ31に対して、指の動きを所定方向にガイドするガイド部36を設けたものである。
(Sixth embodiment)
A remote control device 100E of the sixth embodiment is shown in FIG. The remote operation device 100E according to the sixth embodiment is a guide unit that guides the movement of a finger in a predetermined direction with respect to the touch sensor 31 inside the elastic body 32 with respect to the remote operation device 100D according to the fifth embodiment. 36 is provided.

ガイド部36は、弾性体32よりも硬度が高く、例えば2本のレール状の部材によって形成されており、弾性体321の上面に設けられている。レール状部材の高さ寸法は、弾性体32の厚さ寸法よりも小さく設定されている。そして、両レール状部材の間に溝が形成されるようになっている。溝の方向は、例えは、x軸方向、あるいは、y軸方向、あるいはレール状部材を2組としてx軸およびy軸の両者とすることができる。   The guide portion 36 has a hardness higher than that of the elastic body 32, and is formed of, for example, two rail-shaped members, and is provided on the upper surface of the elastic body 321. The height dimension of the rail-like member is set smaller than the thickness dimension of the elastic body 32. A groove is formed between the rail-like members. The direction of the groove can be, for example, the x-axis direction, the y-axis direction, or both the x-axis and the y-axis with two sets of rail-like members.

具体的には、ガイド部36は、例えば、第1階層画像60aの各種機能メニューの位置、あるいは、第2階層画像60bのアイコン63の位置に対応して設けられ、溝の方向は、各種機能メニューの延びる方向(x軸方向)、あるいは、アイコン63が並ぶ方向に(x軸方向)等とすることができる。   Specifically, the guide unit 36 is provided, for example, corresponding to the position of various function menus of the first hierarchical image 60a or the position of the icon 63 of the second hierarchical image 60b, and the direction of the groove is determined according to various functions. The direction in which the menu extends (x-axis direction) or the direction in which the icons 63 are arranged (x-axis direction) can be used.

これにより、弾性体32に対して押込み操作を行う場合に、指をガイド部36に沿って移動させることができ、所望する移動先に対する指のブレを抑制することができ、ブラインド操作性を向上させることができる。   Thereby, when performing pushing operation with respect to the elastic body 32, a finger | toe can be moved along the guide part 36, the blurring of the finger | toe with respect to the desired moving destination can be suppressed, and blind operability is improved. Can be made.

(その他の実施形態)
弾性体32、32A、32B等は、粘着性の比較的低い接着テープ等でタッチセンサ31、あるいは、弾性体321に接着する、あるいははめ込み式とする等により、取外し可能とすると(着脱可能とすると)、メンテナンス(例えば新品への交換)を容易にすることができる。また、入力操作の対象となる機器に合わせた弾性体32(階段状形状、補強板34の設定、ガイド部36等の設定異なるもの)とすることで、各機器に対して別の入力操作が可能となる。また、色、形、デザイン等の異なるものに交換することで、各操作者の嗜好に合った遠隔操作デバイスとすることができる。
(Other embodiments)
The elastic bodies 32, 32A, 32B and the like can be removed by attaching them to the touch sensor 31 or the elastic body 321 with a relatively low adhesive tape or the like, or using a fitting type, etc. ) And maintenance (for example, replacement with a new product) can be facilitated. In addition, by using an elastic body 32 (a stepped shape, setting of the reinforcing plate 34, setting of the guide portion 36, etc., different) according to the device to be input operation, different input operations can be performed on each device. It becomes possible. Moreover, it can be set as the remote operation device suitable for each operator's preference by replacing | exchanging for things with a different color, a shape, a design, etc.

また、弾性体32、32A、32B等を多孔質部材から形成されるようにして、この多孔質部材に芳香剤を設けるようにすることで、車室内をさわやかな雰囲気にすることができる。   In addition, by forming the elastic bodies 32, 32A, 32B, and the like from a porous member and providing the porous member with a fragrance, the vehicle interior can be refreshed.

また、上記各実施形態では、表面領域において指操作を行うと、操作制御部33によって、画面は第1階層画像60aに切替えられて、この第1階層画像60aに対して、引き続き表面領域における指操作による入力が可能となり、また、弾性体32を押込んだ状態で指操作を行うと、操作制御部33によって、画像は第2階層画像60bに切替えられて、この第2階層画像60bに対して、引き続き弾性体32を押込んだ状態での指操作による入力が可能となるものとして説明した。   In each of the above embodiments, when a finger operation is performed in the surface area, the screen is switched to the first hierarchical image 60a by the operation control unit 33, and the finger in the surface area continues to the first hierarchical image 60a. When an operation can be input and a finger operation is performed while the elastic body 32 is pressed, the operation control unit 33 switches the image to the second hierarchical image 60b, and the second hierarchical image 60b In the above description, it is assumed that input by a finger operation in a state where the elastic body 32 is continuously pressed is possible.

しかしながら、これに限らず、基本の表示画像60を切替えることなく、表面操作状態であると(第1操作状態であると)、表示画像60に対して予め定められた第1の入力操作を許可し、また、押込み操作状態であると(第2操作状態であると)、表示画像60に対して第1の入力操作とは異なる第2の入力操作を許可するものとしても良い。   However, the present invention is not limited to this. If the surface operation state is set (the first operation state) without switching the basic display image 60, a predetermined first input operation is permitted for the display image 60. In addition, when in the push operation state (in the second operation state), a second input operation different from the first input operation may be permitted for the display image 60.

例えば、ナビゲーション機能を使用しており、表示画像60として地図が表示されている場合に、表面操作によって地図中のカーソルを移動(第1の入力操作)させる、あるいは押込み操作によって地図の移動(第2の入力操作)を行う、という具合である。   For example, when the navigation function is used and a map is displayed as the display image 60, the cursor in the map is moved (first input operation) by the surface operation, or the map is moved (first operation) by the push operation. 2 input operation).

また、上記各実施形態では、第1階層画像60aに対して表面操作を許可し、第2階層画像60bに対して、押込み操作を許可するものとしたが、両者が逆になるものとしても良い。   In each of the above embodiments, the surface operation is permitted for the first hierarchical image 60a and the pushing operation is permitted for the second hierarchical image 60b. However, both may be reversed. .

また、上記第1実施形態に対して、第2〜第6実施形態、およびその他の実施形態を複数組合わせたものとしても良い。   Further, a plurality of second to sixth embodiments and other embodiments may be combined with the first embodiment.

また、検出手段として静電容量式のタッチセンサ31を用いたが、これに限定されるものではなく、他の感圧式のタッチセンサ等としても良い。   Further, although the capacitive touch sensor 31 is used as the detecting means, the present invention is not limited to this, and other pressure-sensitive touch sensors may be used.

また、表面操作として、第1閾値距離Dth1と第2閾値距離Dth2との間に指がある場合としたが、第2閾値距離Dth2を第1閾値距離Dth1と実質同一として、操作面32a上での指操作を表面操作としても良い。   Further, although the surface operation is a case where a finger is present between the first threshold distance Dth1 and the second threshold distance Dth2, the second threshold distance Dth2 is assumed to be substantially the same as the first threshold distance Dth1 on the operation surface 32a. The finger operation may be a surface operation.

また、遠隔操作デバイス100におけるプッシュスイッチ35は、図2で説明したものであると、実際的には、操作者は親指で操作面32aの操作を行い、人差し指でプッシュスイッチ35を操作することが可能となる。これに対して、プッシュスイッチ35は、操作面32aとパームレスト39との間に配置されるもの、あるいは、遠隔操作デバイス100の運転席側の側面に配置されるものとしても良い。これによれば、操作者は人差し指で操作面32aの操作を行い、親指でプッシュスイッチ35を操作することが可能となる。   Further, if the push switch 35 in the remote operation device 100 is the one described with reference to FIG. 2, the operator can actually operate the operation surface 32a with the thumb and operate the push switch 35 with the index finger. It becomes possible. On the other hand, the push switch 35 may be disposed between the operation surface 32 a and the palm rest 39, or may be disposed on the driver seat side surface of the remote operation device 100. Accordingly, the operator can operate the operation surface 32a with the index finger and operate the push switch 35 with the thumb.

100 遠隔操作デバイス(入力装置)
31 タッチセンサ(検出手段)
31a 表面
32 弾性体、321 もう1つの弾性体
32a操作面
33 操作制御部(制御部)
34 補強板
36 ガイド部
50 ナビゲーション装置
51 液晶ディスプレイ(表示部)
60 表示画像
60a 第1階層画像(1つの階層の画像)
60b 第2階層画像(他の階層の画像)
100 Remote operation device (input device)
31 Touch sensor (detection means)
31a Surface 32 Elastic body, 321 Another elastic body 32a Operation surface 33 Operation control unit (control unit)
34 Reinforcing plate 36 Guide unit 50 Navigation device 51 Liquid crystal display (display unit)
60 display image 60a first layer image (image of one layer)
60b Second layer image (image of other layer)

Claims (10)

複数の階層に分かれた画像(60a、60b)を表示可能とする表示部(51)に対して別体で形成されており、操作面(32a)に対する使用者の指操作によって、前記画像(60a、60b)を操作するための入力が行われる入力装置であって、
前記指操作に伴う指の位置、および押圧状態を検出する検出手段(31)と、
前記検出手段(31)の表面(31a)全体に設けられる弾性体(32)と、
前記弾性体(32)の表面を前記操作面(32a)として、前記検出手段(31)によって、前記指が、前記操作面(32a)と、この操作面(32a)から所定距離だけ離れた位置との間となる表面領域で操作される第1操作状態であると検出されると、前記複数の階層の画像(60a、60b)のうち、1つの階層の画像(60a)に切替えて、この1つの階層の画像(60a)に対して前記表面領域における指操作による入力を許可すると共に、前記検出手段(31)によって、前記指が、前記弾性体(32)を押込んだ状態で操作される第2操作状態であると検出されると、前記複数の階層の画像(60a、60b)のうち、他の階層の画像(60b)に切替えて、この他の階層の画像(60b)に対して前記弾性体(32)を押込んだ状態での指操作による入力を許可する制御部(33)と、を備えることを特徴とする入力装置。
It is formed separately from the display unit (51) that can display the images (60a, 60b) divided into a plurality of layers, and the image (60a) can be operated by a user's finger operation on the operation surface (32a). 60b), an input device for performing input,
Detecting means (31) for detecting a finger position and a pressing state associated with the finger operation;
An elastic body (32) provided on the entire surface (31a) of the detection means (31);
Using the surface of the elastic body (32) as the operation surface (32a), the detection means (31) causes the finger to be separated from the operation surface (32a) by a predetermined distance from the operation surface (32a). When it is detected that the operation state is the first operation state in the surface area between the two, the image is switched to one layer image (60a) among the plurality of layer images (60a, 60b). The input by the finger operation in the surface area is permitted to the image (60a) of one layer, and the finger is operated in a state where the elastic body (32) is pushed in by the detection means (31). When the second operation state is detected, the image (60a, 60b) of the plurality of layers is switched to the image (60b) of another layer, and the image (60b) of the other layer is switched. And push the elastic body (32) Controller to allow input by a finger operation while the (33), an input device, characterized in that it comprises a.
前記1つの階層は、前記複数の階層のうちの1番目の階層であり、
前記他の階層は、前記1番目の階層の下となる2番目の階層であることを特徴とする請求項1に記載の入力装置。
The one layer is a first layer of the plurality of layers,
The input device according to claim 1, wherein the other hierarchy is a second hierarchy below the first hierarchy.
前記操作面(32a)は、上側に突となる曲面状に形成されたことを特徴とする請求項1または請求項2に記載の入力装置。   The input device according to claim 1 or 2, wherein the operation surface (32a) is formed in a curved surface that protrudes upward. 前記操作面(32a)は、階段状に形成されたことを特徴とする請求項1または請求項2に記載の入力装置。   The input device according to claim 1, wherein the operation surface is formed in a stepped shape. 前記操作面(32a)の所定領域には、補強板(34)が設けられており、
前記補強板(34)への前記指の押込みによって、前記所定領域の全体が前記第2操作状態となるようにしたことを特徴とする請求項1〜請求項4のいずれか1つに記載の入力装置。
A reinforcing plate (34) is provided in a predetermined area of the operation surface (32a),
The whole of the predetermined region is brought into the second operation state by pushing the finger into the reinforcing plate (34), according to any one of claims 1 to 4. Input device.
前記弾性体(32)の前記検出手段(31)側には、もう1つの弾性体(321)が介在されており、
前記制御部(33)は、前記検出手段(31)によって、前記指が、前記もう1つの弾性体(321)に至るように押込んだ状態で操作される第3操作状態であると検出されると、前記複数の階層の画像(60a、60b)のうち、更に異なる階層の画像に切替えて、この異なる階層の画像に対して前記もう1つの弾性体(321)を押込んだ状態での指操作による入力を許可することを特徴とする請求項1〜請求項5のいずれか1つに記載の入力装置。
Another elastic body (321) is interposed on the detection means (31) side of the elastic body (32),
The controller (33) is detected by the detecting means (31) as being in a third operation state in which the finger is operated in a state where the finger is pushed to reach the other elastic body (321). Then, among the images (60a, 60b) of the plurality of layers, the image is further switched to an image of a different layer, and the other elastic body (321) is pushed into the image of the different layer. 6. The input device according to claim 1, wherein input by a finger operation is permitted.
前記弾性体(32)の内部には、前記検出手段(31)に対して、前記指の動きを所定方向にガイドするガイド部(36)が設けられたことを特徴とする請求項1〜請求項6のいずれか1つに記載の入力装置。   The guide body (36) for guiding the movement of the finger in a predetermined direction with respect to the detection means (31) is provided inside the elastic body (32). Item 7. The input device according to any one of Items 6. 前記弾性体(32)は、前記検出手段(31)に対して着脱可能となっていることを特徴とする請求項1〜請求項7のいずれか1つに記載の入力装置。   The input device according to claim 1, wherein the elastic body (32) is detachable from the detection means (31). 前記弾性体(32)は、多孔質部材から形成されており、
前記多孔質部材には、芳香剤が設けられたことを特徴とする請求項1〜請求項8のいずれか1つに記載の入力装置。
The elastic body (32) is formed of a porous member,
The input device according to claim 1, wherein a fragrance is provided on the porous member.
画像を表示する表示部(51)に対して別体で形成されており、操作面(32a)に対する使用者の指操作によって、前記画像を操作するための入力が行われる入力装置であって、
前記指操作に伴う指の位置、および押圧状態を検出する検出手段(31)と、
前記検出手段(31)の表面(31a)全体に設けられる弾性体(32)と、
前記弾性体(32)の表面を前記操作面(32a)として、前記検出手段(31)によって、前記指が、前記操作面(32a)と、この操作面(32a)から所定距離だけ離れた位置との間となる表面領域で操作される第1操作状態であると検出されると、前記画像に対して予め定められた第1の入力操作を許可すると共に、前記検出手段(31)によって、前記指が、前記弾性体(32)を押込んだ状態で操作される第2操作状態であると検出されると、前記画像に対して、前記第1の入力操作とは異なる第2の入力操作を許可する制御部(33)と、を備えることを特徴とする入力装置。
An input device that is formed separately from the display unit (51) for displaying an image, and that performs input for operating the image by a user's finger operation on the operation surface (32a),
Detecting means (31) for detecting a finger position and a pressing state associated with the finger operation;
An elastic body (32) provided on the entire surface (31a) of the detection means (31);
Using the surface of the elastic body (32) as the operation surface (32a), the detection means (31) causes the finger to be separated from the operation surface (32a) by a predetermined distance from the operation surface (32a). When it is detected that the first operation state is operated in the surface area between the first and second images, the first input operation predetermined for the image is permitted, and the detection means (31) When it is detected that the finger is in the second operation state operated with the elastic body (32) being pressed, a second input different from the first input operation is performed on the image. An input device comprising: a control unit (33) that permits operation.
JP2012265548A 2012-12-04 2012-12-04 Input device Expired - Fee Related JP5954145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012265548A JP5954145B2 (en) 2012-12-04 2012-12-04 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012265548A JP5954145B2 (en) 2012-12-04 2012-12-04 Input device

Publications (2)

Publication Number Publication Date
JP2014110010A true JP2014110010A (en) 2014-06-12
JP5954145B2 JP5954145B2 (en) 2016-07-20

Family

ID=51030582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012265548A Expired - Fee Related JP5954145B2 (en) 2012-12-04 2012-12-04 Input device

Country Status (1)

Country Link
JP (1) JP5954145B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126785A (en) * 2014-12-31 2016-07-11 ハーマン インターナショナル インダストリーズ インコーポレイテッド Feedback by modifying stiffness
WO2017068955A1 (en) * 2015-10-19 2017-04-27 富士フイルム株式会社 Instruction reception device, information processing device, signal processing method, and program
WO2017145746A1 (en) * 2016-02-23 2017-08-31 京セラ株式会社 Control unit for vehicle
JP2019153313A (en) * 2015-03-08 2019-09-12 アップル インコーポレイテッドApple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137571A (en) * 1998-10-29 2000-05-16 Casio Comput Co Ltd Handwriting input device and recording medium recording handwriting input processing program
JP2002159568A (en) * 2000-11-28 2002-06-04 Inoac Corp Perfume-containing tool
JP2006268665A (en) * 2005-03-25 2006-10-05 Sharp Corp Cursor movement device, cursor movement method, program and recording medium
WO2006106714A1 (en) * 2005-03-30 2006-10-12 Xiroku, Inc. Pressure distribution detection device
US20090002199A1 (en) * 2007-06-28 2009-01-01 Nokia Corporation Piezoelectric sensing as user input means
JP2009181423A (en) * 2008-01-31 2009-08-13 Denso Corp Operation input device
JP2010092420A (en) * 2008-10-10 2010-04-22 Sony Corp Information processing apparatus, method and system, and program for processing information
JP2011503756A (en) * 2007-11-19 2011-01-27 サーク・コーポレーション Touchpad with combined display and proximity and touch detection capabilities
JP2011118857A (en) * 2009-12-02 2011-06-16 Hyundai Motor Co Ltd User interface device for operations of multimedia system for vehicle
JP2011141796A (en) * 2010-01-08 2011-07-21 Tokai Rika Co Ltd Operation guide structure for planar input device
JP2011221677A (en) * 2010-04-07 2011-11-04 Sony Corp Electronic device and operation detection method
JP2012084002A (en) * 2010-10-13 2012-04-26 Sharp Corp Information terminal, control method thereof and control program thereof

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137571A (en) * 1998-10-29 2000-05-16 Casio Comput Co Ltd Handwriting input device and recording medium recording handwriting input processing program
JP2002159568A (en) * 2000-11-28 2002-06-04 Inoac Corp Perfume-containing tool
JP2006268665A (en) * 2005-03-25 2006-10-05 Sharp Corp Cursor movement device, cursor movement method, program and recording medium
WO2006106714A1 (en) * 2005-03-30 2006-10-12 Xiroku, Inc. Pressure distribution detection device
US20090002199A1 (en) * 2007-06-28 2009-01-01 Nokia Corporation Piezoelectric sensing as user input means
JP2011503756A (en) * 2007-11-19 2011-01-27 サーク・コーポレーション Touchpad with combined display and proximity and touch detection capabilities
JP2009181423A (en) * 2008-01-31 2009-08-13 Denso Corp Operation input device
JP2010092420A (en) * 2008-10-10 2010-04-22 Sony Corp Information processing apparatus, method and system, and program for processing information
JP2011118857A (en) * 2009-12-02 2011-06-16 Hyundai Motor Co Ltd User interface device for operations of multimedia system for vehicle
JP2011141796A (en) * 2010-01-08 2011-07-21 Tokai Rika Co Ltd Operation guide structure for planar input device
JP2011221677A (en) * 2010-04-07 2011-11-04 Sony Corp Electronic device and operation detection method
JP2012084002A (en) * 2010-10-13 2012-04-26 Sharp Corp Information terminal, control method thereof and control program thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126785A (en) * 2014-12-31 2016-07-11 ハーマン インターナショナル インダストリーズ インコーポレイテッド Feedback by modifying stiffness
JP2019153313A (en) * 2015-03-08 2019-09-12 アップル インコーポレイテッドApple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
WO2017068955A1 (en) * 2015-10-19 2017-04-27 富士フイルム株式会社 Instruction reception device, information processing device, signal processing method, and program
US10551982B2 (en) 2015-10-19 2020-02-04 Fujifilm Corporation Instruction reception apparatus, information processing apparatus, signal processing method, and program
WO2017145746A1 (en) * 2016-02-23 2017-08-31 京セラ株式会社 Control unit for vehicle
JP2017149225A (en) * 2016-02-23 2017-08-31 京セラ株式会社 Control unit for vehicle

Also Published As

Publication number Publication date
JP5954145B2 (en) 2016-07-20

Similar Documents

Publication Publication Date Title
JP5413448B2 (en) Display system, display device, and operation device
JP5928397B2 (en) Input device
CN106164824B (en) Operating device for vehicle
JP5858059B2 (en) Input device
US20070057915A1 (en) Input system
WO2009128148A1 (en) Remote control device
EP2918440A1 (en) Vehicle operation apparatus
JP2013222214A (en) Display operation device and display system
JP5954145B2 (en) Input device
JP6127679B2 (en) Operating device
JP5790578B2 (en) Display system, display device, and operation device
JP2014074955A (en) Operation device
JP5754483B2 (en) Operation device
JP5849597B2 (en) Vehicle control device
JP2016012313A (en) Operating device
EP2988194A1 (en) Operating device for vehicle
EP3361367A1 (en) In-vehicle input device, in-vehicle input system, and in-vehicle input device control method
JP5985829B2 (en) Vehicle control device
WO2014162698A1 (en) Input device
US9898106B2 (en) Information processing system, information processing apparatus, and information processing method
WO2015122259A1 (en) Input method and input device
JP2015026177A (en) Operation device
WO2016031148A1 (en) Touch pad for vehicle and input interface for vehicle
JP2013182574A (en) Operation device
JP2018122827A (en) On-vehicle information input device and on-vehicle information input system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160530

R151 Written notification of patent or utility model registration

Ref document number: 5954145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees