JP2010250735A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2010250735A
JP2010250735A JP2009101932A JP2009101932A JP2010250735A JP 2010250735 A JP2010250735 A JP 2010250735A JP 2009101932 A JP2009101932 A JP 2009101932A JP 2009101932 A JP2009101932 A JP 2009101932A JP 2010250735 A JP2010250735 A JP 2010250735A
Authority
JP
Japan
Prior art keywords
pin
input
unit
pins
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009101932A
Other languages
Japanese (ja)
Other versions
JP5253282B2 (en
Inventor
Koichi Shimizu
浩一 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009101932A priority Critical patent/JP5253282B2/en
Publication of JP2010250735A publication Critical patent/JP2010250735A/en
Application granted granted Critical
Publication of JP5253282B2 publication Critical patent/JP5253282B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device which prevents an operation error by feeding back a sense of operation and enables a user to easily visually recognize operations available in an input operation part. <P>SOLUTION: The input device includes: pins 12 which are arranged in a planar manner in a longitudinal direction so as to be driven; and light emitting elements 18a provided in the pins 12, and emits light through the pins 12. The pins 12 form recesses and protrusions. The pins 12 forming the recesses and protrusions constitute an input part that shows the color of light emitted by the light emitting elements 18a. It is determined whether the input part has been operated or not on the basis of detection results of position sensors 20a which detect movements of the pins 12 in the longitudinal direction. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、車載情報機器等に使用される入力装置に関するものである。   The present invention relates to an input device used for in-vehicle information equipment and the like.

従来の入力装置には、入力インタフェースに人間の五感を活用することで、入力操作が円滑に行え、かつ誤操作を起こりにくくしたものがある。例えば、操作した感触を操作者にフィードバックすることが考えられる。   Some conventional input devices use the five senses of humans for the input interface, thereby making it possible to perform input operations smoothly and to prevent erroneous operations. For example, it is conceivable to feed back the operated feeling to the operator.

特許文献1は、車載機器等の機能調整を1つのノブで実行するハプティック入力装置を開示している。この入力装置は、ノブに操作方向又は操作位置に応じた特有の操作フィーリングを与える手段を有しており、ノブを使って入力操作した感触をユーザにフィードバックさせている。   Patent document 1 is disclosing the haptic input device which performs function adjustment of vehicle equipment etc. with one knob. This input device has means for giving a specific operation feeling to the knob according to the operation direction or operation position, and feeds back the feeling of input operation using the knob to the user.

また、特許文献2は、グランドに対して2自由度で動く操作可能オブジェクトを備え、センサで検知した操作可能オブジェクトの位置に基づき入力を行うアイソトニックモードと、操作可能オブジェクトに加えられた力に基づいて入力を行うアイソメトリックモードとを有するインタフェース装置を開示する。この装置においても、アイソメトリックモードで入力操作した感触をユーザにフィードバックさせている。   Further, Patent Document 2 includes an operable object that moves with two degrees of freedom with respect to the ground, isotonic mode in which input is performed based on the position of the operable object detected by a sensor, and a force applied to the operable object. An interface device having an isometric mode for performing input is disclosed. Also in this apparatus, the user feels feedback of the input operation in the isometric mode.

さらに、特許文献3には、操作対象の機能を特定する機能番号情報及び機能毎の感触を特定する感触番号情報とを有し、該当する機能の操作が行われると、これに応じた感触をユーザに与える多機能入力装置が開示されている。   Further, Patent Document 3 has function number information for specifying a function to be operated and touch number information for specifying a touch for each function. When an operation of the corresponding function is performed, a touch corresponding to this is given. A multi-function input device for a user is disclosed.

特許第3973875号公報Japanese Patent No. 397875 特許第3753744号公報Japanese Patent No. 3757744 特許第3958944号公報Japanese Patent No. 3958944

特許文献1〜3に記載の装置を含む従来の入力装置では、ボタンやダイヤル、スライダー等の物理的な形状が固定された入力インタフェースを使用目的に応じて使い分けることで入力操作が行われていたため、様々な操作シーンにおいて同一の入力インタフェースが繰り返し使用されることとなり、不可避的に操作が煩雑になるという課題があった。   In conventional input devices including the devices described in Patent Documents 1 to 3, input operations are performed by properly using input interfaces with fixed physical shapes such as buttons, dials, and sliders according to the purpose of use. The same input interface is repeatedly used in various operation scenes, and there is a problem that the operation is inevitably complicated.

また、使用目的に応じた様々な入力部をタッチパネルの表示画面に描画することで、入力操作を直感的に行わせる入力装置があるが、表示画面の2次元平面上に触れて操作を行う、いわゆる仮想的な入力インタフェースを提供するものであり、入力位置や入力状態の認識を視覚に依存せざるを得ず、誤操作の要因となる可能性があった。   In addition, there is an input device that intuitively performs an input operation by drawing various input units according to the purpose of use on the display screen of the touch panel, but the operation is performed by touching the two-dimensional plane of the display screen. This is to provide a so-called virtual input interface, and the recognition of the input position and input state has to depend on vision, which may cause an erroneous operation.

さらに、上記タッチパネルを用いた入力装置において、入力操作に際して音声を出力したり、アニメーションを表示して入力位置や入力状態を認識させようとしても、物理的に形状が固定された入力部を操作した際に得られる感触を再現することはできない。   Furthermore, in the input device using the touch panel, an input unit having a physically fixed shape is operated even when an attempt is made to output a voice during an input operation or to display an animation to recognize an input position or an input state. It is not possible to reproduce the feeling that is obtained in the event.

さらに、特許文献1,2では、ある一定の入力操作に限定されており、これに対応する専用の入力装置として適用される。このため、汎用性がない。また、特許文献3に開示される多機能入力装置は、機能/感触ライブラリに登録された多種の機能入力が可能であるが、各々の入力操作がどの機能に対応するかを容易に視認できず、誤操作を招く可能性がある。   Furthermore, in patent documents 1 and 2, it is limited to a certain input operation, and is applied as a dedicated input device corresponding to this. For this reason, there is no versatility. In addition, the multi-function input device disclosed in Patent Document 3 can input various functions registered in the function / feel library, but cannot easily visually recognize which function each input operation corresponds to. , May cause misoperation.

この発明は、上記のような課題を解決するためになされたもので、操作の感触をフィードバックして誤操作の防止を図り、かつ入力操作部で行える操作を容易に視認できる入力装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and provides an input device that feeds back the feel of an operation to prevent erroneous operation and that can easily recognize an operation that can be performed by an input operation unit. Objective.

この発明に係る入力装置は、複数のピンを長手方向に駆動可能に平面状に並べてなるピン群と、ピン群のピンを長手方向に駆動させる駆動手段と、ピン群に対する操作でピンに生じた長手方向の動きを検出する第1の検出手段と、ピンに設けられ、発光した光が当該ピンを透過する発光手段と、駆動手段を制御してピン群のピンを駆動させて凸部又は凹部を形成し、発光手段の駆動を制御して凸部又は凹部を形成するピンが当該発光手段の発光色を呈する入力部を構成し、第1の検出手段の検出結果に基づいて、入力部に対する操作の有無を判断する制御手段とを備えるものである。   In the input device according to the present invention, a pin group in which a plurality of pins are arranged in a plane so as to be driven in the longitudinal direction, a driving unit that drives the pins of the pin group in the longitudinal direction, and an operation on the pin group are generated in the pins. A first detecting means for detecting the movement in the longitudinal direction, a light emitting means provided on the pin, and a light emitting means through which the emitted light passes through the pin, and a driving means to drive the pins of the pin group to drive a convex or concave portion The pin that forms the convex portion or the concave portion by controlling the driving of the light emitting means constitutes an input portion that exhibits the light emission color of the light emitting means, and based on the detection result of the first detecting means, And control means for determining the presence or absence of an operation.

この発明によれば、駆動手段を制御してピン群のピンを駆動させて凸部又は凹部を形成し、発光手段の駆動を制御して凸部又は凹部を形成するピンが当該発光手段の発光色を呈する入力部を構成し、ピンの長手方向の動きを検出する第1の検出手段の検出結果に基づいて、入力部に対する操作の有無を判断するので、操作の感触をフィードバックして誤操作の防止を図ることができ、発光手段の発光色によって操作すべき部分を容易に視認できるという効果がある。   According to the present invention, the driving means is controlled to drive the pins of the pin group to form the convex portion or the concave portion, and the driving of the light emitting means is controlled to form the convex portion or the concave portion. Based on the detection result of the first detection means that constitutes the color-presenting input section and detects the longitudinal movement of the pin, it is determined whether or not there is an operation on the input section. It is possible to prevent this, and there is an effect that the portion to be operated can be easily visually recognized by the emission color of the light emitting means.

この発明の実施の形態1による入力装置の入力インタフェース部を示す斜視図である。It is a perspective view which shows the input interface part of the input device by Embodiment 1 of this invention. 実施の形態1による入力装置を適用した車載機器の利用形態を示す図である。It is a figure which shows the utilization form of the vehicle equipment to which the input device by Embodiment 1 is applied. 実施の形態1による入力装置を適用した車載機器の利用形態を示す図である。It is a figure which shows the utilization form of the vehicle equipment to which the input device by Embodiment 1 is applied. 実施の形態1による入力装置を適用した車載機器の利用形態を示す図である。It is a figure which shows the utilization form of the vehicle equipment to which the input device by Embodiment 1 is applied. 実施の形態1による入力インタフェース部のピンの構成を示す図である。FIG. 3 is a diagram illustrating a pin configuration of an input interface unit according to the first embodiment. 実施の形態1による入力インタフェース部のピンの他の構成を示す図である。FIG. 10 is a diagram showing another configuration of the pins of the input interface unit according to the first embodiment. 実施の形態1による入力装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an input device according to Embodiment 1. FIG. 実施の形態1による入力インタフェース部に操作ガイドを表示する処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing for displaying an operation guide on the input interface unit according to the first embodiment. 実施の形態1による入力インタフェース部における文字認識によるコマンド入力の流れを示すフローチャートである。4 is a flowchart showing a flow of command input by character recognition in the input interface unit according to the first embodiment.

実施の形態1.
図1は、この発明の実施の形態1による入力装置の入力インタフェース部を示す斜視図である。図1において、入力インタフェース部10は、円柱状(例えばφ4mm程度)の複数のピン12を、長手方向に上下動可能に、かつ各々の端面が揃うように基部11上で平面状に並べたピン12群を備える。また、各ピン12は、発光素子が発光すると、その発光色で色付けされるように透明若しくは半透明の材料(例えば、アクリル樹脂)で形成される。
Embodiment 1 FIG.
1 is a perspective view showing an input interface unit of an input device according to Embodiment 1 of the present invention. In FIG. 1, an input interface unit 10 is a pin in which a plurality of pins 12 having a cylindrical shape (for example, about φ4 mm) are arranged in a plane on a base 11 so as to be movable up and down in the longitudinal direction and the end surfaces thereof are aligned. 12 groups are provided. Each pin 12 is formed of a transparent or translucent material (for example, acrylic resin) so that when the light emitting element emits light, the pin 12 is colored with the light emission color.

この実施の形態1による入力装置では、基部11側のアクチュエータ(不図示)でピン12を長手方向に駆動させてピン12群に形成した隆起部分(凸部)や窪み部分(凹部)を、各ピン12毎に設けた発光素子の発光色で色分けする。このように色分けされた隆起部分(凸部)や窪み部分(凹部)を、様々な操作シーンに応じた入力部として利用する。   In the input device according to the first embodiment, the raised portion (convex portion) and the recessed portion (concave portion) formed in the group of pins 12 by driving the pins 12 in the longitudinal direction by an actuator (not shown) on the base 11 side, The color is classified according to the emission color of the light emitting element provided for each pin 12. The raised portion (convex portion) and the recessed portion (concave portion) thus color-coded are used as an input unit corresponding to various operation scenes.

例えば、複数の押しボタンが必要な操作シーンであれば、図1に示すようにピン12群の一部を同時に長手方向上方に移動させて盛り上げ、それぞれを色分けすることにより、使用目的に応じた様々な色及び形状のボタン13を形成できる。また、ピン12群の一部を同時に長手方向下方に移動させて窪ませれば、連続して数値を可変する際のスライダー14として利用できる。このとき、図1に示すように、入力操作された部分のピン12の発光素子を周囲とは異なる色で発光させることで、スライダー14が操作された方向に矢印を表示することもできる。   For example, in an operation scene that requires a plurality of push buttons, a part of the group of pins 12 is simultaneously moved upward in the longitudinal direction as shown in FIG. Buttons 13 of various colors and shapes can be formed. Further, if a part of the group of pins 12 is simultaneously moved downward in the longitudinal direction to be recessed, it can be used as the slider 14 for continuously changing the numerical value. At this time, as shown in FIG. 1, an arrow can be displayed in the direction in which the slider 14 is operated by causing the light emitting element of the pin 12 at the input operation to emit light in a color different from the surroundings.

このように、実施の形態1による入力装置では、ピン12群に形成した隆起部分や窪み部分をピン12に設けた発光素子の発光色で色付けして入力部を構成することにより、アプリケーションソフトウエアの操作シーンに応じて、入力部の物理的な形状や色、入力操作面積を動的に変更でき、ユーザに最適な入力部を提供することが可能である。   As described above, in the input device according to the first embodiment, the raised portion and the recessed portion formed in the group of pins 12 are colored with the light emission color of the light emitting element provided on the pin 12, and the input unit is configured. According to the operation scene, the physical shape and color of the input unit and the input operation area can be dynamically changed, and an optimal input unit can be provided to the user.

また、従来のタッチパネルを利用した入力装置では、視覚のみで入力位置や入力状態を認識するものであったが、この発明による入力装置は、入力インタフェース部10を手で触った触覚に加え、入力部の色で区別する視覚から、入力位置や入力状態を認識することが可能である。例えば、ボタンを構成するピン12群の色をその周辺のピン12の色から徐々に変化(グラデーション)させ、当該ボタン(操作する部分)に対する入力操作を、光イルミネーションで操作ガイドする。このようにしても、入力部に対する視認性及び操作性が向上する。   In addition, in the input device using the conventional touch panel, the input position and the input state are recognized only by vision. However, the input device according to the present invention can input the input interface unit 10 by touching the input interface unit 10 by hand. It is possible to recognize the input position and the input state from the vision distinguished by the color of the part. For example, the color of the group of pins 12 constituting the button is gradually changed (gradation) from the color of the surrounding pins 12, and an input operation for the button (operation part) is guided by light illumination. Even if it does in this way, the visibility and operativity to an input part will improve.

図2は、実施の形態1による入力装置を適用した車載機器の利用形態を示す図であり、図2(a)はボタンを形成した場合を示し、図2(b)はスライダーを形成した場合を示している。図2(a)に示す例では、車載機器15が実行しているアプリケーションソフトウエアにより、4つのボタン17a〜17dが記載された入力用画面16aが表示されている。この場合、入力インタフェース部10のピン12を長手方向上方に駆動させ、ピン12の発光素子の発光色で色分けすることにより、ボタン17a〜17dの各々に対応した色の操作入力用ボタン13a〜13dを形成する。   FIG. 2 is a diagram illustrating a usage form of the in-vehicle device to which the input device according to the first embodiment is applied. FIG. 2A illustrates a case where a button is formed, and FIG. 2B illustrates a case where a slider is formed. Is shown. In the example illustrated in FIG. 2A, an input screen 16 a on which four buttons 17 a to 17 d are described is displayed by application software executed by the in-vehicle device 15. In this case, the pin 12 of the input interface unit 10 is driven upward in the longitudinal direction, and the operation input buttons 13a to 13d having the colors corresponding to the buttons 17a to 17d are classified according to the light emission colors of the light emitting elements of the pins 12. Form.

ユーザは、入力用画面16aに記載のボタン17a〜17dを選択する入力操作を行う場合、操作入力用ボタン13a〜13dを押下すればよい。このように操作シーンに応じた形状及び色の入力インタフェースを形成することにより、入力操作を迅速に実行できる。また、ピン12を実際に押下して入力が実行されるので、ボタン押下の際に本来得られる感触をユーザにフィードバックすることもできる。   When the user performs an input operation for selecting the buttons 17a to 17d described on the input screen 16a, the user may press the operation input buttons 13a to 13d. Thus, by forming an input interface having a shape and color corresponding to the operation scene, the input operation can be executed quickly. In addition, since the input is executed by actually pressing the pin 12, it is possible to feed back to the user the feeling that is originally obtained when the button is pressed.

また、図2(b)の例は、車載機器15の表示画面上に車内温度の調節用画面16bを表示し、温度を調節するための入力部として、ピン12の押下に応じて色が変化するスライダー14を入力インタフェース部10に形成した場合を示している。ユーザは、スライダー14の溝に沿ってピン12をさらに押下してその色を変化させることで、押下されたピン12で形成される領域の面積等に応じた数値が車内のエアコントローラ(不図示)に伝送され、車内温度が調節される。   Further, in the example of FIG. 2B, the in-vehicle temperature adjustment screen 16b is displayed on the display screen of the in-vehicle device 15, and the color changes in response to pressing of the pin 12 as an input unit for adjusting the temperature. In this example, the slider 14 is formed on the input interface unit 10. The user further depresses the pin 12 along the groove of the slider 14 to change its color, so that the numerical value corresponding to the area of the region formed by the depressed pin 12 is an air controller (not shown) ) And the temperature inside the vehicle is adjusted.

図3及び図4は、実施の形態1による入力装置を適用した車載機器の利用形態を示す図である。ピン12を発光素子の発光色とすれば、入力インタフェース部10を表示部としても利用できる。図3に示す例では、ピン12の発光素子の発光色で時計表示している。
また、図4に示すように、入力インタフェース部10を手書き入力の入力盤として利用してもよい。この場合、入力された文字(図4中の「こ」)を車載機器15の表示画面上に表示してもよいが、手書き入力で押下されたピン12を周囲と異なる色にすることで、入力インタフェース部10に文字表示してもよい。
3 and 4 are diagrams showing a usage pattern of the in-vehicle device to which the input device according to the first embodiment is applied. If the pin 12 is the light emitting color of the light emitting element, the input interface unit 10 can also be used as a display unit. In the example shown in FIG. 3, a clock is displayed in the light emission color of the light emitting element of the pin 12.
As shown in FIG. 4, the input interface unit 10 may be used as an input panel for handwriting input. In this case, the input character (“ko” in FIG. 4) may be displayed on the display screen of the in-vehicle device 15, but by changing the pin 12 pressed by handwriting input to a color different from the surroundings, Characters may be displayed on the input interface unit 10.

図5は、実施の形態1による入力インタフェース部のピンの構成を示す図であり、図5(a)は側面図、図5(b)は上面図、図5(c)は図5(b)中のA−A線の断面を概略的に示す図である。図5(a)に示すように、入力インタフェース部10Aでは、ピン12毎にピン上下駆動アクチュエータ(駆動手段)20を設けて、ピン上下駆動アクチュエータ20から延びる支柱19を介してピン12を上下駆動させる。なお、ピン上下駆動アクチュエータ20には、超音波モータ、小型ステッピングモータ、サーボモータ、バイオメタル、高分子アクチュエータ等を、駆動源として用いる。   5A and 5B are diagrams showing the configuration of the pins of the input interface unit according to the first embodiment. FIG. 5A is a side view, FIG. 5B is a top view, and FIG. 5C is FIG. It is a figure which shows schematically the cross section of the AA line in the inside. As shown in FIG. 5A, in the input interface unit 10 </ b> A, a pin vertical drive actuator (drive means) 20 is provided for each pin 12, and the pin 12 is driven up and down via a column 19 extending from the pin vertical drive actuator 20. Let For the pin vertical drive actuator 20, an ultrasonic motor, a small stepping motor, a servo motor, biometal, a polymer actuator, or the like is used as a drive source.

ピン12と支柱19との間には、3原色LED等の発光素子とピン12への物体の接触又は接近を検出するセンサとを有する発光・検出部18を設ける。この発光・検出部18のセンサとしては、光学的に物体を検出するセンサが考えられ、例えば、反射式物体認識デバイス(フォトインタラプタ)を用いる。なお、光学的に検出するもの以外に、指やペンとピン12との間の静電容量の変化を検出する静電センサや、ピン12の押下による圧力変化を検出する圧力センサを利用してもよい。   Between the pin 12 and the support column 19, a light emitting / detecting unit 18 having a light emitting element such as a three primary color LED and a sensor for detecting contact or approach of an object to the pin 12 is provided. As the sensor of the light emission / detection unit 18, a sensor that optically detects an object is conceivable. For example, a reflective object recognition device (photo interrupter) is used. In addition to what is detected optically, an electrostatic sensor that detects a change in capacitance between a finger or pen and the pin 12 or a pressure sensor that detects a pressure change caused by pressing the pin 12 is used. Also good.

実施の形態1によるピン12は、下部端面側に設けた発光・検出部18内の発光素子の発光色で色付けするため、アクリル樹脂などの透明材料で作成する。図5(b)は、発光・検出部18の発光素子(発光手段)18aが3原色LEDであり、センサ(第2の検出手段)18bがフォトインタラプタである場合を示している。フォトインタラプタ18bでは、指などの物体がピン12の上部端面に接触又は接近すると、発光部18b−1から出力されるプローブ光(例えば赤外線)が当該物体(指)で反射され、受光部18b−2に入力される。これにより、受光部18b−2から、ピン12の上部端面に接触又は接近する物体の有無を示す検出信号が出力される。   The pin 12 according to the first embodiment is made of a transparent material such as acrylic resin in order to color the light emission color of the light emitting element in the light emitting / detecting unit 18 provided on the lower end face side. FIG. 5B shows a case where the light emitting element (light emitting unit) 18a of the light emitting / detecting unit 18 is a three primary color LED and the sensor (second detecting unit) 18b is a photo interrupter. In the photo interrupter 18b, when an object such as a finger contacts or approaches the upper end surface of the pin 12, probe light (for example, infrared rays) output from the light emitting unit 18b-1 is reflected by the object (finger), and the light receiving unit 18b- 2 is input. Accordingly, a detection signal indicating the presence or absence of an object that contacts or approaches the upper end surface of the pin 12 is output from the light receiving unit 18b-2.

このように、センサ18bにフォトインタラプタを用いることで、ピン12群の端面に接触又は接近する物体の有無を認識できるため、操作入力されたピン12で形作られた文字に対し文字認識技術を適用することにより、図4で示したような手書き入力が可能となる。この構成は、単純な命令(コマンド)を入力する際に有効である。   In this way, by using a photo interrupter for the sensor 18b, it is possible to recognize the presence or absence of an object that touches or approaches the end face of the group of pins 12, so that the character recognition technology is applied to the character formed by the input pin 12 By doing so, handwriting input as shown in FIG. 4 becomes possible. This configuration is effective when a simple command (command) is input.

なお、ピン12の長手方向上下の位置レベルは、ピン12の長さに応じて、例えば4段階に上下駆動させる。この場合、入力部の形成前は、ピン上下駆動アクチュエータ20で基準となる位置レベル(0レベル)まで押し上げて、各ピン12の端面がほぼ同一平面上に揃うように並べておく。この状態からボタン形状の入力部を形成する場合、例えば+2レベルまでピン12を長手方向上方に移動させてボタンを形成する。位置センサによってピン12が+1レベル以下まで押下されたことが検出されると、当該ボタンが押下されたと判断する。また、スライダー14を形成する場合は、例えば−1レベルまでピン12を下方に移動させてスライダー溝を形成する。位置センサによって−2レベルまで押下されたことが検出されると、スライダー14が操作されたと判断する。   Note that the vertical position level of the pin 12 in the longitudinal direction is driven up and down in, for example, four stages according to the length of the pin 12. In this case, before the input portion is formed, the pin vertical drive actuator 20 pushes it up to a reference position level (0 level) and arranges so that the end faces of the pins 12 are substantially aligned on the same plane. When forming a button-shaped input unit from this state, the button 12 is formed by moving the pin 12 upward in the longitudinal direction to, for example, the +2 level. When the position sensor detects that the pin 12 has been pressed down to +1 level or less, it is determined that the button has been pressed. When the slider 14 is formed, the slider groove is formed by moving the pin 12 downward to, for example, -1 level. When it is detected by the position sensor that the level sensor has been pressed down to −2 level, it is determined that the slider 14 has been operated.

図6は、実施の形態1による入力インタフェース部のピンの他の構成を示す図である。図6に示す入力インタフェース部10Bは、発光・検出部18と支柱19との間に、ピン12が入力操作されると、機械的な感触を与える感触付与部(感触付与手段)21を備える。感触付与部21として、例えばタクトスイッチ(メタルドームスイッチ)を設けることにより、ピン12を介しても押下した感触がわかりやすい(クリック感のよい)入力部を提供できる。   FIG. 6 is a diagram showing another configuration of the pins of the input interface unit according to the first embodiment. The input interface unit 10B shown in FIG. 6 includes a feeling imparting unit (feel imparting means) 21 that gives a mechanical feel between the light emitting / detecting unit 18 and the support column 19 when the pin 12 is input. By providing, for example, a tact switch (metal dome switch) as the feel imparting unit 21, an input unit in which the sense of pressing can be easily understood (a good click feeling) can be provided even through the pin 12.

図7は、実施の形態1による入力装置の構成を示すブロック図である。図7において、UI部22は、実施の形態1による入力装置を設けた機器の一部からなり、図2〜4で示したような操作画面を表示する表示モニタを備え、アプリケーションソフトウエアを実行するCPU(不図示)を備える。なお、このCPU(以下、上位CPUと呼ぶ)は、後述するCPU30のように当該入力装置を制御するものではないが、CPU30の制御機能を兼用するように構成しても構わない。また、上位CPUで実行されるアプリケーションを上位アプリケーションと呼ぶ。   FIG. 7 is a block diagram illustrating a configuration of the input device according to the first embodiment. 7, the UI unit 22 includes a part of the device provided with the input device according to the first embodiment, and includes a display monitor that displays the operation screen as illustrated in FIGS. 2 to 4 and executes application software. CPU (not shown). The CPU (hereinafter referred to as the host CPU) does not control the input device like the CPU 30 described later, but may be configured to also use the control function of the CPU 30. An application executed by the host CPU is called a host application.

実施の形態1による入力装置では、UI(User Interface)部(外部装置)22の上位CPUが実行する上位アプリケーションの操作シーン毎に対応する入力部情報が、UI部22側、RAM(Random Access Memory)31a、若しくは不図示のハードディスク装置等に格納される。なお、入力部情報とは、各操作シーンに応じた入力部の形状パターンを規定する情報であり、入力部の形状パターンを規定するためのピン12の位置座標やピン12の長手方向上下の位置レベルを示す情報が含まれる。   In the input device according to the first embodiment, input unit information corresponding to each operation scene of the upper application executed by the upper CPU of the UI (User Interface) unit (external device) 22 is stored in the UI unit 22 side, RAM (Random Access Memory). ) 31a or a hard disk device (not shown) or the like. The input unit information is information that defines the shape pattern of the input unit according to each operation scene, and the position coordinates of the pin 12 and the vertical position of the pin 12 for defining the shape pattern of the input unit. Information indicating the level is included.

可変型入力デバイス23は、図1で示した入力インタフェース部10の基部11側に設けられ、ピン上下駆動アクチュエータ20、位置センサ20a、発光素子18a及びセンサ18bを備える。ピン上下駆動アクチュエータ20は、電流ドライバ33からの駆動電流でピン12をその長手方向上下に駆動させるアクチュエータであり、前記駆動電流で駆動するステッピングモータ、サーボモータ、超音波モータ、高分子アクチュエータ等を駆動源として構成される。また、位置センサ(第1の検出手段)20aは、ピン12の長手方向上下の位置を検出するセンサである。   The variable input device 23 is provided on the base 11 side of the input interface unit 10 shown in FIG. 1, and includes a pin vertical drive actuator 20, a position sensor 20a, a light emitting element 18a, and a sensor 18b. The pin vertical drive actuator 20 is an actuator that drives the pin 12 up and down in the longitudinal direction by the drive current from the current driver 33. A stepping motor, a servo motor, an ultrasonic motor, a polymer actuator, etc. that are driven by the drive current are used. Configured as a drive source. The position sensor (first detection means) 20a is a sensor that detects the vertical position of the pin 12 in the longitudinal direction.

CPU30は、位置センサ20aからのセンサ情報に基づいて、ピン12群に形成された入力部が入力操作されたか否かを判断する。ここで、入力操作されたと判断すると、CPU30は、その旨をUI部22へ通知する。これにより、UI部22が、上位アプリケーションにおける当該入力操作に応じた情報処理を実行する。   Based on the sensor information from the position sensor 20a, the CPU 30 determines whether or not an input operation formed on the group of pins 12 has been input. If it is determined that an input operation has been performed, the CPU 30 notifies the UI unit 22 accordingly. Thereby, the UI unit 22 executes information processing according to the input operation in the upper application.

なお、入力インタフェース部10のピン12群は、例えば、数百〜数千個のピン12をマトリクス状に配置して構成する。制御部24のCPU30は、マトリクス状にピン12が配置されたピン12群に2次元座標系を規定し、この2次元座標系に基づいてピン12の位置座標を特定する。発光素子18aは、図5に示したように、発光・検出部18の構成部としてピン12毎に設けられ、電流ドライバ34からの電流を入力すると発光する。発光素子18aとしては、可視領域の発光色を有するものであればよく、例えば赤(R)、青(B)、緑(G)の3原色LEDなどを用いる。   Note that the group of pins 12 of the input interface unit 10 is configured, for example, by arranging hundreds to thousands of pins 12 in a matrix. The CPU 30 of the control unit 24 defines a two-dimensional coordinate system for the group of pins 12 in which the pins 12 are arranged in a matrix, and specifies the position coordinates of the pins 12 based on the two-dimensional coordinate system. As shown in FIG. 5, the light emitting element 18 a is provided for each pin 12 as a component of the light emitting / detecting unit 18, and emits light when a current from the current driver 34 is input. As the light emitting element 18a, any light emitting color in the visible region may be used. For example, red (R), blue (B), and green (G) three primary color LEDs are used.

図3で示したような簡易表示やボタン位置を示すための色分けを行う場合、CPU30が、簡易表示やボタン配置に対応するイメージ画像を生成して、このイメージ画像を発光素子18aの発光色で実現するよう、マトリクスドライバ27で電流ドライバ34による発光素子18aへの電流供給を制御する。これにより、ピン12群としてマトリクス状に配置されたピン12の発光素子18aが、このイメージ画像に従った色で発光して、簡易表示やボタン着色が実現される。   When performing the simple display or the color classification for indicating the button position as shown in FIG. 3, the CPU 30 generates an image image corresponding to the simple display or the button arrangement, and this image image is displayed with the light emission color of the light emitting element 18a. The matrix driver 27 controls the current supply to the light emitting element 18a by the current driver 34 so as to realize it. As a result, the light emitting elements 18a of the pins 12 arranged in a matrix as the group of pins 12 emit light in a color according to this image image, and simple display and button coloring are realized.

センサ18bは、図5に示したように、発光・検出部18の構成部としてピン12毎に設けられ、ピン12の上部端面に接触又は接近してきた物体の有無を示す検出信号を出力する。例えば、センサ18bがフォトインタラプタである場合、図5(c)で示したように、物体で反射されたプローブ光が受光部18b−2に入力すると、有意な信号レベルの電気信号が得られる。このようにピン12の上部端面に接触又は接近した物体の有無は、センサ18bの出力信号レベルの強弱に変換される。   As shown in FIG. 5, the sensor 18 b is provided for each pin 12 as a component of the light emission / detection unit 18, and outputs a detection signal indicating the presence or absence of an object that has contacted or approached the upper end surface of the pin 12. For example, when the sensor 18b is a photo interrupter, as shown in FIG. 5C, when the probe light reflected by the object is input to the light receiving unit 18b-2, an electrical signal having a significant signal level is obtained. Thus, the presence / absence of an object in contact with or approaching the upper end surface of the pin 12 is converted into the strength of the output signal level of the sensor 18b.

制御部(制御手段)24は、マトリクスドライバ27、VRAM(Video RAM)27a、アクチュエータ制御部28、センサ信号処理部29、CPU30、RAM31a及び外部インタフェース(外部IF)32を備える。マトリクスドライバ27は、VRAM27aに格納したイメージ画像の表示用データに基づいて発光素子18aを駆動させる構成部である。なお、イメージ画像の表示用データは、CPU30により生成され、VRAM27aに格納される。   The control unit (control means) 24 includes a matrix driver 27, a VRAM (Video RAM) 27a, an actuator control unit 28, a sensor signal processing unit 29, a CPU 30, a RAM 31a, and an external interface (external IF) 32. The matrix driver 27 is a component that drives the light emitting element 18a based on display data of an image stored in the VRAM 27a. The display data for the image is generated by the CPU 30 and stored in the VRAM 27a.

アクチュエータ制御部28は、CPU30からの指示に従って、電流ドライバ33からピン上下駆動アクチュエータ20への電流供給を制御することにより、ピン12を上下駆動させる構成部である。センサ信号処理部29は、マトリクス状に配置したピン12群の各センサ18bのマトリクススキャンを制御する構成部であり、スキャン結果のデータを取得してCPU30へ出力する。   The actuator control unit 28 is a component that drives the pin 12 up and down by controlling current supply from the current driver 33 to the pin vertical drive actuator 20 in accordance with an instruction from the CPU 30. The sensor signal processing unit 29 is a component that controls the matrix scan of each sensor 18b of the group of pins 12 arranged in a matrix. The sensor signal processing unit 29 acquires scan result data and outputs it to the CPU 30.

CPU30は、外部インタフェース32を介して、上位アプリケーションの操作シーンに対応する入力部情報をUI部22から受信するか、若しくは、UI部22から操作シーンを特定する情報(例えば、上位アプリケーションの操作画面のプログラムモジュールを示す情報)を受信して、対応する入力部情報を、RAM31aやSRAM(Static RAM)31b、FlashROM31c等から読み出すと、アクチュエータ制御部28でピン上下駆動アクチュエータ20の駆動を制御して当該入力部情報で指定された形状の入力部を形成し、さらに、マトリクスドライバ27で発光素子18aの発光を制御して当該入力部情報で指定された色付けを行う。入力部が形成されると、CPU30は、位置センサ20aのセンサ情報に基づいて、ピン12の駆動位置が規定位置になったか否かを確認し、この結果に応じて、ピン12の長手方向上下の位置レベルを調節する。   The CPU 30 receives input unit information corresponding to the operation scene of the higher-level application from the UI unit 22 via the external interface 32 or information for specifying the operation scene from the UI unit 22 (for example, an operation screen of the higher-level application) When the corresponding input unit information is read out from the RAM 31a, SRAM (Static RAM) 31b, Flash ROM 31c, etc., the actuator control unit 28 controls the drive of the pin vertical drive actuator 20. An input portion having a shape specified by the input portion information is formed, and further, the matrix driver 27 controls light emission of the light emitting element 18a to perform coloring specified by the input portion information. When the input unit is formed, the CPU 30 confirms whether or not the drive position of the pin 12 has reached the specified position based on the sensor information of the position sensor 20a, and according to this result, the CPU 12 moves up and down in the longitudinal direction of the pin 12. Adjust the position level.

アナログマルチプレクサ35は、マトリクス状に配置された各ピン12のセンサ18bの出力信号を入力し、アナログバッファであるオペアンプ(OPAMP)36に出力する構成部である。また、オペアンプ36は、アナログマルチプレクサ35からの入力信号を増幅してADコンバータ37に出力する構成部である。さらに、ADコンバータ37は、オペアンプ36からの入力信号をデジタル信号に変換する構成部であり、デジタル変換した信号をセンサ信号処理部29に出力する。   The analog multiplexer 35 is a component that inputs an output signal of the sensor 18b of each pin 12 arranged in a matrix and outputs the output signal to an operational amplifier (OPAMP) 36 that is an analog buffer. The operational amplifier 36 is a component that amplifies the input signal from the analog multiplexer 35 and outputs the amplified signal to the AD converter 37. Further, the AD converter 37 is a component that converts an input signal from the operational amplifier 36 into a digital signal, and outputs the digitally converted signal to the sensor signal processing unit 29.

次に動作について説明する。
ここでは、実施の形態1による発光・検出部18を用いた特有の処理について述べる。
(1)操作ガイドの表示
先ず、入力インタフェース部10が入力操作されようとしていることを検出して、この入力操作を円滑に実行させるための操作ガイドを表示する処理について説明する。
図8は、実施の形態1による入力インタフェース部に操作ガイドを表示する処理の流れを示すフローチャートであり、既にピン12群に形成された入力部に対する操作ガイドを行う場合を示している。以降、センサ18bがフォトインタラプタであるものとする。
Next, the operation will be described.
Here, a specific process using the light emission / detection unit 18 according to the first embodiment will be described.
(1) Display of operation guide First, processing for detecting an input operation of the input interface unit 10 and displaying an operation guide for smoothly executing this input operation will be described.
FIG. 8 is a flowchart showing a flow of processing for displaying an operation guide on the input interface unit according to the first embodiment, and shows a case where an operation guide is performed on the input unit already formed in the group of pins 12. Hereinafter, it is assumed that the sensor 18b is a photo interrupter.

センサ信号処理部29は、入力部を構成する各ピン12のセンサ18bに対して、検出動作を実行するように指示する。これにより、入力部を構成するピン12のセンサ18bの発光部18b−1が、所定のスキャン周期に同期して順にプローブ光を出力する。
このとき、アナログマルチプレクサ35は、スキャン周期に同期してプローブ光を出力したセンサ18bをスキャン対象として、このセンサ18bの出力信号を入力する。
この信号は、アナログマルチプレクサ35から、オペアンプ36、ADコンバータ37及びセンサ信号処理部29を介してCPU30へ出力される。ここまでが、マトリクススキャンの一周期分の動作に相当する(ステップST1)。
The sensor signal processing unit 29 instructs the sensor 18b of each pin 12 constituting the input unit to execute a detection operation. Thereby, the light emission part 18b-1 of the sensor 18b of the pin 12 which comprises an input part outputs probe light in order in synchronization with a predetermined scanning period.
At this time, the analog multiplexer 35 inputs the output signal of the sensor 18b, with the sensor 18b outputting the probe light in synchronization with the scan cycle as a scan target.
This signal is output from the analog multiplexer 35 to the CPU 30 via the operational amplifier 36, AD converter 37, and sensor signal processing unit 29. Up to this point corresponds to an operation for one cycle of the matrix scan (step ST1).

CPU30では、センサ信号処理部29から入力したデジタル信号を所定の閾値と比較して、信号レベルが所定の閾値以上であるか否かを判定する(ステップST2)。所定の閾値以上の信号レベルでない場合(ステップST2;NO)、CPU30は、ステップST1の処理に戻って、次のスキャン対象のセンサ18bに対応するデジタル信号をセンサ信号処理部29から入力し、上述の処理を繰り返す。   The CPU 30 compares the digital signal input from the sensor signal processing unit 29 with a predetermined threshold value and determines whether or not the signal level is equal to or higher than the predetermined threshold value (step ST2). When the signal level is not equal to or higher than the predetermined threshold (step ST2; NO), the CPU 30 returns to the process of step ST1 and inputs a digital signal corresponding to the next sensor 18b to be scanned from the sensor signal processing unit 29, and Repeat the process.

一方、所定の閾値以上の信号レベルである場合(ステップST2;YES)、CPU30は、ピン12の上部端面に指等の物体が接触又は接近していると判断し、ピン12群の各ピン12に規定したアドレスに基づいて、このピン12の位置座標(ピン12群に規定した2次元座標の位置座標)を算出する(ステップST3)。   On the other hand, when the signal level is equal to or higher than a predetermined threshold (step ST2; YES), the CPU 30 determines that an object such as a finger is in contact with or approaches the upper end surface of the pin 12, and each pin 12 of the pin 12 group. The position coordinates of the pin 12 (the position coordinates of the two-dimensional coordinates defined for the group of pins 12) are calculated based on the address defined in (Step ST3).

次に、CPU30は、物体の接触又は接近が検出されたピン12の位置座標に基づき、所定の操作ガイド用のイメージ画像を生成し、このイメージ画像の表示用データをマトリクスドライバ27へ出力し、マトリクスドライバ27を制御して当該操作ガイドをLED表示する(ステップST4)。
例えば、入力部を構成するピン12のうち、物体の接触又は接近が検出されたピン12の色を、その周辺のピン12の色から徐々に変化(グラデーション)させることにより、当該入力部を光イルミネーションで操作ガイドする。
また、物体の接触又は接近が検出されたピン12に先端部が位置する矢印を周辺のピン12の色で表示することにより、操作すべき入力部がどれであるのかを適確にガイドすることができる。
Next, the CPU 30 generates an image image for a predetermined operation guide based on the position coordinates of the pin 12 where the contact or approach of the object is detected, and outputs the image image display data to the matrix driver 27. The matrix driver 27 is controlled to display the operation guide with an LED (step ST4).
For example, among the pins 12 constituting the input unit, the color of the pin 12 in which contact or approach of an object is detected is gradually changed (gradation) from the color of the surrounding pin 12 to light the input unit. Guide operation with illumination.
In addition, by displaying an arrow whose tip is positioned on the pin 12 where contact or approach of an object is detected with the color of the peripheral pin 12, it is possible to accurately guide which input unit to operate. Can do.

(2)文字認識によるコマンド入力
図9は、実施の形態1による入力インタフェース部における文字認識によるコマンド入力の流れを示すフローチャートである。ここでも、センサ18bがフォトインタラプタであるものとする。
センサ信号処理部29は、入力インタフェース部10のピン12群における各ピン12のセンサ18bに対して検出動作を実行するように指示する。これによって、ピン12のセンサ18bの発光部18b−1が、所定のスキャン周期に同期して順にプローブ光を出力する。アナログマルチプレクサ35は、スキャン周期に同期してプローブ光を出力したセンサ18bをスキャン対象として、このセンサ18bの出力信号を入力する。この信号は、アナログマルチプレクサ35から、オペアンプ36、ADコンバータ37及びセンサ信号処理部29を介してCPU30へ出力される。ここまでが、ステップST1aの処理に相当する。
(2) Command Input by Character Recognition FIG. 9 is a flowchart showing a command input flow by character recognition in the input interface unit according to the first embodiment. Again, it is assumed that the sensor 18b is a photo interrupter.
The sensor signal processing unit 29 instructs the sensor 18b of each pin 12 in the pin 12 group of the input interface unit 10 to execute a detection operation. As a result, the light emitting unit 18b-1 of the sensor 18b of the pin 12 sequentially outputs the probe light in synchronization with a predetermined scan cycle. The analog multiplexer 35 inputs the output signal of the sensor 18b with the sensor 18b outputting the probe light in synchronization with the scan cycle as a scan target. This signal is output from the analog multiplexer 35 to the CPU 30 via the operational amplifier 36, AD converter 37, and sensor signal processing unit 29. Up to this point corresponds to the processing of step ST1a.

CPU30では、センサ信号処理部29から入力したデジタル信号を所定の閾値と比較して、信号レベルが所定の閾値以上であるか否かを判定する(ステップST2a)。所定の閾値以上の信号レベルでない場合(ステップST2a;NO)、CPU30は、ステップST1aの処理に戻って、次のスキャン対象のセンサ18bに対応するデジタル信号をセンサ信号処理部29から入力し、上述の処理を繰り返す。   The CPU 30 compares the digital signal input from the sensor signal processing unit 29 with a predetermined threshold value and determines whether or not the signal level is equal to or higher than the predetermined threshold value (step ST2a). When the signal level is not equal to or higher than the predetermined threshold (step ST2a; NO), the CPU 30 returns to the process of step ST1a, inputs a digital signal corresponding to the next sensor 18b to be scanned from the sensor signal processing unit 29, and Repeat the process.

一方、所定の閾値以上の信号レベルである場合(ステップST2a;YES)、CPU30は、ピン12の上部端面に指等の物体が接触又は接近していると判断し、ピン12群の各ピン12に規定したアドレスに基づいて、このピン12の位置座標(ピン12群に規定した2次元座標の位置座標)を算出する(ステップST3a)。このようにして、CPU30は、物体の接触又は接近が検出されたピン12の位置座標を順次演算して、RAM31aに格納する。   On the other hand, when the signal level is equal to or higher than a predetermined threshold (step ST2a; YES), the CPU 30 determines that an object such as a finger is in contact with or approaches the upper end surface of the pin 12, and each pin 12 of the pin 12 group. Based on the address defined in (2), the position coordinates of the pin 12 (the position coordinates of the two-dimensional coordinates defined in the group of pins 12) are calculated (step ST3a). In this way, the CPU 30 sequentially calculates the position coordinates of the pins 12 at which the contact or approach of the object is detected, and stores them in the RAM 31a.

ステップST4aにおいて、CPU30は、物体の接触又は接近が検出されたピン12の位置座標を求めて、ピン12群における当該物体の軌跡を入力パターンとして特定し、この入力パターンを認識用パターンのライブラリから読み出した認識用パターンと照合して、この照合結果から入力パターンが表す文字を認識する。なお、文字に限らず、記号の認識用パターンをライブラリに登録しておくことで、記号を認識対象としてもよい。
また、CPU30には、文字や記号と各種のコマンドとの対応関係を示すデータを予め設定しておく。CPU30は、この対応関係に基づいて、認識文字に対応するコマンドを解釈する。なお、認識用パターンライブラリは、例えばRAM31a又はSRAM31b若しくはFlashROM31cに格納しておく。
In step ST4a, the CPU 30 obtains the position coordinates of the pin 12 where the contact or approach of the object is detected, specifies the locus of the object in the group of pins 12 as an input pattern, and this input pattern is obtained from the recognition pattern library. It collates with the read recognition pattern and recognizes the character represented by the input pattern from the collation result. Note that not only characters but also symbols may be recognized by registering symbol recognition patterns in the library.
The CPU 30 is preliminarily set with data indicating correspondence relationships between characters and symbols and various commands. The CPU 30 interprets the command corresponding to the recognized character based on this correspondence. The recognition pattern library is stored in, for example, the RAM 31a, the SRAM 31b, or the Flash ROM 31c.

CPU30は、ステップST4aで認識された文字に対応するコマンドを実行するか、外部インタフェース32を介してUI部22へ通知する(ステップST5a)。
例えば、入力インタフェース部10のピン12群に入力部を形成しておかず、物体の接触又は接近が検出されたピン12がその後に押下された時点で、当該ピン12を入力スイッチとして認識して、UI部22に所定の処理を実行させる。
また、物体の接触又は接近が検出されたピン12が押下された反動で上方に飛び出すように、アクチュエータ制御部28を制御して当該ピン12の上下の位置レベルを変更し、入力ボタンとしてもよい。
さらに、認識された文字に対応するコマンドをCPU30が実行することで、図3で示したような時計表示を入力インタフェース部10で行ってもよい。
CPU30が、外部インタフェース32を介してコマンドをUI部22に通知し、UI部22の上位CPUで当該コマンドを実行するようにしてもよい。これにより、図4で示したように、UI部22の表示部で認識文字を表示できる。
The CPU 30 executes a command corresponding to the character recognized in step ST4a or notifies the UI unit 22 via the external interface 32 (step ST5a).
For example, the input unit is not formed in the group of pins 12 of the input interface unit 10, and when the pin 12 in which contact or approach of an object is detected is subsequently pressed, the pin 12 is recognized as an input switch, The UI unit 22 is caused to execute predetermined processing.
Further, the actuator controller 28 may be controlled to change the upper and lower position levels of the pin 12 so that the pin 12 in which contact or approach of the object is detected jumps upward by a pressed reaction, and may be used as an input button. .
Further, the CPU 30 executes a command corresponding to the recognized character so that the clock display as shown in FIG.
The CPU 30 may notify the command to the UI unit 22 via the external interface 32 and the upper CPU of the UI unit 22 may execute the command. Thereby, as shown in FIG. 4, the recognized character can be displayed on the display unit of the UI unit 22.

以上のように、この実施の形態1によれば、ピン上下駆動アクチュエータ20を制御してピン12群のピン12を駆動させて凸部又は凹部を形成し、発光素子18aの駆動を制御して凸部又は凹部を形成するピンが当該発光素子18aの発光色を呈する入力部を構成し、ピン12の長手方向の動きを検出する位置センサ20aの検出結果に基づいて、入力部に対する操作の有無を判断し、ピン12への物体の接触又は接近を検出するセンサ18bの検出結果に基づいて、入力部で操作されようとしているピン12を特定する。これにより、入力インタフェース部10のピン12群で形成した入力部に所望の色に色付けすることで視認性が向上し、入力操作を迅速に実行することが可能である。また、物理的形状を有する入力部を提示して入力操作した感触を操作者にフィードバックすることができ、誤操作を低減できる。さらに、センサ18bにより、実際に入力操作されていないが、操作されようとしている状況であることを予測でき、この状況に応じた適切な操作ガイドをピン12の色表示で実現することができる。   As described above, according to the first embodiment, the pin vertical drive actuator 20 is controlled to drive the pins 12 of the group of pins 12 to form the convex portion or the concave portion, and the driving of the light emitting element 18a is controlled. The presence or absence of an operation on the input unit based on the detection result of the position sensor 20a that detects the movement of the pin 12 in the longitudinal direction, in which the pin forming the convex part or the concave part constitutes the input part that exhibits the emission color of the light emitting element 18a. Based on the detection result of the sensor 18b that detects the contact or approach of the object to the pin 12, the pin 12 that is about to be operated by the input unit is specified. Thereby, visibility is improved by coloring the input part formed by the group of pins 12 of the input interface part 10 to a desired color, and the input operation can be performed quickly. In addition, it is possible to feed back to the operator the feeling that an input unit having a physical shape has been input and operated, thereby reducing erroneous operations. Furthermore, the sensor 18b can predict that the input operation is not actually performed but the operation is about to be performed, and an appropriate operation guide corresponding to the situation can be realized by the color display of the pin 12.

なお、上記実施の形態1では、ピン12が円柱状である場合を例に示したが、三角柱状や四角柱状などの多角柱状であってもよい。   In the first embodiment, the case where the pin 12 is cylindrical is shown as an example, but it may be a polygonal column such as a triangular column or a quadrangular column.

10,10A,10B 入力インタフェース部、11 基部、12 ピン、13,13a〜13d 操作入力用ボタン、14 スライダー、15 車載機器、16a,16b 操作画面、17a〜17d ボタン、18 発光・検出部、18a 発光素子(発光手段)、18b センサ(第2の検出手段)、18b−1 発光部、18b−2 受光部、19 支柱、20 ピン上下駆動アクチュエータ(駆動手段)、20a 位置センサ(第1の検出手段)、21 感触付与部(感触付与手段)、22 UI部(外部装置)、23 可変型入力デバイス、24 制御部(制御手段)、27 マトリクスドライバ、27a VRAM、28 アクチュエータ制御部、29 センサ信号処理部、30 CPU、31a RAM、31b SRAM、31c FlashROM、32 外部インタフェース、33,34 電流ドライバ、35 アナログマルチプレクサ、36 オペアンプ、37 ADコンバータ。   10, 10A, 10B Input interface unit, 11 base, 12 pins, 13, 13a-13d operation input buttons, 14 sliders, 15 in-vehicle devices, 16a, 16b operation screens, 17a-17d buttons, 18 light emission / detection unit, 18a Light emitting element (light emitting means), 18b sensor (second detecting means), 18b-1 light emitting section, 18b-2 light receiving section, 19 struts, 20 pin vertical drive actuator (driving means), 20a position sensor (first detection) Means), 21 feel imparting section (feel imparting means), 22 UI section (external device), 23 variable input device, 24 control section (control means), 27 matrix driver, 27a VRAM, 28 actuator control section, 29 sensor signal Processing unit, 30 CPU, 31a RAM, 31b SRAM, 31c Flash ROM, 32 an external interface, 33 current driver, 35 analog multiplexer, 36 an operational amplifier, 37 AD converter.

Claims (8)

複数のピンを長手方向に駆動可能に平面状に並べてなるピン群と、
前記ピン群のピンを長手方向に駆動させる駆動手段と、
前記ピン群に対する操作でピンに生じた長手方向の動きを検出する第1の検出手段と、
前記ピンに設けられ、発光した光が当該ピンを透過する発光手段と、
前記駆動手段を制御して前記ピン群のピンを駆動させて凸部又は凹部を形成し、前記発光手段の駆動を制御して前記凸部又は前記凹部を形成するピンが当該発光手段の発光色を呈する入力部を構成し、前記第1の検出手段の検出結果に基づいて、前記入力部に対する操作の有無を判断する制御手段とを備えた入力装置。
A pin group in which a plurality of pins are arranged in a plane so as to be driven in the longitudinal direction;
Drive means for driving the pins of the pin group in the longitudinal direction;
First detection means for detecting longitudinal movement generated in the pins by an operation on the pin group;
A light emitting means provided on the pin, wherein the emitted light is transmitted through the pin;
The driving means is controlled to drive the pins of the pin group to form a convex part or a concave part, and the pin that controls the driving of the light emitting means to form the convex part or the concave part is the emission color of the light emitting means. An input device comprising: a control unit configured to determine whether or not there is an operation on the input unit based on a detection result of the first detection unit.
制御手段は、ピンに発光手段の発光色を呈させてピン群に所定の内容を表示することを特徴とする請求項1記載の入力装置。   2. The input device according to claim 1, wherein the control means displays the predetermined content on the pin group by causing the pin to exhibit the light emission color of the light emitting means. ピンに設けられ、当該ピンへの物体の接触又は接近を検出する第2の検出手段を備えたことを特徴とする請求項1又は請求項2記載の入力装置。   The input device according to claim 1, further comprising a second detection unit that is provided on the pin and detects contact or approach of an object to the pin. 制御手段は、第2の検出手段によりピンへの物体の接触又は接近が検出されると、当該検出されたピンに発光手段の発光色を呈させてピン群に前記物体の軌跡を表示することを特徴とする請求項3記載の入力装置。   When the second detection means detects the contact or approach of the object to the pin, the control means displays the locus of the object on the pin group by causing the detected pin to exhibit the emission color of the light emission means. The input device according to claim 3. 制御手段は、第2の検出手段により物体の接触又は接近が検出されたピンが入力部を構成するピンであると、ピンに発光手段の発光色を呈させて当該入力部に対する所定の操作案内を前記ピン群上に表示することを特徴とする請求項3又は請求項4記載の入力装置。   When the pin for which the contact or approach of the object has been detected by the second detection means is a pin constituting the input unit, the control unit causes the pin to exhibit a light emission color of the light emission unit and performs predetermined operation guidance for the input unit. 5. The input device according to claim 3, wherein the input device is displayed on the pin group. 文字及び記号の認識用パターンが登録された認識用パターンライブラリを備え、
制御手段は、第2の検出手段によりピンへの接触又は接近が検出された物体による軌跡を入力パターンとして特定し、前記特定された入力パターンを前記認識用パターンと照合して、当該入力パターンが示す前記文字及び前記記号を認識することを特徴とする請求項3から請求項5のうちのいずれか1項記載の入力装置。
It has a recognition pattern library in which character and symbol recognition patterns are registered.
The control means specifies a locus by the object whose contact or approach to the pin is detected by the second detection means as an input pattern, collates the specified input pattern with the recognition pattern, and the input pattern is The input device according to claim 3, wherein the character and the symbol to be shown are recognized.
制御手段は、
文字及び記号と各種のコマンドとの対応関係が予め設定されており、
入力パターンが示す前記文字及び前記記号を認識すると、これに対応するコマンドを実行する、若しくは、自身を搭載する入力装置に接続された外部装置へ前記コマンドを通知することを特徴とする請求項6記載の入力装置。
The control means
Correspondences between characters and symbols and various commands are preset,
7. When the character and the symbol indicated by the input pattern are recognized, a command corresponding to the character or the symbol is executed, or the command is notified to an external device connected to the input device on which the character is mounted. The input device described.
ピンに設けられ、当該ピンを押下した感触を操作者に与える感触付与手段を備えたことを特徴とする請求項1から請求項7のうちのいずれか1項記載の入力装置。   The input device according to claim 1, further comprising a feeling imparting unit which is provided on the pin and gives the operator a feeling of pressing the pin.
JP2009101932A 2009-04-20 2009-04-20 Input device Expired - Fee Related JP5253282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009101932A JP5253282B2 (en) 2009-04-20 2009-04-20 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009101932A JP5253282B2 (en) 2009-04-20 2009-04-20 Input device

Publications (2)

Publication Number Publication Date
JP2010250735A true JP2010250735A (en) 2010-11-04
JP5253282B2 JP5253282B2 (en) 2013-07-31

Family

ID=43312962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009101932A Expired - Fee Related JP5253282B2 (en) 2009-04-20 2009-04-20 Input device

Country Status (1)

Country Link
JP (1) JP5253282B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014519098A (en) * 2011-05-13 2014-08-07 クアルコム,インコーポレイテッド Device and method for presenting information to a user on a haptic output surface of a mobile device
KR20160025437A (en) * 2014-08-27 2016-03-08 주식회사 리디자인 Light board type input and output device for aged person
JP2016512353A (en) * 2013-03-06 2016-04-25 ヴァンカテッシュ アール. チャリ Tactile graphic display

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1020769A (en) * 1996-07-05 1998-01-23 Omron Corp Braille forming device
JP2001154780A (en) * 1999-11-30 2001-06-08 Sony Corp Tactile force presenting device and tactile sense expressing method
JP2001514767A (en) * 1997-03-03 2001-09-11 リチャード・ジェイ・ホーガン Movable 3D display
JP2008305087A (en) * 2007-06-06 2008-12-18 Toshiba Matsushita Display Technology Co Ltd Display device
JP2009069159A (en) * 2008-10-20 2009-04-02 Sony Corp Display imaging device, object detecting program, and object detecting method
JP2010532043A (en) * 2007-06-26 2010-09-30 イマージョン コーポレーション Method and apparatus for multi-touch tactile touch panel actuator mechanism

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1020769A (en) * 1996-07-05 1998-01-23 Omron Corp Braille forming device
JP2001514767A (en) * 1997-03-03 2001-09-11 リチャード・ジェイ・ホーガン Movable 3D display
JP2001154780A (en) * 1999-11-30 2001-06-08 Sony Corp Tactile force presenting device and tactile sense expressing method
JP2008305087A (en) * 2007-06-06 2008-12-18 Toshiba Matsushita Display Technology Co Ltd Display device
JP2010532043A (en) * 2007-06-26 2010-09-30 イマージョン コーポレーション Method and apparatus for multi-touch tactile touch panel actuator mechanism
JP2009069159A (en) * 2008-10-20 2009-04-02 Sony Corp Display imaging device, object detecting program, and object detecting method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800435002; 半田 拓也: '触覚ディスプレイにおける点字の提示手法' 電子情報通信学会技術研究報告 第107巻 第555号, 20080315, p.23-26, 社団法人電子情報通信学会 *
JPN6012027533; 半田 拓也: '触覚ディスプレイにおける点字の提示手法' 電子情報通信学会技術研究報告 第107巻 第555号, 20080315, p.23-26, 社団法人電子情報通信学会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014519098A (en) * 2011-05-13 2014-08-07 クアルコム,インコーポレイテッド Device and method for presenting information to a user on a haptic output surface of a mobile device
JP2016512353A (en) * 2013-03-06 2016-04-25 ヴァンカテッシュ アール. チャリ Tactile graphic display
KR20160025437A (en) * 2014-08-27 2016-03-08 주식회사 리디자인 Light board type input and output device for aged person
KR101657182B1 (en) 2014-08-27 2016-09-30 주식회사 리디자인 Light board type input and output device for aged person

Also Published As

Publication number Publication date
JP5253282B2 (en) 2013-07-31

Similar Documents

Publication Publication Date Title
KR101128803B1 (en) A mobile communication terminal, and method of processing input signal in a mobile communication terminal with touch panel
US10452206B2 (en) Projection video display device and video display method
KR102529458B1 (en) Apparatus and Method for operating streeing wheel based on tourch control
KR100811160B1 (en) Electronic device for inputting command 3-dimensionally
CN108700957B (en) Electronic system and method for text entry in a virtual environment
EP1966676B1 (en) Illuminated touchpad
KR101910578B1 (en) Color optical pen for e-board or display
EP1865404A1 (en) User interface system
US20040021663A1 (en) Information processing method for designating an arbitrary point within a three-dimensional space
JP5808712B2 (en) Video display device
CN104808821A (en) Method and apparatus for data entry input
US20130305181A1 (en) Input device
TW201421322A (en) Hybrid pointing device
JP5253282B2 (en) Input device
US11429230B2 (en) Motorist user interface sensor
JP2010128788A (en) Input device
JP2007086962A (en) Screen position indicating system and screen position indicating method
KR20190067205A (en) Keyboard Threshold Change Device and Keyboard
JP5958381B2 (en) Vehicle input device
JP5713401B2 (en) User interface device for generating projected image signal for pointer projection, image projection method and program
WO2021225044A1 (en) Information processing device, information processing method based on user input operation, and computer program for executing said method
US20060170653A1 (en) Pointing device with switch
US6128005A (en) Mouse operable in narrow space without lifting
KR102287654B1 (en) Pointing apparatus
US20220397977A1 (en) Image processing method and image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130416

R150 Certificate of patent or registration of utility model

Ref document number: 5253282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees