JP2010250735A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2010250735A JP2010250735A JP2009101932A JP2009101932A JP2010250735A JP 2010250735 A JP2010250735 A JP 2010250735A JP 2009101932 A JP2009101932 A JP 2009101932A JP 2009101932 A JP2009101932 A JP 2009101932A JP 2010250735 A JP2010250735 A JP 2010250735A
- Authority
- JP
- Japan
- Prior art keywords
- pin
- input
- unit
- pins
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
この発明は、車載情報機器等に使用される入力装置に関するものである。 The present invention relates to an input device used for in-vehicle information equipment and the like.
従来の入力装置には、入力インタフェースに人間の五感を活用することで、入力操作が円滑に行え、かつ誤操作を起こりにくくしたものがある。例えば、操作した感触を操作者にフィードバックすることが考えられる。 Some conventional input devices use the five senses of humans for the input interface, thereby making it possible to perform input operations smoothly and to prevent erroneous operations. For example, it is conceivable to feed back the operated feeling to the operator.
特許文献1は、車載機器等の機能調整を1つのノブで実行するハプティック入力装置を開示している。この入力装置は、ノブに操作方向又は操作位置に応じた特有の操作フィーリングを与える手段を有しており、ノブを使って入力操作した感触をユーザにフィードバックさせている。
また、特許文献2は、グランドに対して2自由度で動く操作可能オブジェクトを備え、センサで検知した操作可能オブジェクトの位置に基づき入力を行うアイソトニックモードと、操作可能オブジェクトに加えられた力に基づいて入力を行うアイソメトリックモードとを有するインタフェース装置を開示する。この装置においても、アイソメトリックモードで入力操作した感触をユーザにフィードバックさせている。
Further,
さらに、特許文献3には、操作対象の機能を特定する機能番号情報及び機能毎の感触を特定する感触番号情報とを有し、該当する機能の操作が行われると、これに応じた感触をユーザに与える多機能入力装置が開示されている。 Further, Patent Document 3 has function number information for specifying a function to be operated and touch number information for specifying a touch for each function. When an operation of the corresponding function is performed, a touch corresponding to this is given. A multi-function input device for a user is disclosed.
特許文献1〜3に記載の装置を含む従来の入力装置では、ボタンやダイヤル、スライダー等の物理的な形状が固定された入力インタフェースを使用目的に応じて使い分けることで入力操作が行われていたため、様々な操作シーンにおいて同一の入力インタフェースが繰り返し使用されることとなり、不可避的に操作が煩雑になるという課題があった。
In conventional input devices including the devices described in
また、使用目的に応じた様々な入力部をタッチパネルの表示画面に描画することで、入力操作を直感的に行わせる入力装置があるが、表示画面の2次元平面上に触れて操作を行う、いわゆる仮想的な入力インタフェースを提供するものであり、入力位置や入力状態の認識を視覚に依存せざるを得ず、誤操作の要因となる可能性があった。 In addition, there is an input device that intuitively performs an input operation by drawing various input units according to the purpose of use on the display screen of the touch panel, but the operation is performed by touching the two-dimensional plane of the display screen. This is to provide a so-called virtual input interface, and the recognition of the input position and input state has to depend on vision, which may cause an erroneous operation.
さらに、上記タッチパネルを用いた入力装置において、入力操作に際して音声を出力したり、アニメーションを表示して入力位置や入力状態を認識させようとしても、物理的に形状が固定された入力部を操作した際に得られる感触を再現することはできない。 Furthermore, in the input device using the touch panel, an input unit having a physically fixed shape is operated even when an attempt is made to output a voice during an input operation or to display an animation to recognize an input position or an input state. It is not possible to reproduce the feeling that is obtained in the event.
さらに、特許文献1,2では、ある一定の入力操作に限定されており、これに対応する専用の入力装置として適用される。このため、汎用性がない。また、特許文献3に開示される多機能入力装置は、機能/感触ライブラリに登録された多種の機能入力が可能であるが、各々の入力操作がどの機能に対応するかを容易に視認できず、誤操作を招く可能性がある。
Furthermore, in
この発明は、上記のような課題を解決するためになされたもので、操作の感触をフィードバックして誤操作の防止を図り、かつ入力操作部で行える操作を容易に視認できる入力装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and provides an input device that feeds back the feel of an operation to prevent erroneous operation and that can easily recognize an operation that can be performed by an input operation unit. Objective.
この発明に係る入力装置は、複数のピンを長手方向に駆動可能に平面状に並べてなるピン群と、ピン群のピンを長手方向に駆動させる駆動手段と、ピン群に対する操作でピンに生じた長手方向の動きを検出する第1の検出手段と、ピンに設けられ、発光した光が当該ピンを透過する発光手段と、駆動手段を制御してピン群のピンを駆動させて凸部又は凹部を形成し、発光手段の駆動を制御して凸部又は凹部を形成するピンが当該発光手段の発光色を呈する入力部を構成し、第1の検出手段の検出結果に基づいて、入力部に対する操作の有無を判断する制御手段とを備えるものである。 In the input device according to the present invention, a pin group in which a plurality of pins are arranged in a plane so as to be driven in the longitudinal direction, a driving unit that drives the pins of the pin group in the longitudinal direction, and an operation on the pin group are generated in the pins. A first detecting means for detecting the movement in the longitudinal direction, a light emitting means provided on the pin, and a light emitting means through which the emitted light passes through the pin, and a driving means to drive the pins of the pin group to drive a convex or concave portion The pin that forms the convex portion or the concave portion by controlling the driving of the light emitting means constitutes an input portion that exhibits the light emission color of the light emitting means, and based on the detection result of the first detecting means, And control means for determining the presence or absence of an operation.
この発明によれば、駆動手段を制御してピン群のピンを駆動させて凸部又は凹部を形成し、発光手段の駆動を制御して凸部又は凹部を形成するピンが当該発光手段の発光色を呈する入力部を構成し、ピンの長手方向の動きを検出する第1の検出手段の検出結果に基づいて、入力部に対する操作の有無を判断するので、操作の感触をフィードバックして誤操作の防止を図ることができ、発光手段の発光色によって操作すべき部分を容易に視認できるという効果がある。 According to the present invention, the driving means is controlled to drive the pins of the pin group to form the convex portion or the concave portion, and the driving of the light emitting means is controlled to form the convex portion or the concave portion. Based on the detection result of the first detection means that constitutes the color-presenting input section and detects the longitudinal movement of the pin, it is determined whether or not there is an operation on the input section. It is possible to prevent this, and there is an effect that the portion to be operated can be easily visually recognized by the emission color of the light emitting means.
実施の形態1.
図1は、この発明の実施の形態1による入力装置の入力インタフェース部を示す斜視図である。図1において、入力インタフェース部10は、円柱状(例えばφ4mm程度)の複数のピン12を、長手方向に上下動可能に、かつ各々の端面が揃うように基部11上で平面状に並べたピン12群を備える。また、各ピン12は、発光素子が発光すると、その発光色で色付けされるように透明若しくは半透明の材料(例えば、アクリル樹脂)で形成される。
1 is a perspective view showing an input interface unit of an input device according to
この実施の形態1による入力装置では、基部11側のアクチュエータ(不図示)でピン12を長手方向に駆動させてピン12群に形成した隆起部分(凸部)や窪み部分(凹部)を、各ピン12毎に設けた発光素子の発光色で色分けする。このように色分けされた隆起部分(凸部)や窪み部分(凹部)を、様々な操作シーンに応じた入力部として利用する。
In the input device according to the first embodiment, the raised portion (convex portion) and the recessed portion (concave portion) formed in the group of
例えば、複数の押しボタンが必要な操作シーンであれば、図1に示すようにピン12群の一部を同時に長手方向上方に移動させて盛り上げ、それぞれを色分けすることにより、使用目的に応じた様々な色及び形状のボタン13を形成できる。また、ピン12群の一部を同時に長手方向下方に移動させて窪ませれば、連続して数値を可変する際のスライダー14として利用できる。このとき、図1に示すように、入力操作された部分のピン12の発光素子を周囲とは異なる色で発光させることで、スライダー14が操作された方向に矢印を表示することもできる。
For example, in an operation scene that requires a plurality of push buttons, a part of the group of
このように、実施の形態1による入力装置では、ピン12群に形成した隆起部分や窪み部分をピン12に設けた発光素子の発光色で色付けして入力部を構成することにより、アプリケーションソフトウエアの操作シーンに応じて、入力部の物理的な形状や色、入力操作面積を動的に変更でき、ユーザに最適な入力部を提供することが可能である。
As described above, in the input device according to the first embodiment, the raised portion and the recessed portion formed in the group of
また、従来のタッチパネルを利用した入力装置では、視覚のみで入力位置や入力状態を認識するものであったが、この発明による入力装置は、入力インタフェース部10を手で触った触覚に加え、入力部の色で区別する視覚から、入力位置や入力状態を認識することが可能である。例えば、ボタンを構成するピン12群の色をその周辺のピン12の色から徐々に変化(グラデーション)させ、当該ボタン(操作する部分)に対する入力操作を、光イルミネーションで操作ガイドする。このようにしても、入力部に対する視認性及び操作性が向上する。
In addition, in the input device using the conventional touch panel, the input position and the input state are recognized only by vision. However, the input device according to the present invention can input the
図2は、実施の形態1による入力装置を適用した車載機器の利用形態を示す図であり、図2(a)はボタンを形成した場合を示し、図2(b)はスライダーを形成した場合を示している。図2(a)に示す例では、車載機器15が実行しているアプリケーションソフトウエアにより、4つのボタン17a〜17dが記載された入力用画面16aが表示されている。この場合、入力インタフェース部10のピン12を長手方向上方に駆動させ、ピン12の発光素子の発光色で色分けすることにより、ボタン17a〜17dの各々に対応した色の操作入力用ボタン13a〜13dを形成する。
FIG. 2 is a diagram illustrating a usage form of the in-vehicle device to which the input device according to the first embodiment is applied. FIG. 2A illustrates a case where a button is formed, and FIG. 2B illustrates a case where a slider is formed. Is shown. In the example illustrated in FIG. 2A, an
ユーザは、入力用画面16aに記載のボタン17a〜17dを選択する入力操作を行う場合、操作入力用ボタン13a〜13dを押下すればよい。このように操作シーンに応じた形状及び色の入力インタフェースを形成することにより、入力操作を迅速に実行できる。また、ピン12を実際に押下して入力が実行されるので、ボタン押下の際に本来得られる感触をユーザにフィードバックすることもできる。
When the user performs an input operation for selecting the
また、図2(b)の例は、車載機器15の表示画面上に車内温度の調節用画面16bを表示し、温度を調節するための入力部として、ピン12の押下に応じて色が変化するスライダー14を入力インタフェース部10に形成した場合を示している。ユーザは、スライダー14の溝に沿ってピン12をさらに押下してその色を変化させることで、押下されたピン12で形成される領域の面積等に応じた数値が車内のエアコントローラ(不図示)に伝送され、車内温度が調節される。
Further, in the example of FIG. 2B, the in-vehicle
図3及び図4は、実施の形態1による入力装置を適用した車載機器の利用形態を示す図である。ピン12を発光素子の発光色とすれば、入力インタフェース部10を表示部としても利用できる。図3に示す例では、ピン12の発光素子の発光色で時計表示している。
また、図4に示すように、入力インタフェース部10を手書き入力の入力盤として利用してもよい。この場合、入力された文字(図4中の「こ」)を車載機器15の表示画面上に表示してもよいが、手書き入力で押下されたピン12を周囲と異なる色にすることで、入力インタフェース部10に文字表示してもよい。
3 and 4 are diagrams showing a usage pattern of the in-vehicle device to which the input device according to the first embodiment is applied. If the
As shown in FIG. 4, the
図5は、実施の形態1による入力インタフェース部のピンの構成を示す図であり、図5(a)は側面図、図5(b)は上面図、図5(c)は図5(b)中のA−A線の断面を概略的に示す図である。図5(a)に示すように、入力インタフェース部10Aでは、ピン12毎にピン上下駆動アクチュエータ(駆動手段)20を設けて、ピン上下駆動アクチュエータ20から延びる支柱19を介してピン12を上下駆動させる。なお、ピン上下駆動アクチュエータ20には、超音波モータ、小型ステッピングモータ、サーボモータ、バイオメタル、高分子アクチュエータ等を、駆動源として用いる。
5A and 5B are diagrams showing the configuration of the pins of the input interface unit according to the first embodiment. FIG. 5A is a side view, FIG. 5B is a top view, and FIG. 5C is FIG. It is a figure which shows schematically the cross section of the AA line in the inside. As shown in FIG. 5A, in the
ピン12と支柱19との間には、3原色LED等の発光素子とピン12への物体の接触又は接近を検出するセンサとを有する発光・検出部18を設ける。この発光・検出部18のセンサとしては、光学的に物体を検出するセンサが考えられ、例えば、反射式物体認識デバイス(フォトインタラプタ)を用いる。なお、光学的に検出するもの以外に、指やペンとピン12との間の静電容量の変化を検出する静電センサや、ピン12の押下による圧力変化を検出する圧力センサを利用してもよい。
Between the
実施の形態1によるピン12は、下部端面側に設けた発光・検出部18内の発光素子の発光色で色付けするため、アクリル樹脂などの透明材料で作成する。図5(b)は、発光・検出部18の発光素子(発光手段)18aが3原色LEDであり、センサ(第2の検出手段)18bがフォトインタラプタである場合を示している。フォトインタラプタ18bでは、指などの物体がピン12の上部端面に接触又は接近すると、発光部18b−1から出力されるプローブ光(例えば赤外線)が当該物体(指)で反射され、受光部18b−2に入力される。これにより、受光部18b−2から、ピン12の上部端面に接触又は接近する物体の有無を示す検出信号が出力される。
The
このように、センサ18bにフォトインタラプタを用いることで、ピン12群の端面に接触又は接近する物体の有無を認識できるため、操作入力されたピン12で形作られた文字に対し文字認識技術を適用することにより、図4で示したような手書き入力が可能となる。この構成は、単純な命令(コマンド)を入力する際に有効である。
In this way, by using a photo interrupter for the
なお、ピン12の長手方向上下の位置レベルは、ピン12の長さに応じて、例えば4段階に上下駆動させる。この場合、入力部の形成前は、ピン上下駆動アクチュエータ20で基準となる位置レベル(0レベル)まで押し上げて、各ピン12の端面がほぼ同一平面上に揃うように並べておく。この状態からボタン形状の入力部を形成する場合、例えば+2レベルまでピン12を長手方向上方に移動させてボタンを形成する。位置センサによってピン12が+1レベル以下まで押下されたことが検出されると、当該ボタンが押下されたと判断する。また、スライダー14を形成する場合は、例えば−1レベルまでピン12を下方に移動させてスライダー溝を形成する。位置センサによって−2レベルまで押下されたことが検出されると、スライダー14が操作されたと判断する。
Note that the vertical position level of the
図6は、実施の形態1による入力インタフェース部のピンの他の構成を示す図である。図6に示す入力インタフェース部10Bは、発光・検出部18と支柱19との間に、ピン12が入力操作されると、機械的な感触を与える感触付与部(感触付与手段)21を備える。感触付与部21として、例えばタクトスイッチ(メタルドームスイッチ)を設けることにより、ピン12を介しても押下した感触がわかりやすい(クリック感のよい)入力部を提供できる。
FIG. 6 is a diagram showing another configuration of the pins of the input interface unit according to the first embodiment. The
図7は、実施の形態1による入力装置の構成を示すブロック図である。図7において、UI部22は、実施の形態1による入力装置を設けた機器の一部からなり、図2〜4で示したような操作画面を表示する表示モニタを備え、アプリケーションソフトウエアを実行するCPU(不図示)を備える。なお、このCPU(以下、上位CPUと呼ぶ)は、後述するCPU30のように当該入力装置を制御するものではないが、CPU30の制御機能を兼用するように構成しても構わない。また、上位CPUで実行されるアプリケーションを上位アプリケーションと呼ぶ。
FIG. 7 is a block diagram illustrating a configuration of the input device according to the first embodiment. 7, the
実施の形態1による入力装置では、UI(User Interface)部(外部装置)22の上位CPUが実行する上位アプリケーションの操作シーン毎に対応する入力部情報が、UI部22側、RAM(Random Access Memory)31a、若しくは不図示のハードディスク装置等に格納される。なお、入力部情報とは、各操作シーンに応じた入力部の形状パターンを規定する情報であり、入力部の形状パターンを規定するためのピン12の位置座標やピン12の長手方向上下の位置レベルを示す情報が含まれる。
In the input device according to the first embodiment, input unit information corresponding to each operation scene of the upper application executed by the upper CPU of the UI (User Interface) unit (external device) 22 is stored in the
可変型入力デバイス23は、図1で示した入力インタフェース部10の基部11側に設けられ、ピン上下駆動アクチュエータ20、位置センサ20a、発光素子18a及びセンサ18bを備える。ピン上下駆動アクチュエータ20は、電流ドライバ33からの駆動電流でピン12をその長手方向上下に駆動させるアクチュエータであり、前記駆動電流で駆動するステッピングモータ、サーボモータ、超音波モータ、高分子アクチュエータ等を駆動源として構成される。また、位置センサ(第1の検出手段)20aは、ピン12の長手方向上下の位置を検出するセンサである。
The
CPU30は、位置センサ20aからのセンサ情報に基づいて、ピン12群に形成された入力部が入力操作されたか否かを判断する。ここで、入力操作されたと判断すると、CPU30は、その旨をUI部22へ通知する。これにより、UI部22が、上位アプリケーションにおける当該入力操作に応じた情報処理を実行する。
Based on the sensor information from the
なお、入力インタフェース部10のピン12群は、例えば、数百〜数千個のピン12をマトリクス状に配置して構成する。制御部24のCPU30は、マトリクス状にピン12が配置されたピン12群に2次元座標系を規定し、この2次元座標系に基づいてピン12の位置座標を特定する。発光素子18aは、図5に示したように、発光・検出部18の構成部としてピン12毎に設けられ、電流ドライバ34からの電流を入力すると発光する。発光素子18aとしては、可視領域の発光色を有するものであればよく、例えば赤(R)、青(B)、緑(G)の3原色LEDなどを用いる。
Note that the group of
図3で示したような簡易表示やボタン位置を示すための色分けを行う場合、CPU30が、簡易表示やボタン配置に対応するイメージ画像を生成して、このイメージ画像を発光素子18aの発光色で実現するよう、マトリクスドライバ27で電流ドライバ34による発光素子18aへの電流供給を制御する。これにより、ピン12群としてマトリクス状に配置されたピン12の発光素子18aが、このイメージ画像に従った色で発光して、簡易表示やボタン着色が実現される。
When performing the simple display or the color classification for indicating the button position as shown in FIG. 3, the
センサ18bは、図5に示したように、発光・検出部18の構成部としてピン12毎に設けられ、ピン12の上部端面に接触又は接近してきた物体の有無を示す検出信号を出力する。例えば、センサ18bがフォトインタラプタである場合、図5(c)で示したように、物体で反射されたプローブ光が受光部18b−2に入力すると、有意な信号レベルの電気信号が得られる。このようにピン12の上部端面に接触又は接近した物体の有無は、センサ18bの出力信号レベルの強弱に変換される。
As shown in FIG. 5, the
制御部(制御手段)24は、マトリクスドライバ27、VRAM(Video RAM)27a、アクチュエータ制御部28、センサ信号処理部29、CPU30、RAM31a及び外部インタフェース(外部IF)32を備える。マトリクスドライバ27は、VRAM27aに格納したイメージ画像の表示用データに基づいて発光素子18aを駆動させる構成部である。なお、イメージ画像の表示用データは、CPU30により生成され、VRAM27aに格納される。
The control unit (control means) 24 includes a matrix driver 27, a VRAM (Video RAM) 27a, an
アクチュエータ制御部28は、CPU30からの指示に従って、電流ドライバ33からピン上下駆動アクチュエータ20への電流供給を制御することにより、ピン12を上下駆動させる構成部である。センサ信号処理部29は、マトリクス状に配置したピン12群の各センサ18bのマトリクススキャンを制御する構成部であり、スキャン結果のデータを取得してCPU30へ出力する。
The
CPU30は、外部インタフェース32を介して、上位アプリケーションの操作シーンに対応する入力部情報をUI部22から受信するか、若しくは、UI部22から操作シーンを特定する情報(例えば、上位アプリケーションの操作画面のプログラムモジュールを示す情報)を受信して、対応する入力部情報を、RAM31aやSRAM(Static RAM)31b、FlashROM31c等から読み出すと、アクチュエータ制御部28でピン上下駆動アクチュエータ20の駆動を制御して当該入力部情報で指定された形状の入力部を形成し、さらに、マトリクスドライバ27で発光素子18aの発光を制御して当該入力部情報で指定された色付けを行う。入力部が形成されると、CPU30は、位置センサ20aのセンサ情報に基づいて、ピン12の駆動位置が規定位置になったか否かを確認し、この結果に応じて、ピン12の長手方向上下の位置レベルを調節する。
The
アナログマルチプレクサ35は、マトリクス状に配置された各ピン12のセンサ18bの出力信号を入力し、アナログバッファであるオペアンプ(OPAMP)36に出力する構成部である。また、オペアンプ36は、アナログマルチプレクサ35からの入力信号を増幅してADコンバータ37に出力する構成部である。さらに、ADコンバータ37は、オペアンプ36からの入力信号をデジタル信号に変換する構成部であり、デジタル変換した信号をセンサ信号処理部29に出力する。
The
次に動作について説明する。
ここでは、実施の形態1による発光・検出部18を用いた特有の処理について述べる。
(1)操作ガイドの表示
先ず、入力インタフェース部10が入力操作されようとしていることを検出して、この入力操作を円滑に実行させるための操作ガイドを表示する処理について説明する。
図8は、実施の形態1による入力インタフェース部に操作ガイドを表示する処理の流れを示すフローチャートであり、既にピン12群に形成された入力部に対する操作ガイドを行う場合を示している。以降、センサ18bがフォトインタラプタであるものとする。
Next, the operation will be described.
Here, a specific process using the light emission /
(1) Display of operation guide First, processing for detecting an input operation of the
FIG. 8 is a flowchart showing a flow of processing for displaying an operation guide on the input interface unit according to the first embodiment, and shows a case where an operation guide is performed on the input unit already formed in the group of pins 12. Hereinafter, it is assumed that the
センサ信号処理部29は、入力部を構成する各ピン12のセンサ18bに対して、検出動作を実行するように指示する。これにより、入力部を構成するピン12のセンサ18bの発光部18b−1が、所定のスキャン周期に同期して順にプローブ光を出力する。
このとき、アナログマルチプレクサ35は、スキャン周期に同期してプローブ光を出力したセンサ18bをスキャン対象として、このセンサ18bの出力信号を入力する。
この信号は、アナログマルチプレクサ35から、オペアンプ36、ADコンバータ37及びセンサ信号処理部29を介してCPU30へ出力される。ここまでが、マトリクススキャンの一周期分の動作に相当する(ステップST1)。
The sensor
At this time, the
This signal is output from the
CPU30では、センサ信号処理部29から入力したデジタル信号を所定の閾値と比較して、信号レベルが所定の閾値以上であるか否かを判定する(ステップST2)。所定の閾値以上の信号レベルでない場合(ステップST2;NO)、CPU30は、ステップST1の処理に戻って、次のスキャン対象のセンサ18bに対応するデジタル信号をセンサ信号処理部29から入力し、上述の処理を繰り返す。
The
一方、所定の閾値以上の信号レベルである場合(ステップST2;YES)、CPU30は、ピン12の上部端面に指等の物体が接触又は接近していると判断し、ピン12群の各ピン12に規定したアドレスに基づいて、このピン12の位置座標(ピン12群に規定した2次元座標の位置座標)を算出する(ステップST3)。
On the other hand, when the signal level is equal to or higher than a predetermined threshold (step ST2; YES), the
次に、CPU30は、物体の接触又は接近が検出されたピン12の位置座標に基づき、所定の操作ガイド用のイメージ画像を生成し、このイメージ画像の表示用データをマトリクスドライバ27へ出力し、マトリクスドライバ27を制御して当該操作ガイドをLED表示する(ステップST4)。
例えば、入力部を構成するピン12のうち、物体の接触又は接近が検出されたピン12の色を、その周辺のピン12の色から徐々に変化(グラデーション)させることにより、当該入力部を光イルミネーションで操作ガイドする。
また、物体の接触又は接近が検出されたピン12に先端部が位置する矢印を周辺のピン12の色で表示することにより、操作すべき入力部がどれであるのかを適確にガイドすることができる。
Next, the
For example, among the
In addition, by displaying an arrow whose tip is positioned on the
(2)文字認識によるコマンド入力
図9は、実施の形態1による入力インタフェース部における文字認識によるコマンド入力の流れを示すフローチャートである。ここでも、センサ18bがフォトインタラプタであるものとする。
センサ信号処理部29は、入力インタフェース部10のピン12群における各ピン12のセンサ18bに対して検出動作を実行するように指示する。これによって、ピン12のセンサ18bの発光部18b−1が、所定のスキャン周期に同期して順にプローブ光を出力する。アナログマルチプレクサ35は、スキャン周期に同期してプローブ光を出力したセンサ18bをスキャン対象として、このセンサ18bの出力信号を入力する。この信号は、アナログマルチプレクサ35から、オペアンプ36、ADコンバータ37及びセンサ信号処理部29を介してCPU30へ出力される。ここまでが、ステップST1aの処理に相当する。
(2) Command Input by Character Recognition FIG. 9 is a flowchart showing a command input flow by character recognition in the input interface unit according to the first embodiment. Again, it is assumed that the
The sensor
CPU30では、センサ信号処理部29から入力したデジタル信号を所定の閾値と比較して、信号レベルが所定の閾値以上であるか否かを判定する(ステップST2a)。所定の閾値以上の信号レベルでない場合(ステップST2a;NO)、CPU30は、ステップST1aの処理に戻って、次のスキャン対象のセンサ18bに対応するデジタル信号をセンサ信号処理部29から入力し、上述の処理を繰り返す。
The
一方、所定の閾値以上の信号レベルである場合(ステップST2a;YES)、CPU30は、ピン12の上部端面に指等の物体が接触又は接近していると判断し、ピン12群の各ピン12に規定したアドレスに基づいて、このピン12の位置座標(ピン12群に規定した2次元座標の位置座標)を算出する(ステップST3a)。このようにして、CPU30は、物体の接触又は接近が検出されたピン12の位置座標を順次演算して、RAM31aに格納する。
On the other hand, when the signal level is equal to or higher than a predetermined threshold (step ST2a; YES), the
ステップST4aにおいて、CPU30は、物体の接触又は接近が検出されたピン12の位置座標を求めて、ピン12群における当該物体の軌跡を入力パターンとして特定し、この入力パターンを認識用パターンのライブラリから読み出した認識用パターンと照合して、この照合結果から入力パターンが表す文字を認識する。なお、文字に限らず、記号の認識用パターンをライブラリに登録しておくことで、記号を認識対象としてもよい。
また、CPU30には、文字や記号と各種のコマンドとの対応関係を示すデータを予め設定しておく。CPU30は、この対応関係に基づいて、認識文字に対応するコマンドを解釈する。なお、認識用パターンライブラリは、例えばRAM31a又はSRAM31b若しくはFlashROM31cに格納しておく。
In step ST4a, the
The
CPU30は、ステップST4aで認識された文字に対応するコマンドを実行するか、外部インタフェース32を介してUI部22へ通知する(ステップST5a)。
例えば、入力インタフェース部10のピン12群に入力部を形成しておかず、物体の接触又は接近が検出されたピン12がその後に押下された時点で、当該ピン12を入力スイッチとして認識して、UI部22に所定の処理を実行させる。
また、物体の接触又は接近が検出されたピン12が押下された反動で上方に飛び出すように、アクチュエータ制御部28を制御して当該ピン12の上下の位置レベルを変更し、入力ボタンとしてもよい。
さらに、認識された文字に対応するコマンドをCPU30が実行することで、図3で示したような時計表示を入力インタフェース部10で行ってもよい。
CPU30が、外部インタフェース32を介してコマンドをUI部22に通知し、UI部22の上位CPUで当該コマンドを実行するようにしてもよい。これにより、図4で示したように、UI部22の表示部で認識文字を表示できる。
The
For example, the input unit is not formed in the group of
Further, the
Further, the
The
以上のように、この実施の形態1によれば、ピン上下駆動アクチュエータ20を制御してピン12群のピン12を駆動させて凸部又は凹部を形成し、発光素子18aの駆動を制御して凸部又は凹部を形成するピンが当該発光素子18aの発光色を呈する入力部を構成し、ピン12の長手方向の動きを検出する位置センサ20aの検出結果に基づいて、入力部に対する操作の有無を判断し、ピン12への物体の接触又は接近を検出するセンサ18bの検出結果に基づいて、入力部で操作されようとしているピン12を特定する。これにより、入力インタフェース部10のピン12群で形成した入力部に所望の色に色付けすることで視認性が向上し、入力操作を迅速に実行することが可能である。また、物理的形状を有する入力部を提示して入力操作した感触を操作者にフィードバックすることができ、誤操作を低減できる。さらに、センサ18bにより、実際に入力操作されていないが、操作されようとしている状況であることを予測でき、この状況に応じた適切な操作ガイドをピン12の色表示で実現することができる。
As described above, according to the first embodiment, the pin
なお、上記実施の形態1では、ピン12が円柱状である場合を例に示したが、三角柱状や四角柱状などの多角柱状であってもよい。
In the first embodiment, the case where the
10,10A,10B 入力インタフェース部、11 基部、12 ピン、13,13a〜13d 操作入力用ボタン、14 スライダー、15 車載機器、16a,16b 操作画面、17a〜17d ボタン、18 発光・検出部、18a 発光素子(発光手段)、18b センサ(第2の検出手段)、18b−1 発光部、18b−2 受光部、19 支柱、20 ピン上下駆動アクチュエータ(駆動手段)、20a 位置センサ(第1の検出手段)、21 感触付与部(感触付与手段)、22 UI部(外部装置)、23 可変型入力デバイス、24 制御部(制御手段)、27 マトリクスドライバ、27a VRAM、28 アクチュエータ制御部、29 センサ信号処理部、30 CPU、31a RAM、31b SRAM、31c FlashROM、32 外部インタフェース、33,34 電流ドライバ、35 アナログマルチプレクサ、36 オペアンプ、37 ADコンバータ。 10, 10A, 10B Input interface unit, 11 base, 12 pins, 13, 13a-13d operation input buttons, 14 sliders, 15 in-vehicle devices, 16a, 16b operation screens, 17a-17d buttons, 18 light emission / detection unit, 18a Light emitting element (light emitting means), 18b sensor (second detecting means), 18b-1 light emitting section, 18b-2 light receiving section, 19 struts, 20 pin vertical drive actuator (driving means), 20a position sensor (first detection) Means), 21 feel imparting section (feel imparting means), 22 UI section (external device), 23 variable input device, 24 control section (control means), 27 matrix driver, 27a VRAM, 28 actuator control section, 29 sensor signal Processing unit, 30 CPU, 31a RAM, 31b SRAM, 31c Flash ROM, 32 an external interface, 33 current driver, 35 analog multiplexer, 36 an operational amplifier, 37 AD converter.
Claims (8)
前記ピン群のピンを長手方向に駆動させる駆動手段と、
前記ピン群に対する操作でピンに生じた長手方向の動きを検出する第1の検出手段と、
前記ピンに設けられ、発光した光が当該ピンを透過する発光手段と、
前記駆動手段を制御して前記ピン群のピンを駆動させて凸部又は凹部を形成し、前記発光手段の駆動を制御して前記凸部又は前記凹部を形成するピンが当該発光手段の発光色を呈する入力部を構成し、前記第1の検出手段の検出結果に基づいて、前記入力部に対する操作の有無を判断する制御手段とを備えた入力装置。 A pin group in which a plurality of pins are arranged in a plane so as to be driven in the longitudinal direction;
Drive means for driving the pins of the pin group in the longitudinal direction;
First detection means for detecting longitudinal movement generated in the pins by an operation on the pin group;
A light emitting means provided on the pin, wherein the emitted light is transmitted through the pin;
The driving means is controlled to drive the pins of the pin group to form a convex part or a concave part, and the pin that controls the driving of the light emitting means to form the convex part or the concave part is the emission color of the light emitting means. An input device comprising: a control unit configured to determine whether or not there is an operation on the input unit based on a detection result of the first detection unit.
制御手段は、第2の検出手段によりピンへの接触又は接近が検出された物体による軌跡を入力パターンとして特定し、前記特定された入力パターンを前記認識用パターンと照合して、当該入力パターンが示す前記文字及び前記記号を認識することを特徴とする請求項3から請求項5のうちのいずれか1項記載の入力装置。 It has a recognition pattern library in which character and symbol recognition patterns are registered.
The control means specifies a locus by the object whose contact or approach to the pin is detected by the second detection means as an input pattern, collates the specified input pattern with the recognition pattern, and the input pattern is The input device according to claim 3, wherein the character and the symbol to be shown are recognized.
文字及び記号と各種のコマンドとの対応関係が予め設定されており、
入力パターンが示す前記文字及び前記記号を認識すると、これに対応するコマンドを実行する、若しくは、自身を搭載する入力装置に接続された外部装置へ前記コマンドを通知することを特徴とする請求項6記載の入力装置。 The control means
Correspondences between characters and symbols and various commands are preset,
7. When the character and the symbol indicated by the input pattern are recognized, a command corresponding to the character or the symbol is executed, or the command is notified to an external device connected to the input device on which the character is mounted. The input device described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009101932A JP5253282B2 (en) | 2009-04-20 | 2009-04-20 | Input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009101932A JP5253282B2 (en) | 2009-04-20 | 2009-04-20 | Input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010250735A true JP2010250735A (en) | 2010-11-04 |
JP5253282B2 JP5253282B2 (en) | 2013-07-31 |
Family
ID=43312962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009101932A Expired - Fee Related JP5253282B2 (en) | 2009-04-20 | 2009-04-20 | Input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5253282B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014519098A (en) * | 2011-05-13 | 2014-08-07 | クアルコム,インコーポレイテッド | Device and method for presenting information to a user on a haptic output surface of a mobile device |
KR20160025437A (en) * | 2014-08-27 | 2016-03-08 | 주식회사 리디자인 | Light board type input and output device for aged person |
JP2016512353A (en) * | 2013-03-06 | 2016-04-25 | ヴァンカテッシュ アール. チャリ | Tactile graphic display |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1020769A (en) * | 1996-07-05 | 1998-01-23 | Omron Corp | Braille forming device |
JP2001154780A (en) * | 1999-11-30 | 2001-06-08 | Sony Corp | Tactile force presenting device and tactile sense expressing method |
JP2001514767A (en) * | 1997-03-03 | 2001-09-11 | リチャード・ジェイ・ホーガン | Movable 3D display |
JP2008305087A (en) * | 2007-06-06 | 2008-12-18 | Toshiba Matsushita Display Technology Co Ltd | Display device |
JP2009069159A (en) * | 2008-10-20 | 2009-04-02 | Sony Corp | Display imaging device, object detecting program, and object detecting method |
JP2010532043A (en) * | 2007-06-26 | 2010-09-30 | イマージョン コーポレーション | Method and apparatus for multi-touch tactile touch panel actuator mechanism |
-
2009
- 2009-04-20 JP JP2009101932A patent/JP5253282B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1020769A (en) * | 1996-07-05 | 1998-01-23 | Omron Corp | Braille forming device |
JP2001514767A (en) * | 1997-03-03 | 2001-09-11 | リチャード・ジェイ・ホーガン | Movable 3D display |
JP2001154780A (en) * | 1999-11-30 | 2001-06-08 | Sony Corp | Tactile force presenting device and tactile sense expressing method |
JP2008305087A (en) * | 2007-06-06 | 2008-12-18 | Toshiba Matsushita Display Technology Co Ltd | Display device |
JP2010532043A (en) * | 2007-06-26 | 2010-09-30 | イマージョン コーポレーション | Method and apparatus for multi-touch tactile touch panel actuator mechanism |
JP2009069159A (en) * | 2008-10-20 | 2009-04-02 | Sony Corp | Display imaging device, object detecting program, and object detecting method |
Non-Patent Citations (2)
Title |
---|
CSNG200800435002; 半田 拓也: '触覚ディスプレイにおける点字の提示手法' 電子情報通信学会技術研究報告 第107巻 第555号, 20080315, p.23-26, 社団法人電子情報通信学会 * |
JPN6012027533; 半田 拓也: '触覚ディスプレイにおける点字の提示手法' 電子情報通信学会技術研究報告 第107巻 第555号, 20080315, p.23-26, 社団法人電子情報通信学会 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014519098A (en) * | 2011-05-13 | 2014-08-07 | クアルコム,インコーポレイテッド | Device and method for presenting information to a user on a haptic output surface of a mobile device |
JP2016512353A (en) * | 2013-03-06 | 2016-04-25 | ヴァンカテッシュ アール. チャリ | Tactile graphic display |
KR20160025437A (en) * | 2014-08-27 | 2016-03-08 | 주식회사 리디자인 | Light board type input and output device for aged person |
KR101657182B1 (en) | 2014-08-27 | 2016-09-30 | 주식회사 리디자인 | Light board type input and output device for aged person |
Also Published As
Publication number | Publication date |
---|---|
JP5253282B2 (en) | 2013-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101128803B1 (en) | A mobile communication terminal, and method of processing input signal in a mobile communication terminal with touch panel | |
US10452206B2 (en) | Projection video display device and video display method | |
KR102529458B1 (en) | Apparatus and Method for operating streeing wheel based on tourch control | |
KR100811160B1 (en) | Electronic device for inputting command 3-dimensionally | |
CN108700957B (en) | Electronic system and method for text entry in a virtual environment | |
EP1966676B1 (en) | Illuminated touchpad | |
KR101910578B1 (en) | Color optical pen for e-board or display | |
EP1865404A1 (en) | User interface system | |
US20040021663A1 (en) | Information processing method for designating an arbitrary point within a three-dimensional space | |
JP5808712B2 (en) | Video display device | |
CN104808821A (en) | Method and apparatus for data entry input | |
US20130305181A1 (en) | Input device | |
TW201421322A (en) | Hybrid pointing device | |
JP5253282B2 (en) | Input device | |
US11429230B2 (en) | Motorist user interface sensor | |
JP2010128788A (en) | Input device | |
JP2007086962A (en) | Screen position indicating system and screen position indicating method | |
KR20190067205A (en) | Keyboard Threshold Change Device and Keyboard | |
JP5958381B2 (en) | Vehicle input device | |
JP5713401B2 (en) | User interface device for generating projected image signal for pointer projection, image projection method and program | |
WO2021225044A1 (en) | Information processing device, information processing method based on user input operation, and computer program for executing said method | |
US20060170653A1 (en) | Pointing device with switch | |
US6128005A (en) | Mouse operable in narrow space without lifting | |
KR102287654B1 (en) | Pointing apparatus | |
US20220397977A1 (en) | Image processing method and image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5253282 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160426 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |