JP5355683B2 - 表示入力装置および車載情報機器 - Google Patents
表示入力装置および車載情報機器 Download PDFInfo
- Publication number
- JP5355683B2 JP5355683B2 JP2011506984A JP2011506984A JP5355683B2 JP 5355683 B2 JP5355683 B2 JP 5355683B2 JP 2011506984 A JP2011506984 A JP 2011506984A JP 2011506984 A JP2011506984 A JP 2011506984A JP 5355683 B2 JP5355683 B2 JP 5355683B2
- Authority
- JP
- Japan
- Prior art keywords
- touch panel
- coordinates
- input device
- detection target
- display input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04805—Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Description
例えば、指を近づけたときに指の近傍に位置するキースイッチを拡大して表示し、選択操作を容易化した表示入力装置(例えば、特許文献1参照)、垂直方向の距離を検出し、その距離に応じた拡大率で情報を表示するCRT装置(例えば、特許文献2参照)、タッチ圧力を検知して軽いタッチで拡大表示、強いタッチで所定のキー操作を実現する入力装置(例えば、特許文献3参照)等が知られている。
しかしながら、デザインの都合上タッチパネルが傾いて設置された場合、タッチパネルから見た真上(タッチパネルの垂直方向)と、ユーザから見たアイコンの真上(ユーザの目の位置とアイコンとを結ぶ方向)の位置が一致せず、このため、例えば、図9に示されるように、ユーザが、「せ」をタッチしようとしているのに実際の指先は「く」の位置にあり、このため使い勝手が悪くなるという不都合が発生する。
この不都合は、特許文献1に開示されているように、指の位置付近に一定範囲の表示領域の画像を拡大表示する、あるいは、指位置近傍にカーソルを表示する描画の際も同様に発生し、指の近接を検知する距離が遠くなればなるほど座標のズレが拡大していた。また、上記した特許文献2、特許文献3に開示された技術も、この不都合を解消するものではない。
実施の形態1.
図1は、この発明の実施の形態1に係る表示入力装置の構成を示すブロック図である。図1に示されるように、この発明の実施の形態1に係る表示入力装置は、タッチパネル式表示装置(以下、タッチパネルと略称する)1と、外部センサ2と、制御部3と、車内監視カメラ4と、により構成される。
近接センサ12は、その検出セルが上記した赤外線に限らず、例えば、検出対象とコンデンサのように平行に配置された2枚の平板との間に生じる静電容量の変化により接近を検出する静電容量型で代替してもよい。この場合、平板は、一方の片側が検出対象に向く接地面、他方の片側がセンサ検出面となり、この2極間に形成される静電容量の変化により検出対象の接近を検出するとともにその座標位置を検出することができる。
GPSセンサ21は、GPS衛星からの電波を受信して、制御部3が、緯度、経度を測位するための信号を生成して制御部3に出力する。車速センサ22は、車両が走行中か否かを判定するための車速パルスを計測して制御部3に出力する。加速度センサ23は、例えば、バネに取り付けた錘が変位する量を計測して錘にかかる加速度を推定するセンサであり、3軸加速度センサの場合、例えば、0(重力加速度のみ)から数100Hzまでの加速度変動に追従し、X、Y方向の加速度ベクトルの合計から地面に対する向き(姿勢)を測定して制御部3に出力する。
このため、制御部3は、ナビゲーション処理を主にタッチパネル1の制御を行うCPU(以下、ナビCPU30という)と、描画回路31と、メモリ32と、地図DB(Data Base)33とにより構成される。
また、ナビCPU30は、近接センサ12により取得されるタッチパネル1における指の水平方向の近接座標を、タッチパネル1とパネル面に対向する指の垂直方向の距離に応じて補正し、タッチパネル1に表示された一定範囲の表示領域における画像を拡大処理して指位置近傍に表示する機能を実現するために、メモリ32に記憶されたプログラムにしたがい画像情報を生成して描画回路31の制御を行う。その場合のナビCPU30が実行するプログラムの構造は図2に示されており、その詳細は後述する。
以下、図4〜図6を参照しながら、図1〜図3に示すこの発明の実施の形態1に係る表示入力装置の動作について詳細に説明する。
すなわち、座標位置補正部303は、近接座標位置計算部301により計算された水平方向の指座標を(x1,y1)、補正された水平方向の指座標を(x2,y2)、前記タッチパネル上の中心点Oとし、点Oから目の位置Cの方向をあらかじめ定め、直線OCの前記タッチパネル面に対する仰角をφ、前記タッチパネル上に張られたxy平面座標上に前記直線OCが垂直方向に投影される直線と前記xy平面座標上のX軸とのなす偏角をθとし、
タッチパネル1とパネル面に対向する指の垂直方向の距離をzとした場合、補正された指の水平方向の近接座標(x2,y2)を、x2=x1−f(z)・cotφ・cosθ、y2=y1−g(z)・cotφ・sinθの演算式により補正する(ステップST44)。但し、f(z)=g(z)=z/2=1とする。
図5では、タッチパネル1を操作する際のユーザの指の位置とアイコンの見え方を3次元で表現してある。図5において、点Aは、タッチパネル1へ指を近づけたときに近接座標位置計算部301により計算され出力された指位置であり、その座標は(x1,y1,z)(点Bに表示されたアイコンと思って点Aに近づけたときの位置の検出座標)、点Bは、タッチパネル1のLCDパネル10面へのアイコンの表示位置であり、図9に示したソフトキーアイコンを引用すれば、「せ」の表示位置であってその座標は(x2,y2,0)である。φは、原点Oからみた目の位置Cの方向を示す仰角、θはxy平面座標上に直線OCが垂直方向に投影される直線と前記xy平面座標上のX軸とのなす偏角である。
(1)x2=x1−z・cotφ・cosθ
(2)y2=y1−z・cotφ・sinθ
ここでは、センターコンソールの中心に設置されているカーナビのタッチパネル1を運転席と助手席から操作する場合を想定し、指が2cm程度近接したときに水平方向の指座標を計算できるものとし(但し、Z軸方向の距離は固定値Zref=2cmとして測定することになる)、θ、φは、システムの構成上想定される目の方向が設定される。ここでは、θは30度、φは75度とする。ここで、説明の都合上Zref=2cm、θ=30度、φ=75度としたが、これに拘るものではなく、システム構成により設定が変更されるものである。
以上の説明は、タッチパネルと目の位置(点C)とは十分遠く、パネル面に対するB、A、Cの偏角と仰角はパネル面に対するO−Cの偏角θと仰角φとは無視できるほどの差しかなく同一として説明したが、点Cの方向だけでなく3次元的な位置もあらかじめ定めておけば、幾何学的計算により、正確なパネル面に対するB、A、Cの偏角と仰角が求まり、これを用いて位置補正を行っても良い。この場合、目の位置Cがタッチパネルに近いほど補正効果がよく、使い勝手の良い装置が提供できる。
この場合φは、点Cと点Aを結ぶ直線がタッチパネルと交わる点Bに対して、タッチパネル面からみた直線BCの仰角、θは、xy平面座標上に直線BCが垂直方向に投影される直線と前記xy平面座標上のX軸とのなす偏角である。
また、説明の都合上極座標系を用いたが、これにこだわるものではなく直交座標系を用いても良い。
このため、座標位置補正部303は、近接座標位置計算部301から取得された指の水平方向の座標を(x1,y1)、補正された指の水平方向の座標を(x2,y2)、前記タッチパネル上の中心点Oとし、目の位置である点Cをあらかじめ定め、直線OCの前記タッチパネル面に対する仰角をφ、前記タッチパネル上に張られたxy平面座標上に前記直線OCが垂直方向に投影される直線と前記xy平面座標上のx軸とのなす偏角をθ、タッチパネル1とパネル面に対向する指の垂直方向の距離をzとした場合に、出力される補正された指の水平方向の近接座標(x2,y2)を、以下の演算式(3)(4)を実行することにより算出することとする。
(4)y2=y1−g(z)・cotφ・sinθ
ここで、f(z)=g(z)=zとおくと補正が強すぎてユーザが違和感を覚える可能性があるので、
f(z)=g(z)=z/2と補正をゆるめる。ここで、検出する距離は一定値Zref(2cm)としているので、f(z)=g(z)=z/2=1となる。
すなわち、画像情報生成部304は、タッチパネル1に表示された一定範囲の表示領域の画像を拡大処理するために、例えば、図6(a)に示されるように、既に生成済みのソフトキーボード画像の一部領域(図中、円内)の画像情報をメモリ32の画像情報記憶領域322から一定の割合で読み出して補間し、周辺の画像情報(拡大無し)と合成して新しい画像情報によるソフトキーボード画像として更新する。
このことにより、操作情報処理部306は、タッチ座標位置計算部302で計算されたタッチ座標に相当するキーに基づく操作処理を実行する(ステップST47)。
上記した実施の形態1では、指が近接したかどうかのみを検出しZ軸の指の位置検出距離は一定値Zrefとして説明したが、更に、Z軸方向の指の近接距離を検出できればZ軸方向の距離に応じて補正の強度を変更することが考えられる。この場合、Z軸方向の距離が遠いほど補正を弱く、近いほど補正を強く制御することが望ましい。
すなわち、これは、ユーザがZ軸方向の距離が遠いほど座標位置が正確でないことを理解しているため、距離が遠い場合の目立った補正に違和感を無くするための配慮である。以下に、実施の形態2に係る表示入力装置による座標位置補正の動作について説明する。
このため、近接座標位置計算部301は、指位置の3次元座標位置を計算するため、実施の形態1に比較して機能拡張されたものになっている。他の構成は、実施の形態1と同様である。なお、近接する指の3次元位置を計測する技術は、上記した特許文献2に開示されており、ここではこの技術を適用するものとして説明する。
ここで、座標位置補正部303は、以下の演算式を計算することにより、近接座標位置計算部301から取得される指座標を補正するものとする。すなわち、z<2cmの場合、x2=x1−z・cotφ・cosθ、y2=y1−z・cotφ・sinθとし、2cm≦z<5cmの場合、x2=x1−(1/2)z・cotφ・cosθ−(3/2)・cotφ・cosθ、y2=y1−(1/2)z・cotφ・sinθ−(3/2)・cotφ・sinθとする。更に、z≦5cmの場合、指が近接していないと判定して補正は見合わせる。
また、この発明の実施の形態2に係る表示入力装置によれば、実施の形態1に比較して精度の高い座標位置補正を実現でき、実施の形態1同様、表示入力装置が指位置をタッチパネル1の見かけ上の位置に自動補正するため、ユーザは意識せずに入力操作が可能になるため、使い勝手が向上する。
また、目の方向を決めるにあたり、もしくは目の方向を補正するに当たり、例えば、車内監視カメラ4を用い画像処理することにより目視位置を検出してもよく、また、座席シートの倒れ具合等をセンサで検知することにより目視位置を推定することでも代替が可能である。
また、FA(Factory Automation)用などでタッチパネルを操作するにあたり操作者がタッチパネルに対する位置を自由に変更できる場合などは、画像処理により操作者の目の方向、または、位置を測定することで、θ、φの値を動的に変更することができる。
上記したこの発明の実施の形態1、実施の形態2に係る表示入力装置では、操作者の目の位置をある程度想定して座標位置補正を行ったが、以下に説明する実施の形態3では、操作者が複数存在することにより操作者の目の位置が変化する、例えば、センターコンソールの中心に設置されているカーナビのタッチパネルを運転席から操作する場合や助手席から操作する場合を想定して座標位置補正を行う場合について説明する。
ここでは、画像処理によりタッチパネル1を運転席乗員が操作したか助手席乗員が操作したかを検出し、このことにより補正の強度を変更するものとして説明する。
運転者から操作したか助手席から操作したかどうかの検出は、画像処理による方法だけに限定するものではなく、操作者とタッチパネルとの静電容量の変化を使って行うなど種々存在することはいうまでもない。
この発明の実施の形態3に係る表示入力装置において、実施の形態1、実施の形態2の制御部3(ナビCPU30)との構成上の差異は、実施の形態1が有するプログラム構造に、更に、カメラ画像入力部307と、画像処理部308と、UI(User Interface)提供部309とを付加したことにある。
画像処理部308は、車内監視カメラ4から取得される映像信号を画像処理して左右どちらのユーザが操作したかを認識し、あるいは、タッチパネル1への指の近接による入力操作が左右いずれの方向から行われたかを検出して座標位置補正部303による補正の方向および強度を制御する機能を有する。
以下、図8のフローチャートを参照しながら、図7に示すこの発明の実施の形態3に係る表示入力装置の動作について、実施の形態1との差異に着目して説明する。
以下に説明する実施の形態3では、座標位置補正部303は、近接座標位置計算部301から指座標を取得後、主制御部300による制御の下で指の近接は運転席乗員によるものか否かを判定する(ステップST84)。指の近接がいずれの方向からのものであるかは、カメラ画像入力部307より取得される車内監視カメラ4からの映像信号を画像処理部308が画像処理した結果を、座標位置補正部303が取得することにより判定可能である。
また、この発明の実施の形態3に係る表示入力装置によれば、補正の強度を設定するユーザインタフェースを提供することにより、利用シーンに応じた補正が可能となりユーザに利便性を提供することができる。
また、この発明の実施の形態1〜実施の形態3に係る表示入力装置によれば、表示入力装置をナビゲーションシステム等の車載情報機器に適用した場合についてのみ説明したが、車載情報機器以外に、パソコン、FA(Factory Automation)コンピュータの入出力手段として、あるいは公共機関やイベント会場等の案内システムに適用してもよい。上記実施例では、ナビCPU側で補正を掛けたが表示装置上にCPUを持ちここで補正を掛けても同様の効果を生じる。
例えば、制御部3が、近接センサ12により取得されるタッチパネル1における指の水平方向の近接座標を、タッチパネル1とパネル面に対向する指の垂直方向の距離に応じて補正し、タッチパネル1に表示された一定範囲の表示領域における画像を拡大処理して指位置近傍に表示するデータ処理は、1または複数のプログラムによりコンピュータ上で実現してもよく、また、その少なくとも一部をハードウェアで実現してもよい。
Claims (21)
- 接近する検出対象の座標を非接触で検知する近接センサを有し、画像の表示および入力を行うタッチパネルと、
前記タッチパネル面上をxy平面とし前記タッチパネル面に対する垂直方向をz軸として、前記タッチパネル上に点O、前記タッチパネルの外部に点Cをあらかじめ定め、直線OCの前記タッチパネル面に対する仰角をφ、前記xy平面座標上に前記直線OCが垂直方向に投影される直線と前記xy平面座標上のx軸とのなす偏角をθとしたときに、前記近接センサにより取得される前記検出対象の前記xy座標を、前記仰角φ、前記偏角θおよびz座標を変数とするあらかじめ定められた関数に応じて補正する制御部と
を備えたことを特徴とする表示入力装置。 - 接近する検出対象の座標を非接触で検知する近接センサを有し、画像の表示および入力を行うタッチパネルと、
前記タッチパネル面上をxy平面とし前記タッチパネル面に対する垂直方向をz軸として、前記検出対象の位置である点Aと前記タッチパネルの外部にあらかじめ決められた点Cとを直線Lで結び、前記直線Lと前記タッチパネル面との交点Bに対する仰角をφとし、前記xy平面座標上に垂直方向に投影される検出対象の投影点と前記交点Bとを直線Mで結び、前記直線Mと前記xy平面座標上のx軸とのなす偏角をθとし、前記タッチパネル面に対向する前記検出対象の垂直方向の距離をzとすると、前記近接センサにより取得される前記検出対象のxy座標を前記φ、前記θおよびz座標を変数とするあらかじめ定められた関数により補正する制御部と
を備えたことを特徴とする表示入力装置。 - 前記制御部は、
前記タッチパネルに表示された一定範囲の表示領域における表示形態を変化させ、検出対象の補正されたxy座標位置近傍に表示することを特徴とする請求項1記載の表示入力装置。 - 前記制御部は、
前記タッチパネルに表示された一定範囲の表示領域における表示形態を変化させ、検出対象の補正されたxy座標位置近傍に表示することを特徴とする請求項2記載の表示入力装置。 - 前記制御部は、
前記タッチパネルに表示された一定範囲の表示領域における画像を拡大または縮小処理して、検出対象の補正されたxy座標位置近傍に表示することを特徴とする請求項1記載の表示入力装置。 - 前記制御部は、
前記タッチパネルに表示された一定範囲の表示領域における画像を拡大または縮小処理して、検出対象の補正されたxy座標位置近傍に表示することを特徴とする請求項2記載の表示入力装置。 - 前記制御部は、
前記xy平面座標上に垂直方向に投影される検出対象のxy座標を(x1,y1)とし、補正された検出対象のxy座標を(x2,y2)とするとき、前記補正された検出対象のxy座標(x2,y2)を、x2=x1−f(z)・cotφ・cosθ、y2=y1−g(z)・cotφ・sinθの演算式により算出することを特徴とする請求項1記載の表示入力装置。 - 前記制御部は、
前記xy平面座標上に垂直方向に投影される検出対象のxy座標を(x1,y1)とし、補正された検出対象のxy座標を(x2,y2)とするとき、前記補正された検出対象のxy座標(x2,y2)を、x2=x1−f(z)・cotφ・cosθ、y2=y1−g(z)・cotφ・sinθの演算式により算出することを特徴とする請求項2記載の表示入力装置。 - 前記制御部は、
前記z座標に応じて前記補正量を変化させることを特徴とする請求項1記載の表示入力装置。 - 前記制御部は、
前記z座標に応じて前記補正量を変化させることを特徴とする請求項2記載の表示入力装置。 - 前記制御部は、
前記タッチパネルに対するユーザの目視位置を測定し、あらかじめ定められた点Cの位置を補正することを特徴とする請求項1記載の表示入力装置。 - 前記制御部は、
前記タッチパネルに対する前記タッチパネルの中心軸から見て左右いずれの方向から検出対象が近接したかを検出し、前記検出された方向により前記補正の方向または強度を可変とすることを特徴とする請求項1記載の表示入力装置。 - 前記制御部は、
前記タッチパネルに対するユーザの目視位置を測定し、あらかじめ定められた点Cの位置を補正することを特徴とする請求項2記載の表示入力装置。 - 前記制御部は、
前記タッチパネルに対する前記タッチパネルの中心軸から見て左右いずれの方向から検出対象が近接したかを検出し、前記検出された方向により前記補正の方向または強度を可変とすることを特徴とする請求項2記載の表示入力装置。 - 前記制御部は、
前記タッチパネルの中心軸から見た傾きを検出し、前記検出された傾きに応じて前記補正の目の推定方向・強度を可変とすることを特徴とする請求項1記載の表示入力装置。 - 前記制御部は、
前記タッチパネルの中心軸から見た傾きを検出し、前記検出された傾きに応じて前記補正の目の推定方向・強度を可変とすることを特徴とする請求項2記載の表示入力装置。 - 前記制御部は、
前記補正の目の推定方向または強度を、前記タッチパネルを介して入力されるユーザ設定により可変とすることを特徴とする請求項1記載の表示入力装置。 - 前記制御部は、
前記補正の目の推定方向または強度を、前記タッチパネルを介して入力されるユーザ設定により可変とすることを特徴とする請求項2記載の表示入力装置。 - 接近する検出対象の座標を非接触で検知する近接センサを有し、画像の表示および入力を行うタッチパネルと接続可能に構成され、
前記近接センサから前記検出対象の座標が入力され、前記タッチパネル面上をxy平面とし前記タッチパネル面に対する垂直方向をz軸として、前記タッチパネル上に点O、前記タッチパネルの外部に点Cをあらかじめ定め、直線OCの前記タッチパネル面に対する仰角をφ、前記xy平面座標上に前記直線OCが垂直方向に投影される直線と前記xy平面座標上のx軸とのなす偏角をθとしたときに、前記近接センサにより取得される前記検出対象の前記xy座標を、前記仰角φ、前記偏角θおよびz座標を変数とするあらかじめ定められた関数に応じて補正する制御部を備えたことを特徴とする車載情報機器。 - 接近する検出対象の座標を非接触で検知する近接センサを有し、画像の表示および入力を行うタッチパネルと接続可能に構成され、
前記近接センサから前記検出対象の座標が入力され、前記タッチパネル面上をxy平面とし前記タッチパネル面に対する垂直方向をz軸として、前記検出対象の位置である点Aと前記タッチパネルの外部にあらかじめ決められた点Cとを直線Lで結び、前記直線Lと前記タッチパネル面との交点Bに対する仰角をφとし、前記xy平面座標上に垂直方向に投影される検出対象の投影点と前記交点Bとを直線Mで結び、前記直線Mと前記xy平面座標上のx軸とのなす偏角をθとし、前記タッチパネル面に対向する前記検出対象の垂直方向の距離をzとすると、前記近接センサにより取得される前記検出対象のxy座標を前記φ、前記θおよびz座標を変数とするあらかじめ定められた関数により補正する制御部を備えたことを特徴とする車載情報機器。 - 前記タッチパネルは、接触する検出対象の座標を検知するタッチセンサを有し、
前記制御部は、前記タッチセンサから入力された座標に基づいてナビゲーション処理を実行することを特徴とする請求項19または請求項20に記載の車載情報機器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011506984A JP5355683B2 (ja) | 2009-03-31 | 2010-03-16 | 表示入力装置および車載情報機器 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009086375 | 2009-03-31 | ||
JP2009086375 | 2009-03-31 | ||
JP2011506984A JP5355683B2 (ja) | 2009-03-31 | 2010-03-16 | 表示入力装置および車載情報機器 |
PCT/JP2010/001868 WO2010113397A1 (ja) | 2009-03-31 | 2010-03-16 | 表示入力装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2010113397A1 JPWO2010113397A1 (ja) | 2012-10-04 |
JP5355683B2 true JP5355683B2 (ja) | 2013-11-27 |
Family
ID=42827716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011506984A Active JP5355683B2 (ja) | 2009-03-31 | 2010-03-16 | 表示入力装置および車載情報機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8890819B2 (ja) |
JP (1) | JP5355683B2 (ja) |
CN (1) | CN102365610B (ja) |
DE (1) | DE112010001445T5 (ja) |
WO (1) | WO2010113397A1 (ja) |
Families Citing this family (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100913962B1 (ko) * | 2007-05-14 | 2009-08-26 | 삼성전자주식회사 | 이동통신 단말기의 문자 입력 방법 및 장치 |
US9740341B1 (en) | 2009-02-26 | 2017-08-22 | Amazon Technologies, Inc. | Capacitive sensing with interpolating force-sensitive resistor array |
US10180746B1 (en) | 2009-02-26 | 2019-01-15 | Amazon Technologies, Inc. | Hardware enabled interpolating sensor and display |
US9740340B1 (en) | 2009-07-31 | 2017-08-22 | Amazon Technologies, Inc. | Visually consistent arrays including conductive mesh |
US9785272B1 (en) | 2009-07-31 | 2017-10-10 | Amazon Technologies, Inc. | Touch distinction |
JP5407950B2 (ja) * | 2010-03-11 | 2014-02-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
EP2423796B1 (en) * | 2010-08-24 | 2019-10-02 | LG Electronics Inc. | Mobile terminal and displaying method thereof |
JP5561092B2 (ja) * | 2010-10-15 | 2014-07-30 | ソニー株式会社 | 入力装置、入力制御システム、情報処理方法及びプログラム |
US8405627B2 (en) * | 2010-12-07 | 2013-03-26 | Sony Mobile Communications Ab | Touch input disambiguation |
JP5617603B2 (ja) * | 2010-12-21 | 2014-11-05 | ソニー株式会社 | 表示制御装置、表示制御方法、及び、プログラム |
JP2012150636A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 投写型表示装置及び情報処理システム |
JP5865597B2 (ja) * | 2011-03-29 | 2016-02-17 | 京セラ株式会社 | 携帯電子機器 |
JP5926008B2 (ja) * | 2011-06-28 | 2016-05-25 | 京セラ株式会社 | 電子機器、制御方法および制御プログラム |
US20120287065A1 (en) * | 2011-05-10 | 2012-11-15 | Kyocera Corporation | Electronic device |
JP5801604B2 (ja) * | 2011-05-13 | 2015-10-28 | 株式会社Nttドコモ | 表示制御装置及び表示制御方法 |
DE102011089195A1 (de) * | 2011-06-30 | 2013-01-03 | Johnson Controls Gmbh | Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen |
US10684768B2 (en) * | 2011-10-14 | 2020-06-16 | Autodesk, Inc. | Enhanced target selection for a touch-based input enabled user interface |
WO2013101067A1 (en) * | 2011-12-29 | 2013-07-04 | Intel Corporation | Systems and methods for enhanced display images |
WO2013112143A1 (en) * | 2012-01-25 | 2013-08-01 | Technicolor Licensing | Directional control using a touch sensitive device |
JP5477400B2 (ja) * | 2012-01-31 | 2014-04-23 | 株式会社デンソー | 入力装置 |
US20150338975A1 (en) * | 2012-02-20 | 2015-11-26 | Yoshikazu Shima | Touch panel input device and control method of the touch panel input device |
WO2013134999A1 (zh) * | 2012-03-12 | 2013-09-19 | 中兴通讯股份有限公司 | 终端屏幕显示控制方法及终端 |
JP5754410B2 (ja) * | 2012-04-13 | 2015-07-29 | トヨタ自動車株式会社 | 表示装置 |
US9633186B2 (en) * | 2012-04-23 | 2017-04-25 | Apple Inc. | Systems and methods for controlling output of content based on human recognition data detection |
WO2013177761A1 (zh) * | 2012-05-30 | 2013-12-05 | 华为技术有限公司 | 显示控制方法和装置 |
US20130342468A1 (en) * | 2012-06-20 | 2013-12-26 | Chimei Innolux Corporation | Method for determining touch location on a touch panel and touch panel module |
EP2713244A1 (en) * | 2012-10-01 | 2014-04-02 | Alcatel Lucent | Touchscreen device with parallax error compensation |
DE102012219736A1 (de) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung |
DE102012219958A1 (de) * | 2012-10-31 | 2014-06-12 | Bayerische Motoren Werke Aktiengesellschaft | Bestimmung einer Eingabeposition auf einem Touch-Screen |
JP6070211B2 (ja) * | 2013-01-22 | 2017-02-01 | 株式会社リコー | 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム |
JP5950851B2 (ja) * | 2013-03-04 | 2016-07-13 | 三菱電機株式会社 | 情報表示制御装置、情報表示装置および情報表示制御方法 |
JP5889230B2 (ja) * | 2013-03-04 | 2016-03-22 | 三菱電機株式会社 | 情報表示制御装置、情報表示装置および情報表示制御方法 |
JP5933468B2 (ja) * | 2013-03-04 | 2016-06-08 | 三菱電機株式会社 | 情報表示制御装置、情報表示装置および情報表示制御方法 |
JP5984718B2 (ja) * | 2013-03-04 | 2016-09-06 | 三菱電機株式会社 | 車載情報表示制御装置、車載情報表示装置および車載表示装置の情報表示制御方法 |
US20140267082A1 (en) * | 2013-03-15 | 2014-09-18 | Lenovo (Singapore) Pte, Ltd. | Enlarging touch screen portions |
KR102118084B1 (ko) * | 2013-03-22 | 2020-06-02 | 삼성전자주식회사 | 터치스크린을 구비한 디바이스에서 화면 표시 방법 및 장치 |
US9007321B2 (en) * | 2013-03-25 | 2015-04-14 | Sony Corporation | Method and apparatus for enlarging a display area |
KR102056316B1 (ko) | 2013-05-03 | 2020-01-22 | 삼성전자주식회사 | 터치 스크린 동작 방법 및 그 전자 장치 |
ITPD20130145A1 (it) * | 2013-05-24 | 2014-11-25 | Vimar Spa | Gruppo di comando per un'apparecchiatura elettrica |
US20140368442A1 (en) * | 2013-06-13 | 2014-12-18 | Nokia Corporation | Apparatus and associated methods for touch user input |
JP6349911B2 (ja) * | 2013-07-01 | 2018-07-04 | 株式会社三洋物産 | 遊技機 |
TWI496048B (zh) * | 2013-07-03 | 2015-08-11 | Wistron Corp | 外掛式光學觸控裝置及其校正方法 |
DE102013217772A1 (de) * | 2013-09-05 | 2015-03-05 | Robert Bosch Gmbh | Daten- und/oder Kommunikationsgerät sowie Verfahren zu dessen Steuerung |
EP2860614B1 (de) * | 2013-10-10 | 2017-09-13 | Elmos Semiconductor Aktiengesellschaft | Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten |
US9400553B2 (en) * | 2013-10-11 | 2016-07-26 | Microsoft Technology Licensing, Llc | User interface programmatic scaling |
FR3011950B1 (fr) * | 2013-10-15 | 2017-01-20 | Thales Sa | Amelioration de l'ergonomie d'un designateur |
KR102159789B1 (ko) * | 2013-10-28 | 2020-09-25 | 삼성전자주식회사 | 전자 장치 및 이의 사용자 제스처 인식방법 |
CN103645839A (zh) * | 2013-12-03 | 2014-03-19 | 华为终端有限公司 | 信息输入方法、装置及终端 |
CN103677568A (zh) * | 2013-12-10 | 2014-03-26 | 华为技术有限公司 | 一种基于悬浮触控的点击对象放大方法及装置 |
CN104808836B (zh) * | 2014-01-23 | 2017-12-01 | 京瓷办公信息系统株式会社 | 电子设备及操作支援方法 |
JP6046064B2 (ja) * | 2014-01-29 | 2016-12-14 | 京セラ株式会社 | 携帯機器、タッチ位置補正方法およびプログラム |
US9690478B2 (en) * | 2014-03-04 | 2017-06-27 | Texas Instruments Incorporated | Method and system for processing gestures to cause computation of measurement of an angle or a segment using a touch system |
KR20150111164A (ko) * | 2014-03-25 | 2015-10-05 | 엘지전자 주식회사 | 터치 보정을 제공하는 디지털 디바이스 및 그 제어 방법 |
JP2016045952A (ja) * | 2014-08-21 | 2016-04-04 | 株式会社コト | 実座標取得方法、入力デバイスの検出方法、及びプログラム |
CN105630365A (zh) * | 2014-10-29 | 2016-06-01 | 深圳富泰宏精密工业有限公司 | 网页调整方法及系统 |
CN104407798A (zh) * | 2014-10-30 | 2015-03-11 | 广东欧珀移动通信有限公司 | 一种虚拟按键的控制方法、装置及终端 |
US9721365B2 (en) * | 2014-12-09 | 2017-08-01 | Synaptics Incorporated | Low latency modification of display frames |
US9983695B2 (en) * | 2015-03-19 | 2018-05-29 | Lenovo (Singapore)Pte. Ltd. | Apparatus, method, and program product for setting a cursor position |
US20170102829A1 (en) * | 2015-10-08 | 2017-04-13 | Funai Electric Co., Ltd. | Input device |
DE102016001314B4 (de) * | 2016-02-05 | 2017-10-12 | Audi Ag | Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug |
US10318043B2 (en) * | 2016-03-24 | 2019-06-11 | Gm Global Technology Operations Llc. | Dynamic adjustment of touch sensitive area in a display assembly |
JP6724172B2 (ja) * | 2017-01-17 | 2020-07-15 | アルプスアルパイン株式会社 | 座標入力装置 |
KR102469754B1 (ko) * | 2018-02-13 | 2022-11-22 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
WO2020047869A1 (zh) * | 2018-09-07 | 2020-03-12 | 深圳柔显系统技术有限公司 | 一种确定触控感应距离的方法、电子装置及终端设备 |
JP7178888B2 (ja) * | 2018-12-03 | 2022-11-28 | ルネサスエレクトロニクス株式会社 | 情報入力装置 |
US10864826B2 (en) * | 2019-01-30 | 2020-12-15 | Ford Global Technologies, Llc | Seat including infrared-indicator material in a pattern |
JP7442940B2 (ja) | 2020-07-07 | 2024-03-05 | アルプスアルパイン株式会社 | 近接検知装置 |
FR3124872A1 (fr) * | 2021-07-02 | 2023-01-06 | Faurecia Interieur Industrie | Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés |
US20230343110A1 (en) * | 2022-04-20 | 2023-10-26 | Blackberry Limited | Method and system for data object identification in vehicles |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01181197A (ja) * | 1988-01-14 | 1989-07-19 | Nippon Atom Ind Group Co Ltd | プラント監視制御装置 |
JPH0736568A (ja) * | 1993-07-23 | 1995-02-07 | Sharp Corp | 情報処理装置 |
JP2006302029A (ja) * | 2005-04-21 | 2006-11-02 | Fuji Xerox Co Ltd | 表示装置制御プログラム、表示装置制御方法、表示装置 |
JP2007302223A (ja) * | 2006-04-12 | 2007-11-22 | Hitachi Ltd | 車載装置の非接触入力操作装置 |
JP2008502982A (ja) * | 2004-06-17 | 2008-01-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | タッチスクリーン上の2本指入力の使用 |
JP2008269225A (ja) * | 2007-04-19 | 2008-11-06 | Seiko Epson Corp | 検出装置、および、その制御方法 |
JP2009032027A (ja) * | 2007-07-26 | 2009-02-12 | Sharp Corp | 表示装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6366628A (ja) | 1986-09-08 | 1988-03-25 | Toshiba Corp | タツチスクリ−ンの視差補正方法 |
JP2835167B2 (ja) | 1990-09-20 | 1998-12-14 | 株式会社東芝 | Crt表示装置 |
JP3744552B2 (ja) | 1994-03-07 | 2006-02-15 | 富士通株式会社 | ペン入力装置 |
JPH10171600A (ja) | 1996-12-06 | 1998-06-26 | Brother Ind Ltd | 入力装置 |
JP2006031499A (ja) | 2004-07-20 | 2006-02-02 | Denso Corp | 情報入力表示装置 |
US8018579B1 (en) * | 2005-10-21 | 2011-09-13 | Apple Inc. | Three-dimensional imaging and display system |
DE102006037156A1 (de) | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
JP4609557B2 (ja) * | 2008-08-29 | 2011-01-12 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
-
2010
- 2010-03-16 DE DE112010001445T patent/DE112010001445T5/de not_active Withdrawn
- 2010-03-16 US US13/146,353 patent/US8890819B2/en active Active
- 2010-03-16 JP JP2011506984A patent/JP5355683B2/ja active Active
- 2010-03-16 WO PCT/JP2010/001868 patent/WO2010113397A1/ja active Application Filing
- 2010-03-16 CN CN201080015715.4A patent/CN102365610B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01181197A (ja) * | 1988-01-14 | 1989-07-19 | Nippon Atom Ind Group Co Ltd | プラント監視制御装置 |
JPH0736568A (ja) * | 1993-07-23 | 1995-02-07 | Sharp Corp | 情報処理装置 |
JP2008502982A (ja) * | 2004-06-17 | 2008-01-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | タッチスクリーン上の2本指入力の使用 |
JP2006302029A (ja) * | 2005-04-21 | 2006-11-02 | Fuji Xerox Co Ltd | 表示装置制御プログラム、表示装置制御方法、表示装置 |
JP2007302223A (ja) * | 2006-04-12 | 2007-11-22 | Hitachi Ltd | 車載装置の非接触入力操作装置 |
JP2008269225A (ja) * | 2007-04-19 | 2008-11-06 | Seiko Epson Corp | 検出装置、および、その制御方法 |
JP2009032027A (ja) * | 2007-07-26 | 2009-02-12 | Sharp Corp | 表示装置 |
Also Published As
Publication number | Publication date |
---|---|
US8890819B2 (en) | 2014-11-18 |
CN102365610B (zh) | 2015-06-24 |
WO2010113397A1 (ja) | 2010-10-07 |
CN102365610A (zh) | 2012-02-29 |
US20110285657A1 (en) | 2011-11-24 |
DE112010001445T5 (de) | 2012-10-25 |
JPWO2010113397A1 (ja) | 2012-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5355683B2 (ja) | 表示入力装置および車載情報機器 | |
JP5052677B2 (ja) | 表示入力装置 | |
JP5430782B2 (ja) | 表示入力装置および車載情報機器 | |
JP5349493B2 (ja) | 表示入力装置および車載情報装置 | |
JP5777745B2 (ja) | 表示入力装置及びナビゲーションシステム | |
WO2011092746A1 (ja) | 地図情報処理装置 | |
JP6244822B2 (ja) | 車載用表示システム | |
US20120092332A1 (en) | Input device, input control system, method of processing information, and program | |
JP5933468B2 (ja) | 情報表示制御装置、情報表示装置および情報表示制御方法 | |
JP5619202B2 (ja) | 地図情報処理装置 | |
JP5889230B2 (ja) | 情報表示制御装置、情報表示装置および情報表示制御方法 | |
JP6041708B2 (ja) | 車載用情報表示制御装置、車載用情報表示装置および情報表示制御方法 | |
JP5984718B2 (ja) | 車載情報表示制御装置、車載情報表示装置および車載表示装置の情報表示制御方法 | |
JP5950851B2 (ja) | 情報表示制御装置、情報表示装置および情報表示制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5355683 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |