JP6451887B2 - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP6451887B2 JP6451887B2 JP2018036418A JP2018036418A JP6451887B2 JP 6451887 B2 JP6451887 B2 JP 6451887B2 JP 2018036418 A JP2018036418 A JP 2018036418A JP 2018036418 A JP2018036418 A JP 2018036418A JP 6451887 B2 JP6451887 B2 JP 6451887B2
- Authority
- JP
- Japan
- Prior art keywords
- wrist
- range
- operator
- finger
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、電子機器に関し、特にタッチ機能付表示パネルを備えた電子機器に関する。
携帯電話、UMPC(Ultra-MobilePC)、デジタルカメラ、携帯型ゲーム機等の電子機器におけるディスプレイの表示範囲は、映像等を表示するために大型化している。また、表示範囲の大型化にともなって、このような電子機器におけるタッチパネルの検知範囲も大型化する。電子機器のタッチパネルにおいて、アイコンの配置が固定的であると、電子機器を片手で保持しながらでの操作が困難になってくる。これに対応するために、ユーザが所望する範囲にアイコンを表示させ、操作性を向上させる(例えば、特許文献1参照)。
タッチパネルは、車載用のナビゲーション端末装置のような電子機器にも備えられる。
携帯電話に備えられるタッチパネルは、ユーザの正面に保持されるように、画面の向きが固定されずに自由に移動/回転される。一方、車載用のナビゲーション端末装置に備えられるタッチパネルは、車内の特定の場所に固定され、かつユーザの正面に配置されない。さらに、ユーザの利き手と逆の手で操作される場合もある。そのため、車載用のナビゲーション端末装置に備えられるタッチパネルは、携帯電話に備えられるタッチパネルよりも操作しにくくなる。
携帯電話に備えられるタッチパネルは、ユーザの正面に保持されるように、画面の向きが固定されずに自由に移動/回転される。一方、車載用のナビゲーション端末装置に備えられるタッチパネルは、車内の特定の場所に固定され、かつユーザの正面に配置されない。さらに、ユーザの利き手と逆の手で操作される場合もある。そのため、車載用のナビゲーション端末装置に備えられるタッチパネルは、携帯電話に備えられるタッチパネルよりも操作しにくくなる。
本発明はこうした状況に鑑みてなされたものであり、その目的は、タッチパネルの操作性を向上する技術を提供することにある。
上記課題を解決するために、本発明のある態様の電子機器は、タッチ機能付表示パネルと、タッチ機能付表示パネルの近傍に配置されるセンサと、センサによる検出領域をもとに、操作者の手首の位置を推定する推定部と、操作者の手首の位置から検出領域の中心へのベクトル方向に応じて、タッチ機能付表示パネル上における操作者の指の可動範囲を設定する設定部と、設定部において設定した可動範囲に応じて、タッチ機能付表示パネルに対する入力された位置座標を変換する処理を実行する処理部と、を備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、タッチパネルの操作性を向上できる。
本発明を具体的に説明する前に、まず概要を述べる。本発明の実施例は、車両に搭載される電子機器であって、かつタッチ機能付表示パネルを備えた電子機器に関する。これまで、さまざまな電子機器において、電磁誘導方式/静電容量方式などのタッチパネルが使用されている。このようなタッチパネルに対して、操作者は、画面に表示されたボタン等を指でタッチすることによって、動作を選択できる。また、操作者は、指をスライドするフリック操作を行ったり、複数の指の動きを組み合わせて画面を拡縮や回転させるピンチイン・ピンチアウト操作を行ったりする。
前述のごとく、電子機器が車載用のナビゲーション端末装置である場合は、電子機器が携帯電話である場合と異なって、ほぼ垂直に位置が固定されるので、操作者が操作しにくくなる。さらに、ボタンを単にタッチする動作と比較して、指をスライドさせたり、複数の指を使ったりする操作は、通常の手首や指を動かすことができる範囲を超えるので、肘から腕全体の角度を変えたり、無理な体勢をとったりしなければならない。そのため、車載用のナビゲーション端末装置に対して、フリック操作、ピンチイン・ピンチアウト操作を行う場合であっても、操作しやすくすることが望まれる。
これに対応するために、本実施例に係る電子機器は、タッチ機能付表示パネルを囲む枠に複数のセンサを設け、複数のセンサによって、タッチ機能付表示パネルに接近する操作者の手を検出する。また、電子機器は、人間の手の幅に関するデータベースを予め保持しており、検出した手の幅情報とデータベースとを照合することによって、操作者の手首の位置を推定する。さらに、電子機器は、手首の位置をもとに指の可動範囲を設定する。電子機器は、設定した可動範囲を考慮しながら、GUI(Graphical User Interface)部品を配置した画面を表示したり、フリック操作、ピンチイン・ピンチアウト操作を判定し
たりする。ここで、手首位置を推定することによって、手首を固定した状態であっても、肘関節、手首関節に無理な負荷を与えない指の可動範囲が設定される。
たりする。ここで、手首位置を推定することによって、手首を固定した状態であっても、肘関節、手首関節に無理な負荷を与えない指の可動範囲が設定される。
図1は、本発明の実施例に係る電子機器100が搭載される車室内を後方から見た外観図である。車室内の前方において、右側に運転席206が配置され、左側に助手席208が配置され、運転席206の前方にはハンドル204が配置されている。なお、図1においてはハンドル204および運転席206が右側に配置されているが、これらは左側に配置されてもよい。また、ハンドル204の前方にはインストルメントパネル202が配置され、インストルメントパネル202の前方には、フロントガラス200が配置される。
さらに、ハンドル204の側方、例えば左方のセンターコンソールには、電子機器100が設置される。電子機器100は、車載用のナビゲーション端末装置であり、その画面には、カーナビゲーションシステムの画像等が表示される。
さらに、ハンドル204の側方、例えば左方のセンターコンソールには、電子機器100が設置される。電子機器100は、車載用のナビゲーション端末装置であり、その画面には、カーナビゲーションシステムの画像等が表示される。
図2は、電子機器100を示す正面図である。電子機器100は、タッチ機能付表示パネル10、センサ群12(センサ)を含む。タッチ機能付表示パネル10は、電子機器100の正面側に配置されており、操作者に対して情報を提供するための表示機能と、操作者がタッチ入力した位置、タッチしている期間を判定するためのタッチパネル機能とを有する。タッチ機能付表示パネル10には公知の技術が使用されればよいので、ここでは説明を省略する。
センサ群12は、タッチ機能付表示パネル10の外側を囲むように配置される。センサ群12は、複数のセンサが枠形に並べられることによって構成される。センサ群12は、操作者がタッチ機能付表示パネル10を操作する際の手あるいは指の存在を検出する。なお、センサ群12は、タッチ機能付表示パネル10の外側を囲まず、例えば、タッチ機能付表示パネル10の右側縁部だけに沿って並べられてもよい。この場合、センサ群12は、操作者のうちの運転手の手の存在を検出する。センサ群12は、タッチ機能付表示パネル10に隣接またはタッチ機能付表示パネル10の近傍に配置されていればよい。
図3は、電子機器100の構成を示す。電子機器100は、タッチ機能付表示パネル10、センサ群12、推定部14、データベース16、設定部18、処理部20を含む。処理部20は、画像生成部22、操作実行部24を含み、操作実行部24は、変換部26を含む。タッチ機能付表示パネル10は、表示部28、タッチ入力部30を含む。さらに、電子機器100には、記憶部32が接続される。
センサ群12は、図2に示すように枠形に形成されており、そこに等幅間隔で複数のセンサを配置する。これらのセンサは、直上に物体が存在する場合にこれを検出する。複数のセンサのそれぞれは、タッチ機能付表示パネル10内への指あるいは手の侵入を検出可能であれば、どのようなセンサであってもよい。例えば、赤外線センサが使用される。赤外線センサは、赤外線を送出する発光部と、その発光部に対応するように配置された受光部により構成される。赤外線センサの直上に指あるいは手が通過した場合、発光部から送出された赤外線は、指あるいは手で遮断され反射される。受光部は、反射した赤外線を受
信することによって、指あるいは手の存在を検出する。また、赤外線センサでなくても、マイクロ波が使用されてもよい。その場合、マイクロ波が送信され、指あるいは手の接近により変化するマイクロ波を受信することによって、直上に指あるいは手があるか否かが判定される。
信することによって、指あるいは手の存在を検出する。また、赤外線センサでなくても、マイクロ波が使用されてもよい。その場合、マイクロ波が送信され、指あるいは手の接近により変化するマイクロ波を受信することによって、直上に指あるいは手があるか否かが判定される。
ここでは、図4を使用しながら、検出処理の内容を具体的に説明する。図4は、センサ群12における処理の概要を示す。図2と同様に、タッチ機能付表示パネル10を囲むようにセンサ群12が配置されている。図示のごとく、センサ群12の外側からタッチ機能付表示パネル10に向かって指が侵入してきた場合を想定する。前述のごとく、センサ群12のうち、第1検出領域300に配置された1つ以上のセンサが指の存在を検出する。そのため、指の存在を検出した1つ以上のセンサが配置された第1検出領域300の位置を特定することによって、どの方向から指が侵入したかが特定される。また、第1検出領
域300の大きさ、つまり指の存在を検出したセンサの数により、センサ群12上を通過する指の幅が特定される。図3に戻る。センサ群12は、物体を検出した1つ以上のセンサの位置を推定部14に出力する。これは、検出した物体の侵入方向、物体の幅の情報を出力することに相当する。
域300の大きさ、つまり指の存在を検出したセンサの数により、センサ群12上を通過する指の幅が特定される。図3に戻る。センサ群12は、物体を検出した1つ以上のセンサの位置を推定部14に出力する。これは、検出した物体の侵入方向、物体の幅の情報を出力することに相当する。
推定部14は、センサ群12での検出結果、つまり物体の侵入方向、物体の幅の情報をもとに、操作者の手首の位置を推定する。推定処理を説明するために、ここでは図5を使用する。図5は、推定部14における処理の概要を示す。図4と同様に、タッチ機能付表示パネル10、センサ群12、操作者の手が示される。図示のごとく、操作者の手は、開いた状態でセンサ群12上に位置する。そのため、センサ群12のうち、第2検出領域304、第3検出領域306において、手の存在が検出される。図3の推定部14は、センサ群12での検出結果、例えば、第2検出領域304と第3検出領域306との組合せに
対応した手首の位置をデータベース16から取得する。図3に戻る。
対応した手首の位置をデータベース16から取得する。図3に戻る。
データベース16は、センサ群12で検出されうる結果の複数のパターンのそれぞれに、手首の位置を対応づけたテーブルを記憶する。図6は、データベース16におけるテーブルの簡易的なデータ構造を示す。図示のごとく、検出領域欄400、手首位置欄402が含まれる。検出領域欄400には、センサ群12で検出されうる結果が示される。センサ群12で検出されうる結果は、センサ群12において検出されると予想される位置であり、図4の第1検出領域300であったり、図5の第2検出領域304と第3検出領域306との組合せであったりする。データベース16は、手の形状(手の大きさや手の開閉
状態)、電子機器100に対する操作者の位置(操作者の腰部より上、真横、または腰部より下)、または操作者が電子機器100をどちらの方向(右もしくは左)から操作するか、等の複数の項目に応じて、複数のパターンを記憶する。
状態)、電子機器100に対する操作者の位置(操作者の腰部より上、真横、または腰部より下)、または操作者が電子機器100をどちらの方向(右もしくは左)から操作するか、等の複数の項目に応じて、複数のパターンを記憶する。
ここでは、指あるいは手が侵入されうるさまざまな方向が想定され、それぞれに応じた検出領域が検出領域欄400に含まれる。つまり、運転席から車内中央に配置されたタッチ機能付表示パネル10に対して左側あるいは右側から手を差し入れた場合のセンサの検出パターンが検出領域欄400に含まれる。また、成人の平均的な指幅および手の甲の幅などの人間の手に関する長さをもとに、検出領域に位置する指あるいは手に対する手首の位置が特定され、この手首の位置が手首位置欄402に含まれている。図5においては、第2検出領域304と第3検出領域306との組合せに対して、手首位置308が対応づ
けられている。図3に戻る。
けられている。図3に戻る。
そのため、推定部14は、データベース16の検出領域欄400に保持された複数のパターンのうち、検出結果に近いパターンを特定するとともに、パターン毎に予め対応づけられていた手首位置をデータベース16から抽出する。さらに、操作者が手を伸ばしたり、引っ込めたりする動きに追従させるために、推定部14は、センサ群12から一定時間間隔毎に検出結果を受けつけており、受けつけた検出結果をもとに、手首位置を順次推定する。推定部14は、推定した手首位置を設定部18に出力する。
これまでは、検出結果と手首位置との1対1の絶対的な関係を利用して、データベース16をもとに、検出結果から手首位置を推定している(以下、このような推定を「絶対的推定」という)。一方、検出結果の時間変化から手の部分、例えば指の付け根の位置を相対的に推定し、指の付け根の位置から手首位置を推定してもよい(以下、このような推定を「相対的推定」という)。つまり、推定部14は、センサ群12での検出結果の時間変化を観測し、検出結果のピーク値をもとに、手首の位置を推定する。この処理をさらに具体的に説明するために、図7を使用する。
図7は、推定部14における処理の別の概要を示す。図の矢印の方向に手が移動しており、ここでは、人差し指の先から順に、図示しないセンサ群12、タッチ機能付表示パネル10に侵入する場合を想定する。そのため、センサ群12は、第1位置310をまず検出し、それに続いて第2位置312を検出する。さらに、第3位置314、第4位置316、手首位置318が順に検出される。これに対して、推定部14は、第1位置310、第2位置312、第3位置314、第4位置316をこの順に取得する。その際、最も幅が広い指の付け根までは、物体の幅が連続的に増加していき、指の付け根をすぎると、物
体の幅が減少していく。推定部14は、取得した値のピーク値、ここでは第3位置314の幅を指の付け根の幅として選択する。また、推定部14は、指の付け根の幅「A」と、指の付け根から手首までの距離「B」との比率を予め保持しており、当該比率をもとに、第3位置314に対する手首の位置を導出する。さらに、現在、第4位置316が検出されている場合、推定部14は、第3位置314の幅と第4位置316の幅との比をもとに、手首の位置を修正する。図3に戻る。
体の幅が減少していく。推定部14は、取得した値のピーク値、ここでは第3位置314の幅を指の付け根の幅として選択する。また、推定部14は、指の付け根の幅「A」と、指の付け根から手首までの距離「B」との比率を予め保持しており、当該比率をもとに、第3位置314に対する手首の位置を導出する。さらに、現在、第4位置316が検出されている場合、推定部14は、第3位置314の幅と第4位置316の幅との比をもとに、手首の位置を修正する。図3に戻る。
設定部18は、推定部14において推定した手首の位置を受けつける。この手首の位置は、絶対的推定によって導出されていてもよく、相対的推定によって導出されていてもよい。設定部18は、推定部14において推定した手首の位置をもとに、タッチ機能付表示パネル10上における操作者の指の可動範囲を設定する。このように、センサ群12での検出結果をもとに、操作者の手が無理な負荷をかけることなく動かしやすい範囲として稼働範囲が設定される。
図8は、設定部18において設定される可動範囲を示す。ここでは、手首位置340に手首が存在する場合の手を想定し、各指に対して定められたA1範囲320、A2範囲322、A3範囲324、A4範囲326、A5範囲328、V1ベクトル330、V2ベクトル332、V3ベクトル334、V4ベクトル336、V5ベクトル338が示される。A1範囲320、A2範囲322、A3範囲324、A4範囲326、A5範囲328は、手首位置340に手首が存在する場合に、操作者が手首に無理な負担を与えることなく各指を動かすことが可能な領域である。一方、V1ベクトル330、V2ベクトル3
32、V3ベクトル334、V4ベクトル336、V5ベクトル338は、手首位置340に手首が存在する場合に、操作者が手首に無理な負担を与えることなく各指を動かすことができる方向である。なお、手首位置340に対するA1範囲320等、V1ベクトル330等の位置は、成人の平均的なサイズをもとに定められている。
32、V3ベクトル334、V4ベクトル336、V5ベクトル338は、手首位置340に手首が存在する場合に、操作者が手首に無理な負担を与えることなく各指を動かすことができる方向である。なお、手首位置340に対するA1範囲320等、V1ベクトル330等の位置は、成人の平均的なサイズをもとに定められている。
図9は、設定部18における処理の概要を示す。設定部18は、推定部14からの手首の位置として、第1手首位置352を受けつけた後に、第2手首位置364を受けつける。ここで、第1手首位置352は、図9に示した手の位置の場合であり、センサ群12により第2検出領域304と第3検出領域306とが検出されている。その後、図10に示すように、第2手首位置364へ移動することで、センサ群12により第4検出領域396が検出される。設定部18は、時系列にしたがって受けつけた第1手首位置352と第2手首位置364と、それぞれの検出領域の中心とから、操作者の手の侵入方向を推定す
る。まず、図9において、設定部18は、第1手首位置352から、第2検出領域304の左端390から第3検出領域306の上端392までの領域の第1中心394へのベクトル方向を求め、ベクトル方向に応じて可動範囲が設定される。その後、図10のように移動すると、設定部18は、第2手首位置364から、第4検出領域396の第2中心398へのベクトル方向を求め、ベクトル方向に応じて可動範囲が設定される。図9に示すように、手首の位置を第1手首位置352、第2手首位置364に順次合わせる。そのため、第1手首位置352に対して、A1'範囲342、A2'範囲344、A3'範囲3
46、A4'範囲348、A5'範囲350が設定される。また、第2手首位置364に対して、A1''範囲354、A2''範囲356、A3''範囲358、A4''範囲360、A5''範囲362が設定される。ここで、A1'範囲342、A1''範囲354は、侵入方向と手首位置とをもとに、A1範囲320を変換させた領域である。A2'範囲344、A2''範囲356等も同様である。
る。まず、図9において、設定部18は、第1手首位置352から、第2検出領域304の左端390から第3検出領域306の上端392までの領域の第1中心394へのベクトル方向を求め、ベクトル方向に応じて可動範囲が設定される。その後、図10のように移動すると、設定部18は、第2手首位置364から、第4検出領域396の第2中心398へのベクトル方向を求め、ベクトル方向に応じて可動範囲が設定される。図9に示すように、手首の位置を第1手首位置352、第2手首位置364に順次合わせる。そのため、第1手首位置352に対して、A1'範囲342、A2'範囲344、A3'範囲3
46、A4'範囲348、A5'範囲350が設定される。また、第2手首位置364に対して、A1''範囲354、A2''範囲356、A3''範囲358、A4''範囲360、A5''範囲362が設定される。ここで、A1'範囲342、A1''範囲354は、侵入方向と手首位置とをもとに、A1範囲320を変換させた領域である。A2'範囲344、A2''範囲356等も同様である。
前述のごとく、A1'範囲342等は、第1手首位置352から操作者が手首をひねることなく指を動かせる範囲を示し、A1''範囲354等は、第2手首位置364から操作者が手首をひねることなく指を動かせる範囲を示す。なお、A1'範囲342、A5'範囲350、A1''範囲354は、タッチ機能付表示パネル10の外にはみ出して設定されている。そのため、操作者にとっては、親指、小指を使った操作が困難になる。図9においては、V1ベクトル330等が示されていないが、これらもA1'範囲342等と同様に変換されてから設定される。これらのベクトルは、操作者が手を握るような動作を
行う方向となっており、例えば親指と人差し指はV字を描くような方向であり、それは操作者が手首を動かさずにつまむ動作を行える方向である。図9の場合、最終的には、新たなタイミングに対応するA1''範囲354、A2''範囲356、A3''範囲358、A4''範囲360、A5''範囲362が設定される。図3に戻る。設定部18は、設定した可動範囲を処理部20に通知する。
行う方向となっており、例えば親指と人差し指はV字を描くような方向であり、それは操作者が手首を動かさずにつまむ動作を行える方向である。図9の場合、最終的には、新たなタイミングに対応するA1''範囲354、A2''範囲356、A3''範囲358、A4''範囲360、A5''範囲362が設定される。図3に戻る。設定部18は、設定した可動範囲を処理部20に通知する。
処理部20は、記憶部32に記憶したアプリケーションプログラム(以下、単に「アプリケーション」ともいう)、データを使用しながら、アプリケーションを実行する。また、処理部20は、設定部18において設定した可動範囲に応じて、タッチ機能付表示パネル10に対するアプリケーションの処理を実行する。ここで、当該アプリケーションは、例えば、GUIを有する。画像生成部22は、アプリケーションの実行画面を生成し、生成した実行画面を表示部28に表示させる。特に、画像生成部22は、設定部18において設定した可動範囲に応じて、タッチ機能付表示パネル10に表示すべき画像、例えばア
イコンやボタン等を含むGUI部品の配置を調節する。これは、可動範囲をもとに、操作者が操作しやすい画面構成を作成することに相当する。
イコンやボタン等を含むGUI部品の配置を調節する。これは、可動範囲をもとに、操作者が操作しやすい画面構成を作成することに相当する。
図11は、画像生成部22において調節されるボタンの配置を示す。画像生成部22は、A1''範囲354からA5''範囲362に関する情報を設定部18から受けつける。画像生成部22は、A1''範囲354に重なるように第1ボタン366を配置する。また、画像生成部22は、A2''範囲356、A3''範囲358、A4''範囲360、A5''範囲362に重なるように第2ボタン368、第3ボタン370、第4ボタン372、第5ボタン374を配置する。第1ボタン366から第5ボタン374は、アプリケーションに対する操作者からの指示を受けつけるためのボタンである。これらのボ
タンは、操作者にとってタッチしやすい位置に配置される。また、操作者の手の位置がタッチ機能付表示パネル10、センサ群12上において移動する場合、当該移動に合わせてこれらのボタンの配置も変更される。なお、ここでは、第1ボタン366から第5ボタン374の5つのボタンが示されているが、画像生成部22によって生成されるボタンの数は、5つより少なくてもよい。
タンは、操作者にとってタッチしやすい位置に配置される。また、操作者の手の位置がタッチ機能付表示パネル10、センサ群12上において移動する場合、当該移動に合わせてこれらのボタンの配置も変更される。なお、ここでは、第1ボタン366から第5ボタン374の5つのボタンが示されているが、画像生成部22によって生成されるボタンの数は、5つより少なくてもよい。
図12は、画像生成部22において調節されるボタンの別の配置を示す。画像生成部22は、図11と同様に、A1''範囲354からA5''範囲362に関する情報を設定部18から受けつける。しかしながら、A1''範囲354とA5''範囲362は、タッチ機能付表示パネル10の外にはみ出して設定されている。画像生成部22は、これらに重ねるべき第1ボタン366、第5ボタン374をタッチ機能付表示パネル10内におさまるように配置を変更する。さらに、第1ボタン366、第5ボタン374の配置の変更に合わせて、他のボタンの配置が変更されてもよい。また、操作者が指をスライドさせ
るようなフリック操作を行うことを許す画面において、画像生成部22は、指を動かすことができる方向にフリック操作できるようにスライドバーなどのGUI部品の表示の角度を変更してもよい。指を動かすことができる方向は、前述のベクトルをもとに設定される。図3に戻る。
るようなフリック操作を行うことを許す画面において、画像生成部22は、指を動かすことができる方向にフリック操作できるようにスライドバーなどのGUI部品の表示の角度を変更してもよい。指を動かすことができる方向は、前述のベクトルをもとに設定される。図3に戻る。
タッチ機能付表示パネル10は、前述のごとく、操作者に対して情報を提供するための表示機能と、操作者がタッチ入力した位置、タッチしている期間を判定するためのタッチパネル機能とを有する。ここでは、表示部28が、表示機能を実行し、タッチ入力部30が、タッチパネル機能を実行する。表示部28は、表示機能として、画像生成部22において生成された実行画面を表示する。タッチ入力部30は、タッチパネル機能として、タッチ機能付表示パネル10に対してなされた操作者のタッチ操作を受けつける。なお、タッチ操作には、フリック操作、ピンチイン・ピンチアウト操作等も含まれる。タッチ入力
部30は、受けつけたタッチ操作の内容を操作実行部24に出力する。表示機能、タッチパネル機能には公知の技術が使用されればよいので、ここでは説明を省略する。
部30は、受けつけたタッチ操作の内容を操作実行部24に出力する。表示機能、タッチパネル機能には公知の技術が使用されればよいので、ここでは説明を省略する。
操作実行部24は、タッチ入力部30からの操作内容を受けつけ、受けつけた操作内容に対応したアプリケーションの実行を処理部20に指示する。例えば、操作実行部24は、タッチ機能付表示パネル10中のタッチ操作された位置情報をタッチ入力部30から受けつけ、当該位置情報で示された位置に配置されたボタンを特定する。操作実行部24は、特定したボタンに対応した処理を処理部20に指示する。なお、操作実行部24は、設定部18において設定した可動範囲を受けつけている場合、可動範囲に応じて、タッチ入力部30からの座標を変換することを変換部26に指示してもよい。変換部26における
変換処理については後述する。処理部20は、操作実行部24からの指示に応じて、アプリケーションを実行する。
変換処理については後述する。処理部20は、操作実行部24からの指示に応じて、アプリケーションを実行する。
変換部26は、設定部18において設定した可動範囲に応じて、タッチ機能付表示パネル10上における位置の座標であって、かつ操作者の指によってタッチ入力された位置の座標を変換する。ここでは、変換処理を説明するために図13を使用する。図13は、変換部26において変換される座標の概要を示す。ここでは、親指と人差し指でつまむような動作をするピンチイン操作を許す画面を例として説明する。通常のタッチパネルにおけるピンチイン操作は、略一直線上を近づくように移動する2点のX,Y座標の変化量によって判定される。
図13では、親指が移動する方向を示したV1'ベクトル376に沿った第1軸386と、第1軸386に垂直な第2軸388とが規定される。また、人差し指が移動する方向は、V2'ベクトル378によって示される。さらに、V1'ベクトル376に沿った親指の移動量は、L1距離380と示され、V2'ベクトル378に沿った人差し指の移動量は、L2距離382と示される。ここで、V1'ベクトル376とV2'ベクトル378とは、一直線になっておらず、V1'ベクトル376が沿った第1軸386に対して、V2'ベクトル378は、角度θだけ傾いている。そのため、ピンチイン操作を判定する
ための変化量は、第1軸386、第2軸388を基準にすると、L1距離380+L2距離382×cosθとなり、実際の変化量よりも小さい変化量によって判定がなされる。そのため、実際は親指と人差し指を移動させているにもかかわらず、ピンチイン操作と判定されない場合が生じうる。
ための変化量は、第1軸386、第2軸388を基準にすると、L1距離380+L2距離382×cosθとなり、実際の変化量よりも小さい変化量によって判定がなされる。そのため、実際は親指と人差し指を移動させているにもかかわらず、ピンチイン操作と判定されない場合が生じうる。
変換部26は、設定部18からV1'ベクトル376とV2'ベクトル378とを受けつけているので、それらに沿った移動量を加算して、変化量を導出する。具体的には、変換部26は、V1'ベクトル376に沿った移動量であるL1距離380と、V2'ベクトル378に沿った移動量であるL2距離382とを加算することによって変化量を導出する。これは、第1軸386、第2軸388によって表されていた座標を、V1'ベクトル376、V2'ベクトル378によって表されている座標に変換して、移動量を取り扱うことに相当する。つまり、変換部26は、V1'ベクトル376とV2'ベクトル37
8といったV字状の2軸にX,Y軸を変換する。これによって操作者が無理に手を広げて指の移動量を稼ぐことをしなくても、手首を動かさずに指の動く範囲の操作のみで操作者の求める操作が可能になる。また、画面全体をスライドさせるようなフリック操作の場合、変換部26は、V1'ベクトル376、V2'ベクトル378等の方向への移動量を、X軸あるいはY軸の方向への移動量として取り扱う。図3に戻る。変換部26は、導出した変化量を操作実行部24に出力する。
8といったV字状の2軸にX,Y軸を変換する。これによって操作者が無理に手を広げて指の移動量を稼ぐことをしなくても、手首を動かさずに指の動く範囲の操作のみで操作者の求める操作が可能になる。また、画面全体をスライドさせるようなフリック操作の場合、変換部26は、V1'ベクトル376、V2'ベクトル378等の方向への移動量を、X軸あるいはY軸の方向への移動量として取り扱う。図3に戻る。変換部26は、導出した変化量を操作実行部24に出力する。
この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
本発明の実施例によれば、センサでの検出結果をもとに、設定した操作者の指の可動範囲に応じて、前記タッチ機能付表示パネルに対する処理を実行するので、タッチパネルの操作性を向上できる。また、操作者の手首の位置を推定し、推定した手首の位置をもとに操作者の指の可動範囲を設定するので、手首の位置から操作しやすい指の可動範囲を設定できる。また、車載機器のような利き手でない方の手でタッチパネルの操作を行う場合でも、無理な姿勢にならずに、肘や手首にかける負荷を低減できる。また、複数の検出パターンのそれぞれに手首の位置を対応づけたデータベースを予め保持しておき、検出結果に
対応した手首の位置をデータベースから取得するので、手首の位置を簡易に推定できる。また、検出結果の時間変化を観測し、検出結果のピーク値をもとに、手首の位置を推定するので、相対的な位置をもとに手首の位置を推定できる。また、相対的な位置をもとに手首の位置が推定されるので、データベースを使用せずに手首の位置を推定できる。
対応した手首の位置をデータベースから取得するので、手首の位置を簡易に推定できる。また、検出結果の時間変化を観測し、検出結果のピーク値をもとに、手首の位置を推定するので、相対的な位置をもとに手首の位置を推定できる。また、相対的な位置をもとに手首の位置が推定されるので、データベースを使用せずに手首の位置を推定できる。
また、可動範囲に応じてGUI部品の配置を調節するので、車載機器のような固定された画面上でタッチパネルを操作する場合でも、操作者が伸ばした手の位置から指の可動範囲内で操作者の操作しやすい位置にGUI部品を配置できる。また、操作者が伸ばした手の位置から指の可動範囲内で操作者の操作しやすい位置にGUI部品が配置されるので、操作者にとって操作しやすいGUIを提供できる。また、車載用機器などの固定された画面に対して画面正面以外から手を伸ばして操作する場合に、肘および手首の関節を無理に曲げることなく、現在の指の可動範囲にGUIの部品を配置できる。また、可動範囲に応
じて座標を変換するので、車載機器のような大型のタッチパネルを保持する機器において、画面全体をピンチイン操作する場合でも操作者が無理に指を広げなくても、ピンチイン操作を判定できる。また、マルチタッチが可能なタッチパネルの場合、指および手、手首の画面上への侵入方向から手首をひねることなく各指が操作可能な範囲・方向が特定されるので、操作者に操作しやすいGUIを提供できる。
じて座標を変換するので、車載機器のような大型のタッチパネルを保持する機器において、画面全体をピンチイン操作する場合でも操作者が無理に指を広げなくても、ピンチイン操作を判定できる。また、マルチタッチが可能なタッチパネルの場合、指および手、手首の画面上への侵入方向から手首をひねることなく各指が操作可能な範囲・方向が特定されるので、操作者に操作しやすいGUIを提供できる。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
本発明の実施例において、センサ群12、推定部14が、タッチ機能付表示パネル10と水平のXY平面上に手首位置を推定し、設定部18が可動範囲を設定している。しかしながらこれに限らず例えば、センサ群12は、物体がタッチ機能付表示パネル10の表面からどの程度離れているかも測定してもよい。その場合、推定部14は、タッチ機能付表示パネル10の一端を基点とした3次元空間に手首位置(X,Y,Z)を推定し、設定部18は、3次元空間上に可動範囲を設定してもよい。本変形例によれば、可動範囲の設定精度をさらに向上できる。
10 タッチ機能付表示パネル、 12 センサ群、 14 推定部、 16 データベース、 18 設定部、 20 処理部、 22 画像生成部、 24 操作実行部、 26 変換部、 28 表示部、 30 タッチ入力部、 32 記憶部、 100 電子機器。
Claims (3)
- タッチ機能付表示パネルと、
前記タッチ機能付表示パネルの近傍に配置されるセンサと、
前記センサによる検出領域をもとに、操作者の手首の位置を推定する推定部と、
前記操作者の手首の位置から前記検出領域の中心へのベクトル方向に応じて、前記タッチ機能付表示パネル上における操作者の指の可動範囲を設定する設定部と、
前記設定部において設定した可動範囲に応じて、前記タッチ機能付表示パネルに対する入力された位置座標を変換する処理を実行する処理部と、
を備えることを特徴とする電子機器。 - 前記推定部は、前記センサでの検出領域の時間変化を観測し、検出結果のピーク値をもとに、手首の位置を推定することを特徴とする請求項1に記載の電子機器。
- 前記センサによる検出領域と前記操作者の手首の位置とを複数のパターンに対応づけたデータベースをさらに備え、
前記推定部は、前記検出領域に対応した前記手首の位置を前記データベースから取得することを特徴とする請求項1に記載の電子機器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018036418A JP6451887B2 (ja) | 2018-03-01 | 2018-03-01 | 電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018036418A JP6451887B2 (ja) | 2018-03-01 | 2018-03-01 | 電子機器 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015064911A Division JP6304095B2 (ja) | 2015-03-26 | 2015-03-26 | 電子機器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018110021A JP2018110021A (ja) | 2018-07-12 |
JP6451887B2 true JP6451887B2 (ja) | 2019-01-16 |
Family
ID=62844599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018036418A Active JP6451887B2 (ja) | 2018-03-01 | 2018-03-01 | 電子機器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6451887B2 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3491189B2 (ja) * | 1997-07-08 | 2004-01-26 | 松下電器産業株式会社 | 手の状態検出装置 |
JP4771183B2 (ja) * | 2009-01-30 | 2011-09-14 | 株式会社デンソー | 操作装置 |
JP5298161B2 (ja) * | 2011-06-13 | 2013-09-25 | シャープ株式会社 | 操作装置及び画像形成装置 |
US9229584B2 (en) * | 2011-06-13 | 2016-01-05 | Citizen Holdings Co., Ltd. | Information input apparatus |
JP2013145427A (ja) * | 2012-01-13 | 2013-07-25 | Tokai Rika Co Ltd | 入力装置 |
WO2014073403A1 (ja) * | 2012-11-08 | 2014-05-15 | アルプス電気株式会社 | 入力装置 |
-
2018
- 2018-03-01 JP JP2018036418A patent/JP6451887B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018110021A (ja) | 2018-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5921835B2 (ja) | 入力装置 | |
JP5497722B2 (ja) | 入力装置、情報端末、入力制御方法、および入力制御プログラム | |
US9069386B2 (en) | Gesture recognition device, method, program, and computer-readable medium upon which program is stored | |
KR101915615B1 (ko) | 모션 기반 사용자 인터페이스 제어 장치 및 방법 | |
CN103270485B (zh) | 触摸输入处理装置、信息处理装置及触摸输入控制方法 | |
JP5333397B2 (ja) | 情報処理端末およびその制御方法 | |
WO2012039140A1 (ja) | 操作入力装置および方法ならびにプログラム | |
KR101318244B1 (ko) | 3차원 사용자 인터페이스 구현 시스템 및 구현 방법 | |
TW201329835A (zh) | 顯示控制裝置、顯示控制方法及電腦程式 | |
EP2498172A1 (en) | Mobile terminal and display method | |
US10120444B2 (en) | Wearable device | |
CN105474150B (zh) | 信息处理装置、信息处理方法和程序 | |
CN108108042B (zh) | 车辆用显示装置及其控制方法 | |
KR20140047515A (ko) | 데이터 입력을 위한 전자 장치 및 그 운용 방법 | |
JP5621407B2 (ja) | 操作入力装置ならびにプログラムと方法 | |
JP6304095B2 (ja) | 電子機器 | |
JP6034281B2 (ja) | オブジェクト選択方法、装置及びコンピュータ・プログラム | |
JP6451887B2 (ja) | 電子機器 | |
KR101503159B1 (ko) | 시선의 위치를 감지하여 터치스크린을 제어하는 방법 | |
WO2019073537A1 (ja) | 表示制御装置、表示制御方法、表示制御プログラム、および、電子機器 | |
JP2016051288A (ja) | 車両用入力インターフェイス | |
JP6841207B2 (ja) | 表示制御装置 | |
JP6106973B2 (ja) | 情報処理装置及びプログラム | |
JP6505317B2 (ja) | 表示制御装置 | |
KR101596879B1 (ko) | 대형화면을 갖는 휴대단말기에서의 터치제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6451887 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |