JP5328539B2 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP5328539B2
JP5328539B2 JP2009169839A JP2009169839A JP5328539B2 JP 5328539 B2 JP5328539 B2 JP 5328539B2 JP 2009169839 A JP2009169839 A JP 2009169839A JP 2009169839 A JP2009169839 A JP 2009169839A JP 5328539 B2 JP5328539 B2 JP 5328539B2
Authority
JP
Japan
Prior art keywords
region
display unit
unit
display
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009169839A
Other languages
English (en)
Other versions
JP2011022958A (ja
Inventor
兢 高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2009169839A priority Critical patent/JP5328539B2/ja
Publication of JP2011022958A publication Critical patent/JP2011022958A/ja
Application granted granted Critical
Publication of JP5328539B2 publication Critical patent/JP5328539B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は入力装置に関するものであり、特にユーザ(操作者)からの入力に基づいてオブジェクトの表示を変更する入力装置に関するものである。
従来、パーソナルコンピュータにおいてユーザが入力操作を行う場合は、専らキーボードやマウス等の入力デバイスを用いて、ディスプレイ装置に表示された各種のフォルダやファイルなどのアイコンをクリックする等して行われることが多かった。しかしながら、最近はこのような入力操作を、タッチパネルを備えたディスプレイ装置を用いて行うことができるようになってきている。画面上に表示された各種フォルダやファイルなどのアイコンに対する入力操作を、タッチパネルを用いて行う場合、マウスなどの入力デバイスによるクリック操作の代わりに、タッチパネルに指やスタイラスペン等でタッチする(触れる)操作を行うのが一般的である。
また、最近では、例えば携帯電話機やPDA(Personal Digital Assistant)、ディジタルカメラ等に代表される端末機器にもタッチパネルが搭載され、上述したパーソナルコンピュータの入力操作と同様の入力操作が端末機器でも行うことができるようになっている。つまり、ユーザは端末機器に搭載されたタッチパネルに対して、指やスタイラスペン等でタッチする入力操作を行うことにより、タッチパネルの表示部に表示されたフォルダやファイル等のオブジェクトを操作することができる。
このように、タッチパネルを用いた入力操作はユーザが、タッチパネルに指やスタイラスペン等で直接タッチをしてオブジェクトの操作を行うため、従来の入力操作と比較して、より直感的な操作を行うことができる。
ところが、その反面、オブジェクトを操作するためにタッチパネルに対して入力操作を行うと、タッチパネル上に指やスタイラスペン等を近づけるため、操作しようとするオブジェクトの全体や一部が指先などで隠れてしまい、適切なオブジェクトを指示することができているのか否かなど、指先などによって隠れた表示部の位置にどのオブジェクトがあるのか、正確に視認できないという状況が生じていた。
以上のような問題に対処し得るものとして、表示部にユーザの指等を近付けてユーザの指等の位置が検出されると、その検出位置に表示されている操作項目(オブジェクト)が拡大表示されるように、表示を変更する情報入力装置が提案されている(例えば、特許文献1参照)。
図15は特許文献1に記載の情報入力装置のユーザの指等の位置に応じて、表示部に表示される操作項目を拡大表示する処理のフローチャートである。
表示部にユーザの指等を近付けてユーザの指等の位置が検出され、表示部の画面上における座標が特定されると(S1)、その検出された位置の座標に表示されている操作項目(オブジェクト)が拡大表示されるための処理が実行される(S2、S3)。この時、拡大表示された操作項目のタッチスイッチが押下して入力された場合に、文字情報が入力されるように、拡大表示された操作項目の表示範囲の座標の変更を行う(S4)。その後、ユーザによってタッチパネルのいずれかのタッチスイッチが押下されると、その押下位置の座標が判定され(S5)、この座標に対応して設定されている操作指示の入力が受け付けられる(S6)。
特開2004−302958号公報
上記特許文献1に記載の情報入力装置の場合、表示部にユーザの指等が近づいて検出された位置の座標情報、1点のみを基に表示部の処理を行っている。このため、指示しているオブジェクトのみを考慮して表示の変更処理が行われている。
しかしながら、オブジェクトを操作するためには表示部にユーザの指などを近づけて操作するため、操作するオブジェクト以外のオブジェクトまで、ユーザの指などにより隠れてしまう。すなわち、ユーザからは表示部にユーザの指などの物体が覆い被さってしまうため、視認性が悪くなってしまうという問題がある。
したがって、かかる事情を鑑みてなされた本発明の目的は、検出された物体の位置のみではなく表示部を覆う物体の領域まで考慮して表示部を制御することにより、ユーザの視認性を高めることができる入力装置を提供することである。
上記目的を達成する請求項1に係る入力装置の発明は、
オブジェクトを表示する表示部と、
該表示部に対して押圧する物体の位置を検出する位置検出部と、
該位置検出部により検出された物体の位置に基づいて前記表示部を覆う物体の非接触領域を推定する領域推定部と、
該領域推定部により推定された物体の非接触領域に対応するオブジェクトを該物体の接触領域および該物体の非接触領域以外に表示する表示制御部と、を備えることを特徴とするものである。
請求項2に係る発明は、オブジェクトを表示する表示部と、
該表示部に対して押圧する物体の位置を検出する位置検出部と、
該位置検出部により検出された物体の位置に基づいて前記表示部を覆う物体の領域を推定する領域推定部と、
該領域推定部により推定された物体の領域に対応するオブジェクトを該物体の領域以外に表示する表示制御部と、
前記表示部に対して押圧する物体の面荷重を検出する面荷重検出部と、を備え、
前記領域推定部は、前記位置検出部により検出された物体の位置と物体の面荷重とに基づいて前記表示部を覆う物体の領域を推定するものである。
請求項3に係る発明は、オブジェクトを表示する表示部と、
該表示部に対して押圧する物体の位置を検出する位置検出部と、
該位置検出部により検出された物体の位置に基づいて前記表示部を覆う物体の領域を推定する領域推定部と、
該領域推定部により推定された物体の領域に対応するオブジェクトを該物体の領域以外に表示する表示制御部と、
前記表示部に対して押圧する物体の指紋情報を検出する指紋情報検出部と、を備え、
前記領域推定部は、前記位置検出部により検出された物体の位置と物体の指紋情報とに基づいて前記表示部を覆う物体の領域を推定するものである。
上記目的を達成する請求項4に係る入力装置の発明は、
オブジェクトを表示する表示部と、
該表示部に対して押圧する物体の位置と、該物体の方向と、検出する位置方向検出部と、
該位置方向検出部により検出された物体の位置と物体の方向とに基づいて前記表示部を覆う物体の領域を推定する領域推定部と、
該領域推定部により推定された物体の領域に対応するオブジェクトを該物体の領域以外に表示する表示制御部と、を備えることを特徴とするものである。
本発明の入力装置によれば、表示部に対して押圧する物体の位置が検出されて、前記検出された物体の位置に基づいて推定される物体の領域が推定された場合、該物体が表示部を覆う物体の領域に基づいて表示部の制御を行う。したがって、本発明は、表示部に対して押圧する物体の位置のみではなく、表示部を覆う物体の領域まで考慮して表示部を制御することにより、ユーザの視認性を高めることができる。
本発明の第1実施の形態に係る入力装置の外観斜視図である。 第1実施の形態に係る入力装置の概略構成を示す機能ブロック図である。 第1実施の形態に係る入力装置のタッチパネルの構成態様を概略的に示す図である。 第1実施の形態におけるオブジェクトの表示変更処理を説明するフローチャートである。 第1実施の形態におけるオブジェクトの表示変更処理を詳細に説明するフローチャートである。 第1実施の形態に係る処理に基づく表示部の表示例を示す図である。 第2実施の形態に係る入力装置の概略構成を示す機能ブロック図である。 第2実施の形態におけるオブジェクトの表示変更処理を説明するフローチャートである。 第2実施の形態に係る処理に基づく表示部の表示例を示す図である。 第3実施の形態に係る入力装置の概略構成を示す機能ブロック図である。 第3実施の形態におけるオブジェクトの表示変更処理を説明するフローチャートである。 第4実施の形態に係る入力装置の概略構成を示す機能ブロック図である。 第4実施の形態に係る入力装置のタッチパネルの構成態様を概略的に示す図である。 第4実施の形態におけるオブジェクトの表示変更処理を説明するフローチャートである。 従来の情報入力装置による表示変更処理を説明するフローチャートである。
以下、本発明の各実施の形態について、図面を参照して説明する。以下の各実施の形態においては、本発明の入力装置の一例として、携帯電話やPDA等のような携帯端末であってタッチパネルを備えているものを想定して説明する。しかしながら、本発明の入力装置は、これら携帯端末に限定されるものではなく、例えば、ディジタルカメラ、ポータブルオーディオプレーヤ、ノートPC、ミニノートPC等の、入力装置を備える種々の端末とすることができる。また、本発明の入力装置は、携帯端末に限定されるものでもなく、銀行のATMや駅の乗車券販売機等、入力装置を備える任意の端末とすることもできる。
(第1実施の形態)
まず、本発明の第1実施の形態に係る入力装置について説明する。
図1は、本発明の第1実施の形態に係る入力装置の一例である携帯端末10の概略構成を示す外観斜視図である。この携帯端末10は、端末本体の前面に、一部切り欠いて示すように、表示部30を備えている。表示部30は、液晶ディスプレイ(LCD)または有機ELディスプレイなどで構成し、これに種々の情報およびキーやボタンなどの形状を描画してこれらの配列を表示する。また、この表示部30の前面には、位置検出部40を配設する。位置検出部40は、ユーザの指やスタイラスなどによる押圧入力を受け付けるマトリクススイッチ等で構成する。
本実施の形態では、これら表示部30と、位置検出部40とを含めてタッチパネル20を構成する。携帯端末10はさらに、必要な機能に応じて、ディジタルカメラ機能部、ワンセグ放送用チューナ、赤外線通信機能部などの近距離無線通信部、および各種インタフェース等を備える場合もあるが、これらは全て公知技術を利用することができるため、詳細な説明および図示は省略する。
図2は、本実施の形態に係る携帯端末10の内部構成を概略的に示す機能ブロック図である。図2に示すように、携帯端末10は、表示部30と位置検出部40とを備えるタッチパネル20と、領域推定部50と、表示制御部60と、を備えている。携帯端末10は、さらに、携帯端末10全体を制御および管理などを行う図示されていない制御部を備えている。本実施の形態においては、表示制御部60が表示部30の表示を制御する観点について詳述する。表示部30は、操作キーやボタンなどの画像、ならびに入力を促す文字または文字列などを表示する。位置検出部40は、表示部30の前面に重ねて配設することにより、表示部30に対してユーザにより操作された物体の押圧を受け付けて、その物体の位置を検出する。この物体とは、具体的にユーザの指先や、スタイラスのようなペン型デバイスなど、一般的にユーザが入力を行うために操作するものを示す。このような構成により、表示部30に対して押圧される物体の位置を位置検出部40が受け付けると共に、表示部30は各アプリケーションに応じて入力結果など各種情報の表示を行う。
具体的には、位置検出部40は、ユーザの指先やスタイラスなどの物体の接触(押圧)による入力を検知する(受け付ける)ことにより、位置検出部40上で当該接触による入力が検知された位置に対応する信号を出力する。この位置検出部40は、例えば抵抗膜方式や静電容量方式などのものを用いて構成する。表示部30は、各アプリケーションに対応する表示を行う他、表示部30に対するユーザの押圧入力を受け付けるための各種キーやボタンなどで構成するユーザインタフェースを所定の表示領域に描画して表示する。また、表示部30は、アプリケーションまたは基本ソフトウェアなどの操作に用いられるフォルダやファイルなどのアイコンも表示する。以下、このように、表示部30に対するユーザの押圧入力を位置検出部40によって検出するに際し、表示部30に表示する各種キーやボタンまたはフォルダやファイルのアイコンなどの画像を、単に「オブジェクト」と記す。
次に、上述した表示部30と、位置検出部40とを含めて構成されるタッチパネルの構成について、例を挙げて説明する。
図3は、図2に示した携帯端末10の表示部30、位置検出部40の構成を概略的に示す図である。図3は、本発明によるタッチパネルの最も基本的な構成の例を示す図である。表示部30は、ファイルやフォルダなどのオブジェクトを、ユーザが目視で認識できるように表示する。表示部30の前面には、位置検出部40を重ねて配設する。位置検出部40は、ユーザが表示部30に対して押圧する際の押圧の位置を検出する。位置検出部40に使用される素子には、抵抗膜方式や静電容量方式、赤外線方式のタッチパネルを用いる。この場合、位置検出部40は、重ねて配設したとしても表示部30の表示を外部から視認できるように、例えば透明フィルムや透明ガラスなどで構成される素材を用いる。なお、図3は、本発明のタッチパネルを構成する部材の位置関係を明瞭に示すための概略図であり、実際は、タッチパネルを構成する各部材を、図に示すよりも近接して配設させることに留意すべきである。
次に、本実施の形態におけるオブジェクトの表示変更処理について説明する。
図4は、本実施の形態におけるオブジェクトの表示変更処理を説明するフローチャートである。なお、以下の説明において、表示部30には、オブジェクトが少なくとも1つは表示されているものとする。
本願実施の形態において、表示部30はオブジェクトを表示する。この表示部30(タッチパネル20)に対して、ユーザの指などによる外部からの押圧がなされると、位置検出部40は表示部30に対して当該押圧する物体の位置を検出する(ステップS11)。この時、位置検出部40にて検出された物体の位置がオブジェクトに対応した場合はオブジェクトが指示されたとし、例えば、指示されたオブジェクトの色を、他のオブジェクトと区別するために変更することも可能である。これによりユーザは指示されたオブジェクトがどれであるか視認することができる。
ステップS11において表示部30に対して押圧される物体の位置が検出されると、領域推定部50は検出された該物体の位置に基づいて表示部30を覆う(隠す)物体の領域を推定する(ステップS12)。
ステップS12において、表示部30を覆う物体の領域が推定されると、推定された該物体の領域に対応するオブジェクトの有無を判定する(ステップS13)。物体の領域に対応するオブジェクトの判定を行う場合、ステップS12において、表示部30を覆うユーザの指などの物体の領域は、物体の幅を考慮して、実際に推定された領域よりも少し広げた領域にしておくことが望ましい。物体の領域を広くすることにより、物体の領域が実際より狭い場合と比較して、物体の領域に対応するオブジェクトを漏らすことなく判定することができる。
ステップS13において、物体の領域に対応するオブジェクトが無いと判定された場合(ステップS13におけるNo)は、表示部30に表示されるオブジェクトを変更せずに処理を終了する。
一方、ステップS13において、物体の領域に対応するオブジェクトが有ると判定された場合(ステップS13におけるYes)、表示制御部60は、物体の領域に対応するオブジェクトを該物体の領域以外に表示する(ステップS14)。物体の領域以外の領域とは、表示部30において、領域推定部50により推定された物体の領域以外の表示領域を示す。
その後、ステップS13において、物体の領域に対応するオブジェクトが無いと判定されるまで、ステップS14の表示変更処理を繰り返す。ステップS14の表示変更処理は、物体の領域に対応するオブジェクト1つ1つに対して行うものとする。
ステップS13において、物体の領域に対応するオブジェクトと判定されるための条件として、例えば、オブジェクトの面積のうち所定の閾値以上が物体の領域に覆われているものとしても良い。条件が無い場合、物体の領域に少しでもかかるオブジェクトは全て判定されてしまう。このため、ユーザが認識できているものまで、物体の領域に対応するオブジェクトと判定されてしまい、処理が増えてしまう。物体の領域に対応するオブジェクトと判定する際に、所定の条件を設けることにより、処理量の低減、消費電力を削減することができる。
図5は、上述したステップS14において行われるオブジェクトの表示変更処理の詳細を説明するフローチャートである。
ステップS13において、物体の領域に対応するオブジェクトが有ると判定された場合(ステップS13におけるYes)、物体の領域に対応するオブジェクトに対して、表示位置を変更できる方向(例えば、上、下、右、左など)の決定を行う(ステップS141)。このオブジェクトを変更できる方向は、位置検出部40により検出された物体の位置と、領域推定部50により推定された物体の領域と、に基づいて決定される。物体の領域が物体の位置からどの方向に広がっているかを判定し、該広がっている方向以外の方向を変更できる方向とする。
ステップS141において決定された変更できる方向の広さを検出する(ステップS142)。変更できる方向の広さは物体の領域と、該物体の領域に対応すると判定されたオブジェクトの大きさと、に基づいて検出をする。
まず、表示部30に対して垂直、水平なオブジェクトの幅分の領域を求める。この領域をオブジェクトから見て、上方向の領域、下方向の領域、左方向の領域、右方向の領域に分ける。各領域内に存在する物体の領域のうち最も外側にある点を求める。例えば、上方向の領域である場合は最も上側(外側)にある点を求める。この求めた各点から各方向の表示部の端までの距離が、オブジェクトを変更できる方向の広さとなる。
ステップS142において求めたオブジェクトを変更できる各方向の広さを、各方向に存在するオブジェクトの個数で割り、オブジェクト1つ当たりの表示領域を求める。求めたオブジェクト1つ当たりの表示領域のうち最も値の大きい、表示領域に余裕がある方向を、オブジェクトを変更する方向として決定する(ステップS143)。
ステップS143において決定されたオブジェクトを変更する方向に、物体の領域に対応するオブジェクトを移動させる(ステップS144)。このように表示部30の表示変更を行うことにより、タッチパネルを指示する物体によって複数のオブジェクトが隠れた場合においても、すべてのオブジェクトの認識を行うことができる。
また、ステップS144において、オブジェクトを変更する方向に、物体の領域に対応するオブジェクトをそのまま表示すると、空白領域が少ないため他のオブジェクト上に表示してしまう可能性が高い。そのため、例えば、オブジェクトを変更する方向に存在するオブジェクトと物体の領域に対応するオブジェクト、すべてのオブジェクトが被ることなく表示するためには、各オブジェクトを縮小して表示することにより、すべてのオブジェクトを確実に認識することが可能となる。
図6は上述したステップS11から、ステップS14(ステップS141からステップS144も含む)までの処理を行った場合の、携帯端末10の表示部30における動作例を示す図である。
図6(a)は、少なくとも1つのオブジェクトが表示される表示部30に対して、押圧が検出された状態を示している。この時、位置検出部40により表示部30に対して押圧される物体の位置が検出される。
図6(b)は、表示部30を覆う物体の領域を推定している状態である。領域推定部50は、位置検出部40により検出された物体の位置に基づいて、表示部30を覆う物体の領域を推定する。
図6(c)は、領域推定部50により推定された物体の領域内にオブジェクトが存在するかを判定している状態である。図では、表示部30を押圧する物体がユーザの指であり、指の下には星型六角形のオブジェクトと四角形のオブジェクトがある。
図6(d)、図6(e)は、物体の領域から星型六角形のオブジェクトと四角形のオブジェクトのそれぞれが移動できる方向の判定を行い、該判定された方向の各領域の広さを検出している。
図6(d)では、物体の領域が物体の位置から下方向に広がっているため、星型六角形のオブジェクトが移動できる方向は上、左、右の三方向となり、四角形のオブジェクトが移動できる方向も上、左、右の三方向となる。図6(e)は星型六角形の各領域の広さを検出している例である。まず、表示部30に対して垂直、水平なオブジェクトの幅分の領域を求める。この領域を各方向に分けて、各方向の領域内に存在する物体の領域のうち最も上側にある点をA(xa,ya)、最も左側にある点をC(xc,yc)、最も右側にある点をD(xd,yd)とする。
図6(e)では、求めた各点から各方向の表示部の端までの距離を求める。図では、表示部の大きさを(x,y)、左上端を(0,0)とし、上方向の表示部の端までの距離(大きさ)をheight、左方向の大きさをleft、右方向の大きさをrightとする。それぞれの値はheight=ya、left=xc 、right=x−xd、となる。この各方向の表示可能領域を、各方向に存在するオブジェクトの個数で割ることにより、オブジェクト1つ当たりの表示領域の広さを求め、表示領域に最も余裕がある方向の決定を行う。同図では、上方向にあるオブジェクトは七角形の1つ、左方向にあるオブジェクトは星型五角形の1つ、右方向にあるオブジェクトは星型五角形の1つ、であり、最も表示領域が広いのは左方向となる。なお、図示していないが、オブジェクトを変更できる方向が下側の場合は、下方向の領域内に存在する物体の領域のうち最も下側にある点B(xb,yb)を求める。下方向の表示部の端までの距離はy−ybとなる。
図6(f)は、物体の領域の対応するオブジェクトを、表示変更した状態のものである。表示制御部60は、指に覆われている星型六角形のオブジェクトと四角形のオブジェクトとを、最も表示領域が広いと決定された左方向に移動して表示を行う。この時、ユーザが押圧(指示)している星型六角形のオブジェクトを他のオブジェクトと異なる色にすると、ユーザが、現在、どのオブジェクトを指示しているのか視認することができる。
指示しているオブジェクトが正しい場合は、例えばタッチパネル20から物体を離すことによりオブジェクトの確定(入力)操作を行うことができる。オブジェクトの確定操作はタッチパネル20から物体を離す以外にも、更にタッチパネル20を押し込み、一定の荷重に達した場合や、オブジェクトを指示した状態で一定時間経過した場合などに、行うことができる。また、指示しているオブジェクトが間違っていた場合は、正しいオブジェクトを指示し直して正しい入力を行う。
このように、本実施の形態においては、表示部30(タッチパネル20)を覆う物体の領域を、表示部30に対して押圧する物体の位置に基づいて推定することにより、物体によって隠れた全てのオブジェクトの視認をすることができるように、表示部30の表示変更を行うことができる。
(第2実施の形態)
次に、本発明の第2実施の形態に係る入力装置の一例である携帯端末10について説明する。
第2実施の形態に係る入力装置は、上述した第1実施の形態に係る入力装置10において、領域推定部50の動作を変更するものである。したがって、第2実施の形態に係る入力装置は、第1実施の形態で説明した入力装置と同じ構成により実施することができるため、上述した第1実施の形態と同じ説明は適宜省略する。
図7は、第2実施の形態に係る携帯端末10の内部構成を概略的に示す機能ブロック図である。図7に示すように、携帯端末10は、第1実施の形態に面荷重検出部70をタッチパネル20内に更に備えている。この面荷重検出部70は、位置検出部40の背面、表示部30の前面に配設する。この面荷重検出部70は、表示部30に対して押圧する物体の面荷重を検出する。このため、面荷重検出部70は、ユーザの指などの物体の面荷重を検出することができる圧力センサなどで構成される。この面荷重検出部70は、表示部30の前面に配設するため、シート状など表示部30にかかる場合は、表示部30の表示を外部から視認できるように、例えば透明電極や透明フィルムや透明ガラスなどで構成される素材を用いる。
次に、本実施の形態におけるオブジェクトの表示変更処理について説明する。
図8は、上述した第1実施の形態におけるオブジェクトの表示変更処理のうち、変更した領域推定部50の動作を説明するフローチャートである。図4の第1実施の形態のフローチャートのステップS12を変更したものであり、その他の動作は同一であるため、説明は省略する。
変更された領域推定部50は、位置検出部40により検出された物体の位置と物体の面荷重とに基づいて表示部30を覆う物体の領域を推定する。
まず、位置検出部40により表示部30に対して押圧する物体の位置が検出されると、面荷重検出部70は該押圧する物体の面荷重を検出する(ステップS21)。
表示部30を押圧する物体、例えばユーザの指の面荷重は一定のものではない。実験の結果、指先により大きな荷重がかかることが分かっている。このことから、表示部30に対して押圧する物体の面荷重の大きさが、大きい方から小さい方に向かって物体の領域が広がっていることが想定される(ステップS22)。このとき、物体の面荷重が最も重い点をE、最も軽い点をFとし、線分EFが物体の領域がある方向として想定する。なお、面荷重が最も軽い点Fは、荷重が検出されていることが前提であり、荷重が0であることはない。
ステップS22において検出された物体の領域がある方向から、物体の領域を推定する(ステップS23)。まず、検出された物体の面荷重のうち、最も上側、下側、左側、右側に検出された四点を求める。そして、求めた各点を通る物体の領域がある方向(線分EF)に対して平行な線を四線求める。この求めた四線のうち、外側にある二線と、物体の面荷重の縁(端)からなる領域を物体の領域とする。
図9は上述したステップS21からステップS23までの処理を行った場合の、携帯端末10の表示部30の動作例を示す図である。
図9(a)は、表示部30に対して押圧する物体の面荷重を検出した状態である。この時、面荷重検出部70は表示部30に対して押圧する物体の面荷重を検出する。
図9(b)は、検出された面荷重の大きさから物体の領域が広がる方向を想定している状態である。ユーザは星型六角形のオブジェクトの左上部分を強く押圧しており、右下に向かって押圧荷重を弱めていることが分かる。図では、検出された面荷重のうち最も重い点がE、最も軽い点がFであり、物体の領域は、左上から右下に向かって斜めにあると想定される。
図9(c)は、領域推定部50により物体の領域を推定している状態である。位置検出部40により物体の位置は星型六角形のオブジェクトの右上にあると検出される。この星型六角形のオブジェクト上で検出された物体の面荷重のうち、最も上側、下側、左側、右側に検出された四点を求める。そして、求めた各点を通る物体の領域がある方向(線分EF)に対して平行な線を四線求める。この求めた四線のうち、外側にある二線と、物体の面荷重の縁(端)からなる領域を物体の領域とする。
面荷重検出部70を設けることにより、より正確に物体の領域を推定することができる。また、表示部30を覆う物体の領域は、物体の幅を考慮して、実際に推定された領域よりも少し広げた領域にしておくことが望ましい。物体の領域を広げることにより、物体の領域に対応するオブジェクトを漏らすことなく判定することができる。
このように、本実施の形態においては、表示部30(タッチパネル20)を覆う物体の領域を、表示部30に対して押圧する物体の位置と、面荷重検出部70により検出される物体の面荷重に基づいて推定することにより、物体によって隠れた全てのオブジェクトの視認をすることができるように、表示部30の表示変更を行うことができる。
(第3実施の形態)
次に、本発明の第3実施の形態に係る入力装置の一例である携帯端末10について説明する。
第3実施の形態に係る入力装置は、上述した各実施の形態に係る入力装置10において、領域推定部50の動作を変更するものである。したがって、第3実施の形態に係る入力装置は、各実施の形態で説明した入力装置と同じ構成により実施することができるため、上述した各実施の形態と同じ説明は適宜省略する。
図10は、第3実施の形態に係る携帯端末10の内部構成を概略的に示す機能ブロック図である。図10に示すように、携帯端末10は、第1実施の形態に指紋情報検出部80をタッチパネル20内に更に備えている。この指紋情報検出部80は、位置検出部40の背面、表示部30の前面に配設する。この指紋情報検出部80は、表示部30に対して押圧する物体の指紋情報を検出する。このため、指紋情報検出部80は、表示部30に対して押圧する物体であるユーザの指の指紋情報を検出するためのものであり、既存の電界検知式、静電容量式、感熱式、感圧式、光学式などを用いて構成する。この指紋情報検出部80は、表示部30の前面に配設するため、シート状など表示部30にかかる場合は、表示部30の表示を外部から視認できるように、例えば透明電極や透明フィルムや透明ガラスなどで構成される素材を用いる。
次に、本実施の形態におけるオブジェクトの表示変更処理について説明する。
図11は、上述した第1実施の形態におけるオブジェクトの表示変更動作のうち、変更した領域推定部50の動作を説明するフローチャートである。図4の第1実施の形態のフローチャートのステップS12を変更したものであり、その他の動作は同一であるため、説明は省略する。
変更された領域推定部50は、位置検出部40により検出された物体の位置と物体の指紋情報とに基づいて表示部30を覆う物体の領域を推定する。
まず、位置検出部40により表示部30に対して押圧する物体の位置が検出されると、指紋情報検出部80は該押圧する物体の指紋情報を検出する(ステップS31)。
ステップS31において、指紋情報検出部80により検出された物体の指紋情報と、予め登録されている指紋情報と、を比較し、押圧している物体の向き(方向)を判定する。押圧している物体の向きに基づいて、物体の領域がある方向を想定する(ステップS32)。この時、予め登録されている指紋情報から物体の指先を判定する。物体の領域は、物体の指先を始点に、判定された物体の向きに広がっている。
予め登録されている指紋情報は指が真っ直ぐの状態、または任意の角度の状態で記憶されていることが望ましい。比較対象となる予め登録されている指紋情報に基づいて物体の向きを判定し、判定された物体の向きに基づいて、物体の領域を推定するため、指先の位置が明確に分かっていることが望ましいためである。
次に、領域推定部50により物体の領域を推定する。指紋情報検出部80により検出された物体の指紋情報において、最も上側、下側、左側、右側に検出された四点を求める。そして、求めた各点を通る物体の領域がある方向に対して平行な線を四線求める。この求めた四線のうち外側にある二線と、物体の指紋情報の縁(端)と、からなる領域を物体の領域とする(ステップS33)。
指紋情報検出部80を設けることにより、より正確に物体の領域を推定することができる。また、表示部30を覆う物体の領域は、物体の幅を考慮して、実際に推定された領域よりも少し広げた領域にしておくことが望ましい。物体の領域を広げることにより、物体の領域に対応するオブジェクトを漏らすことなく判定することができる。
また、本実施の形態においては、指紋情報を例として説明をしたが、静脈情報でも対応可能である。表示部30を覆う物体の情報を予め記憶することができるものであれば、対応することができる。
このように、本実施の形態においては、表示部30(タッチパネル20)を覆う物体の領域を、表示部30に対して押圧する物体の位置と、指紋情報検出部80により検出される物体の面荷重に基づいて推定することにより、物体によって隠れた全てのオブジェクトの視認をすることができるように、表示部30の表示変更を行うことができる。
(第4実施の形態)
次に、本発明の第4実施の形態に係る入力装置の一例である携帯端末10について説明する。
第4実施の形態に係る入力装置は、上述した各実施の形態に係る入力装置10において位置検出部40と、領域推定部50と、の動作を変更するものである。したがって、第4実施の形態に係る入力装置10は、各実施の形態で説明した入力装置と同じ構成により実施することができるため、上述した各実施の形態と同じ説明は適宜省略する。
図12は、第4実施の形態に係る携帯端末10の内部構成を概略的に示す機能ブロック図である。図12に示すように、携帯端末10は、第1実施の形態における位置検出部40が、位置方向検出部90となり、表示部30を押圧する物体の位置を検出すると共に、該物体が表示部30を押圧する向きを検出している。
この位置方向検出部90は、表示部30の前面に重ねて設け、表示領域を遮らないよう周辺に配設する。この位置方向検出部90は、表示部30を押圧する物体の位置と、該物体の向きと、を検出するためのものであり、例えば、タッチパネルを赤外遮光方式とすることにより、物体の位置と物体の向きの双方の検出が可能となる。
次に、上述した位置方向検出部90と、表示部30とを含めて構成されるタッチパネルの構成について、例を挙げて説明する。
図13(a)は、図12に示した入力装置(携帯端末)10の表示部30、位置方向検出部90の構成を概略的に示す図である。図13(a)は、本実施の形態によるタッチパネルの構成の例を示す図である。表示部30の前面に、位置方向検出部90を重ねて配設する。位置方向検出部90は、ユーザが表示部30に対して押圧する物体の位置を検出すると共に、表示部30に対して押圧する物体の方向を検出する。位置方向検出部90に使用される素子には、赤外遮光方式のタッチパネルを用いる。位置方向検出部90は表示部30の表示領域を囲むように配設されている。表示部30の縁(端)のうち縦方向90aと横方向90bのそれぞれ一端にLEDなどを用いた発光部を、発光部に対面する縦方向90aと横方向90bのそれぞれ一端に受光側を設ける。縦方向90aと横方向90bの発光部からマトリックス状に光が発せられている。ユーザは、表示部30を押圧する際にこの発光部から出ている光を遮るため、この光が遮られた縦方向、横方向の位置から表示部30のどの位置が物体により押圧されているのか検出する。なお、図13(a)は、本発明のタッチパネルを構成する部材の位置関係を明瞭に示すための概略図であり、実際は、タッチパネルを構成する各部材を、図に示すよりも近接して配設させることに留意すべきである。
また、図13(b)は図13(a)のタッチパネル20の内部構造を概略的に示す断面図である。表示部30に対して押圧する物体の方向を検出するために、位置方向検出部90を複数重ねて配設する。図では、位置方向検出部90を二つ重ねている例を示す。また、矢印Aが発光部から出ている光を表す。
ユーザは表示部30を押圧する際に、物体を表示部30と平行にするのではなく、多少の角度をつける。このことから、ユーザが遮る光を他段階で設けることにより、1段目の光を遮る位置と、2段目の光のみ遮る位置と、に基づいて押圧する物体の方向を検出することができる。図でも示すように、1段目の光を遮った位置から、2段目の光を遮った位置の方向に物体が存在する。このことから、位置方向検出部90を他段階で設けることにより、表示部30を押圧する物体の方向と位置を一の部で検出することができ、小型化、軽量化を図ることが可能となる。また、位置方向検出部90は、表示部30の表示領域の周辺に配設するため、表示部30の表示領域を遮断するものが存在しないため、ユーザの視認性が良い。
次に、本実施の形態におけるオブジェクトの表示変更処理について説明する。
図14は、上述した第1実施の形態におけるオブジェクトの表示変更動作のうち、変更した位置方向検出部90、領域推定部50の動作を説明するフローチャートである。図4の第1実施の形態のフローチャートのステップS11およびステップS12を変更したものであり、その他の動作は同一であるため、説明は省略する。
位置方向検出部90は、表示部30に対して押圧する物体の位置と、該物体の方向と、を検出する(ステップS41)。この物体の位置と、該物体の方向と、が検出されると共に、該物体の幅(大きさ)も検出する。ユーザは表示部30を押圧する際に、位置方向検出部90の発光部から出ている光を遮るため、光が遮られた縦方向と横方向の位置から表示部30のどの位置が押圧されたかを検出する。また、同時に、マトリックス状に発せられた複数の光のうち、どの光が遮られたかを検出することにより、物体の幅を検出する。さらに、複数段設けた位置方向検出部90により、1段目の光と多段目の光を遮る位置により物体の方向を検出する。1段目の光を遮った位置から多段目の光を遮った位置の方向が、物体の向きである。
次に、領域推定部50により物体の領域を推定する(ステップS42)。領域推定部50は、位置方向検出部90により検出された物体の位置と物体の方向に基づいて表示部30を覆う物体の領域の推定をする。ステップS41にて、位置方向検出部90により検出された物体の位置を始点に、物体の向きに物体の領域が存在すると推定する。この推定された物体の領域がある向きに、検出された物体の幅分の膨らみを持たせた領域を物体の領域とする。
位置方向検出部90を設けることにより、より正確に物体の領域を推定することができる。また、表示部30を覆う物体の領域は、物体の幅を考慮して、実際に推定された領域よりも少し広げた領域にしておくことが望ましい。物体の領域を広げることにより、物体の領域に対応するオブジェクトを漏らすことなく判定することができる。
さらに、位置方向検出部90を設けることにより、複数の部(位置検出部40と面荷重検出部70、位置検出部40と指紋情報検出部80)で行っていた処理動作を一の部(位置方向検出部90)で行うことができるようになるため、機器の小型化、軽量化に繋がる。また、表示部30の前面にフィルタやガラスを設けることがないため、表示部30の表示領域を遮断するものが存在せず、ユーザの視認性が良い。
このように、本実施の形態においては、表示部30(タッチパネル20)を覆う物体の領域を、位置方向検出部90により検出される物体の位置と物体の方向に基づいて推定することにより、物体によって隠れた全てのオブジェクトの視認をすることができるように、表示部30の表示変更を行うことができる。
なお、本実施形態では、ユーザが表示部30に対して押圧を行った場合に表示変更の処理をするとしているが、例えば、位置検出部40により検出された物体の位置が、表示部30に表示されるオブジェクトの位置に対応する場合に、表示変更の処理を行うとしても良い。ユーザは入力操作を行いたい場合は、通常、操作したいオブジェクトを指示する。そのため、表示部30のオブジェクト以外を押圧した場合は、誤って触れてしまったなどの可能性が高い。ユーザからオブジェクトを指示した場合に、表示変更の処理を行うことにより消費電力を削減することができる。
また、上記記載において、位置検出部40または位置方向検出部90が検出する「表示部に対して押圧する物体の位置」とは、「押圧している物体の位置」を意味するのみならず、「押圧しようとしている物体の位置」の意味を含む場合もあることに留意すべきである。
例えば静電容量式のタッチパネルなど、タッチパネルに触れることによって初めて位置検出ができる位置検出部40を用いる場合、「押圧する物体の位置」とは、「(ユーザが実際に)押圧している物体の位置」を表す。この場合、位置検出部40により押圧の位置が検出された状態とは、位置検出部40が実際に押圧されている表示部の位置を検出している場合に他ならない。
一方、例えば赤外遮断式など、タッチパネル20に触れることなく位置の検出ができる位置方向検出部90を用いる場合、「押圧する物体の位置」とは、「(ユーザが実際に)押圧している物体の位置」のみならず、「(ユーザが今まさに)押圧しようとしている物体の位置」も含めた意味を有する。この場合、位置方向検出部90により押圧する物体の位置が検出された状態とは、実際に表示部30が押圧されているとは限らない。したがって、位置方向検出部90により押圧の位置が検出され、表示部30が実際に押圧されていない場合も含む。
10・・・入力装置(携帯端末)
20・・・タッチパネル
30・・・表示部
40・・・位置検出部
50・・・領域推定部
60・・・表示制御部
70・・・面荷重検出部
80・・・指紋情報検出部
90・・・位置方向検出部

Claims (4)

  1. オブジェクトを表示する表示部と、
    該表示部に対して押圧する物体の位置を検出する位置検出部と、
    該位置検出部により検出された物体の位置に基づいて前記表示部を覆う物体の非接触領域を推定する領域推定部と、
    該領域推定部により推定された物体の非接触領域に対応するオブジェクトを該物体の接触領域および該物体の非接触領域以外に表示する表示制御部と、
    を備えることを特徴とする入力装置。
  2. オブジェクトを表示する表示部と、
    該表示部に対して押圧する物体の位置を検出する位置検出部と、
    該位置検出部により検出された物体の位置に基づいて前記表示部を覆う物体の領域を推定する領域推定部と、
    該領域推定部により推定された物体の領域に対応するオブジェクトを該物体の領域以外に表示する表示制御部と、
    前記表示部に対して押圧する物体の面荷重を検出する面荷重検出部と、を備え、
    前記領域推定部は、前記位置検出部により検出された物体の位置と物体の面荷重とに基づいて前記表示部を覆う物体の領域を推定する入力装置。
  3. オブジェクトを表示する表示部と、
    該表示部に対して押圧する物体の位置を検出する位置検出部と、
    該位置検出部により検出された物体の位置に基づいて前記表示部を覆う物体の領域を推定する領域推定部と、
    該領域推定部により推定された物体の領域に対応するオブジェクトを該物体の領域以外に表示する表示制御部と、
    前記表示部に対して押圧する物体の指紋情報を検出する指紋情報検出部と、を備え、
    前記領域推定部は、前記位置検出部により検出された物体の位置と物体の指紋情報とに基づいて前記表示部を覆う物体の領域を推定する入力装置。
  4. オブジェクトを表示する表示部と、
    該表示部に対して押圧する物体の位置と、該物体の方向と、を検出する位置方向検出部と、
    該位置方向検出部により検出された物体の位置と物体の方向とに基づいて前記表示部を覆う物体の領域を推定する領域推定部と、
    該領域推定部により推定された物体の領域に対応するオブジェクトを該物体の領域以外に表示する表示制御部と、
    を備えることを特徴とする入力装置。
JP2009169839A 2009-07-21 2009-07-21 入力装置 Active JP5328539B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009169839A JP5328539B2 (ja) 2009-07-21 2009-07-21 入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009169839A JP5328539B2 (ja) 2009-07-21 2009-07-21 入力装置

Publications (2)

Publication Number Publication Date
JP2011022958A JP2011022958A (ja) 2011-02-03
JP5328539B2 true JP5328539B2 (ja) 2013-10-30

Family

ID=43632955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009169839A Active JP5328539B2 (ja) 2009-07-21 2009-07-21 入力装置

Country Status (1)

Country Link
JP (1) JP5328539B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5769234B2 (ja) * 2011-03-29 2015-08-26 埼玉日本電気株式会社 表示装置、表示方法およびプログラム
JPWO2013077338A1 (ja) * 2011-11-21 2015-04-27 株式会社ニコン 表示装置、表示制御プログラム
US10261612B2 (en) 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US10394434B2 (en) 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
JP6272069B2 (ja) * 2014-02-17 2018-01-31 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記録媒体
JP6484079B2 (ja) * 2014-03-24 2019-03-13 株式会社 ハイディープHiDeep Inc. 感性伝達方法及びそのための端末機
JP2018045729A (ja) * 2017-12-25 2018-03-22 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234993A (ja) * 2004-02-20 2005-09-02 Toshiba Corp 画像表示装置、及び画像表示方法
JP2009271689A (ja) * 2008-05-07 2009-11-19 Seiko Epson Corp 表示装置、および、表示装置における表示方法

Also Published As

Publication number Publication date
JP2011022958A (ja) 2011-02-03

Similar Documents

Publication Publication Date Title
US10795486B2 (en) Input apparatus, input method and program
US10444989B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
JP5360140B2 (ja) 情報閲覧装置及び制御プログラム並びに制御方法
JP5328539B2 (ja) 入力装置
JP5734546B2 (ja) オブジェクト表示装置
US9035883B2 (en) Systems and methods for modifying virtual keyboards on a user interface
TWI417764B (zh) A control method and a device for performing a switching function of a touch screen of a hand-held electronic device
US10241626B2 (en) Information processing apparatus, information processing method, and program
US20050162402A1 (en) Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
US20110083104A1 (en) Methods and devices that resize touch selection zones while selected on a touch sensitive display
US20110310024A1 (en) Portable terminal device and display control method
EP3035186A1 (en) Object operation system, object operation control program and object operation control method
US20130063385A1 (en) Portable information terminal and method for controlling same
JP6017995B2 (ja) 携帯型情報処理装置、その入力方法、およびコンピュータが実行可能なプログラム
JP2009098990A (ja) 表示装置
JP5845585B2 (ja) 情報処理装置
JP2014106806A (ja) 情報処理装置
US9244556B2 (en) Display apparatus, display method, and program
KR101678213B1 (ko) 터치 영역 증감 검출에 의한 사용자 인터페이스 장치 및 그 제어 방법
US20200064961A1 (en) Input device
CN110597417B (zh) 一种用于用户互动的计算设备
WO2015093005A1 (ja) 表示システム
JP2024053570A (ja) 電子機器及びタッチ操作方法
JP6079857B2 (ja) 情報処理装置
KR101919515B1 (ko) 터치스크린을 구비하는 단말에서 데이터 입력 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130723

R150 Certificate of patent or registration of utility model

Ref document number: 5328539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150