JP2009163345A - 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム - Google Patents

電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム Download PDF

Info

Publication number
JP2009163345A
JP2009163345A JP2007340242A JP2007340242A JP2009163345A JP 2009163345 A JP2009163345 A JP 2009163345A JP 2007340242 A JP2007340242 A JP 2007340242A JP 2007340242 A JP2007340242 A JP 2007340242A JP 2009163345 A JP2009163345 A JP 2009163345A
Authority
JP
Japan
Prior art keywords
input
display
sensitive
area
operation button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007340242A
Other languages
English (en)
Other versions
JP2009163345A5 (ja
JP4990753B2 (ja
Inventor
Masatoshi Nakao
雅俊 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2007340242A priority Critical patent/JP4990753B2/ja
Priority to US12/811,080 priority patent/US20100289768A1/en
Priority to PCT/JP2008/002896 priority patent/WO2009084140A1/ja
Priority to EP08867655.6A priority patent/EP2226711A4/en
Publication of JP2009163345A publication Critical patent/JP2009163345A/ja
Publication of JP2009163345A5 publication Critical patent/JP2009163345A5/ja
Application granted granted Critical
Publication of JP4990753B2 publication Critical patent/JP4990753B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】様々な状況において、操作対象となる操作ボタン等の表示領域と操作に対する感応領域とを適切に設定し、操作対象が明確に認識できない場合であっても操作性を向上させる。
【解決手段】入力信号解析部200は、画面表示制御部500により操作ボタンが非表示状態、または操作ボタンの輪郭の明瞭度が低い形態で表示状態となっている場合に、入力信号制御部300により検出されたタッチパネル10の入力位置が、操作ボタンの表示領域より大きい感応領域A1内にあるか否かを判定する。入力位置が感応領域A1内にあると判定した場合に、入力操作に対する処理を実行して設定制御部400や画面表示制御部500に指示を送り、画面表示制御部500により操作ボタンまたはその輪郭を表示状態にする。表示状態にしてから所定時間経過後、感応領域を操作ボタンの表示領域とほぼ同等で感応領域A1より小さい感応領域A2に切り替える。
【選択図】図1

Description

本発明は、例えば携帯電話端末、携帯型情報端末(PDA)、携帯型音楽プレーヤ、携帯型ゲーム機のような電子機器における入力操作に利用可能な電子機器の入力装置に関する。
様々な電子機器において、最近ではユーザの操作性を改善したり機械的な操作ボタンの数を削減するために、ユーザの入力操作のために操作部にタッチパネルが用いられる場合が多い。このタッチパネルは、平面上の任意の点をユーザが指等で触れたり押圧した時に、この入力操作を検知して入力位置の座標を検出したり入力位置の座標の変化を検出する。また、一般的には液晶表示器のような表示画面と重ねた状態でタッチパネルを配置し、状況に応じて表示画面に表示される様々な操作ボタン(またはアイコン)の位置とタッチパネル上の座標とを対応付ける。これにより、機械的な操作ボタンを多数設ける必要がなくなるし、表示される各操作ボタンの位置とタッチパネル上の座標との対応関係を表す情報と、表示画面に表示する内容とを変更するだけで、ハードウェアに変更を加えることなく、操作ボタンの位置や数や形状などを自由に変更することが可能になる。
この種の入力装置においては、表示画面に表示されているそれぞれの操作ボタンやアイコンの表示領域の範囲と一致する特定の操作範囲内で入力操作(例えばタッチパネル上の押下)を検出した場合に該当する操作ボタンやアイコンに事前に割り当てられているコマンドを実行するように制御するのが一般的である。
しかし、例えば携帯電話端末のように比較的表示画面が小さい電子機器の場合には、画面に表示される操作ボタンやアイコンも小さくせざるを得ないので、特にタッチパネル上をユーザが指で押下することにより入力操作を行う場合には、ユーザが操作しようとする操作ボタンが表示されている領域の範囲と実際にユーザが指等で押下する位置とがずれやすく、正しい位置を押下して希望の動作を開始するまでにユーザが同じ操作ボタンの押下を何回も繰り返すような状況も生じていた。
このような問題点を解消し、ユーザの操作性を改善するための従来技術として、例えば特許文献1、特許文献2、特許文献3、特許文献4に開示された技術が知られている。
特許文献1においては、タッチパネルに指が接近したことをカメラからの信号で認識すると、対象位置の近傍にあるアイコンを拡大表示することが開示されている。これにより、画面が小さい場合でもタッチパネルを操作する際には各アイコンを拡大した状態で確認できるので、位置を把握し易くなる。
特許文献2においては、画面に表示されているカーソルの位置が画面上の目的のボタンに近づくと、該当するボタンを拡大表示することが開示されている。これにより、画面が小さい場合でも画面上のボタンを操作する際にはボタンが拡大表示されるので、ボタンとカーソルとの位置合わせが容易になる。
特許文献3においては、表示されているアイコン等の領域の外側の位置がマウスカーソルにより操作(クリック)された場合に、該当するアイコン等の表示を拡大し、入力操作に反応する領域も拡大することが開示されている。これにより、画面が小さい場合でも画面上で拡大されたアイコン等を操作することができるので、アイコンとマウスカーソルとの位置合わせが容易になる。
特許文献4においては、タッチパネルの画面に表示する多数のアイコンのそれぞれに優先度(プライオリティ)を割り当て、優先度に応じて各アイコンの領域の大きさを制御すること、並びに各アイコンが実際に操作された頻度を検出し、その結果に応じて各アイコンの優先度を自動的に変更することが開示されている。これにより、優先度の高いアイコンや操作頻度の高いアイコンについては大きく表示されるので各アイコンと指との位置合わせが容易になる。
特開2006−236143号公報 特開平8−16353号公報 特開平9−251341号公報 特開平9−54657号公報
ところで、タッチパネルによる操作あるいはマウスカーソル等を用いた操作のために操作ボタンやアイコンのような可視情報(グラフィカルユーザインタフェースを構成する表示要素:ウィジェット(Widget)とも呼ばれる)を画面に表示する装置であっても、一時的に表示を消去する場合もある。
例えば、比較的小さい画面にテレビ番組のような動画像や写真のような静止画のコンテンツを表示する場合には、コンテンツの鑑賞の際にそれぞれの操作ボタンやアイコンの表示がユーザにとって目障りになる可能性が高いので、画面上で操作可能な状態の操作ボタンであっても非表示状態に切り替えてユーザからの入力操作を待ち、実際に操作が検出されたような場合だけその操作ボタンを非表示状態から表示状態に切り替えるように制御する。
従って、ユーザは非表示状態の操作ボタンやアイコンについても操作が可能であり、これらを実際に操作する場合がある。すなわち、ユーザが使い慣れた電子機器であれば、ユーザは表示状態の各操作ボタンの位置を自分で覚えているので、所望の操作ボタンが存在すると考えられる隠れた領域の近傍をタッチパネルの押下によりあるいはマウスカーソル等を用いて操作することになる。
しかしながら、非表示状態の操作ボタンやアイコンを操作する場合には、それらの位置を目で確認できず、ユーザ自身の記憶と勘のみに頼らざるを得ないので、位置合わせが難しく操作性が良くない。また、表示状態の操作ボタンやアイコンを操作する場合であっても、位置合わせが難しい場合もある。例えば、画面上に表示されている操作ボタンの表示内容とその背景(例えば画像など)の内容とのコントラスト(輝度の差)あるいは色の差が小さい場合には、操作ボタンとその背景との境界の区別が困難になるので、操作すべき操作ボタンの表示されている範囲を把握しにくい。また、例えば操作ボタンの形状が複雑な形状であったり、操作ボタンの輪郭部分が直線的または曲線的でない(例えば波形やギザギザになっている)ような場合にも、操作すべき操作ボタンの範囲がどの領域までなのかを把握するのが困難になる。
本発明は、上記事情に鑑みてなされたもので、様々な状況において、操作対象となる操作ボタンやアイコン等の要素の表示領域と操作に対する感応領域とを適切に設定でき、操作対象が明確に認識できない場合であっても操作性を向上させることが可能な電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラムを提供することを目的とする。
本発明による電子機器の入力装置は、入力操作に関する可視情報を表示可能な表示部と、前記表示部の表示画面への指示を行い、入力信号を発生する入力操作部と、前記入力操作部の入力信号に基づいて処理を指示する入力制御部とを備える電子機器の入力装置であって、前記入力制御部は、前記入力信号に基づいて前記表示画面に対応する入力された位置を検出する入力位置検出部と、前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御部と、前記画面表示制御部により前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記入力位置検出部により検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析部とを有し、前記入力信号解析部により前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御部によって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示するものである。
本発明による電子機器の入力装置は、入力操作に関する可視情報を表示可能な表示部と、前記表示部の表示画面に対応する入力面への接触操作による入力機能を有するタッチパネルと、前記タッチパネルの入力信号に基づいて入力操作に対する処理を指示する入力制御部とを備え、前記入力制御部は、前記入力面において入力された位置を検出する入力位置検出部と、前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御部と、前記画面表示制御部により前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記入力位置検出部により検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析部とを有し、前記入力信号解析部により前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御部によって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示するものである。
これにより、表示部に表示される操作対象のオブジェクトが非表示状態、またはオブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、入力操作に感応する感応領域をオブジェクトの表示領域を含む第1の感応領域とし、入力位置が第1の感応領域内にある場合に入力操作に対する処理を実行することで、様々な状況において、操作対象となる操作ボタンやアイコン等の要素の表示領域と操作に対する感応領域とを適切に設定できる。また、操作対象が明確に認識できない場合であっても操作性を向上させることができる。また、操作入力を検出した場合にオブジェクトを表示状態にするか、またはオブジェクトの輪郭を表示することで、ユーザは操作に対する反応を確認でき、操作対象を明確に認識できる。
また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記画面表示制御部が前記オブジェクト自体または前記オブジェクトの輪郭を表示して所定時間経過後、入力操作に感応する感応領域を前記第1の感応領域以内の第2の感応領域に切り替え、前記入力位置が前記第2の感応領域内にあるか否かを判定するものを含む。
これにより、オブジェクトに対する入力操作を検出した後にオブジェクトを表示状態にするか、またはオブジェクトの輪郭を表示し、所定時間経過後、入力操作に感応する感応領域を第1の感応領域以内の第2の感応領域に切り替えることで、操作対象のオブジェクトに対応した入力操作を適切に受け入れて処理することができ、ユーザによる操作位置の把握や位置合わせも容易である。
また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記第1の感応領域として、前記オブジェクトの表示領域より大きい領域を設定するものを含む。
これにより、オブジェクトの表示領域より大きい領域を第1の感応領域として設定することで、操作対象のオブジェクトが明確に認識できない場合においても、オブジェクトの表示範囲から多少ずれた位置をユーザが操作した場合であってもその入力操作を受け付けて対応する処理を行うことができる。
また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記第2の感応領域として、前記オブジェクトの表示領域と約同等の大きさで前記第1の感応領域より小さい領域を設定するものを含む。
これにより、オブジェクトの表示領域と約同等の大きさで第1の感応領域より小さい領域を第2の感応領域として設定することで、操作対象のオブジェクトが認識できる場合はオブジェクトの表示領域に合った入力操作のみを適切に受け入れて処理でき、入力操作時の誤検出などを防止できる。
また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記オブジェクトの輪郭の明瞭度が低い形態として、前記オブジェクトの輪郭部分が複雑な形状の場合、前記オブジェクトの表示がグラデーションを含んでいる場合、前記オブジェクトの表示輝度が低い場合、前記オブジェクトと背景とのコントラストが低い場合のうちの少なくとも一つを含む場合に、前記第1の感応領域として、前記オブジェクトの表示領域より大きい領域を設定するものを含む。
これにより、オブジェクトの輪郭の明瞭度が低い形態の場合に第1の感応領域としてオブジェクトの表示領域より大きい領域を設定することで、入力位置が多少ブレたりした場合でも入力操作を検出して操作対象に対応する処理を行うことができる。
また、本発明は、上記の電子機器の入力装置であって、前記入力信号解析部は、前記入力位置が前記第1の感応領域外である場合であっても、所定時間以内に前記入力位置が前記第1の感応領域内に移動したことを検出した場合には、前記オブジェクトに対する入力操作であると判定するものを含む。
これにより、入力位置が第1の感応領域外である場合であっても所定時間以内に第1の感応領域内に移動した場合は、オブジェクトに対する入力操作であるとみなすことで、ユーザの操作位置の補正に対して適切に対応することができ、操作性を向上できる。
本発明の入力操作処理方法は、入力操作に関する可視情報を表示可能な表示部と、前記表示部の表示画面に対応する入力面への接触操作による入力機能を有するタッチパネルと、前記タッチパネルの入力信号に基づいて入力操作に対する処理を指示する入力制御部とを備える電子機器の入力装置における入力操作処理方法であって、前記入力制御部において、前記入力面において入力された位置を検出する入力位置検出ステップと、前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御ステップと、前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析ステップとを有し、前記入力信号解析ステップにより前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御ステップによって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示するものである。
また、本発明は、上記の入力操作処理方法の各ステップの手順を実行させるための入力制御プログラムを提供する。
また、本発明は、上記いずれかに記載の入力装置を搭載した電子機器を提供する。
本発明によれば、様々な状況において、操作対象となる操作ボタンやアイコン等の要素の表示領域と操作に対する感応領域とを適切に設定でき、操作対象が明確に認識できない場合であっても操作性を向上させることが可能な電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラムを提供できる。
以下の実施形態では、電子機器の入力装置の一例として、携帯電話端末等の携帯電子機器に適用した構成例を示す。
(第1の実施形態)
図1は本発明の実施形態における電子機器の入力装置の主要部の構成を示すブロック図である。
本実施形態の入力装置は、例えば携帯電話端末、携帯型情報端末(PDA)、携帯型音楽プレーヤ、携帯型ゲーム機のような電子機器に対してユーザが入力操作を行うために利用することを想定した装置である。入力装置は、電子機器に搭載され、表示部上の入力面において触れる、なぞる等の接触操作による入力機能を有するタッチパネルを備えて構成される。
図1に示す入力装置1は、タッチパネル10、表示部30、アプリケーション100、入力信号解析部200、入力信号制御部300、設定制御部400、及び画面表示制御部500を備えて構成される。また、入力装置1を搭載した電子機器には、音声信号出力用の増幅器、スピーカやヘッドホン等の音声出力部などの、制御対象デバイス50が設けられる。
タッチパネル10は、操作用の入力デバイスであり、平面状に形成された透明な感圧シートを含み、前記感圧シートの面における接触の有無及び接触を検出した位置の座標情報を表す信号を定期的に出力する。従って、ユーザが自分の指やスタイラスペン等を用いてこの感圧シートの表面を押下する(触れる)ことにより、接触したことを示す信号及び入力位置の座標情報が出力される。なお、接触の有無及び接触した入力位置の座標を検出できるものであれば、静電式タッチパネルなど、感圧シート以外の検出要素を用いてタッチパネル10を構成しても良い。
表示部30は、平面状の表示画面に文字、図形、画像のような様々な可視情報を表示することが可能な装置であり、液晶表示装置などにより構成される。前記タッチパネル10は、この表示部30の表示画面の上に重ねて配置され、入力面を形成している。従って、ユーザは表示部30の表示画面の内容をタッチパネル10を透過した光により確認しながら、タッチパネル10上の特定の位置(操作ボタン等が表示されている位置)に触れることができる。なお、各操作ボタンの表示を表示部30の表示画面上から一時的に消去して非表示状態にすることもあるが、非表示状態の操作ボタンに対しても入力操作を行うことができる。
アプリケーション100は、上位の個別のアプリケーションプログラム(例えば音楽再生機能を提供するプログラム)と、入力操作のための機能を提供する入力装置1との間で各種データや制御情報等をやり取りするためのインタフェースを提供するプログラム(ミドルウェア)である。このアプリケーション100は、入力信号解析部200から通知される制御信号に基づいて、該当するコマンドを実行し、設定制御部400及び画面表示制御部500に指示を与える。この際、表示部30の表示画面における各操作ボタンの表示状態/非表示状態の管理も行う。
入力信号制御部300は、入力デバイスであるタッチパネル10から出力される信号の受付を制御する。具体的には、タッチパネル10から入力される信号がノイズかどうかを識別し、ノイズでない適切な信号を検出した場合には、入力面における入力位置を検出し、接触の有無及び接触した位置の座標を表す情報を一定の間隔で入力信号解析部200に通知する。
入力信号解析部200は、入力信号制御部300から入力される情報を解析することにより、ユーザの入力操作の内容を予め割り当てられたコマンドに対応付けて、該当するコマンドを実行指示するための制御信号を出力する。具体的には、単純なボタンの押下に相当する操作状態(接触オン)、押下を解除したことを表す操作状態(接触オフ)、押下しながら接触位置を移動する場合の移動軌跡(接触位置の変位)などの操作内容、及びこれらの操作位置の座標(入力座標)を検出する。また、各操作ボタンについてユーザの入力に反応する領域の大きさを、該当する操作ボタンが表示状態か非表示状態かに応じて切り替える。更に詳細な動作については後で説明する。入力信号解析部200の解析結果は、アプリケーション100を経由して設定制御部400または画面表示制御部500に入力される。
設定制御部400は、電子機器が動作する際に使用する様々なパラメータを管理し、対象部の制御を行う。例えば、音楽を再生する場合の音量を調整するための音量調整パラメータや、音質を調整するための音質調整パラメータなどを設定制御部400が管理する。そして、これらのパラメータを制御対象デバイス(例えば増幅器)50に与える。
画面表示制御部500は、表示部30の表示画面における操作対象のオブジェクトの表示を制御するもので、操作対象のオブジェクトの一例としての操作ボタンを可視情報(物理的な操作ボタンに似たイメージの表示内容)として表示したり、表示を消去したりなどの表示制御を行う。また、表示部30の表示画面における輝度を調整するための輝度調整パラメータなどを管理し、表示部30を制御する。本実施形態では、操作対象のオブジェクトとして操作ボタンを例示して説明するが、操作対象のオブジェクトには、ボタン、ツマミ、ノブ、スイッチ、ホイール、スライドバー、アイコンなど、各種の操作対象物を可視情報として表示するものが含まれる。
上記構成において、入力信号解析部200、入力信号制御部300、設定制御部400、画面表示制御部500が入力制御部の機能を実現し、このうち、入力信号制御部300が入力位置検出部の機能を実現する。
音量調整(ボリューム調整)を行う場合、設定制御部400から音量調整パラメータの値が制御対象デバイス50である音声信号出力用の増幅器にゲインを調整する制御信号として入力される。例えば、ユーザが音量調節のための入力操作をタッチパネル10に対して行うと、この入力操作を入力信号解析部200が認識し、その認識結果がアプリケーション100を介して設定制御部400に入力され、設定制御部400における音量調整パラメータが変更される。これにより、制御対象の増幅器のゲインが変化し、音声出力部からの出力音量が変化する。
図2は第1の実施形態の入力装置における表示画面及び動作の具体例を示す模式図である。第1の実施形態に係る入力装置の動作の具体例について、図2を参照しながら説明する。表示部30には、図2に示すように表示画面31にボリュームの操作ノブを模した円形の形状を有する可視情報である操作ボタン32などが表示されている。ユーザは、この画面に重なっているタッチパネル10を透過する光により画面の表示内容、すなわちタッチパネル上の操作ボタン32の可視情報を見ながら、タッチパネル10を操作することができる。
一般的な装置の場合には、図2(b)に示すように表示画面31に表示されている操作ボタン32の範囲とユーザからの指33での操作入力に対して感応するタッチパネル10の領域の範囲とが一致するように制御される。また、例えばユーザが入力操作をほとんど行わないような状況では、不要な操作ボタン32の表示を一時的に消去するように制御する。操作ボタン32を表示画面31から消去した状態であっても、操作ボタン32に対するユーザの入力操作は可能である。すなわち、使い慣れた電子機器であれば、ユーザは操作ボタン32が存在するおおよその位置を記憶しているので、目で見えない非表示状態の操作ボタン32についてもそれが存在すると考えられる箇所を記憶と勘に頼って接触して操作できる。そして、操作位置が操作ボタン32の位置と一致する場合には、入力装置は入力操作を受け付ける。
ところが、目で見えない非表示状態の操作ボタン32を操作する場合には、ユーザは記憶と勘に頼って操作するので、位置ずれが発生する可能性は高い。その結果、所望の操作を実現するために、ユーザは少しずつ指を動かしながら同じ入力操作を何回も繰り返すことになり、操作性が良くない場合がある。
そこで、本実施形態の入力装置では、該当する操作ボタン32に対して感応する領域を、操作ボタン32が表示状態か非表示状態かに応じて自動的に切り替える。例えば、図2(a)に示すように、操作ボタン32が表示状態のときには、操作ボタン32の表示されている領域(ボタンの輪郭の内側)と一致する感応領域A2(第2の感応領域)を、入力操作に感応する領域として割り当てる。また、操作ボタン32が非表示状態のときには、操作ボタン32の表示される領域A2よりも大きい感応領域A1(第1の感応領域)を、入力操作に感応する領域として割り当てる。
また、操作ボタン32が非表示状態で入力操作が行われた場合に、操作ボタン32を非表示状態から表示状態に切り替えるときには、入力操作に感応する感応領域A1からA2への切り替えを所定時間だけ時間的に遅延させたり、この感応領域の外側での入力を検出した場合であっても所定時間以内に領域内に移動した場合には一連の入力操作として受け付けるように制御する。
図2(c)はユーザの入力操作及び表示画面の状態遷移の具体例を表している。図中左側の表示画面31aでは、操作ボタン32が非表示状態であり、操作ボタンの輪郭よりも大きな感応領域A1が入力操作に感応するようになっている。この状態でユーザが指33によりボタン位置より少し外れた広い位置より操作を開始すると、このユーザの入力操作に伴って図面中央の表示画面31bのように、操作ボタン32が表示状態に変化する。操作ボタン32が表示状態に変化すると、ユーザは操作すべき操作ボタンの位置を正確に把握できるので、操作位置の軌道を補正し、移動軌跡34を操作ボタン32の表示領域内に収束させることが可能である。この状態で、入力操作に感応する領域が操作ボタンより大きな感応領域A1から操作ボタンの輪郭の内側の感応領域A2に切り替わる。そして、図中右側の表示画面31cのように、操作ボタン32に対する円状の回転操作を継続させることで、音量調整等の連続的な状態変化の入力操作を行うことができる。
本実施形態では、操作ボタンに対してぐるぐると回転操作する円運動の連続操作など、連続的な入力操作を行い、この入力操作に対応するコマンドとして連続操作に対して音量、音質、輝度、再生位置などの状態を連続的に変化させる場合を想定して説明する。
次に、第1の実施形態に係る入力装置の具体例な処理手順を図3を参照しながら説明する。図3は第1の実施形態の入力装置における主要な動作を示すシーケンス図である。
ユーザがタッチパネル10に触れて入力操作を行う場合には、タッチパネル10への接触操作があった場合に、タッチパネル10上の入力位置を表す座標情報などを含む操作検知信号SG1が入力信号制御部300へ一定の周期で出力される。入力信号制御部300は、タッチパネル10が出力する操作検知信号SG1の中から、ノイズを除去して有効な情報だけを操作信号SG2として入力信号解析部200に与える。図3の右側に示す各構成要素の間Tは、タッチパネル10からの入力座標情報が入力信号制御部300を経て入力信号解析部200へ継続的に通知される。
入力信号解析部200は、ステップS1において今回の入力操作に対応付けられているコマンドを解析する。すなわち、入力された操作信号SG2に基づいて入力位置やその移動軌跡などを検出し、予め設定されて保持しているコマンド割り当てテーブル210を利用して、該当するコマンドを判定する。
この際、入力信号解析部200は、まず、操作が開始されたときにその入力位置を示す入力座標を取得し、コマンド割り当てテーブル210を参照してその座標位置に該当する操作ボタンが規定されているかどうかを判定する。ここで、操作ボタンが非表示状態である場合は、操作ボタンが表示される領域の範囲よりも広い範囲の感応領域(図2のA1)で入力操作を受け付ける。該当する操作ボタンが存在する場合には、入力信号解析部200はその操作ボタンに割り当てられたコマンドを選択し、アプリケーション100にコマンド情報を与えて対応するコマンドを実行させる。コマンド実行のタイミングは、入力座標が連続的に変化する操作による入力の場合は所定の時間間隔で、単一の操作による入力の場合はユーザの指がタッチパネル10から離れたときなどに実行する。
このとき、入力信号解析部200からアプリケーション100に入力操作に対応するコマンド信号SG3を与え、アプリケーション100から画面表示制御部500に表示制御信号SG5を与えて、操作ボタンの表示切り替えの制御を行うとともに、アプリケーション100から設定制御部400に設定制御信号SG4を与えて、コマンドに該当するパラメータの値を変更する。
また、入力信号解析部200は、感応領域の切り替えタイミングを計測するタイマを起動し、このタイマが満了するまでは操作ボタン表示前と同様に大きな感応領域A1によって入力操作に対応付けられているコマンドを解析する。すなわち、ユーザの操作開始の検出に伴って、画面表示制御部500に指示して非表示状態の操作ボタンを表示状態に切り替えるが、この操作ボタン表示の切り替えタイミングに対して、入力操作を受け付ける感応領域の切り替え(A1からA2への切り替え)については時間的に遅延させる。
例えば、図3の例では、ステップS1に続くステップS2でのコマンド解析においても、タイマ満了前であれば、入力信号解析部200は操作ボタンを表示する前と同じ感応領域である大きい感応領域A1によって入力操作を受け付ける。その後、タイマにより所定時間の経過を検出すると、入力信号解析部200は入力操作を受け付ける領域を小さい感応領域A2に切り替え、続くステップS3、S4において同じ入力操作が継続しているかどうかを判定する際にも、操作ボタンの表示後と同じ感応領域であるボタン表示領域(輪郭)と同等の感応領域A2の範囲のみについて入力操作を受け付ける。ステップS3、S4では、入力操作が継続している場合には、同じコマンドのコマンド情報を出力して対応するコマンドを再び実行し、入力操作の中断を検出した場合には、新たな入力操作について判定する。
図4は第1の実施形態の入力装置における表示画面の具体例を示す模式図である。図4において、(a)は表示部30の表示画面31に表示される操作ボタンを、(b)は操作ボタンより大きな感応領域A1を、(c)は操作ボタンと同等の大きさの感応領域A2をそれぞれ示している。表示部30の表示画面31には、ボリュームの操作ノブを模した円形の操作ボタン32a、32bが配置されている。入力信号解析部200では、図3の各ステップS1,S2,S3,S4においてコマンド割り当てテーブル210が参照され、操作ボタンの表示状態に応じて、図4(b)の感応領域A1(非表示状態の場合)、または図4(c)の感応領域A2(表示状態の場合)によってタッチパネル操作に対応するコマンドの判定が行われる。
図5は第1の実施形態の入力装置において使用するコマンド割り当てテーブルの具体例を示す模式図である。図5では、図4の各操作ボタンに対応するコマンド割り当てテーブル210の内容を示している。コマンド割り当てテーブル210には、それぞれの入力操作に対応付けた情報として、操作ボタン毎に、操作ボタンの形状を表す情報と、その操作ボタンの座標位置(X,Y)及び大きさ(半径R)による操作ボタンの表示範囲と、操作ボタンに対応する操作の内容(タッピング,回転など)と、実行すべきコマンドの種類(ボタンX,ボタンYなど)とが登録されている。従って、図3のステップS1等においては、このコマンド割り当てテーブル210の内容を参照し、入力された操作信号SG2の入力座標や移動軌跡と比較することにより、実行すべきコマンドを特定することができる。
また、本実施形態では、入力信号解析部200におけるその他の制御パラメータとして、操作ボタンの表示前の感応領域拡大幅(例えば50ドット)、表示後の感応領域拡大幅(例えば0ドット)、感応領域の変更タイミング遅延時間(例えば500msec)が設定されている。この例では、操作ボタンの表示前には操作位置がボタン輪郭から50ドット外に離れていても感応する状態とし、操作ボタンの表示後にはボタンサイズ通りにボタン輪郭の範囲内で感応する状態に切り替える。この際、操作ボタンの表示後に500msec経過してから感応領域を変化(狭く)させるようにし、ユーザによる操作位置の軌道補正が可能なように少し余裕を持たせる。
例えば、操作ボタンが非表示状態の場合には、座標位置がX=100〜300、Y=0〜250の感応領域A1内で入力操作を検出した場合に、該当する操作ボタン32a(ボタンX)に対する操作がなされたものと判定し、この操作ボタンに割り当てられたコマンドを実行対象に決定する。一方、操作ボタンが表示状態の場合には、座標位置がX=150〜250、Y=100〜200の感応領域A2内で入力操作を検出した場合に、該当する操作ボタン32a(ボタンX)に対する操作がなされたものと判定し、この操作ボタンに割り当てられたコマンドを実行対象に決定する。
図3のステップS1で入力操作を解析した結果、入力操作に対応付けられたコマンドが「音量調整(音量増大)」のコマンドであると認識した場合には、入力信号解析部200は音量調整用のコマンドとして音量増大のコマンド信号SG3をアプリケーション100に与える。この場合、アプリケーション100はコマンド信号SG3に従って、音量増大の設定制御信号SG4を設定制御部400に与え、音量調整パラメータの値を変更する。これにより、設定制御部400における音量調整パラメータが現音量値から1段階増加される。
また、ユーザの入力操作が継続している(タッチパネル10に指が触れた状態が続いている)場合には、入力信号解析部200は入力される操作信号SG2に従って、各ステップS2、S3、S4で入力操作のコマンド解析及び継続判定を実行し、判定の結果をアプリケーション100に与える。ここで、音量調整(音量増大)に対応する入力操作が継続された場合、所定時間または所定変位量毎に、音量増大のコマンド信号SG3が入力信号解析部200からアプリケーション100に入力される。これにより、アプリケーション100から音量増大の設定制御信号SG4が設定制御部400に逐次入力され、音量調整パラメータの値が更新されて1段階ずつ増加される(図3の例では5→6→7)。
以下に、本実施形態のより詳細な動作について図6及び図7を参照しながら説明する。図6は第1の実施形態における感応領域切替動作の処理内容を示すフローチャートであり、図7は第1の実施形態における入力処理動作の処理内容を示すフローチャートである。ここで、図6に示す処理は、主に入力信号解析部200において短い周期で定期的に繰り返し実行される。また、図7に示す処理は、主に入力信号解析部200においてタッチパネル10に対する入力操作の検出に伴って実行されるもので、図3のコマンド解析のステップS1、S2、及び継続判定のステップS3、S4などで処理が行われる。
図6のステップS11では、入力信号解析部200は、画面表示制御部500を介して表示部30の表示画面31に表示可能な操作ボタン32の状態を調べ、表示状態か非表示状態かを判別する。表示状態であればステップS12に進み、非表示状態であればステップS14に進む。
ステップS12では、入力信号解析部200は、操作ボタン32が非表示状態から表示状態に切り替わってからの経過時間が所定時間T1(例えば500ミリ秒)に到達したかどうかを調べ、時間T1を経過した場合はステップS13に進み、時間T1を経過する前であればステップS14に進む。
ステップS13では、入力信号解析部200は、操作ボタン32が表示状態の場合に、各操作ボタン32の感応領域(入力操作に感応する領域)として、操作ボタン32の表示範囲の輪郭の内側と同等の感応領域A2(図2(a)参照)を割り当てる。
ステップS14では、入力信号解析部200は、操作ボタン32が非表示状態の場合に、各操作ボタン32の感応領域として、操作ボタン32の表示範囲よりも所定量大きい感応領域A1(図2(a)参照)を割り当てる。
ステップS15では、入力信号解析部200は、最後の入力操作を検出してから所定時間T3を経過したかどうかを識別し、時間T3を経過しても新たな入力操作を検出しない場合には次のステップS16を実行する。
ステップS16では、画面表示制御部500は、表示状態の操作ボタン32を表示画面31から消去し、非表示状態に切り替える。つまり、ユーザが入力操作を行わない状態が時間T3に渡って継続すると、操作ボタン32は自動的に非表示状態に切り替わる。
一方、図7のステップS21では、入力信号解析部200は、入力操作を検出したかどうかを判定し、検出した場合にはステップS22に進む。すなわち、タッチパネル10から出力される操作検知信号SG1によって入力信号制御部300が出力する操作信号SG2に基づき、入力信号解析部200が入力操作を検出したかどうかを判定する。
ステップS22では、入力信号解析部200は、操作開始からの経過時間を判定するために利用するタイマを起動する。このタイマは、図3に示すタイマ等に該当するもので、図6の時間T1、図7の時間T2などをカウントする。
ステップS23では、入力信号解析部200は、タッチパネル10が検出した入力位置の座標と、コマンド割り当てテーブル210に登録されている各操作ボタン32に関する感応領域の範囲とを比較する。この感応領域は、前述のように図6のステップS13またはステップS14で逐次割り当てられる。
ステップS23で比較した結果、入力信号解析部200は、感応領域の内側の位置での操作を検出した場合にはステップS24からステップS25に進み、感応領域の外側の位置での操作を検出した場合にはステップS24からステップS27に進む。
ステップS25では、画面表示制御部500は、入力信号解析部200からの指示に基づき、操作ボタン32に対応する操作が検出された場合に、非表示状態の操作ボタン32を表示状態に切り替える。したがって、それまでに操作ボタン32を画面から消去していた場合には、ボタン操作検知によるステップS25の実行に伴って再び操作ボタン32が画面に表示される。
また、ステップS26では、入力信号解析部200は、コマンド割り当てテーブル210の内容を参照して、操作位置と一致する操作ボタン32に対応付けられた特定のコマンドを識別し、このコマンドを実行する。
ステップS27では、入力信号解析部200は、操作位置の情報を監視し、操作位置が移動中かどうかを判別する。そして、操作位置が移動中であれば次のステップS28を実行する。
ステップS28では、操作の開始から所定時間T2(例えば1秒)を経過したかどうかを判定する。ここで、時間T2を経過していなければステップS23に戻り、時間T2を経過しても操作ボタン32の感応領域を外れた位置が操作されている場合には、操作位置の補正がなされず正常な操作が継続されていないとみなして、この処理を終了する。
上記処理により、操作ボタン32が表示画面31に実際に表示されているときには、図6のステップS13で操作ボタン32の感応領域として領域A2が割り当てられるので、ユーザは実際に目で見て確認できる操作ボタン32の範囲内を操作することにより、この操作ボタンに割り当てられたコマンドを実行させることができる。
また、操作ボタン32が非表示状態の場合には、図6のステップS14で操作ボタン32の感応領域として領域A1が割り当てられるので、ユーザか記憶している操作ボタン32の表示範囲よりも広い範囲で入力操作が受け付けられることになる。この場合、ユーザの操作位置が非表示の操作ボタン32の範囲に対して多少位置ずれしている場合であっても、該当する操作ボタンに対するコマンドを実行させることができる。
さらに、操作ボタン32が非表示状態から表示状態に切り替わった場合でも、その時点から所定時間T1を経過するまでは図6のステップS14を実行するので、入力操作を受け付ける感応領域の範囲が急に変化するのを防止できる。つまり、ユーザが実際に表示された操作ボタン32を認識して状況が変化したことを認知するまでは感応領域を変更しないようにすることで、ユーザに違和感を与えるのを防止できる。
図8は第1の実施形態における感応領域変更時の動作例を示すタイムチャートである。図8に示す動作例では、ユーザの入力操作を時刻ta1で検出すると、この操作に反応してそれまで非表示で隠れていた操作ボタンを表示する。なおここでは、処理の遅れや表示デバイスの動作の遅延等の影響を考慮し、時刻ta1から数十ミリ秒程度遅れた時刻ta2で実際に操作ボタンが表示される。また、ユーザが操作を開始してもしばらくの間は操作ボタンの感応領域として比較的大きい感応領域A1が割り当てられるが、時刻ta3で時間T1(例えば500msec)が経過すると、操作ボタンの感応領域は領域A2に変更される。
また、ユーザが最初に操作ボタンの感応領域の外側を操作した場合であっても、ユーザが所定時間T2以内に感応領域の内側を操作するように指の位置を移動すれば、入力信号解析部200は、この入力位置の移動を検出し、該当する操作ボタンに対する入力操作であると判定して、最初からの操作を一連の操作として受け付ける。すなわち、操作位置が感応領域の外側で移動している場合、時間T2を経過するまでは図7のステップS24からS27、S28、S21と進み操作位置の移動の監視を継続するので、時間T2内で感応領域の内側まで移動したことを検出したときに、ステップS26で感応領域を外れた位置での操作を含めて一連の操作(移動軌跡等)として入力操作を受け付ける。
上記第1の実施形態の構成により、ユーザが操作しようとする操作ボタンが状況に応じて表示状態及び非表示状態に切り替わる場合であっても、それぞれの状況においてユーザの操作性が確保されるように適切に制御することができる。
本実施形態の入力装置では、操作ボタンが非表示状態のときには、表示状態のときと比べて大きい範囲が感応領域として割り当てられるので、操作ボタンやアイコンの本来の表示範囲から多少ずれた位置をユーザが操作した場合であっても、その入力操作を受け付けて対応する処理を行うことができる。この場合、操作ボタンに対して入力位置がずれたりした場合でも入力操作を検出して操作対象に対応する処理を実行可能である。本実施形態のように、操作ボタンの表示領域と感応領域とを適切に設定可能にすることで、操作ボタンが明確に認識できない場合であっても、操作位置に対する適切な処理を実行可能であり、入力操作に対する無反応や誤検出を抑止でき、操作性を大幅に改善できる。
また、操作ボタンの表示状態では、ボタンサイズと同等の感応領域を割り当てるように感応領域を切り替えることで、操作ボタンに対応した入力操作を適切に受け入れて処理することができ、ユーザによる操作位置の把握や位置合わせも容易である。またこの場合、入力操作時の誤検出などを防止できる。さらに、操作入力を検出した場合に操作ボタンを表示状態にするか、またはハイライト表示などで操作ボタンの輪郭を表示することで、ユーザは操作に対する反応を確認でき、操作対象を明確に認識できる。
また、ユーザが回転操作などの連続的な操作を行う場合に、最初や途中の操作位置が一時的に感応領域外となる場合でも、操作位置を補正して所定時間以内に感応領域内に移動した場合は、該当する操作ボタンに対する入力操作であるとみなして一連の動作として検出することで、ユーザの操作位置の補正に対して適切に対応することができ、操作性を向上できる。
(第2の実施形態)
図9は第2の実施形態の入力装置における表示画面及び感応領域の具体例を示す模式図である。
第2の実施形態は第1の実施形態の変形例である。また、第2の実施形態においても図1と同様の構成の入力装置を想定しているが動作は少し変更されている。変更された動作について以下に説明する。
表示画面31に実際に表示されている操作ボタン32であっても、操作ボタン32の輪郭の明瞭度が低い形態となっており、その範囲をユーザが正確に把握するのが困難な場合もある。図9(a)に示す例では、操作ボタン32cの輪郭部分が複雑な形状であり、操作ボタンの表示範囲の内側と外側との境界の識別がユーザにとって難しい。そこで、第2の実施形態では、操作ボタンの輪郭が直線的でないなど、輪郭部分が曖昧で明確に識別できない場合に、操作ボタン32cの輪郭よりも大きい円形の感応領域A1を入力操作に感応する領域として割り当てる。
また、図9(b)に示す例では、操作ボタン32dの表示がグラデーションを含んでいるため、輪郭の位置の識別が難しい。したがって、グラデーションの表示を含む操作ボタン32dについても、操作ボタンの表示範囲全体よりも大きい円形の感応領域A1を入力操作に感応する領域として割り当てる。なお、操作ボタン32の輪郭の明瞭度が低い形態としては、上記のオブジェクトの輪郭部分が複雑な形状の場合や、オブジェクトの表示がグラデーションを含んでいる場合に加えて、操作ボタンの表示輝度が低い場合、操作ボタンと背景との色調や明度が近いことにより操作ボタンと背景とのコントラストが低い場合なども含まれる。
ここで、操作ボタン32に対する操作をユーザが把握可能なように操作入力時にハイライト表示させる場合など、操作ボタン32自体の表示が変化したり、背景の画像などが変化するときは、これに伴って操作ボタン32の表示範囲がユーザにとって明瞭になるように変化する。したがって、このような操作ボタンの表示に変化がある場合は、これに伴って所定期間経過後に感応領域を切り替える。
図9(c)に示す例では、操作ボタン32cの操作に対する応答処理として、ボタンのハイライト表示35を行うことで、操作ボタン32cの輪郭部分が複雑な形状で明確に識別できない場合であっても、ハイライト表示35によって操作ボタンと背景とのコントラストが高くなるので、表示範囲が明確になる。この場合、当初は操作ボタン32cの輪郭よりも大きい円形の感応領域A1を割り当て、操作開始後にハイライト表示35がなされたときは、操作ボタンの表示範囲と同等の大きさ(輪郭より内側)の感応領域A2を入力操作に感応する領域として割り当てる。
また、図9(d)に示す例では、操作ボタン32dがグラデーションを含んでいて輪郭の位置の識別が困難な場合であっても、操作後のハイライト表示35によって表示範囲が明確になる。この場合も、当初は操作ボタン32dの輪郭よりも大きい円形の感応領域A1を割り当て、操作開始後にハイライト表示35がなされたときは、元々の操作ボタンのサイズと同等の大きさの感応領域A2を入力操作に感応する領域として割り当てる。
なお、図4に示した例においても、表示画面31には2つの操作ボタン32a、32bが表示されているが、操作ボタン32a、32bの輪郭部分がギザギザあるいは波形に形成されているので、この波形部分が大きくて操作ボタンの表示範囲の内側と外側との境界の識別がユーザにとって難しい場合がある。このように輪郭部分が明確に識別できない場合も、図4(b)に示すように操作ボタンの輪郭よりも大きい感応領域A1を入力操作に感応する領域として割り当てるようにすればよい。
図10は第2の実施形態における感応領域切替動作の処理内容を示すフローチャートである。図10に示す処理は、第1の実施形態における図6の処理の代わりに、主に入力信号解析部200において短い周期で定期的に繰り返し実行される。
図10のステップS31では、入力信号解析部200は、コマンド割り当てテーブル210に登録されている複数の操作ボタン32のそれぞれについて判定するために順番に選択し、各操作ボタンの必要な情報をコマンド割り当てテーブル210から取得する。
ステップS32では、入力信号解析部200は、該当する操作ボタン32について表示内容の輪郭が複雑な形状か否かを判別する。複雑な場合(例えば図9(a)に示すような形状の場合)はステップS37に進み、直線的あるいは単純な曲線的な形状であればステップS33に進む。
ステップS33では、入力信号解析部200は、該当する操作ボタン32について表示内容がグラデーションを有するか否かを判別する。グラデーションを有する場合(例えば図9(b)に示すような表示内容の場合)はステップS37に進み、そうでなければステップS34に進む。
ステップS34では、入力信号解析部200は、該当する操作ボタン32の表示とその背景とのコントラストを判定するために、各操作ボタンの必要な表示情報を取得する。
ステップS35では、入力信号解析部200は、該当する操作ボタン32の表示とその背景とのコントラストの高低を判別する。コントラストが比較的低い場合(例えば図9(c)、(d)においてハイライト表示35がなされる前の場合)にはステップS37に進み、コントラストが高い場合(例えば図9(c)、(d)においてハイライト表示35がなされた後の場合)にはステップS36に進む。なお、コントラスト以外に色の違いを判定するように変更または処理を追加しても良い。
ステップS36では、入力信号解析部200は、操作ボタン32の輪郭が明確に識別可能な場合に、該当する操作ボタン32の感応領域(入力操作に感応する領域)として、操作ボタン32の表示範囲の輪郭の内側と同等の感応領域A2(図2(a)参照)を割り当てる。
ステップS37では、入力信号解析部200は、操作ボタン32の輪郭の識別がしづらい場合に、該当する操作ボタン32の感応領域として、操作ボタン32の表示範囲よりも所定量大きい感応領域A1(図2(a)参照)を割り当てる。
そして、ステップS38で、全操作ボタンの処理が終了したかを判定し、上記ステップS31〜S37の処理を現在表示画面31に表示している全ての操作ボタン32について繰り返す。なお、コマンド割り当てテーブル210に登録されている全ての操作ボタン32について上記処理を行うようにしてもよい。ステップS38で全ての操作ボタン32について処理が終了したことを検出すると、この処理を終了する。
第2の実施形態では、表示画面に実際に表示されている操作ボタンにおいて、輪郭の形状が複雑な場合、操作ボタンの表示にグラデーションが含まれている場合、操作ボタンと背景とのコントラストが低い場合など、操作ボタンの輪郭の明瞭度が低い形態でユーザが操作ボタンを明確に把握しづらい状態の場合に、操作ボタンの輪郭よりも大きい感応領域A1が割り当てられ、大きな範囲で入力操作を検出可能となる。これにより、ユーザの操作位置が多少ブレたりした場合でも、入力装置がその操作を受け付けて操作対象に対応する処理を実行することができる。また、操作ボタンの操作時にハイライト表示が行われ、操作ボタンの輪郭などが明確になっている場合には、操作ボタンの輪郭と同等の大きさの感応領域A2が割り当てられるので、ユーザにとって実際に操作が受け付けられる範囲を理解しやすい。
なお、本発明は上記の実施形態において示されたものに限定されるものではなく、明細書の記載、並びに周知の技術に基づいて、当業者が変更、応用することも本発明の予定するところであり、保護を求める範囲に含まれる。
上述した実施形態においては、入力部としてタッチパネル10を用いて入力位置検出部で入力位置の座標を検出する構成を想定しているが、入力位置情報を持つ入力機能を有するものであれば、タッチパネル10の代わりにマウス、トラックボール、ペン入力デバイス等の他の入力デバイスを入力部に用いて入力位置の検出を行っても良い。例えば、画面上にマウスカーソルを表示し、マウス等の入力デバイスの操作に伴ってマウスカーソルの表示位置を移動し、このマウスカーソルの表示位置のクリック等の操作に対して入力位置の座標を認識することもできる。
また、本実施形態の入力装置については、電子回路等の専用のハードウェアだけで構成することもできるし、制御用のプロセッサ及びメモリ等を備えるコンピュータとこのコンピュータにおいて実行するプログラムとを組み合わせて構成することもできる。
また、本実施形態の入力装置を、スピーカやレシーバ、また、外部AV出力を備えた携帯電話端末や携帯型音楽プレーヤ、携帯型ゲーム機のような電子機器に搭載することで、電子機器において本実施形態の効果を得られる。例えば、音量や音質などの音の出力の値や、出力しているコンテンツの選択などの操作を、ボタンやスイッチなどのオブジェクトを表示しない状態であっても、なぞる、触れるなどの接触操作で簡単に行えるため、簡単にユーザが意図した操作を行うことが可能になる。また、コンテンツが画像を含む場合は、ユーザが操作しない間はオブジェクトを非表示にしながらも、簡単に操作できるため、画像を楽しみながらも簡単に操作が行え、有用な電子機器を構成することができる。また、上記スピーカなどの出力装置はもちろんのこと、電子機器内部の設定、たとえば、電話帳やコンテンツの選択であるとか、Webページの閲覧操作などにも本入力装置は有用である。
本発明は、様々な状況において、操作対象となる操作ボタンやアイコン等の要素の表示領域と操作に対する感応領域とを適切に設定でき、操作対象が明確に認識できない場合であっても操作性を向上させることが可能となる効果を有し、例えば携帯電話端末、携帯型情報端末(PDA)、携帯型音楽プレーヤ、携帯型ゲーム機のような電子機器における入力操作に利用可能な電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム等において有用である。
本発明の実施形態における電子機器の入力装置の主要部の構成を示すブロック図 第1の実施形態の入力装置における表示画面及び動作の具体例を示す模式図 第1の実施形態の入力装置における主要な動作を示すシーケンス図 第1の実施形態の入力装置における表示画面の具体例を示す模式図 第1の実施形態の入力装置において使用するコマンド割り当てテーブルの具体例を示す模式図 第1の実施形態における感応領域切替動作の処理内容を示すフローチャート 第1の実施形態における入力処理動作の処理内容を示すフローチャート 第1の実施形態における感応領域変更時の動作例を示すタイムチャート 第2の実施形態の入力装置における表示画面及び感応領域の具体例を示す模式図 第2の実施形態における感応領域切替動作の処理内容を示すフローチャート
符号の説明
1 入力装置
10 タッチパネル
30 表示部
31 表示画面
32 操作ボタン
34 移動軌跡
35 ハイライト表示
50 制御対象デバイス
100 アプリケーション
200 入力信号解析部
210 コマンド割り当てテーブル
300 入力信号制御部
400 設定制御部
500 画面表示制御部
A1、A2 感応領域

Claims (10)

  1. 入力操作に関する可視情報を表示可能な表示部と、
    前記表示部の表示画面への指示を行い、入力信号を発生する入力操作部と、
    前記入力操作部の入力信号に基づいて処理を指示する入力制御部と
    を備える電子機器の入力装置であって、
    前記入力制御部は、
    前記入力信号に基づいて前記表示画面に対応する入力された位置を検出する入力位置検出部と、
    前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御部と、
    前記画面表示制御部により前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記入力位置検出部により検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析部とを有し、
    前記入力信号解析部により前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御部によって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示する電子機器の入力装置。
  2. 入力操作に関する可視情報を表示可能な表示部と、
    前記表示部の表示画面に対応する入力面への接触操作による入力機能を有するタッチパネルと、
    前記タッチパネルの入力信号に基づいて入力操作に対する処理を指示する入力制御部とを備え、
    前記入力制御部は、
    前記入力面において入力された位置を検出する入力位置検出部と、
    前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御部と、
    前記画面表示制御部により前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記入力位置検出部により検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析部とを有し、
    前記入力信号解析部により前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御部によって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示する電子機器の入力装置。
  3. 請求項1または2に記載の電子機器の入力装置であって、
    前記入力信号解析部は、前記画面表示制御部が前記オブジェクト自体または前記オブジェクトの輪郭を表示して所定時間経過後、入力操作に感応する感応領域を前記第1の感応領域以内の第2の感応領域に切り替え、前記入力位置が前記第2の感応領域内にあるか否かを判定する電子機器の入力装置。
  4. 請求項1または2に記載の電子機器の入力装置であって、
    前記入力信号解析部は、前記第1の感応領域として、前記オブジェクトの表示領域より大きい領域を設定する電子機器の入力装置。
  5. 請求項3に記載の電子機器の入力装置であって、
    前記入力信号解析部は、前記第2の感応領域として、前記オブジェクトの表示領域と約同等の大きさで前記第1の感応領域より小さい領域を設定する電子機器の入力装置。
  6. 請求項1または2に記載の電子機器の入力装置であって、
    前記入力信号解析部は、前記オブジェクトの輪郭の明瞭度が低い形態として、前記オブジェクトの輪郭部分が複雑な形状の場合、前記オブジェクトの表示がグラデーションを含んでいる場合、前記オブジェクトの表示輝度が低い場合、前記オブジェクトと背景とのコントラストが低い場合のうちの少なくとも一つを含む場合に、前記第1の感応領域として、前記オブジェクトの表示領域より大きい領域を設定する電子機器の入力装置。
  7. 請求項1または2に記載の電子機器の入力装置であって、
    前記入力信号解析部は、前記入力位置が前記第1の感応領域外である場合であっても、所定時間以内に前記入力位置が前記第1の感応領域内に移動したことを検出した場合には、前記オブジェクトに対する入力操作であると判定する電子機器の入力装置。
  8. 入力操作に関する可視情報を表示可能な表示部と、前記表示部の表示画面に対応する入力面への接触操作による入力機能を有するタッチパネルと、前記タッチパネルの入力信号に基づいて入力操作に対する処理を指示する入力制御部とを備える電子機器の入力装置における入力操作処理方法であって、
    前記入力制御部において、
    前記入力面において入力された位置を検出する入力位置検出ステップと、
    前記表示画面に表示する操作対象のオブジェクトの表示状態を制御する画面表示制御ステップと、
    前記操作対象のオブジェクトが非表示状態、または前記オブジェクトの輪郭の明瞭度が低い形態で表示状態となっている場合に、前記検出された入力位置が、入力操作に感応する感応領域としての前記オブジェクトの表示領域を含む第1の感応領域内にあるか否かを判定する入力信号解析ステップとを有し、
    前記入力信号解析ステップにより前記入力位置が前記第1の感応領域内にあると判定した場合に、前記入力操作に対する処理を実行し、前記画面表示制御ステップによって前記オブジェクトを表示状態にするか、または前記オブジェクトの輪郭を表示する入力操作処理方法。
  9. コンピュータに、請求項8に記載の入力操作処理方法の各ステップの手順を実行させるための入力制御プログラム。
  10. 請求項1〜7のいずれかに記載の入力装置を搭載した電子機器。
JP2007340242A 2007-12-28 2007-12-28 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム Expired - Fee Related JP4990753B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007340242A JP4990753B2 (ja) 2007-12-28 2007-12-28 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
US12/811,080 US20100289768A1 (en) 2007-12-28 2008-10-14 Input device of electronic device, input operation processing method, and input control program
PCT/JP2008/002896 WO2009084140A1 (ja) 2007-12-28 2008-10-14 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
EP08867655.6A EP2226711A4 (en) 2007-12-28 2008-10-14 INPUT DEVICE, INPUT OPERATION METHOD, AND INPUT CONTROL PROGRAM FOR ELECTRONIC DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007340242A JP4990753B2 (ja) 2007-12-28 2007-12-28 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012013205A Division JP5246974B2 (ja) 2012-01-25 2012-01-25 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム

Publications (3)

Publication Number Publication Date
JP2009163345A true JP2009163345A (ja) 2009-07-23
JP2009163345A5 JP2009163345A5 (ja) 2011-07-28
JP4990753B2 JP4990753B2 (ja) 2012-08-01

Family

ID=40823877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007340242A Expired - Fee Related JP4990753B2 (ja) 2007-12-28 2007-12-28 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム

Country Status (4)

Country Link
US (1) US20100289768A1 (ja)
EP (1) EP2226711A4 (ja)
JP (1) JP4990753B2 (ja)
WO (1) WO2009084140A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP2011154455A (ja) * 2010-01-26 2011-08-11 Canon Inc 表示制御装置、表示制御方法、及び表示制御プログラム、並びに記録媒体
JP2011154647A (ja) * 2010-01-28 2011-08-11 Fujitsu Ltd 電子機器、電子機器の制御方法及びコンピュータプログラム
JP2012098987A (ja) * 2010-11-04 2012-05-24 Nippon Telegr & Teleph Corp <Ntt> ジェスチャ認識装置
JP2013213451A (ja) * 2012-04-03 2013-10-17 Sharp Corp 電子機器および送風装置
JP2013257794A (ja) * 2012-06-13 2013-12-26 Panasonic Corp 操作表示装置、プログラム
JP2018106764A (ja) * 2012-12-26 2018-07-05 グリー株式会社 情報処理装置の制御方法、制御プログラム及び情報処理装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205069A (ja) * 2009-03-04 2010-09-16 Panasonic Corp 入力装置
CN101833420B (zh) * 2010-05-19 2012-08-29 鸿富锦精密工业(深圳)有限公司 具有触摸面板的电子装置
US8438420B1 (en) 2010-06-30 2013-05-07 Emc Corporation Post access data preservation
US9367561B1 (en) 2010-06-30 2016-06-14 Emc Corporation Prioritized backup segmenting
US9235585B1 (en) * 2010-06-30 2016-01-12 Emc Corporation Dynamic prioritized recovery
US9697086B2 (en) 2010-06-30 2017-07-04 EMC IP Holding Company LLC Data access during data recovery
JP5751934B2 (ja) * 2010-10-15 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US8766936B2 (en) 2011-03-25 2014-07-01 Honeywell International Inc. Touch screen and method for providing stable touches
US9733707B2 (en) 2012-03-22 2017-08-15 Honeywell International Inc. Touch screen display user interface and method for improving touch interface utility on the same employing a rules-based masking system
CN103383618A (zh) * 2012-05-02 2013-11-06 泰发科技股份有限公司 可携式电子装置及其操作方法
US9423871B2 (en) 2012-08-07 2016-08-23 Honeywell International Inc. System and method for reducing the effects of inadvertent touch on a touch screen controller
JP6112819B2 (ja) * 2012-10-10 2017-04-12 オリンパス株式会社 電子機器、駆動方法およびプログラム
CN102929502A (zh) * 2012-10-15 2013-02-13 上海华勤通讯技术有限公司 移动终端及其应用程序的运行方法
CN103076966B (zh) * 2012-11-02 2015-07-29 网易(杭州)网络有限公司 通过在触摸屏上执行手势来解锁菜单的方法和设备
US9128580B2 (en) 2012-12-07 2015-09-08 Honeywell International Inc. System and method for interacting with a touch screen interface utilizing an intelligent stencil mask
JP1555086S (ja) * 2015-10-08 2016-08-01
US10691329B2 (en) * 2017-06-19 2020-06-23 Simple Design Ltd. User interface of media player application for controlling media content display
JP7040051B2 (ja) * 2018-01-26 2022-03-23 セイコーエプソン株式会社 電子機器
AU2021307015B2 (en) * 2020-11-13 2023-06-08 Tencent Technology (Shenzhen) Company Limited Virtual object control method and apparatus, storage medium, and electronic device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102945A (ja) * 1995-10-04 1997-04-15 Hitachi Denshi Ltd 監視用テレビカメラの制御方法
JPH09251341A (ja) * 1996-03-18 1997-09-22 Fujitsu Ltd 表示画面上での選択操作に反応する領域を拡大する反応領域拡大装置および方法
JP2000200129A (ja) * 1998-10-27 2000-07-18 Matsushita Electric Ind Co Ltd フォ―カス制御装置
JP2000259893A (ja) * 1999-03-11 2000-09-22 Oki Electric Ind Co Ltd 自動取引装置
JP2003058296A (ja) * 1999-11-01 2003-02-28 Konami Co Ltd ビデオゲーム装置、ビデオゲームシステムにおいて用いられるコマンドの入力支援方法、制御方法およびコンピュータプログラムが格納された記録媒体
JP2004310198A (ja) * 2003-04-02 2004-11-04 Starland:Kk 商品情報入力端末装置
JP2007094861A (ja) * 2005-09-29 2007-04-12 Oki Electric Ind Co Ltd 自動券売機
JP2007114959A (ja) * 2005-10-19 2007-05-10 Oki Electric Ind Co Ltd 認証情報処理装置,認証情報処理方法,およびコンピュータプログラム
JP2009059129A (ja) * 2007-08-31 2009-03-19 Sii Data Service Kk 注文データ管理システム、およびハンディターミナル

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816353A (ja) 1994-06-28 1996-01-19 Sharp Corp オブジェクト表示拡大方法
JPH0954657A (ja) 1995-08-14 1997-02-25 Meidensha Corp アイコンの表示制御方法
US6614457B1 (en) * 1998-10-27 2003-09-02 Matsushita Electric Industrial Co., Ltd. Focus control device that moves a focus in a GUI screen
JP4479962B2 (ja) 2005-02-25 2010-06-09 ソニー エリクソン モバイル コミュニケーションズ, エービー 入力処理プログラム、携帯端末装置、及び入力処理方法
US7480870B2 (en) * 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102945A (ja) * 1995-10-04 1997-04-15 Hitachi Denshi Ltd 監視用テレビカメラの制御方法
JPH09251341A (ja) * 1996-03-18 1997-09-22 Fujitsu Ltd 表示画面上での選択操作に反応する領域を拡大する反応領域拡大装置および方法
JP2000200129A (ja) * 1998-10-27 2000-07-18 Matsushita Electric Ind Co Ltd フォ―カス制御装置
JP2000259893A (ja) * 1999-03-11 2000-09-22 Oki Electric Ind Co Ltd 自動取引装置
JP2003058296A (ja) * 1999-11-01 2003-02-28 Konami Co Ltd ビデオゲーム装置、ビデオゲームシステムにおいて用いられるコマンドの入力支援方法、制御方法およびコンピュータプログラムが格納された記録媒体
JP2004310198A (ja) * 2003-04-02 2004-11-04 Starland:Kk 商品情報入力端末装置
JP2007094861A (ja) * 2005-09-29 2007-04-12 Oki Electric Ind Co Ltd 自動券売機
JP2007114959A (ja) * 2005-10-19 2007-05-10 Oki Electric Ind Co Ltd 認証情報処理装置,認証情報処理方法,およびコンピュータプログラム
JP2009059129A (ja) * 2007-08-31 2009-03-19 Sii Data Service Kk 注文データ管理システム、およびハンディターミナル

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP2011154455A (ja) * 2010-01-26 2011-08-11 Canon Inc 表示制御装置、表示制御方法、及び表示制御プログラム、並びに記録媒体
JP2011154647A (ja) * 2010-01-28 2011-08-11 Fujitsu Ltd 電子機器、電子機器の制御方法及びコンピュータプログラム
JP2012098987A (ja) * 2010-11-04 2012-05-24 Nippon Telegr & Teleph Corp <Ntt> ジェスチャ認識装置
JP2013213451A (ja) * 2012-04-03 2013-10-17 Sharp Corp 電子機器および送風装置
JP2013257794A (ja) * 2012-06-13 2013-12-26 Panasonic Corp 操作表示装置、プログラム
JP2018106764A (ja) * 2012-12-26 2018-07-05 グリー株式会社 情報処理装置の制御方法、制御プログラム及び情報処理装置

Also Published As

Publication number Publication date
WO2009084140A1 (ja) 2009-07-09
JP4990753B2 (ja) 2012-08-01
EP2226711A4 (en) 2013-07-24
US20100289768A1 (en) 2010-11-18
EP2226711A1 (en) 2010-09-08

Similar Documents

Publication Publication Date Title
JP4990753B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
JP4979570B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
US10216407B2 (en) Display control apparatus, display control method and display control program
US20110134032A1 (en) Method for controlling touch control module and electronic device thereof
US20110057957A1 (en) Information processing apparatus, information processing method, and program
US20120162101A1 (en) Control system and control method
US20090153495A1 (en) Input method for use in an electronic device having a touch-sensitive screen
WO2012053099A1 (ja) 表示装置及びオンスクリーンディスプレイ操作方法
US9354780B2 (en) Gesture-based selection and movement of objects
JP2009123004A (ja) 携帯電子機器の入力装置、携帯電子機器
WO2012104288A1 (en) A device having a multipoint sensing surface
EP1969450A1 (en) Mobile device and operation method control available for using touch and drag
JP2009193423A (ja) 電子機器の入力装置
KR20060132323A (ko) 디스플레이장치 및 그 제어방법
JP2003143286A (ja) 携帯電話機
CN104932809A (zh) 用于控制显示面板的装置和方法
US20100162155A1 (en) Method for displaying items and display apparatus applying the same
JP2018514865A (ja) ウェアラブル装置、そのタッチスクリーン、そのタッチ操作方法、及びそのグラフィカルユーザインタフェース
WO2013161170A1 (ja) 入力装置、入力支援方法及びプログラム
KR100774928B1 (ko) 투명아이콘이 디스플레이되는 이동단말기 및 이를 이용한투명아이콘의 디스플레이방법
JP5246974B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
JP5127081B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
JP2013152566A (ja) リモコン装置
JP2023177948A (ja) オブジェクト操作用のプログラム
KR20090089707A (ko) 터치 스크린 입력을 이용한 화면 확대/축소 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees