JP5817716B2 - 情報処理端末およびその操作制御方法 - Google Patents

情報処理端末およびその操作制御方法 Download PDF

Info

Publication number
JP5817716B2
JP5817716B2 JP2012512716A JP2012512716A JP5817716B2 JP 5817716 B2 JP5817716 B2 JP 5817716B2 JP 2012512716 A JP2012512716 A JP 2012512716A JP 2012512716 A JP2012512716 A JP 2012512716A JP 5817716 B2 JP5817716 B2 JP 5817716B2
Authority
JP
Japan
Prior art keywords
information processing
processing terminal
area
display screen
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012512716A
Other languages
English (en)
Other versions
JPWO2011135944A1 (ja
Inventor
尚基 塩田
尚基 塩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012512716A priority Critical patent/JP5817716B2/ja
Publication of JPWO2011135944A1 publication Critical patent/JPWO2011135944A1/ja
Application granted granted Critical
Publication of JP5817716B2 publication Critical patent/JP5817716B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、情報処理端末およびその操作制御方法に関し、特には、タッチパネル方式のディスプレイを備えた情報処理端末およびその操作制御方法に関する。
近年、携帯電話、PHS(Personal Handy phone System)およびPDA(Personal Data Assistance)などの携帯端末において、タッチパネル方式のディスプレイを備えたものがある。このような携帯端末では、使用者は画面に表示される操作対象に触れて操作することができるため、ボタン操作などに比べて直感的な操作が可能になる。
また、近年、タッチパネル方式のディスプレイを備えた携帯端末において、さらなる操作性の向上を図るために、使用者の操作に応じて操作対象の位置を調整する技術が提案または実用化されている。
例えば、特許文献1に記載の携帯端末では、所定の文字が割り当てられた複数のキーがディスプレイの互いに対向する2辺の縁のそれぞれに沿って2列に並んで表示される。そして、使用者がスライド操作を行うと、一方の縁に沿って表示されていたキーが他方の縁まで移動する。
特許文献2に記載の操作装置は、デジタルカメラ用の操作装置であり、使用者がタッチパネルに触れた場所の周辺にシャッターボタンなどの操作ボタンが表示される。
特許文献3に記載のカメラでは、使用者がタッチパネルに触れた位置に応じて、操作ボタンなどの表示レイアウトが変更される。
特許文献4に記載の情報表示装置では、使用者にてタッチパネルに対するドラッグ操作が行われると、全体画面が所望の領域に縮小表示される。
特開2006−148536号公報 特開平11−164175号公報 特開2009−158989号公報 特開2009−122837号公報
近年、タッチパネル方式のディスプレイを備えた携帯端末では、ディスプレイおよび携帯端末自身の大きなものや、2つの筐体のそれぞれにディスプレイを備え、その2つの筐体が開閉可能に接続された折りたたみ型の二画面端末などが提案または実用化されている。
上記のような携帯端末に対しては、使用者は両手で把持したり、片手で把持したりするなどの様々な把持スタイルで把持することになる。例えば、使用者は、両手を使って携帯端末の両端を把持したり、片手を使って携帯端末の重心に近い部分を把持したりする。
特許文献1〜5は、特定の把持スタイルを想定したものであり、把持スタイルに合わせて操作対象の位置を操作性が高くなるように調整することができないという問題がある。
本発明の目的は、上記の課題である、把持スタイルに合わせて操作対象の位置を操作性が高くなるように調整することができないという問題を解決することが可能な情報処理端末およびその操作制御方法を提供することである。
本発明による情報処理端末は、表示画面を有し、前記表示画面に対するタッチ操作を受け付ける表示入力部と、前記表示画面上における、前記タッチ操作が行われた操作位置を検出する検出部と、前記表示画面に複数の操作対象を表示し、また、前記タッチ操作が行われると、前記表示画面内に設定された複数の設定領域のうち、前記検出部が検出した操作位置を含む設定領域である検出領域であって、検出された前記操作位置の数に対応する数の検出領域に、前記複数の操作対象を移動させる制御部と、を有する。
また、本発明による操作制御方法は、表示画面を有する情報処理端末の操作制御方法であって、前記表示画面に複数の操作対象を表示し、前記表示画面に対するタッチ操作を受け付け、前記表示画面上における、前記タッチ操作が行われた操作位置を検出し、前記表示画面内に設定された複数の設定領域のうち、前記検出した操作位置を含む設定領域である検出領域であって、検出された前記操作位置の数に対応する数の検出領域に、前記複数の操作対象を移動させる。
本発明によれば、把持スタイルに合わせて操作対象の位置を操作性が高くなるように調整することが可能になる。
第1の実施形態における情報処理端末の正面図である。 第1の実施形態における情報処理端末の機能的な構成を示すブロック図である。 情報処理端末の状態の一例を示した図である。 情報処理端末の状態の他の例を示した図である。 第2の実施形態における情報処理端末の正面図である。 第2の実施形態における情報処理端末の動作の一例を説明するためのフローチャートである。 情報処理端末の状態の他の例を示した図である。 情報処理端末の状態の他の例を示した図である。 情報処理端末の状態の他の例を示した図である。 情報処理端末の状態の他の例を示した図である。 第2の実施形態における情報処理端末の動作の他の例を説明するためのフローチャートである。 切換用の操作対象の一例を示した図である。 アイコン集合機能のON/OFFを切り換えるタッチ操作を説明するための図である。 情報処理端末の状態の他の例を示した図である。 情報処理端末の状態の他の例を示した図である。 情報処理端末の状態の他の例を示した図である。 情報処理端末の状態の他の例を示した図である。 情報処理端末の状態の他の例を示した図である。 情報処理端末の状態の他の例を示した図である。 第4の実施形態における情報処理端末の機能的な構成を示すブロック図である。 第4の実施形態における設定領域の一例を示した図である。 第4の実施形態における設定領域の他の例を示した図である。 第4の実施形態における設定領域の他の例を示した図である。
以下、本発明の実施形態について図面を参照して説明する。なお、以下の説明では、同じ機能を有する構成には同じ符号を付け、その説明を省略する場合がある。
図1は、本発明の第1の実施形態における情報処理端末の正面図である。図1に示す情報処理端末101は、携帯電話、PHSまたはPDAなどの携帯端末であり、使用者は情報処理端末101を片手または両手で把持して使用することを想定している。
情報処理端末101は、表示手段と入力手段とが一体化された表示入力部を有し、図1には、その表示手段である表示画面111が示されている。入力手段は、図示していないが、例えば、タッチセンサーであり、使用者からのタッチ操作(接触操作、クリック操作、長押し操作など)を感知する。タッチセンサーの感知方式は、感圧方式や静電容量方式など様々な方式が存在するが、本実施形態は、特定に限定されない。
図1では、情報処理端末101はアプリケーションプログラム(以下、アプリケーションと略す)を起動するためのアプリケーションランチャーを実行しており、表示画面111には、そのアプリケーションランチャーにて生成されたアプリケーションアイコン(以下、アイコンと略す)121が複数表示されている。アイコン121は、アプリケーションを起動するため操作対象であり、使用者からタッチ操作が行われることで該当のアプリケーションが起動される。
また、表示画面111には、操作対象を移動させるための設定領域122が複数設定されている。設定領域122は、使用者が情報処理端末101を両手で把持するときのために設定された第1領域122Aと、使用者が情報処理端末101を片手で把持するときのために設定された第2領域122Bとを有する。
使用者が情報処理端末101を両手で把持する場合、使用者は両手を使って情報処理端末101の両端を把持することが多いと考えられるので、第1領域122Aは、使用者が両手を使って情報処理端末101の両端を把持した際に、その両手の親指のそれぞれが届く範囲内に設定される。また、使用者が情報処理端末101を片手で把持する場合、使用者は片手を使って情報処理端末101の中央付近(重心付近)を把持することが多いと考えられるので、第2領域122Bは、使用者が片手を使って情報処理端末101の中央付近を把持した際に、その片手の親指のそれぞれが届く範囲内に設定される。
なお、情報処理端末101が比較的軽量である場合などでは、第2領域122Bは、情報処理端末101の重心付近になくてもよい。また、設定領域122は、表示画面111上では、不可視であるとする。さらに、設定領域122は、情報処理端末101の姿勢に応じて変化してもよい。
図2は、情報処理端末101の機能的な構成を示すブロック図である。図2において、情報処理端末101は、表示入力部1と、検出部2と、制御部3とを有する。
表示入力部1は、上述したように、表示画面を有し、表示画面に対するタッチ操作を受け付けるものであり、例えば、タッチパネル方式のディスプレイである。
検出部2は、表示入力部1の表示画面上における、使用者からタッチ操作が行われた操作位置を検出する。ここで、検出部2は、操作位置を、表示画面上に予め設定された座標系のおける座標で表すものとする。
制御部3は、アプリケーションを実行し、そのアプリケーションの生成した操作対象を表示画面に表示する。操作対象は、例えば、図1で示したアイコン121である。
表示入力部1に対して所定のタッチ操作が行われた場合、制御部3は、表示画面内に設定された設定領域122のうち、検出部2が検出した操作位置を含む設定領域122である検出領域の数に応じたアイコン集合領域に、表示画面上の操作対象を移動させる。本実施形態では、制御部3は、検出領域の全てをアイコン集合領域とする。しかしながら、検出領域とアイコン集合領域とが多少ずれたり、それらの大きさが多少異なっていたりしてもよい。これにより、操作位置の領域内にアイコンを集合させないことにより、より操作性の向上を図ることができる。
一例として、タッチ操作が行われる前の表示画面の状態が図1で示した表示画面111の場合について説明する。
使用者が情報処理端末101を両手で把持し、第1領域122Aの両方に対してタッチ操作が行われた場合、制御部3は、図3で示すように、アイコン121を第1領域122Aに移動させる。また、使用者が情報処理端末101を片手で把持し、第2領域122Bの一方に対してタッチ操作が行われた場合、制御部3は、図4で示すように、アイコン121を、そのタッチ操作が行われた第2領域122Bに移動させる。
以上説明したように、本実施形態によれば、表示入力部1は、表示画面を有し、表示画面に対するタッチ操作を受け付ける。検出部2は、表示画面上における、タッチ操作が行われた操作位置を検出する。制御部3は、表示画面に操作対象であるアイコン121を表示する。また、制御部3は、表示画面内に設定された複数の設定領域122のうち、検出部2が検出した操作位置を含む設定領域である検出領域の数に応じたアイコン集合領域に、アイコン121を移動させる。
この場合、アイコン121は、タッチ操作が行われた操作位置を含む設定領域である検出領域の数に応じたアイコン集合領域に移動される。検出領域の数は、情報処理端末101が両手で把持されているか片手で把持されているかなどの把持スタイルを反映するので、把持スタイルに合わせて操作対象の位置を操作性が高くなるように調整することが可能になる。
また、本実施形態では、制御部3は、検出領域の全てをアイコン集合領域とする。この場合、使用者がタッチした場所またはその近くにアイコンを移動させることが可能になるので、操作性をより高くすることが可能になる。
次に第2の実施形態について説明する。
本実施形態では、表示画面が複数ある場合を例にとって、情報処理端末101のより詳細な説明を行う。表示画面の数は、特に限定されないが、簡便のために2つであるとする。
図5は、本実施形態における情報処理端末の正面図である。図5では、情報処理端末101は、表示画面112および113を有する。なお、本実施形態では、情報処理端末101は、筐体114および115を有し、筐体114に表示画面112が設けられ、筐体115に表示画面113が設けられている。また、筐体114および115は、例えば、ヒンジ機構を用いて、回転軸116を中心に回転可能(開閉可能)に接続されている。さらに、表示画面112および113のそれぞれには、設定領域122が少なくとも一つ設定されている。以下では、表示画面112および113のそれぞれに、第1領域122Aと第2領域122Bとが一つずつ設定されているものとする。
本実施形態における情報処理端末の機能的な構成は、図2で示した構成と同じである。
また、本実施形態では、設定領域122のそれぞれに対して、関連領域が設定され、アイコン121を移動させるための所定のタッチ操作には、第1操作と第2操作とがある。
表示入力部1が第1操作を受け付けた場合、制御部3は、その第1操作が行われた操作位置を含む検出領域の関連領域内のアイコン121を移動させる。また、表示入力部1が第2操作を受け付けた場合、制御部3は、各設定領域122の関連領域の全て、または表示画面112および113の全て、に含まれるアイコン121を移動させる。
以下では、設定領域122を有する表示画面全体が、その設定領域122の関連領域として設定されているものとする。このため、第1操作が行われた場合、制御部3は、表示画面112および113のうち、検出領域を含む表示画面内の操作対象を移動させることになる。また、第1操作は、短押しであり、第2操作は、長押しであるとする。
図6は、本実施形態の情報処理端末101の動作を説明するためのフローチャートである。なお、情報処理端末101の初期状態、つまり、タッチ操作が行われる前の状態としては、図5に示したように、アプリケーションランチャーが表示画面112および113の両方に渡って表示されており、使用者は表示画面112および113にタッチしていない状態とする。
先ず、使用者が表示画面112または113に対してタッチ(接触または押圧)すると、検出部2は、そのタッチされたタッチ座標を検出し、そのタッチ座標を制御部3に通知する(ステップ201)。なお、検出部2は、タッチされている間、タッチ座標を通知し続け、さらには、タッチ座標が変化すると、その変化に応じて通知するタッチ座標も変化させるものとする。
制御部3は、タッチ座標を受け付けると、そのタッチ座標が設定領域122に含まれるか否かを判断する。なお、制御部3は、設定領域122の座標を予め保持しているものとする。タッチ座標が設定領域122に含まれていない場合、制御部3は、何もせずに処理を終了する(ステップ202)。
タッチ座標が設定領域122に含まれている場合(以下では、タッチ座標は、第1領域122Aに含まれるものとする)、制御部3は、タッチ座標を監視して、タッチ座標が第1の一定時間(以下、T1秒とする)内に変更されていないかどうかを判断する。タッチ座標がT1秒内に変更された場合、つまり、T1秒が経過する前に使用者が指を移動させたり離したりした場合、何もせずに処理を終了する(ステップ203)。
タッチ座標がT1秒内に変更されかった場合、制御部3は、短押しが行われたと判断する。そして、制御部3は、そのタッチ座標に基づいて、タッチされた表示画面(以下、表示画面112とする)を特定する。制御部3は、その特定した表示画面112に表示されているアイコン121を縮小して、そのタッチされた設定領域に移動させる(ステップS204)。
図7は、アイコンが縮小表示された状態の情報処理端末101を示す図である。図7において、アイコン123は、アイコン121のうち、表示画面112に含まれるものが縮小表示されたものである。この状態で使用者が表示画面112をタッチしたまま指を移動させると、タッチ座標にあるアイコン123が選択状態となる。なお、図7では、選択状態のアイコン123に対応するアイコン121が塗り潰されて示されている。
図6の説明に戻る。制御部3は、アイコンを移動させると、さらに、タッチ座標が予め定められた第2の一定時間(T2秒とする)内に変更されていないかどうかを判断する。タッチ座標がT2秒内に変更された場合、つまり、T2秒が経過する前に使用者が指を移動させたり離したりした場合、何もせずに処理を終了する(ステップ205)。
タッチ座標がT2秒内に変更されかった場合、制御部3は、長押しが行われたと判断する。そして、制御部3は、表示画面113に表示されているアイコン121を縮小し、タッチされている設定領域にさらに移動させることで、表示画面112および113の全てに表示されているアイコン121を、そのタッチされている設定領域122に縮小表示する(ステップ206)。
図8は、二画面分のアイコンが縮小表示された状態の情報処理端末101を示す図である。図8において、アイコン124は、アイコン121の表示画面112および113の全てに含まれるものを縮小表示したものである。この状態で使用者が表示画面112をタッチしたまま指を移動させると、タッチ座標にあるアイコン124が選択状態となる。図8では、選択状態のアイコン124に対応するアイコン121が塗り潰されている。
上記の動作では、タッチされた設定領域122である検出領域を第1領域122Aとしていたが、上述したように設定領域122には、第2領域122Bがある。当然のことながら、タッチされた設定領域122が第2領域122Bでも上記の動作は成り立つ。このとき、情報処理端末101の中央付近を片手で把持した際の、二画面分のアイコンが縮小表示された状態の情報処理端末101は、図9のようになる。
また、第1領域122Aの両方がタッチされた場合、制御部3は、ステップS204において、表示画面112および113のそれぞれに表示されているアイコン121を、その表示されている表示画面112または113に含まれる検出領域に移動させる。このとき、情報処理端末101は、図10のようになる。この場合、短押し操作において、全てのアイコン121が縮小表示されているので、長押しされても表示状態には変化がない。なお、アイコン123’は、アイコン121のうち、表示画面113に含まれるものが縮小表示されたものである。
図11は、使用者が表示画面上にタッチした指をリリースした際の情報処理端末101の動作を説明するためのフローチャートである。
先ず、使用者が指をリリースすると、検出部2は、タッチ座標の通知を停止する(ステップ501)。
制御部3は、タッチ座標の通知が停止されると、最後に受け付けたタッチ座標を、使用者が指をリリースした座標であるリリース座標と判断する。そして、制御部3は、現在の表示状態を確認する。具体的には、制御部3は、一画面分または二画面分のアイコン121が縮小表示されているか否かを表示状態として確認する(ステップS502)。
アイコン121が縮小表示されていない場合、制御部3は、リリース座標がアイコン121に該当するアイコン座標と一致するか否かを判断する(ステップ507)。リリース座標がアイコン座標と一致すると、そのアイコンに応じたアプリケーションを起動し(ステップS505)、一方、リリース座標がアイコン座標と異なると、何もせずに処理を終了する。なお、アイコンが縮小表示されていない場合の処理は、アプリケーションランチャーの標準的な動作と同等である。
また、ステップS502においてアイコンが縮小表示されていると判断すると、制御部3は、その縮小表示されたアイコンのいずれかが選択状態であるか否かを判断する(ステップ503)。
縮小表示されたアイコンのいずれも選択状態でない場合、制御部3は、縮小表示状態を解除し(ステップ506)、その後、処理を終了する。
一方、縮小表示されたアイコンのいずれかが選択状態の場合、制御部3は、縮小表示状態を解除し(ステップ506)、その後、その選択状態のアイコンに該当するアプリケーションを起動する(ステップ505)。
ところで、設定領域は常に設定されている必要は無い。例えば、使用者が情報処理端末101を机に置いて使用している場合などでは、本実施形態で説明した、アイコンを移動させるアイコン集合機能がON(有効)になっていなくてもよい。それどころか、表示中のアプリケーションが設定領域に該当する領域に、アイコン集合機能とは別の機能を割り当てている場合、その機能とアイコン集合機能とが誤って同時に実行されるなど、誤操作を招き、操作性を低下させる可能性がある。
この問題を解決するためには、上記のアイコン集合機能のON/OFFできるようにすればよい。より具体的には、制御部3がアイコン集合機能のON/OFFを切り換える切換用の操作対象を表示画面に表示し、検出部2の検出結果に基づいて、その切換用の操作対象に対して特定のタッチ操作が行われた場合、アイコン設定領域のON/OFFを切り換えるようにすればよい。
図12Aは、切換用の操作対象の一例を示した図である。図12Aでは、アイコン集合機能はOFFであり、設定領域は設定されていない。また、表示画面112および113のそれぞれの下部に、切換用の操作対象としてバー125が表示されている。
使用者はバー125が表示されている領域を、図12Bのように画面端から画面内に向かってドラッグすることで、アイコン集合機能がONになり、図5のように設定領域122を設定させることができる。また、使用者が逆方向にドラッグすることで図12Aのように設定領域122を隠すことができる。これにより、設定領域が設定されているか否かを明示的に示すことができるので、誤操作を軽減させることが可能になる。
以上の説明では、アプリケーションランチャーが実行されている場合を例にとっていたが、他のアプリケーションが実行されている場合でも本発明は適応できる。以下では、他のアプリケーションの一例として、Webブラウザが実行されている場合について説明する。
図13は、Webブラウザが実行されている場合における情報処理端末を示す図である。図13では、表示画面は、制御部3が表示画面112および113のそれぞれに別々のWebサイトを表示しており、使用者が表示画面112の第1領域122AをT1秒間タッチした後の状態が示されている。
上述のアプリケーションランチャーでは、アイコンが操作対象であったのに対し、Webブラウザでは、リンク、入力フォーム、URL(Uniform Resource Locator)入力欄などが操作対象となる。このため、図13では、表示画面112内の操作対象であるリンクやURL入力欄が縮小されて第1領域122A内に表示されている。また、操作対象が選択された状態で使用者が指をリリースした場合、通常表示時にその操作対象をタッチした場合と同等な処理が行われる。例えば、縮小表示されたリンクが選択された状態で使用者が指をリリースした場合、ブラウザは、そのリンクに該当するリンク先のWebページを表示する。
図13の状態において、使用者がタッチ位置を変更せずにさらにT2秒間タッチした場合、情報処理端末101では、図14で示したように、表示画面113内の操作対象である入力フォームやURL入力欄がさらに第1領域122Aに縮小表示される。
以上説明したように、本実施形態によれば、各設定領域122に対して関連領域が設定されている。制御部3は、検出領域の関連領域に含まれる操作対象を移動させる。したがって、使用者が必要のない操作対象が移動されることを軽減することが可能になるので、操作性をより向上させることが可能になる。
また、本実施形態では、所定のタッチ操作には、第1操作と第2操作とがある。表示入力部1が第1操作を受け付けた場合、制御部3は、検出領域の関連領域に含まれる操作対象を移動させる。一方、表示入力部1が第2操作を受け付けた場合、制御部3は、設定領域の関連領域の全てに含まれる前記操作対象を移動させる。したがって、使用者は状況に応じて移動させる操作対象を選択することができるので、操作性をより向上させることが可能になる。
また、本実施形態では、表示画面は複数あり、各表示画面には、設定領域が少なくとも一つ設定されている。このため、把持スタイルに応じて操作する表示画面が変更されても、その把持スタイルに合わせて操作対象の位置を操作性が高くなるように調整することが可能になる。
また、本実施形態では、制御部3は、表示画面のうち検出領域を含む表示画面内の操作対象を移動させる。この場合、使用者が視認していない表示画面以外の操作対象などの必要のない操作対象が移動されることを軽減することが可能になるので、操作性をより向上させることが可能になる。
次に第3の実施形態について説明する。
本実施形態では、制御部3は、アプリケーションの表示状態に応じて移動させる操作対象を変化させる情報処理端末について説明する。
以下では、制御部3が実行するアプリケーションには、表示情報を表示画面112および113に渡って大きく表示する全画面モードと、表示画面112および113のいずれか一方に表示する一画面モードとがある。第1および第2の実施形態で説明したアイコンなどの操作対象は、アプリケーションが生成する表示情報に含まれる。全画面モードは、複数画面モードとも呼ばれる。
制御部3は、アプリケーションを全画面モードおよび一画面モードの一方のモードで実行する。なお、アプリケーションのモードは、アプリケーションの実行中に切り換えられてもよい。また、制御部3は、表示画面112および113のそれぞれに対して個別にアプリケーションを実行し、各アプリケーションの表示情報を、そのアプリケーションに対する表示画面に表示してもよい。この場合、表示画面112および113のそれぞれに、別々のアプリケーションの表示情報が表示されることになる。
アプリケーションを全画面モードで実行している場合、制御部3は、検出領域が第1領域122Aでも第2領域122Bでも、表示画面112および113の両方に含まれる操作対象を移動させる。
例えば、検出領域が第1領域122Aの両方の場合、制御部3は、図15で示したように、第1領域122Aのそれぞれに、その第1領域122Aを含む表示画面内の操作対象を移動される。また、検出領域が第1領域122Aの一方の場合、制御部3は、図16で示したように、検出領域である第2領域122Aに全ての操作対象を移動させる。さらに、検出領域が第2領域122Bの場合、制御部3は、図17で示したように、検出領域である第2領域122Bに全ての操作対象を移動させる。
また、アプリケーションを一画面モードで実行している場合、制御部3は、検出領域が第1領域122Aであると、表示画面112および113のうち、その検出領域を含む表示画面内の操作対象を移動させる。一方、制御部3は、検出領域が第2領域122Bであると、表示画面112および113の両方に含まれる操作対象を移動させる。
例えば、検出領域が第1領域122Aの一方の場合、制御部3は、図18で示したように、検出用領域である第1領域122Aに、その検出領域を含む表示画面内の操作対象を移動させる。なお、検出領域が第1領域122Aの両方の場合や、検出領域が第2領域122Bの場合には、制御部3は、アプリケーションを全画面モードで実行している場合と同様な処理を行うことになる。
以上説明したように、本実施形態によれば、制御部3は、アプリケーションを全画面モードで実行している場合、表示画面112および113内の全ての操作対象を移動させ、アプリケーションを一画面モードで実行している場合、検出領域を含む表示画面内の操作対象を移動させる。このため、使用者が使用しているアプリケーションに対応する操作対象のみを移動させることが可能になるので、操作性をより向上させることが可能になる。
また、本実施形態では、制御部3は、アプリケーションが一画面モードで実行されている場合、検出領域が第2領域122Bであると、表示画面112および113の全てに含まれる操作対象を移動させ、検出領域が第1領域122Aであると、その検出領域を含む表示画面内の操作対象を移動させる。このため、使用者が情報処理端末を片手で把持している場合、把持スタイルを変えなくても複数のアプリケーションを操作することが可能になる。
次に第4の実施形態について説明する。
本実施形態では、設定領域122が情報処理端末101の姿勢に応じて変化する場合についてより詳細に説明する。
図19は、本実施形態の情報処理端末101の機能的な構成を示す図である。図19において、情報処理端末101は、図2で示した構成に加えて、さらに姿勢検出部4を有する。
姿勢検出部4は、6軸センサや加速度センサなどで構成され、情報処理端末101の姿勢を検出する。なお、情報処理端末101の姿勢は、例えば、表示画面112および113の水平面に対する傾きなどである。
制御部3は、姿勢検出部4の検出結果に応じた位置に設定領域122を設定する。より具体的には、制御部3は、姿勢検出部4の検出結果に基づいて、情報処理端末101が縦長に把持されているか、横長に把持されているかを判断する。
図20Aは、縦長に把持された情報処理端末101の正面図である。図20Aでは、表示画面112および113が使用者から見て縦に並ぶように把持されている。また、表示画面112および113のうち、使用者から見て下方にある表示画面113の下辺の両側付近のそれぞれに第1領域122Aが設定され、表示画面113の下辺の中央付近に第2領域122Bが一つ設定されている。
なお、図20Aで示した第1領域122Aおよび第2領域122Bの位置や数は、単なる一例ある。例えば、図20Bで示したように、表示画面113の上辺の両側付近のそれぞれに第1領域122Aが設定されてもよいし、図20Cで示したように、第2領域122Bが2つあってもよい。また、例えば、第1の実施形態〜第3の実施形態の情報処理端末101(例えば、図1や図5)は、情報処理端末101が横長に把持されている場合の一例となっている。
設定領域122に対して所定のタッチ操作が行われた場合の処理は、第1の実施形態〜第3の実施形態の情報処理端末101と同様である。なお、制御部3は、設定領域122の位置に応じて、その設定領域に対する関連領域を変更してもよい。
以上説明したように、本実施形態によれば、情報処理端末101の姿勢に応じた位置に設定領域が設定される。したがって、使用者が把持しやすい手の位置が情報処理端末101の姿勢に応じて変化しても、操作対象の位置を操作性が高くなるように調整することが可能になる。
以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されたものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更を行うことができる。
この出願は、2010年4月30日に出願された日本出願特願2010−105397号公報を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 表示入力部
2 検出部
3 制御部
4 姿勢検出部
101 情報処理端末
111〜113 表示画面
114、115 筐体

Claims (9)

  1. 表示画面を有し、前記表示画面に対するタッチ操作を受け付ける表示入力部と、
    前記表示画面上における、前記タッチ操作が行われた操作位置を検出する検出部と、
    前記表示画面に複数の操作対象を表示し、また、前記タッチ操作が行われると、前記表示画面内に設定された複数の設定領域のうち、前記検出部が検出した操作位置を含む設定領域である検出領域であって、検出された前記操作位置の数に対応する数の検出領域に、前記複数の操作対象を移動させる制御部と、を有する情報処理端末。
  2. 請求項1に記載の情報処理端末において、
    各設定領域に対して関連領域が設定され、
    前記制御部は、前記検出領域の関連領域に含まれる前記操作対象を移動させる、情報処理端末。
  3. 請求項2に記載の情報処理端末において、
    前記タッチ操作には、第1操作と第2操作とがあり、
    前記制御部は、前記表示入力部が前記第1操作を受け付けた場合、前記検出領域の関連領域に含まれる前記操作対象を移動させ、前記表示入力部が前記第2操作を受け付けた場合、各設定領域の関連領域の全てに含まれる前記操作対象を移動させる、情報処理端末。
  4. 請求項1ないしのいずれか1項に記載の情報処理端末において、
    前記表示画面は、複数あり、各表示画面には、前記設定領域が少なくとも一つ設定されている、情報処理端末。
  5. 請求項に記載の情報処理端末において、
    前記制御部は、前記表示画面のうち前記検出領域を含む表示画面内の前記操作対象を移動させる、情報処理端末。
  6. 請求項に記載の情報処理端末において、
    前記制御部は、前記操作対象を含む表示情報を生成するアプリケーションを、前記表示情報を前記複数の表示画面に渡って表示する複数画面モードで実行している場合、当該複数の表示画面内の全ての操作対象を移動させ、前記アプリケーションを、前記表示情報を前記複数の表示画面のいずれかに表示する一画面モードで実行している場合、前記検出領域を含む表示画面内の操作対象を移動させる、情報処理端末。
  7. 請求項に記載の情報処理端末において、
    前記設定領域には、第1領域と第2領域とがあり、
    前記制御部は、前記アプリケーションが前記一画面モードで実行されている場合、前記検出領域が前記第1領域であると、前記検出領域を含む表示画面内の操作対象を移動させ、前記検出領域が前記第2領域であると、前記複数の表示画面の全てに含まれる操作対象を移動させる、情報処理端末。
  8. 請求項1ないしのいずれか1項に記載の情報処理端末において、
    当該情報処理端末の姿勢を検出する姿勢検出部をさらに有し、
    前記制御部は、前記姿勢検出部の検出結果に応じた位置に前記設定領域を設定する、情報処理端末。
  9. 表示画面を有する情報処理端末の操作制御方法であって、
    前記表示画面に複数の操作対象を表示し、
    前記表示画面に対するタッチ操作を受け付け、
    前記表示画面上における、前記タッチ操作が行われた操作位置を検出し、
    前記表示画面内に設定された複数の設定領域のうち、前記検出した操作位置を含む設定領域である検出領域であって、検出された前記操作位置の数に対応する数の検出領域に、前記複数の操作対象を移動させる、操作制御方法。
JP2012512716A 2010-04-30 2011-03-17 情報処理端末およびその操作制御方法 Active JP5817716B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012512716A JP5817716B2 (ja) 2010-04-30 2011-03-17 情報処理端末およびその操作制御方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010105397 2010-04-30
JP2010105397 2010-04-30
JP2012512716A JP5817716B2 (ja) 2010-04-30 2011-03-17 情報処理端末およびその操作制御方法
PCT/JP2011/056364 WO2011135944A1 (ja) 2010-04-30 2011-03-17 情報処理端末およびその操作制御方法

Publications (2)

Publication Number Publication Date
JPWO2011135944A1 JPWO2011135944A1 (ja) 2013-07-18
JP5817716B2 true JP5817716B2 (ja) 2015-11-18

Family

ID=44861265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012512716A Active JP5817716B2 (ja) 2010-04-30 2011-03-17 情報処理端末およびその操作制御方法

Country Status (5)

Country Link
US (1) US9372623B2 (ja)
EP (1) EP2565764B1 (ja)
JP (1) JP5817716B2 (ja)
CN (1) CN102870084B (ja)
WO (1) WO2011135944A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105744054A (zh) * 2015-12-31 2016-07-06 宇龙计算机通信科技(深圳)有限公司 一种移动终端的控制方法及移动终端

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR101972924B1 (ko) * 2011-11-11 2019-08-23 삼성전자주식회사 휴대용 기기에서 부분 영역의 터치를 이용한 전체 영역 지정을 위한 방법 및 장치
KR101973631B1 (ko) * 2012-02-01 2019-04-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
CN102609205A (zh) * 2012-02-07 2012-07-25 深圳桑菲消费通信有限公司 一种移动终端屏幕全方位滑动的方法
CN103257818B (zh) * 2012-02-20 2017-11-28 联想(北京)有限公司 单手操作触摸屏图标的方法和装置
KR101496512B1 (ko) * 2012-03-08 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8866770B2 (en) 2012-03-19 2014-10-21 Mediatek Inc. Method, device, and computer-readable medium for changing size of touch permissible region of touch screen
WO2013176472A1 (en) 2012-05-21 2013-11-28 Samsung Electronics Co., Ltd. Method and apparatus of controlling user interface using touch screen
CN102799347B (zh) 2012-06-05 2017-01-04 北京小米科技有限责任公司 应用于触屏设备的用户界面交互方法、装置及触屏设备
CN103677556B (zh) * 2012-09-24 2017-06-30 北京三星通信技术研究有限公司 快速定位应用程序的方法及设备
CN103635873B (zh) 2012-09-17 2017-06-20 华为终端有限公司 触摸操作处理方法及终端设备
CN102855066B (zh) * 2012-09-26 2017-05-17 东莞宇龙通信科技有限公司 终端和终端操控方法
JP6036163B2 (ja) * 2012-10-23 2016-11-30 富士ゼロックス株式会社 情報処理装置及びプログラム
CN103024156A (zh) * 2012-11-29 2013-04-03 广东欧珀移动通信有限公司 一种单手操作移动终端的实现方法、系统及移动终端
CN103019568B (zh) * 2012-12-21 2015-09-30 东莞宇龙通信科技有限公司 终端和图标显示方法
CN104049879A (zh) * 2013-03-14 2014-09-17 中兴通讯股份有限公司 触摸式终端及其提示框定位的方法
CN103176744B (zh) * 2013-04-12 2018-08-07 努比亚技术有限公司 一种显示设备及其信息处理方法
CN103353826B (zh) * 2013-04-16 2017-05-24 努比亚技术有限公司 一种显示设备及其信息处理方法
US10691291B2 (en) * 2013-05-24 2020-06-23 Samsung Electronics Co., Ltd. Method and apparatus for displaying picture on portable device
US9696882B2 (en) * 2013-08-28 2017-07-04 Lenovo (Beijing) Co., Ltd. Operation processing method, operation processing device, and control method
CN104750400B (zh) * 2013-12-27 2017-12-15 华为技术有限公司 终端界面的优化操作方法和装置
KR20150099297A (ko) * 2014-02-21 2015-08-31 삼성전자주식회사 전자장치의 화면 표시 방법
CN105094660A (zh) * 2014-05-22 2015-11-25 中国移动通信集团公司 一种调节终端屏幕的方法、装置及终端
CN104049894A (zh) * 2014-06-09 2014-09-17 联想(北京)有限公司 一种信息处理方法和电子设备
CN105204756A (zh) * 2014-06-30 2015-12-30 阿尔卡特朗讯 一种用于操作触摸屏设备的屏幕的方法与设备
KR102358110B1 (ko) 2015-03-05 2022-02-07 삼성디스플레이 주식회사 표시 장치
JP2016224523A (ja) * 2015-05-27 2016-12-28 京セラ株式会社 携帯端末
CN104932825B (zh) * 2015-06-15 2018-04-20 南京韵奇盈信息技术有限公司 一种自动感知左右手操作手机并确定拇指活动热区的方法
CN105630371A (zh) * 2015-06-24 2016-06-01 宇龙计算机通信科技(深圳)有限公司 用于终端的单手操作方法及装置
CN105204744B (zh) * 2015-09-28 2018-10-19 北京金山安全软件有限公司 一种启动应用程序的方法、装置及电子设备
CN106502521A (zh) * 2016-09-12 2017-03-15 珠海格力电器股份有限公司 切换屏幕方向的显示方法、装置及具有该装置的手持设备
CN106843632A (zh) * 2016-11-30 2017-06-13 广州视源电子科技股份有限公司 一种图标的显示方法与系统
CN108132747A (zh) * 2017-01-03 2018-06-08 中兴通讯股份有限公司 一种屏幕内容切换方法和双屏移动终端
US10417991B2 (en) 2017-08-18 2019-09-17 Microsoft Technology Licensing, Llc Multi-display device user interface modification
US11301124B2 (en) 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel
US11237699B2 (en) 2017-08-18 2022-02-01 Microsoft Technology Licensing, Llc Proximal menu generation
US20190056857A1 (en) * 2017-08-18 2019-02-21 Microsoft Technology Licensing, Llc Resizing an active region of a user interface
US11487425B2 (en) * 2019-01-17 2022-11-01 International Business Machines Corporation Single-hand wide-screen smart device management
JP7493379B2 (ja) 2020-05-07 2024-05-31 株式会社コロプラ ユーザインターフェースプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP2008027183A (ja) * 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
JP2008250620A (ja) * 2007-03-30 2008-10-16 Fuji Xerox Co Ltd 表示装置及びプログラム
JP2010020601A (ja) * 2008-07-11 2010-01-28 Nec Corp 携帯端末、タッチパネルの項目配置方法およびプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4280314B2 (ja) 1997-11-27 2009-06-17 富士フイルム株式会社 画面表示部を有する機器の操作装置
US20020018051A1 (en) * 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
JP2002140148A (ja) 2000-10-30 2002-05-17 Nagano Fujitsu Component Kk キーボード
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
JP2004355606A (ja) 2003-02-14 2004-12-16 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2006148536A (ja) 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2007036544A (ja) 2005-07-26 2007-02-08 Yamaha Corp 携帯端末装置
JP2009158989A (ja) 2006-04-06 2009-07-16 Nikon Corp カメラ
KR20080068781A (ko) * 2007-01-20 2008-07-24 엘지전자 주식회사 터치 스크린을 구비한 전자 기기 및 이를 이용한 정보 표시방법
JP4500845B2 (ja) 2007-11-13 2010-07-14 シャープ株式会社 情報表示装置、情報表示方法、プログラム及び記録媒体
JP4605478B2 (ja) * 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
JP4364273B2 (ja) * 2007-12-28 2009-11-11 パナソニック株式会社 携帯端末装置及び表示制御方法並びに表示制御プログラム
KR101020029B1 (ko) * 2008-07-02 2011-03-09 삼성전자주식회사 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서터치를 이용한 키 입력 방법
JP5066055B2 (ja) * 2008-10-28 2012-11-07 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
JP4666053B2 (ja) * 2008-10-28 2011-04-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101218265B1 (ko) 2008-10-30 2013-01-03 (주)엘지하우시스 인몰드 사출용 전사필름
WO2010064387A1 (ja) * 2008-12-04 2010-06-10 三菱電機株式会社 表示入力装置
KR101587211B1 (ko) * 2009-05-25 2016-01-20 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP2009261024A (ja) 2009-08-10 2009-11-05 Fujifilm Corp ディスプレイ付き撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP2008027183A (ja) * 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
JP2008250620A (ja) * 2007-03-30 2008-10-16 Fuji Xerox Co Ltd 表示装置及びプログラム
JP2010020601A (ja) * 2008-07-11 2010-01-28 Nec Corp 携帯端末、タッチパネルの項目配置方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105744054A (zh) * 2015-12-31 2016-07-06 宇龙计算机通信科技(深圳)有限公司 一种移动终端的控制方法及移动终端

Also Published As

Publication number Publication date
JPWO2011135944A1 (ja) 2013-07-18
WO2011135944A1 (ja) 2011-11-03
EP2565764A4 (en) 2016-08-10
CN102870084A (zh) 2013-01-09
EP2565764B1 (en) 2020-10-07
EP2565764A1 (en) 2013-03-06
CN102870084B (zh) 2015-08-19
US9372623B2 (en) 2016-06-21
US20130009903A1 (en) 2013-01-10

Similar Documents

Publication Publication Date Title
JP5817716B2 (ja) 情報処理端末およびその操作制御方法
US9671880B2 (en) Display control device, display control method, and computer program
JP5708644B2 (ja) 情報処理端末およびその制御方法
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP5983503B2 (ja) 情報処理装置及びプログラム
EP2508972B1 (en) Portable electronic device and method of controlling same
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
JP5691464B2 (ja) 情報処理装置
EP2652580B1 (en) Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
EP2860622B1 (en) Electronic device and controlling method and program therefor
US20130215060A1 (en) Mobile terminal apparatus and display method for touch panel in mobile terminal apparatus
US20090109187A1 (en) Information processing apparatus, launcher, activation control method and computer program product
US20120212418A1 (en) Mobile terminal and display method
WO2012043111A1 (ja) 情報処理端末およびその制御方法
JP6319298B2 (ja) 情報端末、表示制御方法及びそのプログラム
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
JP6109788B2 (ja) 電子機器及び電子機器の作動方法
JP2014238755A (ja) 入力システム、入力方法およびスマートフォン
US9244564B2 (en) Information processing apparatus touch panel display and control method therefor
EP2763378B1 (en) Portable electronic device, touch operation processing method and program
JP6015183B2 (ja) 情報処理装置およびプログラム
US20150123916A1 (en) Portable terminal device, method for operating portable terminal device, and program for operating portable terminal device
JP5855481B2 (ja) 情報処理装置、その制御方法およびその制御プログラム
JP2006039819A (ja) 座標入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150626

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150914

R150 Certificate of patent or registration of utility model

Ref document number: 5817716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150