JP2011123761A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2011123761A
JP2011123761A JP2009282109A JP2009282109A JP2011123761A JP 2011123761 A JP2011123761 A JP 2011123761A JP 2009282109 A JP2009282109 A JP 2009282109A JP 2009282109 A JP2009282109 A JP 2009282109A JP 2011123761 A JP2011123761 A JP 2011123761A
Authority
JP
Japan
Prior art keywords
touch panel
contact
display
processing
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009282109A
Other languages
English (en)
Other versions
JP4843706B2 (ja
Inventor
Hajime Suzukawa
元 鈴川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009282109A priority Critical patent/JP4843706B2/ja
Priority to US12/964,509 priority patent/US20110141044A1/en
Publication of JP2011123761A publication Critical patent/JP2011123761A/ja
Application granted granted Critical
Publication of JP4843706B2 publication Critical patent/JP4843706B2/ja
Priority to US13/661,992 priority patent/US20130050127A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • G06F1/1649Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display the additional display being independently orientable, e.g. for presenting information to a second user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】複数のタッチパネルに対して連続する操作の操作性を向上させる。
【解決手段】パーソナルコンピュータは、2枚のタッチパネル15,17が設けられている。CPU111は、タッチパネルドライバ202により、一方のタッチパネル15に対する特定の操作が検出された場合に、特定の操作に応じた処理モードを設定する。CPU111は、処理モードが設定された後、他方のタッチパネル17に対する操作に応じて、処理モードに応じた処理を実行し、処理の結果をLCD16に表示させる。
【選択図】図2

Description

本発明は、タッチパネルを有した電子機器に関する。
従来、マルチディスプレイシステムに複数のタッチパネルを取り付けた場合にも統合的に操作することが可能なタッチパネル装置が知られている(特許文献1)。
特許文献1に記載されたタッチパネル装置は、タッチパネルの押下位置を示す物理座標をタッチパネルコントローラを介してタッチパネルドライバに伝送し、このタッチパネルドライバによりタッチパネル物理座標をホストコンピュータのオペレーティングシステムに適応した仮想座標に変換する。従来技術によるタッチパネル装置は、座標変換に際して、2枚のタッチパネルに対して仮想座標の記憶領域を割り付けることにより、2枚のタッチパネルを統合的に操作することを可能にしている。
特開平11−161426号公報
しかしながら、従来技術は、2枚のタッチパネルを統合的に操作することを可能にしているが、個々にタッチパネルを操作する場合を想定しているに過ぎない。
一般に、タッチパネルに対する操作には、特定の位置で押下(ポイント)するだけでなく、押下したまま移動させる場合がある。例えば、マウスなどのポインティングデバイスで用いられるドラッグアンドドロップ操作のように、ディスプレイに表示されたオブジェクト(フォルダやファイルを表すアイコン、メニュー、ボタン等)を押下してそのまま移動させてから離すことにより、オブジェクトの移動を指示することができる。
しかしながら、2つのタッチパネルが独立して構成されている場合、2つのタッチパネルの間を連続して、オブジェクトを押下したまま移動させることができない。このため従来では、例えば一方のタッチパッドへの操作によって、オブジェクトを指定してコマンドメニューを表示させ、このコマンドメニューから移動などのコマンドを指定した後に、他方のタッチパッドに対して移動先となる位置を押下(ポイント)するといった操作が必要となっていた。すなわち、1つのタッチパネルを使用する場合と比較して操作性が悪くなってしまう。
本発明は上述の事情を考慮してなされたものであり、複数のタッチパネルに対して連続する操作の操作性を向上させることが可能な電子機器を提供することを目的とする。
上述の課題を解決するため、本発明は、第1及び第2のタッチパネルと、ディスプレイと、前記第1のタッチパネルに対する特定の操作を検出する検出手段と、前記検出手段により前記特定の操作が検出された場合に、前記特定の操作に応じた処理モードを設定する設定手段と、前記第2のタッチパネルに対する操作に応じて、前記処理モードに応じた処理をする処理手段と、前記処理手段による処理の結果を前記ディスプレイに表示する表示手段とを具備したことを特徴とする。
本発明によれば、複数のタッチパネルに対して連続する操作の操作性を向上させることができる。
本実施形態における電子機器の構成を示す外観図。 本実施形態におけるパーソナルコンピュータのシステム構成を示すブロック図。 本実施形態におけるタッチパネルに関係するソフトウェアの関係の一例を示す図。 本実施形態における第1の方法により処理モードを設定する処理を示すフローチャート。 本実施形態におけるLCDに表示されたフォルダを表すアイコンの一例を示す図。 本実施形態における第1の方法による操作を説明するための図。 本実施形態における第2の方法により処理モードを設定する処理を示すフローチャート。 本実施形態における第2の方法を説明するためのLCDにおけるアイコンの表示例を示す図。 本実施形態における第2の方法を説明するためのLCDにおけるアイコンの表示例を示す図。 本実施形態における第2の方法を説明するためのLCDにおけるアイコンの表示例を示す図。 本実施形態における第2の方法を説明するためのLCDにおけるアイコンの表示例を示す図。 本実施形態における第3の方法により処理モードを設定する処理を示すフローチャート。 本実施形態における第3の方法による操作を説明するための図。 本実施形態における第4の方法により処理モードを設定する処理を示すフローチャート。 本実施形態における第4の方法を説明するためのLCDにおけるアイコンの表示例を示す図。 本実施形態における第4の方法を説明するためのLCDにおけるアイコンの表示例を示す図。 本実施形態における第5の方法により処理モードを設定する処理を示すフローチャート。 本実施形態における圧力センサが装着されたタッチパネルの側面図。
以下、図面を参照して、本発明の実施形態を説明する。
図1は、本実施形態における電子機器の構成を示す外観図である。この電子機器は、例えば、ノートブック型の携帯型パーソナルコンピュータ10として実現されている。本実施形態におけるパーソナルコンピュータ10は、外部電源(AC電源)による駆動だけでなく、バッテリ駆動が可能である。
図1は、パーソナルコンピュータ10の開状態における斜視図である。パーソナルコンピュータ10は、第1のディスプレイユニット11と、第2のディスプレイユニット12とがヒンジ機構により連結されて構成されている。
第1のディスプレイユニット11には、LCD(Liquid Crystal Display)14から構成される表示装置が組み込まれている。LCD14の表示画面は、第1のディスプレイユニット11のほぼ中央に位置されている。また、LCD14の表示画面には、透過型のタッチパネル15が重ね合わされている。このため、LCD14において表示された各種オブジェクト(フォルダやファイルを表すアイコン、メニュー、ボタン等)が、タッチパネル15を介して視認することができる。また、LCD14において表示されたオブジェクトを指先やペンなどを用いて直接的に指示(ポイント)することにより、オブジェクトの位置に該当する座標データをタッチパネル15から入力することができる。
第2のディスプレイユニット12は、第1のディスプレイユニット11と同様に構成されている。すなわち、第2のディスプレイユニット12には、LCD16が組み込まれている。LCD16の表示画面には、透過型のタッチパネル17が重ね合わされている。なお、タッチパネル15,17には、それぞれ圧力センサ15a,17aを装着することができる(図18参照)。
第2のディスプレイユニット12は、第1のディスプレイユニット11に対して、ヒンジ機構によって開放位置と閉塞位置との間を回動自在となっている。ヒンジ機構は、例えば第1のディスプレイユニット11と第2のディスプレイユニット12との角度を180°として平面状にすることができる。これにより、第1のディスプレイユニット11と第2のディスプレイユニット12とをテーブル等に載置して、1台のタッチパネルと同様にして使用することができる。
第1のディスプレイユニット11は、コンピュータ本体であり、筐体内に主要なユニットが搭載されている。また、第1のディスプレイユニット11の側面部には、パワーオン/オフするためのパワーボタンスイッチ18や各種端子が設けられている。また、第1のディスプレイユニット11の底部には、バッテリ142(図2に示す)が脱着可能となっている。第1のディスプレイユニット11には、電源コネクタ(図示せず)が設けられており、ACアダプタ143(図2に示す)を接続することができる。
図2は、本実施形態におけるパーソナルコンピュータ10のシステム構成を示すブロック図である。
パーソナルコンピュータ10は、図2に示すように、CPU111、ノースブリッジ114、主メモリ115、グラフィクスプロセッシングユニット(GPU)116、サウスブリッジ117、BIOS−ROM120、ハードディスクドライブ(HDD)121、光ディスクドライブ(ODD)122、エンベデッドコントローラIC(EC)140、電源回路141等を備えている。
CPU111は、パーソナルコンピュータ10の動作を制御するために設けられたプロセッサであり、HDD121から主メモリ115にロードされる、オペレーティングシステム(OS)200および各種アプリケーションプログラム201等を実行する。また、CPU111は、タッチパネル15,17を制御するためのタッチパネルドライバ202を実行する。
さらに、CPU111は、BIOS−ROM120に格納されたシステムBIOS(Basic Input Output System)も実行する。システムBIOSはハードウェア制御のためのプログラムである。
ノースブリッジ114はCPU111のローカルバスとサウスブリッジ117との間を接続するブリッジデバイスである。ノースブリッジ114には、主メモリ115をアクセス制御するメモリコントローラも内蔵されている。
GPU116は、パーソナルコンピュータ10のディスプレイモニタとして使用されるLCD14,15を制御する表示コントローラである。GPU116は、ノースブリッジ114を介してCPU111から送信される描画要求に基づいてビデオメモリ(VRAM)116Aにフレーム群を描画するための表示処理(グラフィクス演算処理)を実行する。
サウスブリッジ117は、HDD121および光ディスクドライブ(ODD)122を制御するためのIDE(Integrated Drive Electronics)コントローラやSerial ATAコントローラを内蔵している。
エンベデッドコントローラIC(EC)140は、電力管理およびタッチパネル15,17を制御するためのコントローラとが集積された1チップマイクロコンピュータである。EC140は、ユーザによるパワーボタンスイッチ18の操作に応じてパーソナルコンピュータ10をパワーオン/パワーオフする機能を有している。パーソナルコンピュータ10のパワーオン/パワーオフの制御は、EC140と電源回路141との共同動作によって実行される。
電源回路141は、コンピュータ本体11に装着されたバッテリ142、またはACアダプタ143を介して接続された外部電源から電源供給を受けて、各コンポーネントへの動作電源を生成して供給する。電源回路141には、電源マイコン144が設けられている。電源マイコン144は、各コンポーネントとバッテリ142に対する電源供給(充放電)や、バッテリ142の充電状態を監視する。電源回路141は、バッテリ142とACアダプタ143とが接続されている場合、外部電源によりバッテリ142を充電する。
図3は、本実施形態におけるタッチパネル15,17に関係するソフトウェアの関係の一例を示す図である。図3では、タッチパネルドライバ202によって、ユーザのタッチパネル15,17に対する操作を制御する例を示している。なお、OS200あるいはアプリケーションプログラム201によって、同様の制御を実行するように構成しても良い。
タッチパネル15,17は、タッチパネルドライバ202により制御される。タッチパネルドライバ202には、接触検出部203、操作検出部204、及びモード設定部205が設けられている。
接触検出部203は、ユーザの操作によるタッチパネル15,17に対する接触を検出して、接触位置の座標データを検出する。接触検出部203は、タッチパネル15,17に対して同時に複数の位置において接触されている場合に、この複数の位置の座標データを検出することができる。
操作検出部204は、接触検出部203により検出された接触位置のデータをもとに、処理モードを指定する特定の操作を検出する。処理モードとしては、例えばLCD14,16において表示されたオブジェクトに対する移動やコピーなどがある。操作検出部204は、接触検出部203により接触が検出された位置に、移動やコピーの対象とするオブジェクト(フォルダやアイコン等)が存在し、特定の操作があったことが判定された場合に、同オブジェクトに対する処理の処理モードが指定されたものと判定する。なお、操作検出部204は、接触検出部203により接触が検出された位置にオブジェクトが存在するかを、OS200に問い合わせて判定することができるものとする。
操作検出部204には、操作判定部204a、時間判定部204b、接触面積判定部204c、移動領域判定部204d、圧力判定部204eが含まれる。
操作判定部204aは、タッチパネル15,17に接触されている第1の位置と第2の位置とを、LCD14,16に表示されたオブジェクトに対応する位置に移動させ、第1の位置と第2の位置の移動先における距離を特定範囲内に含まれるようにする操作を判定する。例えば、表示されたオブジェクトに対応する位置において、オブジェクトを摘むような操作をすることで、処理モードを指定することができる。
時間判定部204bは、タッチパネル15,17に接触されている位置がLCD14,16に表示されたオブジェクトに対応する位置であり、接触時間が一定時間以上である操作を判定する。
接触面積判定部204cは、タッチパネル15,17に接触されている位置がLCD14,16に表示されたオブジェクトに対応する位置であり、接触面積を規定値以上とする操作、あるいは接触面積の増加率が規定値以上する操作を判定する。
移動領域判定部204dは、タッチパネル15,17に対して、LCD14,16に表示されたオブジェクトに対応する第1の位置が接触され、接触された状態のまま第1の位置を同じタッチパネルの予め設定された特定範囲内の第2の位置に移動させる操作、いわゆるドラッグ操作によりオブジェクトを特定範囲内にまで移動させる操作を判定する。
圧力判定部204eは、タッチパネル15,17のそれぞれに装着された圧力センサ15a,17aにより検出された圧力値を読み取り、タッチパネル15,17により検出される接触の圧力が一定値以上である操作を判定する。
モード設定部205は、操作検出部204によって検出された操作に応じて処理モードを設定する。例えば、操作検出部204によって検出された操作がオブジェクトの移動のための操作である場合には移動モードを設定する。モード設定部205は、処理モードが設定された後に検出されるタッチパネル15,17に対する操作に応じて、OS200(あるいはアプリケーションプログラム201)に対して処理モード応じた処理の実行を要求する。
OS200及びアプリケーションプログラム201は、タッチパネルドライバ202によって検出されたタッチパネル15,17に対する操作に応じた処理を実行する。OS200は、LCD14,16において表示されているオブジェクト(フォルダやファイルを表すアイコン、メニュー、ボタン、アプリケーション毎の表示ウィンドウ等)の表示位置を管理しており、タッチパネルドライバ202において検出されたタッチパネル15,17に対して接触された位置にオブジェクトが存在しているかを、タッチパネルドライバ202からの問い合わせに応じて通知することができる。
また、OS200及びアプリケーションプログラム201は、タッチパネルドライバ202(接触検出部203)によって検出された、タッチパネル15,17に対して同時に接触されている複数の位置の座標データをもとにした処理を実行することができる。
なお、図3では、タッチパネル15,17に対するユーザの操作をタッチパネルドライバ202により判定して、処理モードを設定しているが、OS200あるいはアプリケーションプログラム201によりユーザの操作を判定し、この判定された操作に応じた処理モードを設定するようにしても良い。この場合、タッチパネルドライバ202は、タッチパネル15,17に対するユーザの操作によって検出された座標データをOS200に通知する処理を実行する。
次に、本実施形態におけるパーソナルコンピュータ10の動作について説明する。
パーソナルコンピュータ10は、OS200の制御により、例えば2つのLCD14,16において、1画面を表示することもできるし、それぞれに独立した画面(例えばアプリケーション毎の画面)を表示することもできる。以下の説明では、LCD14,16において1画面を表示し、一方のLCD14に表示されたフォルダ(あるいはファイル)を、タッチパネル15,17に対する操作によって他方のLCD16に移動させる場合を例にする。
本実施形態におけるパーソナルコンピュータ10では、次に説明する第1〜第5の方法により処理モード(移動モード)を設定して、フォルダ(ファイル)を移動する処理を実行することができる。ただし、本実施形態におけるパーソナルコンピュータ10は、第1〜第5の何れか1つの方法により処理モードを設定できるようにしても良いし、任意の組合せによる2以上の方法により処理モードを設定できるようにしても良い。
(1)オブジェクトをつまむ操作により処理モードを設定する方法(第1の方法)。
図4は、第1の方法により処理モードを設定する処理を示すフローチャートである。図5は、LCD14に表示されたフォルダを表すアイコンAの一例を示している。
ユーザは、例えばLCD14に表示されたアイコンAの位置に合わせて、アイコンAを摘むために親指と人差し指によって、タッチパネル15に接触したものとする。
この場合、接触検出部203は、タッチパネル15に対する2ヶ所における接触を検出する(ステップA1、Yes)。操作判定部204aは、接触検出部203によって検出されたタッチパネル15に対する2ヶ所の接触位置が、予め決められた一定値以上、離れているかを判別する。なお、一定値は、例えば処理対象とするオブジェクト(アイコン等)の最大幅より大きい値が設定されているものとする。また、2ヶ所の接触位置の上限とする値が設定されていても良い。例えば、ユーザの指では操作することができない値を設定しておき、この値を超える距離を越える2ヶ所で接触が検出された場合には、この接触を無効とする。
操作判定部204aは、離れた2ヶ所での接触が検出されると(ステップA2、Yes)、この2ヶ所の接触位置が特定範囲内に移動されるかを監視する。
図5には、アイコンAに対して入力された2ヶ所の接触位置(ポイントP1a,P2a)を示している。ポイントP1aは、例えば親指の接触位置に対応し、ポイントP2aが人差し指の接触位置に対応する。
ここで、ユーザが、親指と人差し指をタッチパネル15に接触させたまま摘む操作、すなわち親指と人差し指とを近づける操作をすると、図6に示すように、接触検出部203により検出されるポイントP1aがポイントP1bに移動され、ポイントP2aがポイントP2bに移動される。
操作判定部204aは、ポイントP1bとポイントP2bの2ヶ所の接触位置が特定範囲内にあるかを判別する。ここでは、移動先のポイントP1bとポイントP2bが予め決められた一定値Hの距離内にまで移動され、かつポイントP1bとポイントP2bの位置に、移動処理の対象とするオブジェクトが存在しているかを判別する。操作判定部204aは、移動先のポイントP1bあるいはポイントP2bの位置にオブジェクトが存在するかをOS200に問い合わせる。なお、OS200は、ポイントP1bあるいはポイントP2bがアイコンAの表示位置と一致しなくても、アイコンAの周辺であれば存在するものと判別する。
ここで、オブジェクト(ここではアイコンA)が存在していることがOS200により通知されると(ステップA3、Yes)、モード設定部205は、アイコンAに対する移動モードを設定する(ステップA4)。
OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたアイコンAの表示形態(例えば、表示色)を変更する。
移動モードが設定された後、タッチパネル15,17に対する接触が接触検出部203により検出されると(ステップA5、Yes)、OS200は、接触検出部203により検出された位置に、移動モードが設定されたアイコンAの表示位置を移動させる処理を実行する(ステップA6)。例えば、アイコンAに対して移動モードが設定された後、タッチパネル17に対して指を接触されると、タッチパネル17の接触位置に対応するLCD16の表示位置にアイコンAを移動させる。
なお、モード設定部205は、移動モードを設定した後、移動先を示す位置の指定がない場合(ステップB6、No)、移動モードを解除するものとする。例えば、移動モードを設定した後、予め決められた一定時間以上(例えば5秒以上)、タッチパネル15,17に対する接触がない場合には、移動モードを解除する。
このようにして、第1の補では、LCD14に表示されたアイコンAの表示位置に合わせて、タッチパネル15に対して2ヶ所の位置を指定する摘む操作をすることで移動モードを設定することができる。そして、移動モードを設定した後は、移動先とする位置をタッチパネル17に対して接触するだけで指定できる。つまり、2つのタッチパネル15,17に対して、移動対象とするオブジェクト(アイコンA)の指定と、移動先の指定とを連続して操作する必要がある場合であっても、コマンドメニューを表示させてコマンドを指定するといった操作をする必要がないので、良好な操作性を提供することができる。
なお、移動モードが設定されたアイコンAの移動先として、タッチパネル17に対してだけでなく、当然ながらタッチパネル15に対して行うことも可能である。
(2)オブジェクトを一定時間継続して選択する操作により処理モードを設定する方法(第2の方法)。
図7は、第2の方法により処理モードを設定する処理を示すフローチャートである。図8〜図11は、第2の方法を説明するためのLCD14,16におけるアイコンの表示例を示している。
ユーザは、例えばLCD14に表示されたアイコンBの位置に合わせて、タッチパネル15に接触したものとする。接触検出部203は、タッチパネル15に対する接触を検出する(ステップB1、Yes)。
時間判定部204bは、接触検出部203により検出された位置にオブジェクトが存在するかをOS200に問い合わせる。ここで、オブジェクト(ここではアイコンB)が存在していることがOS200により通知されると、時間判定部204bは、ユーザがアイコンBを継続して選択している時間を測定するために時間カウントを開始する(ステップB2)。
時間判定部204bは、タッチパネル15のアイコンBに対応する位置において継続して接触されている場合(ステップB3、Yes)、予め決められた一定時間(例えば2秒)が経過したかを判別する。ここで、一定時間が経過したと判別された場合、モード設定部205は、アイコンBに対する移動モードを設定する(ステップB5)。
OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたアイコンBの表示形態(例えば、表示色)を変更する。
例えば、図8に示すように、アイコンBに対して、一定時間以上、指を接触させておくことにより、アイコンBに対して移動モードが設定される。図9は、移動モードに移行された状態を示している。図9に示すように、移動モードが設定されることにより、移動先とする位置を任意に指定することができる。
以下、移動モードが設定された後の処理(ステップB5〜B7)については、第1の方法において説明したステップA4〜A6と同様の処理を実行するものとして詳細な説明を省略する。
図10は、アイコンBの移動先として、タッチパネル17に対して接触された状態を示している。OS200は、この接触位置に対応するLCD16の表示位置に、図11に示すように、移動後のアイコンCを表示させる。
このようにして、第2の方法では、処理対象とするアイコンBに対して、一定時間以上、選択し続ける(タッチパネル15に対して接触し続ける)だけで移動モードを設定することができる。以下、第1の方法と同様の操作性を提供することが可能である。
(3)オブジェクトを選択する操作によるタッチパネルへの接触面積に基づいて処理モードを設定する方法(第3の方法)。
図12は、第3の方法により処理モードを設定する処理を示すフローチャートである。
ユーザは、例えばLCD14に表示されたアイコンの位置に合わせて、タッチパネル15に接触したものとする。接触検出部203は、タッチパネル15に対する接触を検出する(ステップC1、Yes)。
接触面積判定部204cは、接触検出部203により検出された位置にオブジェクトが存在するかをOS200に問い合わせる。ここで、オブジェクトが存在していることがOS200により通知されると、接触面積判定部204cは、例えば一定時間毎(例えば0.5秒毎)にタッチパネル15に接触されている面積を検出する(ステップC2)。
接触面積判定部204cは、ここで検出された接触面積を記録しておく(ステップC3)。そして、接触面積判定部204cは、今回検出された接触面積と、前回の検出により記録された接触面積(初期値は0)とを比較して、接触面積の増加率を算出する(ステップC4)。
増加率が予め決められた規定値以上でない場合(ステップC5、No)、接触面積判定部204cは、接触検出部203によりタッチパネル15への接触が検出されていれば(ステップC6、Yes)、前述と同様にして、一定時間毎に接触面積の検出と増加率の算出を繰り返して実行する(ステップC2〜C6)。
例えば、LCD14に表示されたアイコンを選択するために指先によってタッチパネル15に接触した場合、図13(A)に示すように、接触面積Aは狭くなる。その後、指の腹をタッチパネル15に押しつけることにより、図13(B)に示すように、接触面積Bは広くなる。
モード設定部205は、接触面積判定部204cによって、タッチパネル15に対する接触面積の増加率が規定値以上となったことが判別されると、接触位置に対応するオブジェクト(アイコン)に対する移動モードを設定する(ステップC7)。
OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたオブジェクト(アイコン)の表示形態(例えば、表示色)を変更する。
以下、移動モードが設定された後の処理(ステップC7〜C9)については、第1の方法において説明したステップA4〜A6と同様の処理を実行するものとして詳細な説明を省略する。
このようにして、第3の方法では、処理対象とするオブジェクト(アイコン等)に対して、最初の接触時の面積より広い面積で接触するように接触状態を変化させるだけで移動モードを設定することができる。以下、第1の方法と同様の操作性を提供することが可能である。
なお、前述した説明では、タッチパネル15に対する接触面積の増加率が規定値以上である場合に移動モードを設定しているが、単純に、タッチパネル15に対する接触面積が規定値以上である場合に、移動モードを設定するようにしても良い。
(4)オブジェクトを特定の領域(範囲)に移動させる操作により処理モードを設定する方法(第4の方法)。
図14は、第4の方法により処理モードを設定する処理を示すフローチャートである。図15及び図16は、第4の方法を説明するためのLCD14におけるアイコンの表示例を示している。
ユーザは、例えばLCD14に表示されたアイコンDの位置に合わせて、タッチパネル15に接触したものとする。接触検出部203は、タッチパネル15に対する接触を検出する(ステップD1、Yes)。
移動領域判定部204dは、接触検出部203により検出された位置にオブジェクトが存在するかをOS200に問い合わせる。ここで、オブジェクト(アイコンD)が存在していることがOS200により通知されると、移動領域判定部204dは、このアイコンDを選択するために接触された位置が、タッチパネル15に接触された状態のまま移動され、タッチパネル15に対して設定されている特定の領域内にまで移動されているかを判定する(ステップD2〜D4)。すなわち、ドラッグ操作によって、アイコンDを選択している位置が特定の領域内にまで移動されているかを判定する。
アイコンDを選択している位置が特定の領域内にまで移動されていると判定されると(ステップD3、Yes)、モード設定部205は、接触位置に対応するアイコンDに対する移動モードを設定する(ステップD5)。
OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたオブジェクト(アイコン)の表示形態(例えば、表示色)を変更する。
以下、移動モードが設定された後の処理(ステップD5〜D7)については、第1の方法において説明したステップA4〜A6と同様の処理を実行するものとして詳細な説明を省略する。
図15では、アイコンDが選択されてドラッグされている状態を示している。移動領域判定部204dは、図16に示すように、タッチパネル15に対して設定されている特定の領域E1にまでアイコンDを選択している接触位置が移動されているかを判定する。
図16に示す例では、タッチパネル15に対しては、LCD16(タッチパネル17)と連結されている側の辺に沿って特定の領域E1が設定されている。また、タッチパネル17に対しては、LCD14(タッチパネル15)と連結されている側の辺に沿って特定の領域E2が設定されている。
これにより、LCD14に表示されていたアイコンDをLCD16の表示領域に移動させるために、LCD16の方向にドラッグ操作をすることにより、特定の領域E1にまでアイコンDを到達させることができる。すなわち、アイコンの表示位置を移動させるための既存のドラッグ操作をすることで移動モードを設定することができる。
なお、図16に示す特定の領域E1,E2は一例であって、タッチパネル15,17の任意の場所に特定の領域を設定することができる。
また、処理モード別に独立した特定の領域をタッチパネル15,17に複数設定しておくようにしても良い。例えば、移動モード設定用の特定の領域と、コピーモード設定用の特定の領域を設けておく。これにより、オブジェクトの移動先となった特定の領域に応じて、処理モードを設定することが可能となる。
このようにして、第4の方法では、処理対象とするオブジェクト(アイコン等)をタッチパネル15,17に対して設定された特定の領域E1,E2に移動させる操作をすることにより移動モードを設定することができる。以下、第1の方法と同様の操作性を提供することが可能である。
(5)タッチパネル15,17に対する一定値以上の圧力の操作により処理モードを設定する方法(第5の方法)。
図17は、第5の方法により処理モードを設定する処理を示すフローチャートである。第5の方法により処理モードを設定できるようにするために、パーソナルコンピュータ10には、圧力センサ15a,17aが装着されたタッチパネル15,17を実装する。
図18は、圧力センサ15a,17aが装着されたタッチパネル15,17の側面図を示している。図18に示すように、タッチパネル15,17と密着させた圧力センサ15a,17aが装着されていることにより、タッチパネル15,17に対する接触の圧力を圧力センサ15a,17aによって検出することができる。
ユーザは、例えばLCD14に表示されたアイコンの位置に合わせて、タッチパネル15に接触したものとする。接触検出部203は、タッチパネル15に対する接触を検出する(ステップE1、Yes)。
移動領域判定部204dは、接触検出部203により検出された位置にオブジェクトが存在するかをOS200に問い合わせる。ここで、オブジェクト(アイコンD)が存在していることがOS200により通知されると、圧力判定部204eは、圧力センサ15a,17aからの検出信号を読み取り(ステップE2)、圧力が予め決められた規定値以上となっているかを判定する(ステップE2〜E4)。
ユーザがアイコンを選択するためにタッチパネル15に接触して圧力を加えると、圧力判定部204eは、圧力センサ15a,17aによって検出された圧力が規定値以上となったことを判定する(ステップE3、Yes)。モード設定部205は、接触位置に対応するアイコンに対する移動モードを設定する(ステップE5)。
OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたオブジェクト(アイコン)の表示形態(例えば、表示色)を変更する。
以下、移動モードが設定された後の処理(ステップE5〜E7)については、第1の方法において説明したステップA4〜A6と同様の処理を実行するものとして詳細な説明を省略する。
このようにして、第5の方法では、処理対象とするオブジェクト(アイコン等)をタッチパネル15,17に対して設定された特定の領域E1,E2に移動させる操作をすることにより移動モードを設定することができる。以下、第1の方法と同様の操作性を提供することが可能である。
なお、前述した第1〜第5の方法は、アイコンに対して移動モードを設定するための方法として説明しているが、第1〜第5の方法のそれぞれに対応して、異なる処理モードが設定されるようにしても良い。例えば、第1の方法による操作がされた場合には移動モードを設定し、第2の方法による操作がされた場合にはコピーモードを設定する。他の方法に対しても、別の処理モードが設定されるようにする。この場合、何れの方法に対して、何れの処理モードが設定されるかを、例えばユーティリティプログラムによる処理によって、ユーザの指定によって予め設定できるようにしても良い。
なお、前述した説明では、タッチパネルドライバ202により処理モードを設定しているが、OS200がタッチパネルドライバ202により検出された座標データをもとに、タッチパネル15,17に対するユーザの操作を判定し、この判定された操作に応じた処理モードを設定するようにしても良い。さらに、タッチパネルドライバ202により検出された座標データをもとに、アプリケーションプログラム201が処理モードを設定して、OS200あるいはアプリケーションプログラム201において処理モードに応じた処理を実行するようにしても良い。
また、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。
10…パーソナルコンピュータ、11…コンピュータ本体、14,16…LCD、15,17…タッチパネル、111…CPU、115…主メモリ、116…GPU、116A…VRAM、140…EC/KBC、201…アプリケーションプログラム、202…タッチパネルドライバ、141…電源回路、142…バッテリ、143…ACアダプタ、144…電源マイコン。

Claims (7)

  1. 第1及び第2のタッチパネルと、
    ディスプレイと、
    前記第1のタッチパネルに対する特定の操作を検出する検出手段と、
    前記検出手段により前記特定の操作が検出された場合に、前記特定の操作に応じた処理モードを設定する設定手段と、
    前記第2のタッチパネルに対する操作に応じて、前記処理モードに応じた処理をする処理手段と、
    前記処理手段による処理の結果を前記ディスプレイに表示する表示手段と
    を具備したことを特徴とする電子機器。
  2. 前記検出手段は、前記ディスプレイに表示されたオブジェクトを指定する操作を検出し、
    前記設定手段は、前記オブジェクトに対する処理に対応する処理モードを設定することを特徴とする請求項1記載の電子機器。
  3. 前記検出手段は、
    前記第1のタッチパネルに接触されている第1の位置と第2の位置とを前記ディスプレイに表示された前記オブジェクトに対応する位置に移動させ、前記第1の位置と前記第2の位置の移動先における距離を特定範囲内に含まれるようにする操作を検出することを特徴とする請求項2記載の電子機器。
  4. 前記検出手段は、
    前記第1のタッチパネルに接触されている位置が前記ディスプレイに表示された前記オブジェクトに対応する位置であり、接触時間が一定時間以上である操作を検出することを特徴とする請求項2記載の電子機器。
  5. 前記検出手段は、
    前記第1のタッチパネルに接触されている位置が前記ディスプレイに表示された前記オブジェクトに対応する位置であり、接触面積を規定値以上とする操作を検出することを特徴とする請求項2記載の電子機器。
  6. 前記検出手段は、
    前記第1のタッチパネルに対して、前記ディスプレイに表示された前記オブジェクトに対応する第1の位置が接触され、接触された状態のまま前記第1の位置を前記第1のタッチパネルに対して予め設定された特定範囲内の第2の位置に移動させる操作を検出することを特徴とする請求項2記載の電子機器。
  7. 前記第1のタッチパネルに対する接触の圧力を検出する圧力センサをさらに具備し、
    前記検出手段は、
    前記第1のタッチパネルに接触されている位置が前記ディスプレイに表示された前記オブジェクトに対応する位置であり、前記圧力センサにより検出される接触の圧力が一定値以上である操作を検出することを特徴とする請求項2記載の電子機器。
JP2009282109A 2009-12-11 2009-12-11 電子機器 Active JP4843706B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009282109A JP4843706B2 (ja) 2009-12-11 2009-12-11 電子機器
US12/964,509 US20110141044A1 (en) 2009-12-11 2010-12-09 Electronic apparatus
US13/661,992 US20130050127A1 (en) 2009-12-11 2012-10-26 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009282109A JP4843706B2 (ja) 2009-12-11 2009-12-11 電子機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011220863A Division JP2012027940A (ja) 2011-10-05 2011-10-05 電子機器

Publications (2)

Publication Number Publication Date
JP2011123761A true JP2011123761A (ja) 2011-06-23
JP4843706B2 JP4843706B2 (ja) 2011-12-21

Family

ID=44142361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009282109A Active JP4843706B2 (ja) 2009-12-11 2009-12-11 電子機器

Country Status (2)

Country Link
US (2) US20110141044A1 (ja)
JP (1) JP4843706B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087933A (ja) * 2013-10-30 2015-05-07 シャープ株式会社 情報処理装置およびプログラム
JP2022539908A (ja) * 2019-07-22 2022-09-13 維沃移動通信有限公司 アイコン表示方法及び端末機器

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101842906B1 (ko) * 2011-02-10 2018-05-15 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법
US8775947B2 (en) * 2011-08-11 2014-07-08 International Business Machines Corporation Data sharing software program utilizing a drag-and-drop operation and spring-loaded portal
TW201327345A (zh) * 2011-12-16 2013-07-01 Fih Hong Kong Ltd 電子裝置的檔案移動系統及方法
CN102880422A (zh) * 2012-09-27 2013-01-16 深圳Tcl新技术有限公司 触摸屏智能设备文字处理方法和装置
TWI492163B (zh) * 2013-02-20 2015-07-11 Smartdisplayer Technology Co Ltd Electronic card and its capacitive touch sensing method
JP6359862B2 (ja) * 2014-04-17 2018-07-18 シャープ株式会社 タッチ操作入力装置、タッチ操作入力方法及びプログラム
US10338636B2 (en) * 2017-09-16 2019-07-02 Lenovo (Singapore) Pte. Ltd. Computing device with keyboard mode
JP7490967B2 (ja) * 2020-01-27 2024-05-28 富士通株式会社 表示制御プログラム、表示制御方法、及び表示制御装置
US11957240B2 (en) * 2020-11-03 2024-04-16 Mark Kenneth Melville Portable modular height-adjustable table

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683779A (ja) * 1992-08-31 1994-03-25 Toshiba Corp 表示装置
JPH0822436A (ja) * 1994-07-05 1996-01-23 Matsushita Electric Ind Co Ltd 電子機器
JPH10293644A (ja) * 1997-04-18 1998-11-04 Idec Izumi Corp タッチパネル付表示装置
JP2001517813A (ja) * 1997-09-19 2001-10-09 ボルグワード・ロールス・グレン デジタルブック
JP2001290585A (ja) * 2000-01-31 2001-10-19 Canon Inc 位置情報処理装置及びその方法及びそのプログラム、操作装置及びその方法及びそのプログラム
JP3143445U (ja) * 2007-05-15 2008-07-24 宏達國際電子股▲ふん▼有限公司 接触動作を妨げない電子デバイス
JP2009211547A (ja) * 2008-03-05 2009-09-17 Seiko Epson Corp 表示システム、表示装置及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US7138983B2 (en) * 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP2004185258A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
US8134536B2 (en) * 2007-05-15 2012-03-13 Htc Corporation Electronic device with no-hindrance touch operation
US20090237374A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683779A (ja) * 1992-08-31 1994-03-25 Toshiba Corp 表示装置
JPH0822436A (ja) * 1994-07-05 1996-01-23 Matsushita Electric Ind Co Ltd 電子機器
JPH10293644A (ja) * 1997-04-18 1998-11-04 Idec Izumi Corp タッチパネル付表示装置
JP2001517813A (ja) * 1997-09-19 2001-10-09 ボルグワード・ロールス・グレン デジタルブック
JP2001290585A (ja) * 2000-01-31 2001-10-19 Canon Inc 位置情報処理装置及びその方法及びそのプログラム、操作装置及びその方法及びそのプログラム
JP3143445U (ja) * 2007-05-15 2008-07-24 宏達國際電子股▲ふん▼有限公司 接触動作を妨げない電子デバイス
JP2009211547A (ja) * 2008-03-05 2009-09-17 Seiko Epson Corp 表示システム、表示装置及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087933A (ja) * 2013-10-30 2015-05-07 シャープ株式会社 情報処理装置およびプログラム
WO2015064316A1 (ja) * 2013-10-30 2015-05-07 シャープ株式会社 情報処理装置およびプログラム
JP2022539908A (ja) * 2019-07-22 2022-09-13 維沃移動通信有限公司 アイコン表示方法及び端末機器
JP7247417B2 (ja) 2019-07-22 2023-03-28 維沃移動通信有限公司 アイコン表示方法及び端末機器

Also Published As

Publication number Publication date
US20110141044A1 (en) 2011-06-16
JP4843706B2 (ja) 2011-12-21
US20130050127A1 (en) 2013-02-28

Similar Documents

Publication Publication Date Title
JP2012027940A (ja) 電子機器
JP4843706B2 (ja) 電子機器
JP4865053B2 (ja) 情報処理装置およびドラッグ制御方法
US8681115B2 (en) Information processing apparatus and input control method
US20110296329A1 (en) Electronic apparatus and display control method
JP4163713B2 (ja) 情報処理装置およびタッチパッド制御方法
JP5237980B2 (ja) 座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラム
JP4956644B2 (ja) 電子機器、及び入力制御方法
JP2010218422A (ja) 情報処理装置および情報処理装置の制御方法
JP5887807B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP2011123773A (ja) タッチセンサを有する装置、触感呈示方法及び触感呈示プログラム
JP2011059781A5 (ja)
JP6162299B1 (ja) 情報処理装置、入力切替方法、及びプログラム
US20140285461A1 (en) Input Mode Based on Location of Hand Gesture
JP6293209B2 (ja) 情報処理装置、誤操作抑制方法、及びプログラム
JP2011248465A (ja) 情報処理装置および表示制御方法
JP2011134127A (ja) 情報処理装置およびキー入力方法
JP5458130B2 (ja) 電子機器、及び入力制御方法
JP2012064232A (ja) 情報処理装置およびドラッグ制御方法
TW201331818A (zh) 電子裝置及控制電子裝置的方法
JP5362061B2 (ja) 情報処理装置および仮想キーボードの表示方法
JP2011054213A (ja) 情報処理装置および制御方法
KR20080063537A (ko) 터치센서를 구비한 미디어 장치 및 그 제어방법
JP6139647B1 (ja) 情報処理装置、入力判定方法、及びプログラム
JP2010218122A (ja) 情報入力装置、オブジェクト表示方法、およびコンピュータが実行可能なプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111007

R151 Written notification of patent or utility model registration

Ref document number: 4843706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350