JP2010198385A - オブジェクト表示装置 - Google Patents

オブジェクト表示装置 Download PDF

Info

Publication number
JP2010198385A
JP2010198385A JP2009043201A JP2009043201A JP2010198385A JP 2010198385 A JP2010198385 A JP 2010198385A JP 2009043201 A JP2009043201 A JP 2009043201A JP 2009043201 A JP2009043201 A JP 2009043201A JP 2010198385 A JP2010198385 A JP 2010198385A
Authority
JP
Japan
Prior art keywords
load
detection unit
unit
display
pressing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009043201A
Other languages
English (en)
Other versions
JP5734546B2 (ja
Inventor
Takashi Yamada
宇志 山田
Tomotake Aono
智剛 青野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2009043201A priority Critical patent/JP5734546B2/ja
Priority to PCT/JP2010/001295 priority patent/WO2010098118A1/ja
Priority to US13/203,457 priority patent/US20110310058A1/en
Publication of JP2010198385A publication Critical patent/JP2010198385A/ja
Application granted granted Critical
Publication of JP5734546B2 publication Critical patent/JP5734546B2/ja
Priority to US15/222,415 priority patent/US10459613B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

【課題】タッチパネル上で、ドラッグ操作を行わずに、正確かつ迅速にオブジェクトの移動を行うことができるオブジェクト表示装置を提供する。
【解決手段】オブジェクト表示装置10は、オブジェクトを表示する表示部30と、表示部30に対する押圧の位置を検出する位置検出部40と、表示部30に対する押圧の荷重を検出する荷重検出部50と、位置検出部40が、オブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、荷重検出部50が、そのオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、位置検出部40が、第1の押圧の位置とは異なる第2の押圧の位置を検出した場合、そのオブジェクトを第2の押圧の位置に対応する位置へ移動するように表示部30を制御する制御部30と、を有する。
【選択図】 図2

Description

本発明は、オブジェクト表示装置に関するものであり、特に、タッチパネルの表示部に表示されるオブジェクトに対してユーザが操作入力を行うことにより、該オブジェクトを操作することができる装置に関するものである。
一般的に、パーソナルコンピュータ(以下、単にPCと記す)に対する操作入力の態様は、使用するアプリケーションプログラム(以下、単に「アプリケーション」という)により様々である。しかしながら、近年のGUI(Graphical User Interface)の発達により、アプリケーションの多くは、直感的な操作入力を行うことができるように工夫されている。また、PCのディスプレイ装置に表示されるデスクトップ上で行なわれるファイルやフォルダなどのアイコンに対する操作入力は、使用するアプリケーションが異なっていても、共通の直感的な操作により行うことができる場合が多い。
従来、PCの操作入力は、専らキーボードやマウスなどの入力デバイスを用いて、ディスプレイ装置に表示された各種のフォルダやファイルなどのアイコン(以下、「オブジェクト」と記す)をクリックするなどして行なわれることが多かった。しかしながら、最近は、このようなPCの操作入力を、タッチパネルを備えたディスプレイ装置を用いて、極めて直感的に行うことができる場合も多い。画面上に表示された各種のフォルダやファイルなどのオブジェクトに対する操作入力を、タッチパネルを用いて行う場合、マウスなどの入力デバイスによるクリック操作の代わりに、タッチパネルに指先などでタッチする(触れる)操作を行うのが一般的である。なお、タッチパネルの操作は、ユーザの指先などの他にも、スタイラスのようなペン型デバイスを用いてタッチすることにより行うこともできる。
また、最近では、例えば携帯電話や、ミニノートPC、PDA(Personal Digital Assistant)などの携帯端末にもタッチパネルが搭載され、そのような携帯端末の機能は非常に多様化・高度化している。これに伴い、上述したようなPCの操作入力と同様の操作が、タッチパネルを備える携帯端末でも行うことができるようになっている。すなわち、ユーザは、携帯端末に搭載されたタッチパネルに対して、指先でタッチするなどの操作入力を行うことにより、タッチパネルの表示部に表示されたフォルダやファイルなどを操作することができる。
現在主流となっているオペレーティングシステム(OS)においては、ほとんど全てのファイルシステムはディレクトリによる階層構造を有する。すなわち、各種のデータまたはプログラムなどは、各種のファイルとして管理することができ、これらのファイルを1つのフォルダに含ませて、このフォルダをさらに上位の他のフォルダに含ませることができる。また、1つのフォルダには複数のファイルまたは他のフォルダを含ませることもできる。このようなフォルダの階層構造を利用することにより、極めて効率的に情報を分類、収納することができる。また、一度収納した情報を、ユーザの好みに合わせて整理し直すことも容易である。特に、現在主流のOSなどの基本的なアプリケーションにおいては、フォルダやファイルなどをオブジェクトとして視覚化したGUIにより、ユーザにとっての操作性および利便性が著しく向上している。
一般的に、PCにおいてフォルダやファイルを操作する場合、ユーザは、マウスなどの入力デバイスを用いることにより、フォルダやファイルのオブジェクトに対してシングルクリックやダブルクリックなどの操作を行う。ユーザは、フォルダやファイルのオブジェクトをシングルクリックすることによって、そのオブジェクトを選択することができる。階層構造を有するフォルダの場合、ユーザは、当該フォルダのオブジェクトをダブルクリックすることにより、当該フォルダを開く操作を行うことができる。このような、フォルダを開く操作により、当該フォルダの下層に含まれる他のフォルダやファイルを表示させることができる。また、ファイルのオブジェクトの場合は、ユーザは、そのオブジェクトをダブルクリックすることにより、当該ファイルを実行することができる。各ファイルには、当該ファイルを実行するのに必要なアプリケーションが関連付けられており、あるファイルを実行すると、当該ファイルの実行に必要なアプリケーションが起動するようになっている。
上述したPCの操作の他に、ディスプレイ装置においてフォルダやファイルのオブジェクトが表示される位置を移動するにあたり、オブジェクトをクリックしたままの状態にすることにより、フォルダやファイルのオブジェクトをホールド状態(選択された状態)にすることもできる。このホールド状態においては、ホールド状態のまま、マウスなどの入力デバイスの入力位置を移動させることにより、オブジェクトの位置を、入力デバイスの入力位置の移動に追従させることができる。このように、ホールド状態のまま入力デバイスによりオブジェクトの位置を所望の位置まで移動させて、所望の位置でクリックした状態を解除してホールド状態を解除することにより、オブジェクトの位置を確定させることができる。一般的に、オブジェクトをホールド状態のまま移動させることは、「ドラッグ」操作と称され、また、ホールド状態のまま移動させたオブジェクトのホールド状態を解除して位置を確定させることは、「ドロップ」操作と称される。このような一連の操作は、「ドラッグアンドドロップ」とも称される。
上述した「シングルクリック」、「ダブルクリック」、「ドラッグ」操作、および「ドロップ」操作は、PCの操作においてマウスなどの入力デバイスにより行うのみならず、タッチパネルを備えた携帯端末により行うこともできる。タッチパネル上で行うシングルクリックは、ユーザがタッチパネル上を指先などで1回タッチする操作により行い、ダブルクリックは、ユーザがタッチパネル上を指先などで素早く2回連続してタッチする操作により行う。また、タッチパネル上で行うドラッグ操作は、タッチパネルに表示されているオブジェクトを、ユーザが指先などでタッチ(押圧)したままにするホールド状態にして、タッチパネルを押圧したまま移動する(なぞる)ことにより行う。タッチパネル上で行うドロップ操作は、ドラッグ操作によりオブジェクトを移動させた後、ユーザがタッチしていた指先などをタッチパネルから離してホールド状態を解除することにより行う。
以上のような操作により、タッチパネルを備える端末の操作においても、マウスなどの入力デバイスにより行うPCの操作と同様の操作入力を行うことができる。したがって、タッチパネルを備える携帯端末などの端末が用いられる場面は、近年ますます増加している。
ところで、従来の携帯端末に備えられていたタッチパネルは、ユーザの指先などによりタッチされた位置を判定するための位置検出を行う機能のみを備えたものが一般的であった。しかしながら、最近では、タッチパネル上でタッチされた位置を検出するのみならず、さらに、タッチパネルをタッチする押圧力をも検知するものが提案されている(例えば、特許文献1参照)。
この特許文献1に記載の入力装置によれば、タッチパネルの表示部において、オブジェクトがユーザにタッチされて指示された際に、タッチパネルに対する押圧力を計測して、押圧力が所定値を超える場合には、所定の処理を行う。すなわち、この入力装置は、表示部に表示したキーボード画面に対するユーザの押圧入力の押圧力を計測し、押圧力が所定値以下であれば、キーボード画面で指示されたキーを含む所定範囲の表示情報を取得して、キーボード画面と異なる位置の表示領域に表示することができる。また、押圧入力の押圧力が所定値を超える場合、この入力装置は、押圧入力の位置に対応するキーの情報を取得して、当該キーの入力処理、または当該キーに関連付けられているプログラムの実行処理を行うことができる。
特開2004−21933号公報
上記特許文献1に記載の入力装置のように、タッチパネルに対する押圧力を検知することにより、ファイルまたはフォルダを「ドラッグ」操作により移動した後、フォルダを開く操作やファイルを実行する操作を、一連の動作として行うことが考えられる。すなわち、従来の位置検出のみのタッチパネルを用いる方法においては、上述したように、ファイルやフォルダなどのオブジェクトに対してドラッグ操作を行った後に、ドロップ操作を行うことにより、まずはオブジェクトの位置を決定しなければならない。それから、そのファイルやフォルダに対してシングルクリックまたはダブルクリックを行って、フォルダを開いたりファイルを実行する。
それに対して、特許文献1に記載の押圧力検知機能付きのタッチパネルを用いた入力装置であれば、ファイルやフォルダなどのオブジェクトに対してドラッグ操作を行った後、そのまま当該オブジェクトを強く押し込む操作ができる。これのような操作を、フォルダを開く操作やファイルを実行する操作と関連付けることができる。このように、タッチパネルの入力位置の検出および押圧力の検知によって、ファイルやフォルダなどのオブジェクトを移動させた後にフォルダを開く操作やファイルを実行する、という操作を一連の動作として簡単かつ迅速に行うことができる。
しかしながら、押圧力検知機能付きのタッチパネルを備えた入力装置を用いて、このような操作を行うためには、フォルダを開く動作やファイルを実行する動作が行われる基準として、オブジェクトを押圧する押圧力の閾値を設定しなければならない。このように、押圧力の閾値が設定された状態でドラッグ操作を行う場合、ユーザは、タッチパネルを押圧する押圧力が所定の閾値に満たないように、その押圧力を保ちながら押圧入力を行わなければならない。
例えば、ユーザがオブジェクトのドラッグ操作を行っている最中に、押圧力の加減を誤ったため、押圧力が閾値を満たしてしまった場合、ユーザの意図に反して、ドラッグ操作の最中のフォルダを開く動作やファイルを実行する動作が行われてしまう。意図しない動作が行われてしまうと、ユーザは当該動作をキャンセルしたり、または操作のやり直しをしなければならない。また、ユーザがオブジェクトのドラッグ操作を行っている最中に、操作を誤って、タッチパネルからドラッグ操作している指先などを離してしまった場合、通常はドロップ操作と認識されてオブジェクトの位置が確定されてしまう。この場合、ユーザは、中断されたオブジェクトのドラッグ操作を再開しなければならない。このように、ユーザの意図しない動作が行われるのは、ユーザにとって著しく煩わしいものであり、時間と手間を浪費させるものである。
一般に、ドラッグ操作を行っている最中というのは、指先を移動させ続けるため、その押圧力は強まったり弱まったりと変動しやすいものである。このため、ユーザは所定の閾値に満たない押圧力でオブジェクトをホールドしながらドラッグ操作を行っているつもりでも、意図せずに押圧力が強まってしまい、ファイルを実行してしまう恐れがある。また、逆に意図せずに押圧力が弱まってしまい、ホールド状態が解除されてしまう恐れもある。
特に携帯端末など小型の端末の場合、ユーザは移動しながら操作を行うことも多い。このような携帯端末に、上述した押圧力検知機能付きのタッチパネルを備えた入力装置を用いると、所定の閾値に満たない押圧力でオブジェクトをホールドしながらドラッグ操作を行うことは一層困難になると想定される。
したがって、かかる事情に鑑みてなされた本発明の目的は、タッチパネル上で、ドラッグ操作を行わずに、正確かつ迅速にオブジェクトの移動を行うことができるオブジェクト表示装置を提供することにある。
上記目的を達成する請求項1に係るオブジェクト表示装置の発明は、
オブジェクトを表示する表示部と、
前記表示部に対する押圧の位置を検出する位置検出部と、
前記表示部に対する押圧の荷重を検出する荷重検出部と、
前記位置検出部が、前記オブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、前記荷重検出部が、当該オブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
前記位置検出部が、前記第1の押圧の位置とは異なる第2の押圧の位置を検出した場合、
前記オブジェクトを当該第2の押圧の位置に対応する位置へ移動するように前記表示部を制御する制御部と、
を有することを特徴とするものである。
請求項2に係る発明は、請求項1に記載のオブジェクト表示装置において、
前記制御部は、前記第2の押圧の位置が、前記表示部のオブジェクトを表示していない位置に対応する場合に、前記第1の押圧の位置に対応する前記オブジェクトを当該第2の押圧の位置に対応する位置へ移動するように前記表示部を制御するものである。
請求項3に係るオブジェクト表示装置の発明は、
オブジェクトを表示する表示部と、
前記表示部に対する押圧の位置を検出する位置検出部と、
前記表示部に対する押圧の荷重を検出する荷重検出部と、
前記位置検出部が、前記表示部に表示された第1のオブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、前記荷重検出部が、当該第1のオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
前記位置検出部が、前記第1のオブジェクトとは異なる第2のオブジェクトの位置に対応する第2の押圧の位置を検出した場合、
前記第1のオブジェクトと前記第2のオブジェクトとの位置を交換するように前記表示部を制御する制御部と、
を有することを特徴とするものである。
請求項4に係る発明は、請求項3に記載のオブジェクト表示装置において、
前記制御部は、前記第2のオブジェクトがフォルダ以外のファイルのオブジェクトである場合に、前記第1のオブジェクトと前記第2のオブジェクトとの位置を交換するように前記表示部を制御するものである。
請求項5に係るオブジェクト表示装置の発明は、
オブジェクトを表示する表示部と、
前記表示部に対する押圧の位置を検出する位置検出部と、
前記表示部に対する押圧の荷重を検出する荷重検出部と、
前記位置検出部が、前記表示部に表示された第1のオブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、前記荷重検出部が、当該第1のオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
前記位置検出部が、階層構造を有するフォルダのオブジェクトであって、前記第1のオブジェクトとは異なる第2のオブジェクトの位置に対応する第2の押圧の位置を検出した場合、
前記第1のオブジェクトを前記第2のオブジェクトであるフォルダの階層下に移動するように前記表示部を制御する制御部と、
を有することを特徴とするものである。
請求項6に係るオブジェクト表示装置の発明は、
オブジェクトを表示する表示部と、
前記表示部に対する押圧の位置および荷重を検出する位置荷重検出部と、
前記位置荷重検出部が、前記オブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、当該オブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
前記第1の押圧の位置とは異なる第2の押圧の位置を検出した場合、
前記オブジェクトを当該第2の押圧の位置に対応する位置へ移動するように前記表示部を制御する制御部と、
を有することを特徴とするものである。
請求項7に係る発明は、請求項6に記載のオブジェクト表示装置において、
前記制御部は、前記第2の押圧の位置が、前記表示部のオブジェクトを表示していない位置に対応する場合に、前記第1の押圧の位置に対応する前記オブジェクトを当該第2の押圧の位置に対応する位置へ移動するように前記表示部を制御するものである。
請求項8に係るオブジェクト表示装置の発明は、
オブジェクトを表示する表示部と、
前記表示部に対する押圧の位置および荷重を検出する位置荷重検出部と、
前記位置荷重検出部が、前記表示部に表示された第1のオブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、当該第1のオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
前記第1のオブジェクトとは異なる第2のオブジェクトの位置に対応する第2の押圧の位置を検出した場合、
前記第1のオブジェクトと前記第2のオブジェクトとの位置を交換するように前記表示部を制御する制御部と、
を有することを特徴とするものである。
請求項9に係る発明は、請求項8に記載のオブジェクト表示装置において、
前記制御部は、前記第2のオブジェクトがフォルダ以外のファイルのオブジェクトである場合に、前記第1のオブジェクトと前記第2のオブジェクトとの位置を交換するように前記表示部を制御するものである。
また、請求項10に係るオブジェクト表示装置の発明は、
オブジェクトを表示する表示部と、
前記表示部に対する押圧の位置および荷重を検出する位置荷重検出部と、
前記位置荷重検出部が、前記表示部に表示された第1のオブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、当該第1のオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
階層構造を有するフォルダのオブジェクトであって、前記第1のオブジェクトとは異なる第2のオブジェクトの位置に対応する第2の押圧の位置を検出した場合、
前記第1のオブジェクトを前記第2のオブジェクトであるフォルダの階層下に移動するように前記表示部を制御する制御部と、
を有することを特徴とするものである。
本発明のオブジェクト表示装置によれば、あるオブジェクトの位置に対応する第1の押圧の位置が検出され、かつ、そのオブジェクトに関連付けられた処理を実行する閾値に満たない荷重が検出されている状態で、第2の押圧の位置が検出された場合、そのオブジェクトを第2の押圧の位置へ移動する。したがって、本発明のオブジェクト表示装置は、押圧の荷重が変動しやすいドラッグ操作を行わずに、正確かつ迅速にオブジェクトの移動を行うことができるため、荷重の変動による誤動作を減らすことができ、操作性の向上を図ることができる。
本発明の第1実施の形態に係るオブジェクト表示装置の外観斜視図である。 第1実施の形態に係るオブジェクト表示装置の概略構成を示す機能ブロック図である。 第1実施の形態に係るオブジェクト表示装置のタッチパネルの構成態様を概略的に示す図である。 第1実施の形態に係るオブジェクト表示装置のタッチパネルの他の構成態様を概略的に示す図である。 第1実施の形態におけるオブジェクトの移動処理を説明するフローチャートである。 第1実施の形態に係る処理に基づく表示部の表示例を示す図である。 第1実施の形態に係る処理に基づく表示部の表示例を示す図である。 第1実施の形態に係る処理に基づく表示部の表示例を示す図である。 第1実施の形態に係る処理に基づく表示部の表示例を示す図である。 第2実施の形態におけるオブジェクトの移動処理を説明するフローチャートである。 第2実施の形態に係る処理に基づく表示部の表示例を示す図である。
以下、本発明の各実施の形態について、図面を参照して説明する。以下の各実施の形態においては、本発明のオブジェクト表示装置の一例として、例えば携帯電話やPDAなどのタッチパネルを有する携帯端末を想定して説明する。しかしながら、本発明のオブジェクト表示装置は携帯端末に限定されるものではなく、銀行のATMや駅の乗車券販売機など、タッチパネルを有する任意の入力装置にも適用できる。なお、本発明において、オブジェクト表示装置とは、表示部にオブジェクトを表示する電子機器のことを示すものとする。オブジェクト表示装置の例としては、表示部にオブジェクトを表示するパソコンやノートPC、ミニノートPC、PDA、携帯電話機などが含まれる。
(第1実施の形態)
図1は、本発明の第1実施の形態に係るオブジェクト表示装置の一例である携帯端末10の概略構成を示す外観斜視図である。この携帯端末10は、端末本体の前面に、一部切り欠いて示すように、表示部30を備えている。表示部30は、液晶ディスプレイ(LCD)または有機ELディスプレイなどで構成し、これに種々の情報およびキーやボタンなどの形状を描画してこれらの配列を表示する。また、この表示部30の前面には、位置検出部40および荷重検出部50を配設する。位置検出部40は、ユーザの指やスタイラスなどによる押圧入力を受け付けるマトリクススイッチ等で構成する。この位置検出部40の背面に、荷重検出部50を配設する。荷重検出部50は、ユーザの指などによる押圧の荷重を検出するための、歪みゲージや圧電素子などの圧力検出素子で構成する。
本実施の形態では、これら表示部30と、位置検出部40と、荷重検出部50とを含めてタッチパネルを構成する。携帯端末10はさらに、マイクなどにより構成される音声入力部70、スピーカなどにより構成される音声出力部80、および、少なくとも1つの機械式のキーにより構成されるキー入力部90も備えている。他にも、携帯端末10は、必要な機能に応じて、デジタルカメラ機能部、ワンセグ放送用チューナ、赤外線通信機能部などの近距離無線通信部、および各種インタフェース等を備える場合もあるが、これらの詳細については図示および説明を省略する。
図2は、本実施の形態に係る携帯端末10の内部構成を概略的に示す機能ブロック図である。図2に示すように、携帯端末10は、制御部20と、表示部30と、位置検出部40と、荷重検出部50と、記憶部60と、音声入力部70と、音声出力部80と、キー入力部90と、を備えている。制御部20は、携帯端末10の各機能ブロックをはじめとして携帯端末10全体を制御および管理などを行う。特に、本実施の形態においては、制御部20が表示部30の表示を制御する観点について詳述する。表示部30は、操作キーやボタンなどの画像、ならびに入力を促す文字または文字列などを表示する。位置検出部40は、表示部30の前面に重ねて配設することにより、表示部30に対するユーザの押圧入力(押圧)を受け付けて、その押圧入力の位置を検出する。このような構成により、表示部30に対するユーザからの押圧入力を位置検出部40が受け付けると共に、表示部30は各アプリケーションに応じて入力結果など各種情報の表示を行う。
具体的には、位置検出部40は、ユーザの指先やスタイラス等の接触(押圧)による入力を検知する(受け付ける)ことにより、位置検出部40上で当該接触による入力が検知された位置に対応する信号を出力する。この位置検出部40は、例えば抵抗膜方式や静電容量方式などのものを用いて構成する。表示部30は、各アプリケーションに対応する表示を行う他、表示部30に対するユーザの押圧入力を受け付けるための各種キーやボタンなどで構成するユーザインタフェースを所定の表示領域に描画して表示する。また、表示部30は、アプリケーションまたは基本ソフトウェアなどの操作に用いられるフォルダやファイルなどのアイコンも表示する。以下、このように、表示部30に対するユーザの押圧入力を位置検出部40によって検出するに際し、表示部30に表示する各種キーやボタンまたはフォルダやファイルのアイコンなどの画像を、単に「オブジェクト」と記す。
荷重検出部50は、表示部30に対するユーザの押圧の荷重を検出するもので、例えば歪みゲージセンサや圧電素子などを用いて構成する。荷重検出部50と、上述した位置検出部40および表示部30とを含めた具体的な構成は後述する。記憶部60は、各種アプリケーションおよび入力された各種情報などを記憶するとともに、ワークメモリなどとしても機能する。また、記憶部60は、各アプリケーションに応じて使用される各種のオブジェクトを含んだ複数のテンプレートなども記憶する。
音声入力部70は、ユーザの音声などを入力信号に変換して制御部20に伝達する。音声出力部80は、制御部20から伝達された音声信号を音声に変換して出力する。キー入力部90は、ユーザによる操作入力に応じて、対応する信号を制御部20に送信する。キー入力部90を構成する各種キーは、使用するアプリケーションに従って、その用途および機能が規定される。これらは全て公知技術を利用することができるため、より詳細な説明は省略する。
次に、上述した表示部30と、位置検出部40と、荷重検出部50とを含めて構成されるタッチパネルの構成について、いくつかの例を挙げて説明する。
図3は、図2に示した携帯端末10の表示部30、位置検出部40、および荷重検出部50の構成を概略的に示す図である。図3(A)は複数のセンサを用いて構成する、本発明によるタッチパネルの最も基本的な構成の例を示す図である。表示部30は、ファイルやフォルダなどのオブジェクトを、ユーザが目視で認識できるように表示する。表示部30の前面には、表示部30の表示領域外周に沿って、枠状の荷重検出部50を重ねて配設する。
この荷重検出部50は、ユーザが表示部30に対して押圧している際の押圧の荷重を検出する。荷重検出部50に使用される素子には、歪みゲージや圧電素子などの圧力検出素子を用いる。荷重検出部50の上に、位置検出部40をさらに重ねて配設する。位置検出部40は、ユーザが表示部30に対して押圧する際の押圧の位置を検出する。位置検出部40に使用される素子には、抵抗膜式や静電容量式のタッチパネルを用いる。この場合、位置検出部40は、重ねて配設したとしても表示部30の表示を外部から視認できるように、例えば透明フィルムなどで構成される素材を用いる。なお、図3および後述する図4は、本発明のタッチパネルを構成する部材の位置関係を明瞭に示すための概略図であり、実際は、タッチパネルを構成する各部材を、図に示すよりも近接して配設させることに留意すべきである。
図3(B)は、本発明によるタッチパネルの他の構成例を示す図である。図3(B)は、図3(A)に示した構成において、位置検出部40と荷重検出部50とを兼ねる部材を使用した場合の構成を示す図である。このように、位置検出部40と荷重検出部50とが一体化した位置検出部兼荷重検出部100を用いることにより、図3(A)に示した構造よりもタッチパネルの構造を簡略化することができる。この場合、位置検出部兼荷重検出部100は、表示部30に対する押圧の位置および荷重を検出する。したがって、本実施の形態においては、位置検出部兼荷重検出部100は位置荷重検出部を構成する。なお、位置検出部兼荷重検出部100には、多層抵抗膜式タッチパネルなどを用いる。
図4は、図3(B)に示した位置検出部40と荷重検出部50とを兼ねる部材を使用したタッチパネルの構成の一例を示す図である。図4(A)の例においては、位置検出部兼荷重検出部100aおよび位置検出部兼荷重検出部100bの2層の位置検出部兼荷重検出部100から構成されている。この場合、位置検出部兼荷重検出部100aも位置検出部兼荷重検出部100bも、それぞれが2層で構成された抵抗膜式タッチパネルを用いる。
図4(A)に示すように、第1のタッチパネルである位置検出部兼荷重検出部100aの上側(表面側)の層は、ユーザの指などの外部からの押圧を直接受け付ける面とする。表示部30の表示を視認可能にするため、位置検出部兼荷重検出部100aの上側の層も、位置検出部兼荷重検出部100aの下側(裏面側)の層も、構成する素材は、例えば透明フィルムとする。また、第2のタッチパネルである位置検出部兼荷重検出部100bの上側(表面側)の層も透明フィルムで構成して、位置検出部兼荷重検出部100bの下側(裏面側)の層は透明フィルムまたは透明ガラスで構成する。この場合、位置検出部兼荷重検出部100bの下側の層は、携帯端末10の外部筐体などに固定されるように構成して、この層よりも上にある各層がユーザの指などの外部からの押圧を検出できるようにする。すなわち、ユーザの指などによる外部からの押圧の押圧力(押圧の荷重)に応じて、位置検出部兼荷重検出部100aの上側の層および下側の層を構成する透明フィルム、ならびに位置検出部兼荷重検出部100bの上側の層を構成する透明フィルムが、それぞれ僅かに撓む(歪む)ようにして、これらの撓み(歪み)を検出する。
図4(B)は、図4(A)に示した構造のタッチパネルにより、押圧の位置および所定の閾値を満たす押圧の荷重を検出する様子を示すグラフである。図4(B)のグラフの縦軸は、図4(A)に示した構造のタッチパネルが検出する、ユーザの指などによる外部からの押圧の荷重を示す。また、グラフの横軸は、時間の推移を表す。すなわち、図4(B)に示す曲線は、ユーザの指などによる外部からの押圧力が、時間の経過に従って徐々に増す様子の一例を示している。
図4(A)に示したタッチパネルの構造から分かるように、ユーザの指などにより外部から押圧されると、第1のタッチパネルである位置検出部兼荷重検出部100aの上側の層を構成する透明フィルムが撓む(歪む)。この上側の層の撓み(歪み)が位置検出部兼荷重検出部100aの下側の層を構成する透明フィルムに接触したら、第1のタッチパネルである位置検出部兼荷重検出部100aがONになったとして、位置検出部兼荷重検出部100a上で押圧されている位置を検出する。この押圧の位置の検出は、従来のタッチパネルにおける位置検出の手法を用いることができる。図4(B)においては、位置検出部兼荷重検出部100aがONになっている状態を、押圧荷重判定値がP1となる領域として示してある。すなわち、荷重P1は、ゼロよりも大きく所定の閾値Pthに満たない値の押圧の荷重である。
押圧が検出されて位置検出部兼荷重検出部100aがONになった位置に対応する表示部30の位置に、ファイルやフォルダのオブジェクトが表示されている場合、このオブジェクトがホールドされた状態として扱うことができる。本実施の形態では、このように、ファイルやフォルダのオブジェクトが表示された表示部30の位置に対応するタッチパネルに、ゼロより大きく所定の閾値Pthに満たない押圧の荷重(P1)が検出された場合、当該ファイルやフォルダのオブジェクトをホールドした(選択した)状態にする。以下、オブジェクトの位置に対応するタッチパネルに押圧の荷重が検出され、当該オブジェクトをホールド(選択)することを、当該オブジェクトを「指示」すると記す。
この状態において、さらに強い押圧力により外部から押圧されると、第1のタッチパネルである位置検出部兼荷重検出部100aの下側の層を構成する透明フィルムが撓み(歪み)、第2のタッチパネルである位置検出部兼荷重検出部100bの上側の層を構成する透明フィルムを押圧する。この押圧により、第2のタッチパネルである位置検出部兼荷重検出部100bの上側の層を構成する透明フィルムと、下側の層を構成する透明フィルムまたは透明ガラスとが接触したら、第2のタッチパネルである位置検出部兼荷重検出部100bがONになったと判定する。図4(B)においては、位置検出部兼荷重検出部100aがONになっている状態で、さらに位置検出部兼荷重検出部100bもONになっている状態を、押圧荷重判定値がP2となる領域として示してある。すなわち、荷重P2は、Pthを超える値の押圧の荷重である。
本実施の形態では、このように、ファイルやフォルダのオブジェクトが表示された表示部30の位置に対応するタッチパネルに、所定の閾値(Pth)を満たす押圧の荷重(P2)が検出された場合、当該ファイルやフォルダのオブジェクトを「実行」する。ここで、ファイルのオブジェクトを「実行」するとは、当該ファイルが例えばアプリケーションである場合には、そのアプリケーションを実行(起動)することであり、また当該ファイルが例えばデータの場合には、ファイルに関連付けられた、当該ファイルの実行に必要なアプリケーションを実行(起動)することを意味する。また、フォルダのオブジェクトを「実行」するとは、当該フォルダを開く動作を行うことを意味し、すなわち、当該フォルダの直下の階層に含まれる他のフォルダやファイルを表示することを意味する。
次に、本実施の形態におけるオブジェクトの移動処理について説明する。なお、以下の説明においては、図3(A)に示したような、位置検出部40と荷重検出部50とが別個の部材で構成されたタッチパネルの例を用いる。タッチパネルに対して、ユーザの指などによる押圧入力が検知されたら、位置検出部40は、表示部30に対する押圧の位置を検出し、荷重検出部50は、表示部30に対する押圧の荷重を検出する。また、荷重検出部50により検出される荷重については、指示されているオブジェクトを実行するための所定の閾値Pthを予め設定する。
図5は、本実施の形態におけるオブジェクトの移動処理を説明するフローチャートである。本実施の形態において、携帯端末10の制御部20は、タッチパネルに対するユーザの指などによる外部からの押圧入力を常に監視している。タッチパネルに対して、ユーザの指などによる外部からの押圧入力がなされると、位置検出部40は、検出した当該押圧による入力の位置を制御部20に通知する。この通知を受けた制御部20は、位置検出部40により検出された押圧の位置が、表示部30に表示されたフォルダまたはファイルのオブジェクトの位置に対応するか否かを判定する。
この判定の結果、位置検出部40により検出された位置が、表示部30に表示されたフォルダまたはファイルなどの押圧入力を受け付けるためのオブジェクトの位置に対応しない場合、当該入力はユーザが意図した押圧入力ではないと想定されるため、制御部20は、これに応答する処理は行わない。一方、判定の結果、位置検出部40により検出された位置が、表示部30に表示されたフォルダまたはファイルのオブジェクトの位置に対応する場合、制御部20は、図5のフローチャートに従って、本実施の形態におけるオブジェクトの移動処理を開始する。なお、以下の説明においては、表示部30には、フォルダまたはファイルのオブジェクトが少なくとも1つは表示されているものとする。
本実施の形態におけるオブジェクトの移動処理が開始すると、制御部20は、まず、位置検出部40により検出された位置に対応する、表示部30に表示されたフォルダまたはファイルのオブジェクトを、上述したように「指示」する処理を行う(ステップS11)。この時、当該オブジェクトが指示されたことがユーザに視認できるように、制御部20は、当該指示されたオブジェクトの色を変更するなどの処理を行うことが望ましい。
図6(a)に、フォルダのオブジェクトが指示された様子の例を示す。例えば図6(a)に示す「フォルダA」のように、指示されたオブジェクトの色を変更することにより、当該オブジェクトが指示されていることを、ひと目で認識することができる。なお、図に示す黒い矢印は、ユーザの指などによって押圧されている位置を示している。
ステップS11において、オブジェクトが指示されたら、制御部20は、荷重検出部50により検出された表示部30に対する押圧の荷重が、所定の閾値Pthを満たすか否かを判定する(ステップS12)。ステップS12において、荷重検出部50により検出された荷重が所定の閾値Pthを満たす場合、制御部20は、当該オブジェクトを実行する処理を行う(ステップS13)。ステップS13におけるオブジェクトの実行処理においては、制御部20は、当該オブジェクトに関連付けられた処理を実行する。すなわち、当該オブジェクトがフォルダである場合、制御部20は、当該フォルダを開く処理を行い、当該フォルダの直下の層に含まれる他のフォルダやファイルを表示する。一方、当該オブジェクトがファイルである場合、制御部20は、当該ファイルを実行する処理を行う。例えば、当該ファイルがアプリケーションである場合には、そのアプリケーションを実行(起動)する処理を行い、当該ファイルがデータの場合には、ファイルに関連付けられた、当該ファイルの実行に必要なアプリケーションを実行(起動)する処理を行う。
図6は、上述したステップS11からステップS13に従って処理を行った携帯端末10の、表示部30における表示の例を示す図である。図6(a)は、フォルダAのオブジェクトが指示された状態を示し、図6(b)は、指示されたフォルダAのオブジェクトが実行されて、フォルダAの直下の層に含まれるフォルダCおよびフォルダDが表示された状態を示す。なお、各画面の表示例の下側には、荷重検出部50により検出される荷重が所定の閾値Pthを満たす前後の様子をグラフにして示してある。押圧の荷重がゼロより大きく閾値Pthに満たない状態を「状態1」として示し、この状態ではオブジェクト指示の処理が行われる。また、押圧の荷重が徐々に増大して閾値Pthを満たした状態を「状態2」として示し、この状態ではオブジェクトの実行の処理が行われる。
一方、ステップS12において、荷重検出部50により検出された荷重が所定の閾値Pthを満たしていない場合、制御部20は、指示されたオブジェクトが表示されている位置とは異なる位置に対応する押圧入力が位置検出部40により検出されたか否かを判定する(ステップS14)。すなわち、既に指示されているオブジェクトの位置に対応する位置を1点目の押圧の位置とすると、この1点目の押圧の位置とは異なる2点目の押圧の位置が位置検出部40により検出されたか否かを判定する。
ステップS14において、指示されたオブジェクトが表示されている位置に対応する位置(以下「第1の押圧の位置」という)とは異なる位置(以下「第2の押圧の位置」という)が位置検出部40により検出されない場合、制御部20は、ステップS11に戻って処理を続行する。また、ステップS14において、第1の押圧の位置とは異なる第2の押圧の位置が位置検出部40により検出された場合、制御部20は、第2の押圧の位置に対応する表示部30の位置にフォルダのオブジェクトが表示されているか否かを判定する(ステップS15)。
ステップS15において、第2の押圧の位置に対応する表示部30の位置にフォルダのオブジェクトが表示されてない場合、制御部20は、第1の押圧の位置に表示されているオブジェクトを第2の押圧の位置に対応する表示部30の位置に移動するように制御する(ステップS16)。
このように処理することで、ユーザは、フォルダのオブジェクトを押圧したまま、表示部30においてフォルダのオブジェクトが表示されていない位置に2点目の押圧を行うことにより、当該フォルダのオブジェクトを2点目の位置に移動することができる。したがって、携帯端末10は、最初にオブジェクトを指示してから、荷重が変動しやすいドラッグ操作を行うよりも正確かつ迅速にオブジェクトの移動を行うことができる。
図7は、上述したステップS11から、ステップS14におけるYesの後、ステップS15におけるNoを経る処理を行った場合の、携帯端末10の表示部30における表示の例を示す図である。なお、図7(a)および(b)の各画面の表示例の下側には、荷重検出部50により検出される荷重の様子をグラフにして示す。
図7(a)は、フォルダAのオブジェクトが指示された状態を示している。この時、押圧の荷重はゼロより大きく閾値Pthに満たない状態であり、これを「状態1」として示す。この状態において、フォルダAのオブジェクト指示の処理が行われる。図7(b)は、フォルダAのオブジェクトが指示されたまま、フォルダAのオブジェクトの位置とは別の位置がユーザの指などにより押圧された瞬間の状態であり、この時点以降を「状態2」として示す。白い矢印は、フォルダのオブジェクトが表示されていない2点目の押圧の位置を示している。なお、この状態2においても、押圧の荷重はゼロより大きく閾値Pthに満たない状態である。図7(b)に示すように、フォルダAのオブジェクトの位置とは別の位置がユーザの指などにより押圧されると、図7(c)に示すように、指示していたフォルダAのオブジェクトは、後から押圧された2点目の位置に移動する。
図8は、図6および図7に示した各処理をまとめて示す図である。図6に示した、オブジェクトの指示からオブジェクトの実行を行う処理は、図8(A)、図8(B)、図8(C)の順に行われる処理である。なお、図8(A)は、タッチパネルにまだ押圧入力が行われていない状態を示す図である。また、図7に示した、オブジェクトの指示から当該オブジェクトの移動を行う処理は、図8(A)、図8(B)、図8(D)、図8(E)の順に行われる処理である。
また、ステップS14において第2の押圧の位置が検出されて、ステップS15において、第2の押圧の位置に対応する表示部30の位置にフォルダのオブジェクトが表示されている場合、制御部20は、ステップS17の処理を行う。ステップS17において、制御部20は、第1の押圧の位置に対応する表示部30の位置に表示されているオブジェクトを、第2の押圧の位置(2点目の押圧の位置)に対応する表示部30の位置に表示されているオブジェクトであるフォルダの階層下に移動するように、表示部30を制御する。この場合、1点目に押下した位置のオブジェクト(第1のオブジェクト)を、2点目に押下した位置のフォルダのオブジェクト(第2のオブジェクト)に入れ込む(収納する)ことになる。この場合、表示部30における表示は、第1のオブジェクトが第2のオブジェクトの位置に移動した後に、例えば、第1のオブジェクトを消去するような表示を行うように制御してもよい。あるいは、この時、第1のオブジェクトの消去と共に、第2のオブジェクトの形状や色彩などを変化させて、第2のオブジェクトに内容が付加されたことを示すように制御してもよい。
図9は、上述したステップS11から、ステップS14におけるYesの後、ステップS15におけるYesを経て、ステップS17の処理を行った場合の、携帯端末10の表示部30における表示の例を示す図である。図9(B)は、図8(B)と同じ状況を示しており、1点目の押圧により、フォルダAのオブジェクトが指示された状態を示している。なお、この例においては、フォルダAと同じ階層に、フォルダBおよびファイルFが含まれている。図9(F)は、フォルダAに対する1点目の押圧を保ったまま、フォルダBに対して2点目の押圧を行った状態を示している。このように、2点目に押圧を行った位置にフォルダが存在すると、図9(G)に示すように、先に1点目の押圧により指示していたフォルダAが、2点目に押圧したフォルダBの中に移動する。
このように、本実施の形態においては、ユーザは、タッチパネルに表示されたオブジェクトを1点目の押圧により指示したまま、他の箇所に2点目の押圧を行うことにより、1点目の押圧の位置に存在したオブジェクトを、ドラッグ操作を行わずに2点目の押圧の位置に移動させることができる。また、フォルダやファイルのオブジェクトを移動するのではなく、実行したい場合には、ユーザは、タッチパネルを強めに押し込むことにより、当該オブジェクトを極めて簡単に実行させることができる。
上述したような操作を行う際には、ユーザは、1点目の押圧を片手の指で行った場合、2点目の押圧をもう片方の手の指で行うのみならず、片手で2点を押圧することにより、迅速にオブジェクトの移動を行うことができる。すなわち、ユーザが携帯端末10の操作に習熟することにより、片手の指(人差し指など)で1点を押下したまま、その手の他の指(中指など)を用いて2点目を押下することにより、素早くオブジェクトを移動させる操作を行うことができる。
(第2実施の形態)
次に、本発明の第2実施の形態に係るオブジェクト表示装置の一例である携帯端末について説明する。第2実施の形態に係る携帯端末は、第1実施の形態で説明した携帯端末10に更なる機能を追加したものである。第2実施の形態は、携帯端末10において制御部20の制御を変更することにより実施するため、携帯端末10と同じ構成により実施することができる。したがって、第1実施の形態と同じ説明は省略する。上述した第1実施の形態においては、ドラッグ操作を行わずに、1つのオブジェクトを正確かつ迅速に移動することができるようにした。第2実施の形態においては、ドラッグ操作を行わずに、2つのオブジェクトを正確かつ迅速に移動させて位置を交換することができる、オブジェクトの交換処理を行う。
図10は、第2実施の形態によるオブジェクトの交換処理を含む、オブジェクトの移動処理を説明するフローチャートである。図10のフローチャートは、図5で説明したフローチャートのステップS14以降の一部を変更したものである。したがって、ステップS11からステップS14までの処理は、第1実施の形態で説明したものと同様の処理を行うものとする。第2実施の形態では、第1の押圧の位置に対応するオブジェクトが指示されて(ステップS11)、荷重が閾値Pthを満たさず(ステップS12のNo)、第1の押圧の位置と異なる第2の押圧の位置が位置検出部40により検出されたら(ステップS14のYes)、ステップS21に移行する。以下、第1の押圧の位置に対応する位置に表示されたオブジェクトは、単に「第1のオブジェクト」と記す。
ステップS21においては、制御部20は、第2の押圧の位置に対応する表示部30の位置に、オブジェクトが表示されているか否かを判定する。ステップS21において、第2の押圧の位置に対応する表示部30の位置にオブジェクトが表示されてない場合、第1実施の形態で説明したステップS16と同様の処理を行う。すなわち、この場合、制御部20は、第1のオブジェクトを第2の押圧の位置に対応する表示部30の位置に移動するように制御する(ステップS16)。
一方、ステップS21において、第2の押圧の位置に対応する表示部30の位置に表示されているのがオブジェクトである場合、制御部20は、当該オブジェクトがフォルダのオブジェクトであるか否かを判定する(ステップS22)。以下、第2の押圧の位置に対応する表示部30の位置に表示されているオブジェクトを、単に「第2のオブジェクト」と記す。ステップS22において、第2のオブジェクトがフォルダのオブジェクトである場合、第1実施の形態で説明したステップS17と同様の処理を行う。この場合、制御部20は、第1のオブジェクトを、第2のオブジェクトのフォルダの階層下に移動するように表示部30を制御する(ステップS17)。
また、ステップS22において、第2のオブジェクトがフォルダのオブジェクトではない場合、制御部20は、ステップS23の処理に移行する。なお、ここで、「第2のオブジェクトがフォルダのオブジェクトではない場合」とは、フォルダ以外の、例えば、アプリケーションまたはデータなどのファイルのオブジェクトが第2の押圧の位置に対応する表示部30の位置に表示されている場合を意味する。ステップS23においては、制御部20は、第1のオブジェクトと第2のオブジェクトとの位置を交換して表示するように表示部30を制御する。
このように、本実施の形態においては、ユーザは、タッチパネルに表示されたオブジェクトを1点目の押圧により指示したまま、フォルダ以外のファイルなどのオブジェクトに2点目の押圧を行うことにより、両オブジェクトの位置を瞬時に交換することができる。
図11は、第2実施の形態によるオブジェクトの移動処理を行った場合の、携帯端末10の表示部30における表示の例を示す図である。なお、図11においては、第2実施の形態によるオブジェクトの交換処理を、第1実施の形態で説明した、オブジェクトのフォルダ内への移動処理と共に示してある。したがって、図11(B)、図11(F)、図11(G)の順に示した処理は、図9(B)、図9(F)、図9(G)の順に示した処理と実質的に同じである。
図10のフローチャートにおいては、ユーザが2点目に押圧した位置にオブジェクトが存在し(ステップS21のYes)、そのオブジェクトがフォルダである場合には(ステップS22のYes)、1点目に押圧した位置のオブジェクトを2点目に押圧した位置のフォルダ内に移動した(ステップS17)。この処理の流れを、図11において、図11(B)、図11(F)、図11(G)の順に示してある。
第2実施の形態によるオブジェクトの交換処理は、図11において、図11(B)、図11(H)、図11(I)の順に示してある。図11(B)は、ユーザが1点目の押圧を行うことにより、フォルダAのオブジェクトが指示された状態を示している。なお、この例においては、フォルダAと同じ階層に、フォルダBおよびファイルFが含まれている。図11(H)は、フォルダAに対する1点目の押圧を保ったまま、ファイルFに対して2点目の押圧を行った状態を示している。このように、2点目に押圧を行った位置にフォルダ以外のファイルなどのオブジェクトが存在すると、図11(I)に示すように、先に1点目の押圧により指示していたフォルダAと、2点目に押圧したファイルFとの位置が交換される。
このように、本実施の形態においては、ユーザは、タッチパネルに表示されたオブジェクトを1点目の押圧により指示したまま、フォルダ以外のオブジェクトに対して2点目の押圧を行うことにより、両オブジェクトの位置を、ドラッグ操作を行わずに、正確かつ迅速に交換することができる。
なお、本発明は、上述した各実施の形態にのみ限定されるものではなく、幾多の変更または変形が可能である。例えば、上述した各実施の形態において、所定の閾値Pthの値は、予め設定することを想定したが、必要に応じて、ユーザが適宜変更または調整できるようにするのが望ましい。このようにすれば、操作中に、ユーザが閾値Pthの設定について違和感を持った場合、自然な操作ができるように、その場で適宜設定を変更することができる。
また、上記記載において、位置検出部40が検出する「押圧の位置」とは、「押圧している位置」を意味するのみならず、「押圧しようとしている位置」の意味を含む場合もあることに留意すべきである。例えば静電容量式のタッチパネルなど、タッチパネルに触れることによって初めて位置検出ができる位置検出部40を用いる場合、「押圧の位置」とは、「(ユーザが実際に)押圧している位置」を表す。この場合、位置検出部40により押圧の位置が検出された状態とは、位置検出部40が実際に押圧されている表示部の位置を検出している場合に他ならない。また、位置検出部40により押圧の位置が検出され、かつ、荷重検出部50により検出された押圧の荷重が所定の閾値を満たしていない状態とは、表示部は実際に押圧されているため、荷重検出部50により検出される荷重がゼロである場合は含まれない。
一方、位置検出部40が、例えば赤外線式のタッチパネルなど、入力部(タッチパネル)に触れることなく位置の検出ができる場合、「押圧の位置」とは、「(ユーザが実際に)押圧している位置」のみならず、「(ユーザが今まさに)押圧しようとしている位置」も含めた意味を有する。この場合、位置検出部40により押圧の位置が検出された状態とは、位置検出部40が表示部30の押圧の位置を検出した場合でも、実際に表示部30(または位置検出部40)が押圧されているとは限らない。したがって、位置検出部40により押圧の位置が検出され、かつ、荷重検出部50により検出された押圧の荷重が所定の閾値を満たしていない状態とは、表示部30(または位置検出部40)が実際に押圧されていない場合も含む。このため、位置検出部40により押圧の位置が検出され、かつ、荷重検出部50により検出された押圧の荷重が所定の閾値を満たしていない状態には、荷重検出部50により検出される荷重がゼロである場合も含まれる。
なお、上述の記載において、オブジェクトに対するユーザの押圧入力により検出される荷重が「閾値Pthを満たす」と判定できる態様は、いくつもの態様を含むことが想定できる。例えば、一般的には、荷重検出部50により検出される荷重が閾値Pthの値に達した場合に「閾値Pthを満たす」と判定する。しかしながら、当該荷重が閾値Pthの値を超えた場合に「閾値Pthを満たす」と判定することもできる。また、閾値Pthの値を示す荷重が荷重検出部50によって検出された場合に「閾値Pthを満たす」と判定することもできる。
また、上述の記載において、オブジェクトに対するユーザの押圧入力により検出される荷重が「閾値Pthを満たさない」と判定できる態様も、上記同様に、いくつもの態様を含むことが想定できる。例えば、荷重検出部50により検出される荷重が閾値Pthの値を下回る場合に「閾値Pthを満たさない」と判定することができる。しかしながら、当該荷重が閾値Pthの値以下の場合に「閾値Pthを満たさない」と判定することもできる。さらに、閾値Pthの値を示す荷重が荷重検出部50によって検出されない場合に「閾値Pthを満たさない」と判定することもできる。
なお、上述の記載において、荷重検出部50の形状を枠としているが、表示部30の表示領域外周に複数個設けたり、面状のものを表示部30の前面に重ねて設けることも可能である。また、荷重検出部50の上に、位置検出部40を重ねて設けているが、位置検出部40の前面に荷重検出部50を重ねて設けることも可能である。これらは、押圧の位置、および押圧の荷重をそれぞれ検出することを目的とするものであり、上述した形態に限定されるものではないことに留意すべきである。
10 携帯端末
20 制御部
30 表示部
40 位置検出部
50 荷重検出部
60 記憶部
70 音声入力部
80 音声出力部
90 キー入力部
100 位置検出部兼荷重検出部

Claims (10)

  1. オブジェクトを表示する表示部と、
    前記表示部に対する押圧の位置を検出する位置検出部と、
    前記表示部に対する押圧の荷重を検出する荷重検出部と、
    前記位置検出部が、前記オブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、前記荷重検出部が、当該オブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
    前記位置検出部が、前記第1の押圧の位置とは異なる第2の押圧の位置を検出した場合、
    前記オブジェクトを当該第2の押圧の位置に対応する位置へ移動するように前記表示部を制御する制御部と、
    を有することを特徴とするオブジェクト表示装置。
  2. 前記制御部は、前記第2の押圧の位置が、前記表示部のオブジェクトを表示していない位置に対応する場合に、前記第1の押圧の位置に対応する前記オブジェクトを当該第2の押圧の位置に対応する位置へ移動するように前記表示部を制御する、請求項1に記載のオブジェクト表示装置。
  3. オブジェクトを表示する表示部と、
    前記表示部に対する押圧の位置を検出する位置検出部と、
    前記表示部に対する押圧の荷重を検出する荷重検出部と、
    前記位置検出部が、前記表示部に表示された第1のオブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、前記荷重検出部が、当該第1のオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
    前記位置検出部が、前記第1のオブジェクトとは異なる第2のオブジェクトの位置に対応する第2の押圧の位置を検出した場合、
    前記第1のオブジェクトと前記第2のオブジェクトとの位置を交換するように前記表示部を制御する制御部と、
    を有することを特徴とするオブジェクト表示装置。
  4. 前記制御部は、前記第2のオブジェクトがフォルダ以外のファイルのオブジェクトである場合に、前記第1のオブジェクトと前記第2のオブジェクトとの位置を交換するように前記表示部を制御する、請求項3に記載のオブジェクト表示装置。
  5. オブジェクトを表示する表示部と、
    前記表示部に対する押圧の位置を検出する位置検出部と、
    前記表示部に対する押圧の荷重を検出する荷重検出部と、
    前記位置検出部が、前記表示部に表示された第1のオブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、前記荷重検出部が、当該第1のオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
    前記位置検出部が、階層構造を有するフォルダのオブジェクトであって、前記第1のオブジェクトとは異なる第2のオブジェクトの位置に対応する第2の押圧の位置を検出した場合、
    前記第1のオブジェクトを前記第2のオブジェクトであるフォルダの階層下に移動するように前記表示部を制御する制御部と、
    を有することを特徴とするオブジェクト表示装置。
  6. オブジェクトを表示する表示部と、
    前記表示部に対する押圧の位置および荷重を検出する位置荷重検出部と、
    前記位置荷重検出部が、前記オブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、当該オブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
    前記第1の押圧の位置とは異なる第2の押圧の位置を検出した場合、
    前記オブジェクトを当該第2の押圧の位置に対応する位置へ移動するように前記表示部を制御する制御部と、
    を有することを特徴とするオブジェクト表示装置。
  7. 前記制御部は、前記第2の押圧の位置が、前記表示部のオブジェクトを表示していない位置に対応する場合に、前記第1の押圧の位置に対応する前記オブジェクトを当該第2の押圧の位置に対応する位置へ移動するように前記表示部を制御する、請求項6に記載のオブジェクト表示装置。
  8. オブジェクトを表示する表示部と、
    前記表示部に対する押圧の位置および荷重を検出する位置荷重検出部と、
    前記位置荷重検出部が、前記表示部に表示された第1のオブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、当該第1のオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
    前記第1のオブジェクトとは異なる第2のオブジェクトの位置に対応する第2の押圧の位置を検出した場合、
    前記第1のオブジェクトと前記第2のオブジェクトとの位置を交換するように前記表示部を制御する制御部と、
    を有することを特徴とするオブジェクト表示装置。
  9. 前記制御部は、前記第2のオブジェクトがフォルダ以外のファイルのオブジェクトである場合に、前記第1のオブジェクトと前記第2のオブジェクトとの位置を交換するように前記表示部を制御する、請求項8に記載のオブジェクト表示装置。
  10. オブジェクトを表示する表示部と、
    前記表示部に対する押圧の位置および荷重を検出する位置荷重検出部と、
    前記位置荷重検出部が、前記表示部に表示された第1のオブジェクトの位置に対応する第1の押圧の位置を検出し、かつ、当該第1のオブジェクトに関連付けられた処理を実行する閾値に満たない荷重を検出している状態において、
    階層構造を有するフォルダのオブジェクトであって、前記第1のオブジェクトとは異なる第2のオブジェクトの位置に対応する第2の押圧の位置を検出した場合、
    前記第1のオブジェクトを前記第2のオブジェクトであるフォルダの階層下に移動するように前記表示部を制御する制御部と、
    を有することを特徴とするオブジェクト表示装置。
JP2009043201A 2009-02-25 2009-02-25 オブジェクト表示装置 Active JP5734546B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009043201A JP5734546B2 (ja) 2009-02-25 2009-02-25 オブジェクト表示装置
PCT/JP2010/001295 WO2010098118A1 (ja) 2009-02-25 2010-02-25 オブジェクト表示装置
US13/203,457 US20110310058A1 (en) 2009-02-25 2010-02-25 Object display device
US15/222,415 US10459613B2 (en) 2009-02-25 2016-07-28 Object display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009043201A JP5734546B2 (ja) 2009-02-25 2009-02-25 オブジェクト表示装置

Publications (2)

Publication Number Publication Date
JP2010198385A true JP2010198385A (ja) 2010-09-09
JP5734546B2 JP5734546B2 (ja) 2015-06-17

Family

ID=42665331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009043201A Active JP5734546B2 (ja) 2009-02-25 2009-02-25 オブジェクト表示装置

Country Status (3)

Country Link
US (2) US20110310058A1 (ja)
JP (1) JP5734546B2 (ja)
WO (1) WO2010098118A1 (ja)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068976A (ja) * 2010-09-24 2012-04-05 Kyocera Corp 電子情報機器
WO2013051054A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
JP5850168B2 (ja) * 2012-09-17 2016-02-03 株式会社村田製作所 タッチ式入力装置
JP2016105223A (ja) * 2014-12-01 2016-06-09 セイコーエプソン株式会社 入出力制御装置、入出力制御プログラム
JP2016212605A (ja) * 2015-05-08 2016-12-15 京セラ株式会社 電子機器および電子機器の制御方法
JP2018067334A (ja) * 2012-05-09 2018-04-26 アップル インコーポレイテッド ユーザインタフェースオブジェクトを選択するためのデバイス、方法及びグラフィカルユーザインタフェース
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11977726B2 (en) 2021-08-23 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
JP5477108B2 (ja) * 2010-03-29 2014-04-23 日本電気株式会社 情報処理装置及びその制御方法並びにプログラム
US8458615B2 (en) 2010-04-07 2013-06-04 Apple Inc. Device, method, and graphical user interface for managing folders
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US8799815B2 (en) 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US8826164B2 (en) 2010-08-03 2014-09-02 Apple Inc. Device, method, and graphical user interface for creating a new folder
JP2012212430A (ja) * 2011-03-24 2012-11-01 Nikon Corp 電子装置、操作者推定方法およびプログラム
US9798408B2 (en) * 2011-05-27 2017-10-24 Kyocera Corporation Electronic device
JP5633906B2 (ja) * 2011-09-08 2014-12-03 Kddi株式会社 画面への押圧でページ捲りが可能な電子書籍表示装置及びプログラム
KR102405189B1 (ko) 2013-10-30 2022-06-07 애플 인크. 관련 사용자 인터페이스 객체를 표시
CN104714741A (zh) * 2013-12-11 2015-06-17 北京三星通信技术研究有限公司 触控操作的方法及装置
US9542037B2 (en) 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
CN106293051B (zh) * 2015-08-21 2020-01-10 北京智谷睿拓技术服务有限公司 基于手势的交互方法、交互装置及用户设备
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
JP6961451B2 (ja) * 2017-10-12 2021-11-05 キヤノン株式会社 電子機器、その制御方法およびプログラム
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185258A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
JP2005196810A (ja) * 2005-03-14 2005-07-21 Hitachi Ltd タッチパネルを備えた表示装置及び情報処理方法
JP2006099733A (ja) * 2004-09-02 2006-04-13 Canon Inc 画面表示装置、画面表示方法及びプログラム
JP2008146241A (ja) * 2006-12-07 2008-06-26 Fuji Xerox Co Ltd ファイル情報表示装置、ファイル情報表示プログラム
JP2008262405A (ja) * 2007-04-12 2008-10-30 Canon Inc 文書処理システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5694150A (en) * 1995-09-21 1997-12-02 Elo Touchsystems, Inc. Multiuser/multi pointing device graphical user interface system
US5838973A (en) * 1996-05-03 1998-11-17 Andersen Consulting Llp System and method for interactively transforming a system or process into a visual representation
US6166739A (en) * 1996-11-07 2000-12-26 Natrificial, Llc Method and apparatus for organizing and processing information using a digital computer
US7219302B1 (en) * 2000-07-19 2007-05-15 Everez Systems Limited System and method for organizing, managing, and manipulating desktop objects with an activity-oriented user interface
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
JP2004021933A (ja) 2002-06-20 2004-01-22 Casio Comput Co Ltd 入力装置及び入力方法
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
US7629966B2 (en) * 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7339976B2 (en) * 2005-07-18 2008-03-04 Motorola, Inc. Method and apparatus for reducing power consumption within a wireless receiver
JP4649324B2 (ja) * 2005-12-20 2011-03-09 キヤノン株式会社 情報処理装置および情報処理方法およびプログラム
KR100657520B1 (ko) * 2006-01-26 2006-12-14 삼성전자주식회사 정보 단말 장치에서 파일 계층 구조의 탐색 방법
KR100672605B1 (ko) * 2006-03-30 2007-01-24 엘지전자 주식회사 아이템 선택 방법 및 이를 위한 단말기
KR101268489B1 (ko) * 2006-08-04 2013-06-04 엘지전자 주식회사 정류장 연계정보를 포함하는 대중 교통 정보를 제공하고이를 이용하는 방법 및 장치
US8519964B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
KR20080079007A (ko) * 2007-02-26 2008-08-29 삼성전자주식회사 사용자 명령이 입력가능한 전자장치
US8917244B2 (en) * 2007-06-11 2014-12-23 Honeywell Internation Inc. Stimuli sensitive display screen with multiple detect modes
US8209628B1 (en) * 2008-04-11 2012-06-26 Perceptive Pixel, Inc. Pressure-sensitive manipulation of displayed objects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185258A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
JP2006099733A (ja) * 2004-09-02 2006-04-13 Canon Inc 画面表示装置、画面表示方法及びプログラム
JP2005196810A (ja) * 2005-03-14 2005-07-21 Hitachi Ltd タッチパネルを備えた表示装置及び情報処理方法
JP2008146241A (ja) * 2006-12-07 2008-06-26 Fuji Xerox Co Ltd ファイル情報表示装置、ファイル情報表示プログラム
JP2008262405A (ja) * 2007-04-12 2008-10-30 Canon Inc 文書処理システム

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068976A (ja) * 2010-09-24 2012-04-05 Kyocera Corp 電子情報機器
US9459716B2 (en) 2011-10-03 2016-10-04 Furuno Electric Co., Ltd. Device having touch panel, radar apparatus, plotter apparatus, ship network system, information displaying method and information displaying program
WO2013051054A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
JP2018067334A (ja) * 2012-05-09 2018-04-26 アップル インコーポレイテッド ユーザインタフェースオブジェクトを選択するためのデバイス、方法及びグラフィカルユーザインタフェース
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US9582103B2 (en) 2012-09-17 2017-02-28 Murata Manufacturing Co., Ltd. Touch type input device having a piezoelectric sensor connected to a displacement detector and a sound emission controller by a switch
JP5850168B2 (ja) * 2012-09-17 2016-02-03 株式会社村田製作所 タッチ式入力装置
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
JP2016105223A (ja) * 2014-12-01 2016-06-09 セイコーエプソン株式会社 入出力制御装置、入出力制御プログラム
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
JP2016212605A (ja) * 2015-05-08 2016-12-15 京セラ株式会社 電子機器および電子機器の制御方法
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US11977726B2 (en) 2021-08-23 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object

Also Published As

Publication number Publication date
US20110310058A1 (en) 2011-12-22
JP5734546B2 (ja) 2015-06-17
US20160334976A1 (en) 2016-11-17
US10459613B2 (en) 2019-10-29
WO2010098118A1 (ja) 2010-09-02

Similar Documents

Publication Publication Date Title
JP5734546B2 (ja) オブジェクト表示装置
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
US20190146667A1 (en) Information processing apparatus, and input control method and program of information processing apparatus
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
US9436376B2 (en) Load required to cancel an input on a touch sensor is adjusted when the slide of a touch object is detected
US8386950B2 (en) Methods, systems and computer program products for arranging a plurality of icons on a touch sensitive display
KR102020345B1 (ko) 터치스크린을 구비하는 단말에서 홈 화면의 구성 방법 및 장치
JP4372188B2 (ja) 情報処理装置および表示制御方法
US20100214239A1 (en) Method and touch panel for providing tactile feedback
US20140380209A1 (en) Method for operating portable devices having a touch screen
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
US20110169749A1 (en) Virtual touchpad for a touch device
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
WO2010032354A1 (ja) 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム
JP2009536385A (ja) スクロール付き多機能キー
WO2012160829A1 (ja) タッチスクリーン装置、タッチ操作入力方法及びプログラム
TW200937270A (en) Touch sensor for a display screen of an electronic device
KR20110085189A (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
WO2022143198A1 (zh) 一种应用界面的处理方法以及相关设备
US20120274600A1 (en) Portable Electronic Device and Method for Controlling the Same
US20120120021A1 (en) Input control apparatus
WO2022143620A1 (zh) 一种虚拟键盘的处理方法以及相关设备
JP2015050755A (ja) 情報処理装置、制御方法、及びプログラム
JP2011022958A (ja) 入力装置
US20140359541A1 (en) Terminal and method for controlling multi-touch operation in the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150415

R150 Certificate of patent or registration of utility model

Ref document number: 5734546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150