JP5102412B1 - 情報端末、情報端末の制御方法、及び、プログラム - Google Patents

情報端末、情報端末の制御方法、及び、プログラム Download PDF

Info

Publication number
JP5102412B1
JP5102412B1 JP2012533420A JP2012533420A JP5102412B1 JP 5102412 B1 JP5102412 B1 JP 5102412B1 JP 2012533420 A JP2012533420 A JP 2012533420A JP 2012533420 A JP2012533420 A JP 2012533420A JP 5102412 B1 JP5102412 B1 JP 5102412B1
Authority
JP
Japan
Prior art keywords
information terminal
moved
straight line
displayed
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012533420A
Other languages
English (en)
Other versions
JPWO2013099042A1 (ja
Inventor
祐一 三宅
芳樹 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2012533420A priority Critical patent/JP5102412B1/ja
Priority claimed from PCT/JP2012/002460 external-priority patent/WO2013099042A1/ja
Application granted granted Critical
Publication of JP5102412B1 publication Critical patent/JP5102412B1/ja
Publication of JPWO2013099042A1 publication Critical patent/JPWO2013099042A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/14Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

表示されるオブジェクトの容易な操作を可能とする情報端末(100)であって、1以上のオブジェクトを表示する表示部(203)と、使用者により指定される表示部(203)上の第一位置及び第二位置を検出する検出部(201)と、検出部(201)が検出した第一位置及び第二位置により決定される直線上に表示されているオブジェクトであって1以上のオブジェクトのうちの少なくとも1つのオブジェクトを特定し、第一位置または第二位置が直線に沿って移動されるときに、特定されたオブジェクトを第一位置または第二位置の移動の向きに対応する向きに移動させる制御部(202)とを備える。
【選択図】図5

Description

本発明は、情報端末、情報端末の制御方法、及び、プログラムに関する。
従来のタッチパネル型情報端末の制御方法として、タッチ位置の移動方向に基づいてアイコンの選択決定を行う方法がある(例えば、特許文献1)。特許文献1に記載された技術によれば、使用者が座標Aから座標Bまでタッチ状態を維持したまま指を移動させ、さらに座標Bから座標A近傍の座標Cまでタッチ状態を維持したまま指を移動させると、座標Aから座標Bに向かう方向にあるアイコンを決定することができ、そのアイコンに応じた処理を行うことができる。
特許第4395408号公報
しかしながら、タッチパネル型情報端末において、使用者による操作性が悪く疲労感が高まるという問題がある。この問題は、現在主流のタブレット型情報端末(スマートフォンまたはタブレット端末など)においても顕著に発生する。
そこで、本発明の目的は、かかる問題に鑑みてなされたものであって、表示されるオブジェクトの容易な操作を可能とする情報端末等を提供することを目的とする。
上記目的を達成するために、本発明の一態様に係る情報端末は、1以上のオブジェクトを表示する表示部と、使用者により指定される前記表示部上の第一位置及び第二位置を検出する検出部と、前記検出部が検出した前記第一位置及び前記第二位置により決定される直線上に表示されているオブジェクトであって前記1以上のオブジェクトのうちの少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる制御部とを備える。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明によれば、情報端末に表示されるオブジェクトの容易な操作が可能となる。具体的には、小さな手の動きにより、使用者の手が届かない位置にあるアイコンを手元に引き寄せる、または、遠方へ遠ざける操作ができる。これにより、使用者の疲労感を低減することができる。
図1は、本発明の実施の形態1に係る情報端末の構成を示す外観図である。 図2Aは、本発明の実施の形態1に係る情報端末のハードウェア構成を表すブロック図である。 図2Bは、本発明の実施の形態1に係る情報端末の機能構成を表すブロック図である。 図3は、本発明の実施の形態1に係る情報端末の動作を示すフローチャートである。 図4は、本発明の実施の形態1に係る画面に表示されるGUIを説明するための図である。 図5は、本発明の実施の形態1に係る画面に表示されるGUIを説明するための図である。 図6Aは、本発明の実施の形態1に係る画面に表示されるGUIを説明するための図である。 図6Bは、本発明の実施の形態1に係るオブジェクトの移動の一例を説明するための図である。 図6Cは、本発明の実施の形態1に係るオブジェクトの移動の他の一例を説明するための図である。 図7は、本発明の実施の形態2に係る情報端末の動作を示すフローチャートである。 図8は、本発明の実施の形態2に係る画面に表示されるGUIを説明するための図である。 図9は、本発明の実施の形態2に係る画面に表示されるGUIを説明するための図である。 図10は、本発明に係る情報端末の利用シーンの一例を示す図である。 図11は、従来の情報端末の動作を示すフローチャートである。
(本発明の基礎となった知見)
本発明者は、以下の課題を見出した。
従来のタッチパネル型情報端末は、ディスプレイとタッチパネルとを重ねあわせて構成される入出力装置を搭載したものが知られている。ディスプレイにはその時々に応じた入力を促す各種アイコン(オブジェクトとも称する)が表示される。使用者がアイコンをタッチすると、タッチパネルにて認識され、そのアイコンを選択したとみなされ、対応する入力処理が行われる。
しかしながら、このようなタッチパネル型情報端末において、ディスプレイが大型になると、操作性が悪く疲労感が高まるという問題がある。なぜなら、使用者がアイコンを選択するために大きな手の動きが必要であり、また、使用者が手の届かない場所にあるアイコンを選択できないからである。
この問題を解決する手段の一例として、タッチ位置の移動方向に基づいてアイコンの選択決定を行うタッチパネル型情報端末が提案されている(例えば、特許文献1)。図11は、特許文献1に記載された従来のタッチパネル型情報端末のフローチャートである。
図11に示される処理を行うことで、使用者が座標Aから座標Bまでタッチ状態を維持したまま指を移動させ、さらに座標Bから座標A近傍の座標Cまでタッチ状態を維持したまま指を移動させると、座標Aから座標Bに向かう方向にあるアイコンを決定することができ、そのアイコンに応じた処理を行うことができる。
上記のとおり、タッチパネル型情報端末において、使用者による操作性が悪く疲労感が高まるという問題がある。この問題は、現在主流のタブレット型情報端末(スマートフォンまたはタブレット端末など)においても顕著に発生する。
上記問題に対し、特許文献1に記載の技術を適用すると操作性が低下する。なぜなら、特許文献1に記載の技術は、スマートフォンまたはタブレット端末などで一般的に使われている画面スクロール操作などの操作方法(所謂フリック操作)と区別ができないためである。したがって、スマートフォンまたはタブレット端末などに特許文献1に記載の技術を適用した場合、画面スクロール等の操作ができなくなってしまう。
また、使用者が誤操作をしてしまった場合に一旦タッチを止めて操作をしなおさなければならない。例えば、情報端末は、オブジェクトを選択するために座標Aから座標Bまでタッチ状態を維持したまま指を移動させた時点で、使用者が決定しようとするアイコンを認識する。この時点で、誤操作により誤ったアイコンを指定したことを、タブレット型情報端末が認識したことに使用者が気づいた場合、一旦タッチを止め、再度操作しなおさなければならない。よって、上記問題は、特許文献1によって解決されない。
そこで、情報端末に表示されるオブジェクトの容易な操作を可能とすることが課題となる。
このような課題を解決するために、本発明の一態様に係る情報端末は、1以上のオブジェクトを表示する表示部と、使用者により指定される前記表示部上の第一位置及び第二位置を検出する検出部と、前記検出部が検出した前記第一位置及び前記第二位置により決定される直線上に表示されているオブジェクトであって前記1以上のオブジェクトのうちの少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる制御部とを備える。
これによれば、使用者は、自身の指で情報端末の表示部(タッチパネル)上の2つの位置を指定することにより、上記2つの位置で決定される直線上で遠方にあるオブジェクトを操作対象とすることができる。また、上記2つの位置により決定される直線に沿って、指を表示部上で移動させることにより、操作対象となったオブジェクトを指の移動と対応する方向へ移動させることができる。具体的には、使用者とオブジェクトの表示位置との間に上記の2つの位置を置くようにすることで、操作対象となったオブジェクトを自身に近づけるように、または、自身から遠ざけるように移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記制御部は、前記第一位置または前記第二位置が前記直線に沿って移動されるとき、前記第一位置から前記第二位置までの距離に対する前記第一位置または前記第二位置の移動距離の比と、前記第一位置または前記第二位置から前記特定されたオブジェクトまでの距離に対する前記特定されたオブジェクトの移動距離の比とが等しくなるように、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる。
これによれば、使用者は、自身の自然な指の移動量によって操作対象となったオブジェクトを移動させることができる。使用者ごとに指の長さと指の移動量との絶対値が異なるが、指の長さと指の移動量とには相対的な関係があるため、使用者自身の自然な感覚により操作対象となったオブジェクトを移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記制御部は、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに一時に移動させる。
これによれば、使用者は、タッチ位置を、オブジェクトを移動させたい最終位置まで動かすことなく、操作対象のオブジェクトを使用者自身の近くに移動させる、または、使用者から遠くへ移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記制御部は、前記第一位置及び前記第二位置の少なくとも一方が前記直線に沿わない方向へ移動される場合に、移動中の前記第一位置及び前記第二位置により決定される直線の軌跡である領域内に表示されている前記少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる。
これによれば、使用者は、自身の指で情報端末の表示部(タッチパネル)上の2つの位置を指定し、さらに、その位置を移動させることにより、その移動中に選択されたオブジェクトを最終的に選択することができる。そして、この操作により選択されたオブジェクトを上記と同様に移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記検出部は、前記第一位置及び前記第二位置の少なくとも一方が前記直線に沿わない方向へ移動される場合に、移動後の前記第一位置及び前記第二位置により決定される直線上に表示されている前記オブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる。
これによれば、使用者は、自身の指で情報端末の表示部(タッチパネル)上の2つの位置を指定し、さらに、その位置を移動させることにより、その移動後に選択されたオブジェクトを最終的に選択することができる。そして、この操作により選択されたオブジェクトを上記と同様に移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記表示部は、前記特定されたオブジェクトを、前記表示部が表示するオブジェクトのうち前記特定されたオブジェクト以外のオブジェクトと異なる態様で表示する。
これによれば、使用者は、自身の指の場所と異なる遠方に位置するオブジェクトのどれが操作対象となっているかを当該表示態様により知ることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記表示部は、前記直線を表示する。
これによれば、使用者は、遠方に位置するオブジェクトのどれが操作対象となるかを当該直線から知ることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記情報端末は、さらに、前記第一位置及び前記第二位置の少なくとも一方が移動することにより、前記第一位置から前記第二位置までの距離が閾値以下となったら、前記特定されたオブジェクトに対応する動作を実行する実行部を備える。
また、例えば、前記情報端末は、さらに、前記第一位置及び前記第二位置の少なくとも一方が移動された後に、所定時間静止したら、前記特定されたオブジェクトに対応する動作を実行する実行部を備える。
これによれば、使用者は、自身の指の操作によって操作対象のオブジェクトを引き寄せる操作からそのオブジェクトに対応する動作を実行するまでの一連の操作を行うことができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記制御部は、前記実行部が前記動作を実行した後、前記動作に対応する前記オブジェクトを、前記第一位置または前記第二位置が指定される前に表示されていた場所に移動させる。
また、例えば、前記制御部は、前記特定されたオブジェクトが複数である場合、実行部が前記特定されたオブジェクトの一部に対応する前記動作を実行した後、前記表示部が表示するオブジェクトのうち前記動作に対応するオブジェクト以外のオブジェクトを、前記第一位置または前記第二位置が指定される前に表示されていた場所に移動させる。
これによれば、情報端末は、使用者が引き寄せたオブジェクトを、引き寄せられる前の位置に移動させることができる。引き寄せることにより当初のオブジェクトの配置がくずれることがなくなる。
また、例えば、前記実行部は、前記制御部が所定のアプリケーションに関連付けられたアイコンを前記オブジェクトとして特定した場合、前記所定のアプリケーションを実行する。
これによれば、使用者は、上記の一連の操作によって移動させたオブジェクトに対応するアプリケーションを情報端末に実行させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、例えば、前記実行部は、前記制御部が所定の文書データまたは画像データに関連付けられたアイコンを前記オブジェクトとして特定した場合、前記表示部に前記文書データまたは画像データを表示させる。
これによれば、使用者は、上記の一連の操作によって移動させたオブジェクト(文書データまたは画像データ)を情報端末上で閲覧することができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、本発明の一態様に係る情報端末の制御方法は、1以上のオブジェクトを表示する表示ステップと、使用者により指定される第一位置及び第二位置を検出する検出ステップと、前記検出ステップにおいて検出された前記第一位置及び前記第二位置により決定される直線上に表示されているオブジェクトであって前記1以上のオブジェクトのうちの少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる制御ステップとを備える。
これによれば、上記の情報端末と同様の効果を奏することができる。
また、例えば、前記制御ステップにおいて、前記第一位置及び前記第二位置の少なくとも一方が前記直線に沿わない方向へ移動される場合に、移動中の前記第一位置及び前記第二位置により決定される直線の軌跡である領域内に表示されている前記少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる。
これによれば、上記の情報端末と同様の効果を奏することができる。
なお、本発明は、装置として実現できるだけでなく、その装置を構成する処理手段をステップとする方法として実現したり、それらステップをコンピュータに実行させるプログラムとして実現したり、そのプログラムを記録したコンピュータ読み取り可能なCD−ROMなどの記録媒体として実現したり、そのプログラムを示す情報、データ又は信号として実現したりすることもできる。そして、それらプログラム、情報、データ及び信号は、インターネット等の通信ネットワークを介して配信してもよい。
以下、本発明の実施の形態について、図面を参照しながら説明する。
なお、以下で説明する実施の形態は、いずれも好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、より好ましい形態を構成する任意の構成要素として説明される。
なお、同一の構成要素には同一の符号を付し、説明を省略する場合がある。
(実施の形態1)
図1は本実施の形態に係る情報端末100の構成を示す外観図である。また、図2Aは本実施の形態に係る情報端末のハードウェア構成を表すブロック図である。
情報端末100は、タッチパネル101と、CPU120と、メモリ121と、表示制御部122と、表示パネル102とを備える。
タッチパネル101は、使用者が指などでタッチする操作(タッチ操作)により指定する位置(タッチ位置)を認識する。位置を認識するための方式として、静電容量式、抵抗膜式、超音波式または光学式などがある。また、使用者が複数の位置を同時にタッチした場合には、それぞれのタッチ位置を認識する。
CPU120は、タッチパネル101からの入力情報を基に使用者の操作内容を判定し、必要に応じて操作アイコン103の表示位置を決定する。
表示制御部122は、操作アイコン103を表示する。CPU120から操作アイコン103の表示位置を取得した場合には、それを基に表示内容を変更する。
表示パネル102は、GUI(Graphical User Interface)、静止画または映像などの表示内容を表示制御部122から取得し、表示する。表示パネル102は、例えば、液晶ディスプレイまたは有機ELディスプレイである。一般的に、表示パネル102は、タッチパネル101と貼り合わされており、使用者が表示パネル102に表示されている操作アイコン103などのオブジェクトにタッチしたときに、そのことがタッチパネル101により認識されるような構成になっている。
メモリ121は、CPU120がプログラムを実行するときに、必要に応じて一時的に使用する記憶領域である。
図2Bは、本発明の実施の形態1に係る情報端末100の機能構成を表すブロック図である。図2Bに示されるように、情報端末100は、検出部201と、制御部202と、表示部203とを備える。なお、情報端末100は、さらに、実行部204を備えてもよい。
検出部201は、使用者により指定される表示部上の位置を検出する。検出部201は、例えば、タッチパネル101により実現される。
制御部202は、検出201が検出した位置またはその位置の移動量などに応じて表示部203が表示するオブジェクトを制御する。制御部202は、例えば、CPU120、メモリ121および表示制御部122により実現される。
表示部203は、オブジェクトを表示する。表示部203は、例えば、表示パネル102により実現される。
実行部204は、オブジェクトに対応する動作を実行する。
なお、オブジェクトとは、アプリケーションに関連付けられたアイコン(ショットカット、エイリアス、または、リンク)、文書データもしくは画像データに関連付けられたアイコン、操作ボタン、または、機能を示すための表示オブジェクトなどのことである。
また、オブジェクトに対応する動作とは、オブジェクトが関連するアプリケーションを実行すること、オブジェクトが関連する文書データもしくは画像データを表示すること、オブジェクトが関連する操作ボタンを押した場合の動作、または、オブジェクトが関連する機能を実行もしくは表示することなどに相当する。
次に、以上のように構成された情報端末における各種動作について、図3〜図6Aを参照しながら説明する。
図3は、本実施の形態に係る情報端末の動作を示すフローチャートである。図3に示される一連の処理のことをサイクルと称する。
また、図4、図5、および図6Aは、本実施の形態に係る使用者によるタッチパネル101へのタッチ操作と、それに応じて表示パネル102に表示されるGUIを説明するための図である。
まず、タッチパネル101は、使用者によるタッチ操作を認識し、そのタッチ位置を取得する(S301)。取得したタッチ位置情報及び取得したタッチ位置情報の数は、CPU120に送られる。
次に、CPU120は、タッチ操作があったか否か、つまり、送られてきたタッチ位置情報の数が1個以上か否かを判定する(S302)。
ここで、タッチ位置情報が1個以上でない、つまり、タッチ位置情報が0個の場合(S302のNo)、サイクルを終了する。
一方、タッチ位置情報が1個以上ある場合(S302のYes)、CPU120はさらに、2点によるタッチ操作があったか否か、つまり、タッチ位置情報が2個であるか否かを判定する(S303)。
ここで、タッチ位置情報が2個でない場合(S303のNo)、CPU120はタッチがあった時の通常動作を実行し(S304)、サイクルを終了する。ここで、タッチがあった時の通常動作とは、例えば、アプリケーションアイコンの選択によるアプリケーションの開始、または、アプリケーション内ボタンの選択による各種機能の実行などである。特に何もしないこともある。
一方、タッチ位置情報が2個である場合(S303のYes)、CPU120は、図4に示されるように、タッチ位置400とタッチ位置401とを結んだ直線402を表示するように表示制御部122に指示する。また、その直線402上にある操作アイコン403を選択状態とし、周囲に赤枠を表示するように表示制御部122に指示する。この際、直線402上に操作アイコンが複数ある場合には、直線402上でタッチ位置400またはタッチ位置401に最も近い操作アイコン403の周囲に赤枠を表示するように表示制御部122に指示する。表示制御部122はこれらの指示を受け、表示パネル102に表示中の内容を書き換える。これにより、使用者は選択状態の操作アイコン403を視認することができる。さらにCPU120は、選択状態の操作アイコン403をメモリ121に記録しておく(S305)。なお、操作アイコン403の周囲に表示される赤枠は、操作アイコン403が選択されていることを使用者に視認させるためのものであり、枠は何色であってもよい。また、枠以外の表示により、操作アイコン403が選択されていることを使用者が認識できる場合は、他の表示態様であってもよいし、表示がなくてもよい。
なお、直線402は実線であってもよいし、破線であってもよい。その他の態様の直線であってよい。さらに、タッチ位置400とタッチ401とを結ぶ直線を使用者が認識できる場合は、表示がなくてもよい。
続いて、CPU120はタッチ位置400とタッチ位置401との位置情報をメモリ121に記録しておく(S306)。
次に、CPU120は、前回のサイクルでメモリ121に記録した2つのタッチ位置情報と、今回のサイクルで取得した2つのタッチ位置情報を比較する(S307)。
ここで、一方のタッチ位置のみ変化しており、他方のタッチ位置は変化していない場合以外の場合(S307のNo)、CPU120は2点同時タッチがあった時の通常動作を実行し(S308)、サイクルを終了する。2点同時タッチがあった時の通常動作とは、例えば、表示中の画像の拡大縮小などである。特に何もしないこともある。
一方のタッチ位置のみ変化しており、他方のタッチ位置は変化していない場合(S307のYes)、CPU120は、直線402と平行な方向へのタッチ位置の移動量に対応した距離だけ、メモリ121に格納しておいた選択状態の操作アイコン403を直線402と平行な方向に移動させるように、表示制御部122に指示する。表示制御部122は、上記指示を受け、表示パネル102に表示中の内容を書き換える(S309)。例えば、図5に示すように、一方のタッチ位置401がタッチ位置500まで変化した場合、それに応じて操作アイコン403が操作アイコン501で示す位置まで移動する。
なお、タッチの移動方向と直線402とが平行である場合には、タッチの移動量に対応した距離だけ、操作アイコン403を直線402と平行な方向へ移動させる。
また、タッチの移動方向と直線402とが概ね平行とみなせるが、厳密に平行でない場合には、タッチの移動量のうち直線402と平行な方向への成分に対応した距離だけ、操作アイコン403を直線402と平行な方向へ移動させてもよい。なお、概ね平行とみなせる範囲は、例えば、タッチの移動方向と直線402とのなす角の角度が30度程度以内の範囲におさまる場合である。
なお、図4におけるタッチ位置400がタッチ位置401へ近づく方向へ移動した場合には、操作アイコン403を、タッチ位置401から遠ざかる方向へ移動させてもよい。また、反対に、図4におけるタッチ位置400がタッチ位置401から遠ざかる方向へ移動した場合には、操作アイコン403を、タッチ位置401へ近づく方向へ移動させてもよい。
なお、使用者が、タッチ位置で直線402に沿って移動したときに、操作アイコン403を最終的な移動先に一時に移動させるようにしてもよい。最終的な移動先とは、例えば、移動していない方のタッチ位置400である。なお、フリック操作(はじくように表示パネル上に指をすべらせる操作)があったときに上記のような一時の移動を行うようにしてもよい。
以上でサイクルを終了する。
このように、情報端末100は、以上の一連の処理を1サイクルとして、定期的にこのサイクルを繰り返すことで、二つのタッチ位置により特定した操作アイコンをタッチ位置の近傍に移動させることができるので、より労力が少なく、疲れにくい操作でアイコン操作を実現することができる。
具体的には、情報端末100は、使用者がタッチしたい操作アイコン403を決め、タッチパネル101上の引き寄せ先(タッチ位置400)に親指をタッチし、親指のタッチ位置400と操作アイコン403とを結ぶ線分402上のタッチ位置401に人差し指をタッチし、人差し指をタッチパネル101にタッチしたまま親指に近づけるように動かすと、それに合わせて操作アイコン403を親指の位置の近傍501まで引き寄せることができる。
また、図6Aに示されるように、情報端末100は、使用者がタッチしたくない操作アイコン403を決め、タッチパネル101上に親指をタッチし、親指のタッチ位置400と操作アイコン403とを結ぶ線分402上に人差し指をタッチし、人差し指をタッチパネル101にタッチしたまま親指から遠ざけるようにタッチ位置600まで動かすと、それに合わせて操作アイコン403は親指の位置から遠ざかる方向に操作アイコン601で示す位置まで移動する。これによって、使用者は、タッチしたくない操作アイコン403の先にあるタッチしたい操作アイコン602を次の移動対象にすることもできる。
操作アイコン602の移動量について以下のようにすることも可能である。図6B及び図6Cは、本発明の実施の形態1に係るオブジェクトの移動の一例を説明するための図である。図6B及び図6Cにおいて、使用者は親指と人差し指とでタッチし、人差し指を親指の方へ近づけるように移動させることにより、操作アイコン1cを使用者の手の近くへ引き寄せるように移動させる場合を示す。図6Bでは使用者の手621が比較的大きく、図6Cでは使用者の手622が比較的小さい。
図6Bに示されるように、使用者の手621の親指と人差し指とにより距離1bが指定され、親指と人差し指とを結ぶ直線611上で、親指から距離1aの位置にある操作アイコン1cが移動される。移動に際して、親指と人差し指とにより指定される距離は2bとなり、操作アイコンは親指から距離2aの位置である2cへ移動する。このとき、(2b)/(1b)=(2a)/(1a)となるようにしてもよい。
図6Cに示されるように、使用者の手622の親指及び人差し指により距離11bが指定され、親指と人差し指とを結ぶ直線611上で、親指から距離1aの位置にある操作アイコン1cが移動される。移動に際して、親指及び人差し指により指定される距離は12bとなり、操作アイコンは親指から距離2aの位置である2cへ移動する。このとき、(12b)/(11b)=(2a)/(1a)となるようにしてもよい。
上記のような操作アイコンの移動量の決定方法によれば、手が大きい使用者及び手が小さい使用者のそれぞれにとって、自身の感覚に従った操作によって操作アイコンを移動させることができる。具体的には、使用者は、最初にタッチしたときの親指と人差し指との距離(1b、または、11b)から、どれだけの割合((2b)/(1b)、または、(12b)/(11b))で移動させるかといった、自身の感覚に従った操作が可能となる。
なお、上記実施の形態において、前回のサイクルのタッチ位置情報と今回のタッチ位置情報の比較(S307)では、2つのタッチ位置情報の片方が変化し、もう一方が変化していないことを基準に判断を行なっていたが、2つのタッチ位置情報の両方が変化しているか、そうでないか、など、別の基準で使用者による特定の操作を判断してもよい。
また、操作アイコン403の表示位置移動ステップ(S309)では、人差し指のタッチ位置の変化量に応じて操作アイコン403の移動量を決めていたが、タッチ位置が変化したことだけを検知し、タッチ位置の変化量に関わらず、操作アイコン403を変化していないタッチ位置の近くに一気に引き寄せてもよい。
なお、上記実施の形態において、操作アイコンを引き寄せた後、使用者が所定のタッチ操作を行うことにより、実行部204が操作アイコンに対応する動作を実行するようにしてもよい。所定のタッチ操作の具体例について以下に示す。
人差し指のタッチ操作により操作アイコンを引き寄せた後、所定時間(例えば3秒間)一定の位置に人差し指を置いておくと、実行部204が操作アイコンに対応する動作を実行するようにしてもよい。
また、人差し指のタッチ操作により操作アイコンを引き寄せた後、人差し指をタッチパネルから離したら、実行部204が操作アイコンに対応する動作を実行するようにしてもよい。
また、人差し指のタッチ操作により操作アイコンを引き寄せ、親指との距離が所定間隔(例えば10mm)より狭まったら、実行部204が操作アイコンに対応する動作を実行するようにしてもよい。
また、人差し指のタッチ操作により操作アイコンを引き寄せた後、親指により所定のタッチ操作(例えば、直線402と直行する方向へはじく操作)をすると、実行部204が操作アイコンに対応する動作を実行するようにしてもよい。
これらはあくまで一例であり、その他の操作、または、これらの組み合わせを契機として、実行部204が操作アイコンに対応する動作を実行するようにしてもよい。
さらに、上記のように人差し指のタッチ操作により操作アイコンを引き寄せ、当該操作アイコンに対応する動作を実行した後、当該操作アイコンを当初の位置へ移動させるようにしてもよい。
本実施の形態の利用シーンの一例を図10に示す。図10に示されるように、使用者が手を伸ばしても触れることができない部分を有する大型の情報端末において、本実施の形態が利用される。使用者は、自身の手が届かない場所にあるオブジェクトを本実施の形態の操作によって近くに引き寄せた上で、当該オブジェクトに対応する動作を情報端末に実行させることができる。
なお、図10はあくまで利用シーンの一例であり、これより大きい情報端末、これより小さい情報端末にも本実施の形態が適用されうることはいうまでもない。
以上のように、本発明の一態様に係る情報端末によれば、使用者は、自身の指で情報端末の表示部(タッチパネル)上の2つの位置を指定することにより、上記2つの位置で決定される直線上で遠方にあるオブジェクトを操作対象とすることができる。また、上記2つの位置により決定される直線に沿って、指を表示部上で移動させることにより、操作対象となったオブジェクトを指の移動と対応する方向へ移動させることができる。具体的には、使用者とオブジェクトの表示位置との間に上記の2つの位置を置くようにすることで、操作対象となったオブジェクトを自身に近づけるように、または、自身から遠ざけるように移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、使用者は、自身の自然な指の移動量によって操作対象となったオブジェクトを移動させることができる。使用者ごとに指の長さと指の移動量との絶対値が異なるが、指の長さと指の移動量とには相対的な関係があるため、使用者自身の自然な感覚により操作対象となったオブジェクトを移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、使用者は、タッチ位置を、オブジェクトを移動させたい最終位置まで動かすことなく、操作対象のオブジェクトを使用者自身の近くに移動させる、または、使用者から遠くへ移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、使用者は、自身の指の場所と異なる遠方に位置するオブジェクトのどれが操作対象となっているかを当該表示態様により知ることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、使用者は、遠方に位置するオブジェクトのどれが操作対象となるかを当該直線から知ることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、使用者は、自身の指の操作によって操作対象のオブジェクトを引き寄せる操作からそのオブジェクトに対応する動作を実行するまでの一連の操作を行うことができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、情報端末は、使用者が引き寄せたオブジェクトを、引き寄せられる前の位置に移動させることができる。引き寄せることにより当初のオブジェクトの配置がくずれることがなくなる。
また、使用者は、上記の一連の操作によって移動させたオブジェクトに対応するアプリケーションを情報端末に実行させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、使用者は、上記の一連の操作によって移動させたオブジェクト(文書データまたは画像データ)を情報端末上で閲覧することができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
(実施の形態2)
本実施の形態では、タッチ位置が移動する場合に、移動中または移動後のタッチ位置により決定される直線上のオブジェクトを制御の対象とする例について説明する。
図7は本実施の形態に係る情報端末の機能構成の動作を示すフローチャートである。実施の形態1と共通部分の説明は割愛する。
ステップS307において、CPU120が前回のサイクルと今回のサイクルとで取得した2つのタッチ位置情報を比較し、一方のタッチ位置のみ変化しており、他方のタッチ位置は変化していない場合(S307のYes)、CPU120はさらに、前回のサイクルの2点間の距離と今回のサイクルとの2点間の距離が変化したか否かを判定する(S700)。
ここで、2点間の距離の変化がある場合(S700のYes)、操作アイコン403の表示位置を変更する(S309)。
一方、2点間の距離の変化がない場合(S700のNo)、図8に示すように、直前まで選択状態だった操作アイコンの選択状態を維持したまま、さらに、複数の操作アイコン800を同時に選択状態とする。すなわち、2点間の距離の変化がない場合とは、一方のタッチ位置を中心として他方のタッチ位置が円弧状に移動した場合であると考えられるので、このようにして決定された扇形を、その中心から離れる方向に延長した領域内に含まれる操作アイコン800を選択状態にするのである。
また、選択中の操作アイコンの表示位置を移動する際(S309)には、図9に示すように、選択状態の複数の操作アイコン900の表示位置を変更する。
このように、情報端末100は、図7に示す一連の処理を1サイクルとして、定期的にサイクルを繰り返すことで、二つのタッチ位置の他方を円弧状に移動させることにより特定した複数の操作アイコンをタッチ位置の近傍に同時に移動させることができるので、より労力が少なく、疲れにくい操作でアイコン操作を実現することができる。
具体的には、情報端末100は、使用者がタッチしたい複数の操作アイコン800を決め、タッチパネル101上の引き寄せ先801に親指をタッチし、親指のタッチ位置と操作アイコンを結ぶ線分802上に人差し指をタッチし、その人差し指を、親指を中心とした円弧状にタッチしたまま移動先803まで動かしてタッチしたい複数の操作アイコン800を全て選択し、人差し指をタッチパネル101にタッチしたまま親指に近づけるように動かすと、それに合わせて複数の操作アイコン800を親指の位置の近傍900まで引き寄せることができる。
なお、上記では、2つのタッチ位置の一方が移動し、他方が移動しない場合の例を示したが、2つのタッチ位置の両方が移動する場合にも同様に操作アイコン800を選択状態にしてもよい。つまり、2つのタッチ位置の両方が移動する場合には、移動中の2つのタッチ位置により決定される直線が覆う領域に表示されている操作アイコン800を選択状態にしてもよい。
なお、3本の指により3点を指定し、3つのタッチ位置情報を用いて指定される扇形の内部領域に表示されている操作アイコン800を選択状態にしてもよい。
なお、上記のように2つのタッチ位置のうち少なくとも一方が移動するとき、移動後の2つのタッチ位置を結ぶ直線上の操作アイコン800を選択状態にしてもよい。
なお、上記実施の形態において、操作アイコンを引き寄せた後、使用者が所定のタッチ操作を行うことにより、実行部204が操作アイコンの全部または一部に対応する動作を実行するようにしてもよい。
さらに、上記のように人差し指のタッチ操作により操作アイコンを引き寄せ、当該操作アイコンに対応する動作を実行した後、引き寄せた操作アイコンを当初の位置へ移動させるようにしてもよい。
また、上記のように人差し指のタッチ操作により操作アイコンを引き寄せ、当該操作アイコンに対応する動作を実行した後、当該操作アイコンだけをその場に残し、その他のアイコン当初の位置へ移動させるようにしてもよい。
以上のように、本発明の一態様に係る情報端末によれば、使用者は、自身の指で情報端末の表示部(タッチパネル)上の2つの位置を指定し、さらに、その位置を移動させることにより、その移動中に選択されたオブジェクトを最終的に選択することができる。そして、この操作により選択されたオブジェクトを上記と同様に移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、使用者は、自身の指で情報端末の表示部(タッチパネル)上の2つの位置を指定し、さらに、その位置を移動させることにより、その移動後に選択されたオブジェクトを最終的に選択することができる。そして、この操作により選択されたオブジェクトを上記と同様に移動させることができる。よって、情報端末に表示されるオブジェクトの容易な操作が可能となる。
また、情報端末は、使用者が引き寄せたオブジェクトを、引き寄せられる前の位置に移動させることができる。引き寄せることにより当初のオブジェクトの配置がくずれることがなくなる。
なお、上記実施の形態においては、表示部に対する位置指定を検出する検出部としてタッチパネルを例示したが、検出部は、必ずしも、タッチパネルのように接触を検知する方式でなくてもかまわない。検出部は、例えば、静電容量の変化によって表示部への接近を検出する方式であってもよいし、赤外線発光と受光との組、または、超音波発信と受信との組からなる方式であってもよい。
また、上記実施の形態1と実施の形態2とにおける情報端末100が備える構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。例えば、情報端末100は、CPU120と、表示制御部122とを有するシステムLSIから構成されてもよい。
システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Ramdom Access Memory)などを含んで構成されるコンピュータシステムである。前記ROMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
また、本発明は、このような特徴的な処理部を備える情報端末として実現することができるだけでなく、情報端末に含まれる特徴的な処理部をステップとするタッチパネル操作方法として実現することもできる。また、タッチパネル操作方法に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムとして実現することもできる。そして、そのようなコンピュータプログラムを、CDROM(Compact Disc Read Only Memory)等のコンピュータ読取可能な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
以上、本発明の部品実装方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の画像復号化装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、1以上のオブジェクトを表示する表示ステップと、使用者により指定される第一位置及び第二位置を検出する検出ステップと、前記検出ステップにおいて検出された前記第一位置及び前記第二位置により決定される直線上に表示されているオブジェクトであって前記1以上のオブジェクトのうちの少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる制御ステップとを実行させる。
また、このプログラムは、コンピュータに、前記制御ステップにおいて、前記第一位置及び前記第二位置の少なくとも一方が前記直線に沿わない方向へ移動される場合に、移動中の前記第一位置及び前記第二位置により決定される直線の軌跡である領域内に表示されている前記少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる。
本発明の一態様に係る情報端末等は、使用者の指先によるタッチ操作を認識して表示装置を操作する技術として有用である。
100 情報端末
101 タッチパネル
102 表示パネル
103 操作アイコン
120 CPU
121 メモリ
122 表示制御部
201 検出部
202 制御部
203 表示部
204 実行部
400 親指のタッチ位置
401 アイコン選択時の人差し指のタッチ位置
402 直線
403 選択状態の操作アイコン
500 アイコン引き寄せ時の人差し指のタッチ位置
501 引き寄せられた操作アイコン
600 アイコン遠ざけ時の人差し指のタッチ位置
601 遠ざけられた操作アイコン
602 新たに選択状態にできる操作アイコン
800 複数選択状態の操作アイコン
801 親指のタッチ位置
802 アイコン複数選択前の人差し指のタッチ位置
803 アイコン複数選択後の人差し指のタッチ位置
900 引き寄せられた複数の操作アイコン

Claims (17)

  1. 1以上のオブジェクトを表示する表示部と、
    使用者により指定される前記表示部上の第一位置及び第二位置を検出する検出部と、
    前記検出部が検出した前記第一位置及び前記第二位置により決定される直線上に表示されているオブジェクトであって前記1以上のオブジェクトのうちの少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる制御部とを備える
    情報端末。
  2. 前記制御部は、
    前記第一位置または前記第二位置が前記直線に沿って移動されるとき、前記第一位置から前記第二位置までの距離に対する前記第一位置または前記第二位置の移動距離の比と、
    前記第一位置または前記第二位置から前記特定されたオブジェクトまでの距離に対する前記特定されたオブジェクトの移動距離の比とが等しくなるように、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる
    請求項1に記載の情報端末。
  3. 前記制御部は、
    前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに一時に移動させる
    請求項1又は2に記載の情報端末。
  4. 前記制御部は、
    前記第一位置及び前記第二位置の少なくとも一方が前記直線に沿わない方向へ移動される場合に、移動中の前記第一位置及び前記第二位置により決定される直線の軌跡である領域内に表示されている前記少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる
    請求項1〜3のいずれか1項に記載の情報端末。
  5. 前記検出部は、
    前記第一位置及び前記第二位置の少なくとも一方が前記直線に沿わない方向へ移動される場合に、移動後の前記第一位置及び前記第二位置により決定される直線上に表示されている前記オブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる
    請求項1〜3のいずれか1項に記載の情報端末。
  6. 前記表示部は、
    前記特定されたオブジェクトを、前記表示部が表示するオブジェクトのうち前記特定されたオブジェクト以外のオブジェクトと異なる態様で表示する
    請求項1〜5のいずれか1項に記載の情報端末。
  7. 前記表示部は、
    前記直線を表示する
    請求項1〜6のいずれか1項に記載の情報端末。
  8. 前記情報端末は、さらに、
    前記第一位置及び前記第二位置の少なくとも一方が移動することにより、前記第一位置から前記第二位置までの距離が閾値以下となったら、前記特定されたオブジェクトに対応する動作を実行する実行部を備える
    請求項1〜7のいずれか1項に記載の情報端末。
  9. 前記情報端末は、さらに、
    前記第一位置及び前記第二位置の少なくとも一方が移動された後に、所定時間静止したら、前記特定されたオブジェクトに対応する動作を実行する実行部を備える
    請求項1〜7のいずれか1項に記載の情報端末。
  10. 前記制御部は、
    前記実行部が前記動作を実行した後、前記動作に対応する前記オブジェクトを、前記第一位置または前記第二位置が指定される前に表示されていた場所に移動させる
    請求項8又は9に記載の情報端末。
  11. 前記制御部は、
    前記特定されたオブジェクトが複数である場合、実行部が前記特定されたオブジェクトの一部に対応する前記動作を実行した後、前記表示部が表示するオブジェクトのうち前記動作に対応するオブジェクト以外のオブジェクトを、前記第一位置または前記第二位置が指定される前に表示されていた場所に移動させる
    請求項4に記載の情報端末。
  12. 前記実行部は、
    前記制御部が所定のアプリケーションに関連付けられたアイコンを前記オブジェクトとして特定した場合、前記所定のアプリケーションを実行する
    請求項8又は9に記載の情報端末。
  13. 前記実行部は、
    前記制御部が所定の文書データまたは画像データに関連付けられたアイコンを前記オブジェクトとして特定した場合、前記表示部に前記文書データまたは画像データを表示させる
    請求項8又は9に記載の情報端末。
  14. 1以上のオブジェクトを表示する表示ステップと、
    使用者により指定される第一位置及び第二位置を検出する検出ステップと、
    前記検出ステップにおいて検出された前記第一位置及び前記第二位置により決定される直線上に表示されているオブジェクトであって前記1以上のオブジェクトのうちの少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる制御ステップとを備える
    情報端末の制御方法。
  15. 前記制御ステップにおいて、
    前記第一位置及び前記第二位置の少なくとも一方が前記直線に沿わない方向へ移動される場合に、移動中の前記第一位置及び前記第二位置により決定される直線の軌跡である領域内に表示されている前記少なくとも1つのオブジェクトを特定し、前記第一位置または前記第二位置が前記直線に沿って移動されるときに、前記特定されたオブジェクトを前記第一位置または前記第二位置の移動の向きに対応する向きに移動させる
    請求項14に記載の情報端末の制御方法。
  16. 請求項14に記載の情報端末の制御方法をコンピュータに実行させるためのプログラム。
  17. 請求項15に記載の情報端末の制御方法をコンピュータに実行させるためのプログラム。
JP2012533420A 2011-12-27 2012-04-09 情報端末、情報端末の制御方法、及び、プログラム Active JP5102412B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012533420A JP5102412B1 (ja) 2011-12-27 2012-04-09 情報端末、情報端末の制御方法、及び、プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011285026 2011-12-27
JP2011285026 2011-12-27
PCT/JP2012/002460 WO2013099042A1 (ja) 2011-12-27 2012-04-09 情報端末、情報端末の制御方法、及び、プログラム
JP2012533420A JP5102412B1 (ja) 2011-12-27 2012-04-09 情報端末、情報端末の制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP5102412B1 true JP5102412B1 (ja) 2012-12-19
JPWO2013099042A1 JPWO2013099042A1 (ja) 2015-04-30

Family

ID=47528504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012533420A Active JP5102412B1 (ja) 2011-12-27 2012-04-09 情報端末、情報端末の制御方法、及び、プログラム

Country Status (2)

Country Link
US (1) US9354780B2 (ja)
JP (1) JP5102412B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203417A (ja) * 2013-04-10 2014-10-27 コニカミノルタ株式会社 制御装置及び操作制御方法並びに操作制御プログラム
JPWO2015071947A1 (ja) * 2013-11-12 2017-03-09 富士通株式会社 表示処理装置、表示処理方法、及び表示処理プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10001898B1 (en) 2011-07-12 2018-06-19 Domo, Inc. Automated provisioning of relational information for a summary data visualization
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
KR20150014119A (ko) * 2013-07-29 2015-02-06 삼성전자주식회사 터치스크린을 가지는 전자 장치의 윈도우 운용 방법 및 장치
CN103576578B (zh) * 2013-11-05 2017-04-12 小米科技有限责任公司 一种采用耳机线对终端进行控制的方法、装置和设备
US20150186011A1 (en) * 2013-12-30 2015-07-02 Samsung Electronics Co., Ltd. Apparatus and method for interacting with items on a portable terminal
WO2015198729A1 (ja) * 2014-06-25 2015-12-30 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
CN105573738B (zh) * 2014-11-07 2018-11-16 珠海金山办公软件有限公司 一种对象间距调节方法及装置
KR102407191B1 (ko) * 2015-12-23 2022-06-13 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
US10558341B2 (en) * 2017-02-20 2020-02-11 Microsoft Technology Licensing, Llc Unified system for bimanual interactions on flexible representations of content
US10684758B2 (en) 2017-02-20 2020-06-16 Microsoft Technology Licensing, Llc Unified system for bimanual interactions
CN112433661B (zh) * 2020-11-18 2022-02-11 上海幻电信息科技有限公司 交互对象选择方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086064A (ja) * 2008-09-29 2010-04-15 Toshiba Corp 情報処理装置、文字入力方法及びプログラム
JP2010271982A (ja) * 2009-05-22 2010-12-02 Nec Casio Mobile Communications Ltd 携帯端末装置及びプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
JP3867226B2 (ja) 2000-02-15 2007-01-10 株式会社 ニューコム 複数の指示部位で操作可能なタッチパネルシステム
US6717600B2 (en) * 2000-12-15 2004-04-06 International Business Machines Corporation Proximity selection of selectable item in a graphical user interface
JP4071550B2 (ja) 2002-06-05 2008-04-02 一好 小谷 仮想キー片手入力装置における仮想キー配列方法
JP2004185258A (ja) 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
JP4395408B2 (ja) 2004-05-07 2010-01-06 Hoya株式会社 タッチパネル付き入力装置
US8566751B2 (en) * 2005-01-24 2013-10-22 International Business Machines Corporation GUI pointer automatic position vectoring
US20060288314A1 (en) * 2005-06-15 2006-12-21 Microsoft Corporation Facilitating cursor interaction with display objects
JP2007257336A (ja) * 2006-03-23 2007-10-04 Sony Corp 情報処理装置、情報処理方法及びそのプログラム
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US7936341B2 (en) * 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US7958460B2 (en) * 2007-10-30 2011-06-07 International Business Machines Corporation Method for predictive drag and drop operation to improve accessibility
TWI460621B (zh) * 2008-01-21 2014-11-11 Elan Microelectronics Corp 可供進行多物件操作之觸控板及應用其中之方法
KR101553629B1 (ko) * 2009-05-06 2015-09-17 삼성전자주식회사 인터페이스 제공 방법
JP2010262557A (ja) 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
JP5158014B2 (ja) 2009-05-21 2013-03-06 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
KR20110020642A (ko) 2009-08-24 2011-03-03 삼성전자주식회사 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법
US9513798B2 (en) 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
JP2012003742A (ja) * 2010-05-18 2012-01-05 Panasonic Corp 入力装置、入力方法、プログラム及び記録媒体
US20120026100A1 (en) * 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Aligning and Distributing Objects
EP2490113B1 (en) * 2011-02-15 2016-11-23 Lg Electronics Inc. Display device and method of controlling operation thereof
US10338672B2 (en) * 2011-02-18 2019-07-02 Business Objects Software Ltd. System and method for manipulating objects in a graphical user interface
JP5460679B2 (ja) * 2011-11-28 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法、およびコンテンツファイルのデータ構造

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086064A (ja) * 2008-09-29 2010-04-15 Toshiba Corp 情報処理装置、文字入力方法及びプログラム
JP2010271982A (ja) * 2009-05-22 2010-12-02 Nec Casio Mobile Communications Ltd 携帯端末装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
久野靖: "「アイコン投げ」ユーザインタフェース", コンピュータソフトウェア, vol. 13, no. 3, JPN6012045912, 15 May 1996 (1996-05-15), JP, pages 230 - 240, ISSN: 0002322225 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203417A (ja) * 2013-04-10 2014-10-27 コニカミノルタ株式会社 制御装置及び操作制御方法並びに操作制御プログラム
JPWO2015071947A1 (ja) * 2013-11-12 2017-03-09 富士通株式会社 表示処理装置、表示処理方法、及び表示処理プログラム

Also Published As

Publication number Publication date
US9354780B2 (en) 2016-05-31
JPWO2013099042A1 (ja) 2015-04-30
US20130167084A1 (en) 2013-06-27

Similar Documents

Publication Publication Date Title
JP5102412B1 (ja) 情報端末、情報端末の制御方法、及び、プログラム
US8810509B2 (en) Interfacing with a computing application using a multi-digit sensor
KR100801089B1 (ko) 터치 및 드래그를 이용하여 제어 가능한 모바일 장치 및 그조작 방법
KR102027612B1 (ko) 애플리케이션의 썸네일-이미지 선택 기법
CN102934067B (zh) 信息处理系统、操作输入装置、信息处理装置、信息处理方法
US20150160849A1 (en) Bezel Gesture Techniques
US20090102809A1 (en) Coordinate Detecting Device and Operation Method Using a Touch Panel
JP2010176332A (ja) 情報処理装置、情報処理方法およびプログラム
JP2008146243A (ja) 情報処理装置、情報処理方法、及びプログラム
KR102228335B1 (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법
JP2010102395A (ja) 画像処理装置、画像処理方法およびプログラム
US20150169122A1 (en) Method for operating a multi-touch-capable display and device having a multi-touch-capable display
EP2829967A2 (en) Method of processing input and electronic device thereof
JP5864319B2 (ja) 電子機器、電子機器を制御するための方法、および、電子機器を制御するためのプログラム
US20150143295A1 (en) Method, apparatus, and computer-readable recording medium for displaying and executing functions of portable device
KR101436585B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR102040798B1 (ko) 연속적인 터치를 이용한 사용자 인터페이스 방법 및 장치
WO2013099042A1 (ja) 情報端末、情報端末の制御方法、及び、プログラム
JP2012146017A (ja) 電子黒板システム、電子黒板システムの制御方法、プログラムおよびその記録媒体
JP6429692B2 (ja) 電子機器
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
JP5998700B2 (ja) 情報機器
US20150091831A1 (en) Display device and display control method
KR20170050997A (ko) 멀티 터치 패턴을 이용한 유저 인터페이스 메뉴 디스플레이 장치 및 방법
KR20070079858A (ko) 터치패드를 이용한 드래그 기능 구현 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120927

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5102412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150