JP2012058857A - 情報処理装置、操作方法及び情報処理プログラム - Google Patents

情報処理装置、操作方法及び情報処理プログラム Download PDF

Info

Publication number
JP2012058857A
JP2012058857A JP2010199348A JP2010199348A JP2012058857A JP 2012058857 A JP2012058857 A JP 2012058857A JP 2010199348 A JP2010199348 A JP 2010199348A JP 2010199348 A JP2010199348 A JP 2010199348A JP 2012058857 A JP2012058857 A JP 2012058857A
Authority
JP
Japan
Prior art keywords
cut
gesture
copy
gesture operation
selected portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010199348A
Other languages
English (en)
Inventor
Reiko Miyazaki
麗子 宮崎
Akihiro Komori
顕博 小森
Ritsuko Konno
律子 金野
Yoshihito Oki
嘉人 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010199348A priority Critical patent/JP2012058857A/ja
Priority to US13/212,555 priority patent/US9395908B2/en
Priority to CN2011102593741A priority patent/CN102385454A/zh
Publication of JP2012058857A publication Critical patent/JP2012058857A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】従来と比して一段と操作性を向上させる。
【解決手段】制御部4が、表示部4に表示させた情報の中のユーザに指定された部分を選択した後、操作部2に対してコピーに対応するジェスチャ操作が行われたときには、選択した部分をコピーする一方で、切り取りに対応するジェスチャ操作が行われたときには、選択した部分を切り取るようにしたことにより、ジェスチャ操作でコピー又は切り取りを選択的に行うことができる。
【選択図】図1

Description

本発明は、情報処理装置、操作方法及び情報処理プログラムに関し、例えば、タッチパネルを有する情報処理装置に適用して好適なものである。
昨今、種々の操作デバイスを有する情報処理装置が普及している。例えば、タッチパネルを有する情報処理装置では、画面に対するタッチ操作(タッチ(触る)、タップ(触って離す)、ドラッグ(なぞる)、フリック(はらう)等)により、直感的な操作が可能となっている(例えば特許文献1参照)。
特開2009−205675公報
ところで、従来の情報処理装置の多くは、画面に表示させた情報(例えばテキスト)の一部分をコピーして別の箇所に貼り付けたり(所謂コピー&ペースト)、情報の一部分を切り取って別の箇所に貼り付けたり(所謂カット&ペースト)することができる。
ここで、タッチパネルを有する情報処理装置で、コピー&ペースト又はカット&ペーストを行う場合、ユーザは、まずテキストの中から所望部分を例えばドラッグすることで指定する。
その後、ユーザは、所定のタッチ操作によりメニューを表示させ、このメニューからコピー又は切り取りを選択する。ここで、コピーが選択された場合には、所望部分がクリップボードにコピーされ、切り取りが選択された場合には、所望部分がクリップボードに移動する。
そして最後に、ユーザは、所望部分(すなわちクリップボードに保存された部分)を貼り付ける箇所を例えばタップすることで指定する。この結果、この指定された箇所に所望部分が貼り付けられる。
このような操作により、コピー&ペースト又はカット&ペーストが行われる。
ここで、このようなコピー&ペースト及びカット&ペーストの操作をより容易にすることができれば、情報処理装置の操作性を一段と向上させることができるものと考えられる。
本発明は以上の点を考慮してなされたもので、従来と比して一段と操作性を向上させた情報処理装置、操作方法及び情報処理プログラムを提案しようとするものである。
かかる課題を解決するため本発明においては、ジェスチャ操作による操作入力が可能な操作部と、操作部を介して行われた操作入力に応じて処理を実行する制御部とを設け、情報のコピーと切り取りとにそれぞれ異なるジェスチャ操作が割り当てられ、制御部が、操作部を介して、任意の情報からコピー又は切り取る部分が指定された後、コピーに対応するジェスチャ操作が行われた場合には、指定された部分をコピーする一方で、切り取りに対応するジェスチャ操作が行われた場合には、指定された部分を切り取るようにした。
このように、コピーと切り取りとに異なるジェスチャ操作を割り当てるようにしたことで、わざわざメニューを表示させてこのメニューからコピーか切り取りかを選択するような手間を省き、ジェスチャ操作によりコピー又は切り取りを選択的に行うことができる。
本発明によれば、わざわざメニューを表示させてこのメニューからコピーか切り取りかを選択するような手間を省き、ジェスチャ操作によりコピー又は切り取りを選択的に行うことができる。かくして、コピー&ペースト及びカット&ペーストの操作をより容易にすることができ、従来と比して一段と操作性を向上させた情報処理装置、操作方法及び情報処理プログラムを実現できる。
実施の形態の概要となる情報処理装置の機能構成を示すブロック図である。 携帯端末の外観構成を示す略線図である。 携帯端末のハードウェア構成を示すブロック図である。 タッチ位置の検知の説明にともなう略線図である。 文書表示画面の構成を示す略線図である。 所望部分の選択の説明にともなう略線図である。 コピージェスチャによるコピーの説明にともなう略線図である。 カットジェスチャによる切り取りの説明にともなう略線図である。 切り取りからコピーへ変更するときの説明にともなう略線図である。 画像のコピーの説明にともなう略線図である。 画像の切り取りの説明にともなう略線図である。 処理手順を示すフローチャートである。 他の実施の形態におけるコピー操作の説明にともなう略線図である。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態
2.他の実施の形態
<1.実施の形態>
[1−1.実施の形態の概要]
まず、実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例の説明に移る。
図1において1は、情報処理装置を示す。この情報処理装置1には、操作部2が設けられている。またこの情報処理装置1には、操作部2に対する操作に応じて処理を実行する制御部3が設けられている。
またこの情報処理装置1では、情報のコピーに対応する操作と切り取りに対応する操作とにそれぞれ異なるジェスチャ操作が割り当てられている。
そしてこの情報処理装置1では、制御部3が、表示部4に表示させた情報の中のユーザに指定された部分を選択した後、操作部2に対してコピーに対応するジェスチャ操作が行われたときには、選択した部分をコピーする一方で、切り取りに対応するジェスチャ操作が行われたときには、選択した部分を切り取るようになっている。
このように、コピーと切り取りとに異なるジェスチャ操作を割り当てるようにしたことで、わざわざメニューを表示させてこのメニューからコピーか切り取りかを選択するような手間を省き、ジェスチャ操作によりコピー又は切り取りを選択的に行うことができる。
ここで、操作部2は、タッチ操作が可能であるとし、コピーに対応するジェスチャ操作と切り取りに対応するジェスチャ操作が、それぞれ異なる所定のタッチ操作であるとする。
また制御部3が、操作部2に対する操作に応じて、選択する部分となる選択範囲をユーザに指定させるための選択枠を表示部4に情報と共に表示させ、当該情報の中の当該選択枠で囲まれている部分を選択するとする。
この場合、制御部3は、例えば、表示部4に表示させた選択枠内がタッチされコピーに対応するジェスチャ操作が行われたときに、選択した部分をコピーする一方で、当該選択枠内がタッチされ切り取りに対応するジェスチャ操作が行われたときに、選択した部分を切り取る。
ここで制御部3が、コピー又は切り取りに対応するジェスチャ操作が行われると、選択した部分をコピー又は切り取ると共に、選択した部分をコピー又は切り取った旨を示す子画面を表示部4に所定時間表示させるようにしてもよい。
さらに制御部3が、選択部分をコピーした後、子画面が表示されている間に、当該子画面内がタッチされ切り取りに対応するジェスチャ操作が行われると、選択部分をコピーから切り取りに変更するようにしてもよい。また、選択部分を切り取った後、子画面が表示されている間に、当該子画面内がタッチされコピーに対応するジェスチャ操作が行われると、選択部分を切り取りからコピーに変更するようにしてもよい。
さらに制御部3が、操作部2に対するドラッグに応じて、選択枠の大きさを変更することで選択範囲を変え、ドラッグしている指が離されずにつづけてコピー又は切り取りに対応するジェスチャ操作が行われると、この時点で選択枠により囲まれている部分を選択して当該選択した部分をコピー又は切り取るようにしてもよい。
さらに制御部3は、例えば、情報に含まれている画像内がタッチされコピー又は切り取りに対応するジェスチャ操作が行われた場合には、当該画像の選択からコピー又は切り取りまでの処理を一度に行う。
また上述したコピーに対応するジェスチャ操作は、例えば、選択枠内を指でタッチした後、拇印を押すようにして、タッチしている指を左右方向に半回転させるタッチ操作であるとする。
さらに上述した切り取りに対応するジェスチャ操作は、例えば、選択枠内を指でタッチした後、選択枠で囲まれた部分をすくい取るようにして、タッチしている指を任意の方向に滑らせるタッチ操作であるとする。
このような構成でなる情報処理装置1の具体例について、以下、詳しく説明する。
[1−2.実施の形態の具体例]
[1−2−1.携帯端末の外観構成]
次に、本実施の形態の具体例について説明する。まず図2を用いて、上述した情報処理装置1の具体例である携帯端末100の外観構成について説明する。
携帯端末100は、片手で把持し得る程度の大きさでなる略扁平矩形状の筐体101を有している。
筐体101の前面101Aの中央部には、長方形状のタッチスクリーン102が設けられている。タッチスクリーン102は、液晶パネルと、液晶パネルの表示面を覆う薄型透明のタッチパネルとで構成される。因みに、このタッチパネルは、例えば、静電容量式のタッチパネルである。
携帯端末100は、このタッチスクリーン102に対する、指(静電容量式に対応するタッチペン等でも可)によるタッチ操作を、ユーザによる操作入力として受け付けるようになっている。
さらにこの携帯端末100の筐体101の前面101Aには、タッチスクリーン102の近傍に、操作ボタン103も設けられている。
尚、この携帯端末100は、長方形状のタッチスクリーン102が縦長となる向き(これを縦向きとも呼ぶ)でも、横長となる向き(これを横向きとも呼ぶ)でも使用できるようになっている。
[1−2−2.携帯端末のハードウェア構成]
次に図3を用いて、携帯端末100のハードウェア構成について説明する。この携帯端末100では、CPU110が、不揮発性メモリ111に格納されているプログラムをRAM112に展開して読み込み、このプログラムに従って各種処理を実行すると共に各部を制御する。尚、CPUは、Central Processing Unitの略、RAMは、Random Access Memoryの略である。
タッチスクリーン102は、各種情報を表示する表示デバイスである液晶パネル102Aと、操作入力を受け付ける操作入力デバイスであるタッチパネル102Bとで構成される。
タッチパネル102Bは、静電容量式であり、操作面に対して格子状に配置された複数の静電センサ(図示せず)を有している。これら複数の静電センサの各々は、指等の導体が操作面に近づくことで変化する静電容量に応じて出力値が変化する。
タッチパネル102Bは、このように変化する各静電センサの出力値と、各静電センサの位置とを、CPU110に送る。
CPU110は、これらをもとに、図4に示すように、タッチパネル102Bの操作面上(すなわち液晶パネル102Aの画面上)で、指が接触している部分を特定する。尚、CPU110は、例えば、出力値が所定値以上の部分を、指が接触している部分として特定するようになっている。
そしてCPU110は、接触部分の重心又は中心(すなわち操作面に触れている指の腹の重心又は中心)を、画面上のタッチ位置として認識する。
また、CPU110は、所定時間ごとに、タッチパネル102Bから、各静電センサの出力値と位置を取得して、接触部分からタッチ位置を検知することで、タッチ位置の変位を検出する。
そしてCPU110は、この変位をもとに、画面上でタッチ位置がどのように動いたのか(すなわちタッチ位置の軌跡)を認識する。
CPU110は、このようにして認識したタッチ位置とその軌跡とに基づいて、画面に対してどのようなタッチ操作が行われたのかを特定し、このタッチ操作を操作入力として受け付け、この操作入力に応じた処理を実行する。
尚、CPU110は、タッチ(触る)、タップ(触って離す)、ドラッグ(なぞる)、フリック(払う)等のタッチ操作を、操作入力として受け付けるようになっている。
またCPU110は、これら一般的なタッチ操作とは別に、特定の軌跡を描くようなタッチ操作(所謂ジェスチャ操作)を、操作入力として受け付けるようにもなっている。
さらにCPU110は、操作ボタン103に対する押下操作を認識すると、これをユーザによる操作入力として受け付け、この操作入力に応じた処理を実行するようにもなっている。
さらにCPU110は、ネットワークインタフェース113を介して、外部の機器と各種データを送受することで、通信するようにもなっている。
ここで、例えば、タッチスクリーン102に、不揮発性メモリ111に記憶されている文書ファイルに対応するアイコンが一覧表示されている状態で、ユーザが、所望のアイコンをタップしたとする。
CPU110は、このタッチ操作を、文書を表示する操作入力として受け付け、不揮発性メモリ111から、タップされたアイコンに対応する文書ファイルを読み出す。
そしてCPU110は、この文書ファイルから文書データを抽出して、この文書データに基づく文書を、タッチスクリーン102の液晶パネル102Aに表示させる。
尚、文書ファイルには、文書データに限らず、画像データが含まれていることもある。この場合、CPU110は、文書データに基づく文書を表示させると共に、画像データに基づく画像を、文書内の指定された位置に表示させるようになっている。
このようにして、携帯端末100は、ユーザに指定された文書(又は文書+画像)を表示するようになっている。
さらに携帯端末100では、タッチスクリーン102に表示させた文書の所望部分をコピーして別の箇所に貼り付けたり(コピー&ペースト)、所望部分を切り取って別の箇所に貼り付けたり(カット&ペースト)できるようになっている。
以下、このコピー&ペースト及びカット&ペーストの操作方法について、詳しく説明する。
因みに、実施の形態の概要で説明した情報処理装置1の操作部2の具体的なハードウェアの例が上述した携帯端末100のタッチパネル102Bである。また情報処理装置1の制御部3の具体的なハードウェアの例が携帯端末100のCPU110である。さらに情報処理装置1の表示部4の具体的なハードウェアの例が携帯端末100の液晶パネル102Aである。
[1−2−3.コピー&ペースト及びカット&ペーストの操作方法]
携帯端末100のCPU110は、上述したように、アイコンがタップされると、このアイコンに対応する文書ファイルを読み出す。
またCPU110は、文書を表示するアプリケーション(文書表示アプリとも呼ぶ)を不揮発性メモリ111から読み出して実行することにより、文書表示アプリを起動する。
文書表示アプリを起動すると、CPU110は、図4に示すように、文書表示画面200をタッチスクリーン102に表示させる。
尚、図4は、横向きのタッチスクリーン102に対して、横長の文書表示画面200が表示された例である。
CPU110は、この文書表示画面200に対して、読み出した文書ファイルから得た文書データに基づく文書を表示させる。このときCPU110は、まず文書全体のうち、先頭から1画面分を表示させる。
尚、図4は、文書表示画面200に対して、横書きの文書が、先頭から1画面に収まる数行分表示されている例である。
ここで、この文書表示画面200では、文書を任意の方向にスクロールできるようになっている。
具体的に、CPU110は、例えば、画面上方向へのドラッグに応じて、文書を上方向にスクロールさせ、画面下方向へのドラッグに応じて、文書を下方向にスクロールさせる。
このようにして文書表示画面200では、表示した文書をスクロールすることができ、これにより文書全体をユーザに閲覧させることができる。
さらにこの文書表示画面200では、画面に表示されている文書中の任意の部分を選択できるようになっている。
具体的に、CPU110は、文書表示画面200の任意の箇所が所定時間以上タッチされると(すなわち長押しされると)、図6(A)に示すように、この箇所に、所定の大きさの枠Frを表示させる。この枠Frが選択範囲を示し、以下、この枠Frを選択枠とも呼ぶ。
さらにCPU110は、図6(B)に示すように、タッチしている指が離されずにそのままドラッグが行われると、このドラッグに応じて、選択枠Frを任意の方向に広げたり狭めたりすることで、選択範囲を変更する。
その後、指が離されると、CPU110は、選択枠Frの大きさを固定して選択範囲を確定する。このときの選択枠Fr内(すなわち選択範囲内)に入っている部分が選択部分となる。
このように、文書表示画面200では、選択範囲を表す選択枠Frの位置や大きさを自由に変えることができ、文書中の所望部分がこの選択枠Fr内に入るように選択枠Frの位置や大きさを変えることで、所望部分を選択できるようになっている。
尚、CPU110は、例えば、選択枠Frがタップされると、選択枠Frを画面から消去して、選択範囲を解除するようにもなっている。
さらにこの文書表示画面200では、ジェスチャ操作により文書中の選択部分をコピーしたり切り取ったりできるようになっている。
実際、選択部分をコピーするには、図7(A)に示すように、選択枠Frが表示されている状態で、この選択枠Fr内を指でタッチした後、拇印を押すようにして、この指を左右方向に半回転させるジェスチャ操作を行う。尚、このジェスチャ操作を以下、コピージェスチャとも呼ぶ。
CPU110は、コピージェスチャが行われたと認識すると、選択部分をRAM112の一部であるクリップボードにコピーする。
実際、このコピージェスチャが行われたときのタッチ位置の軌跡は、指の幅程度の範囲で左右に往復するドラッグが行われた場合と同様の軌跡となる。
そこで、CPU110は、ドラッグの途中でドラッグの方向が左から右又はその逆に反転した場合に、この操作をコピージェスチャと判定するようになっている。
具体的に、CPU110は、所定時間ごとにタッチ位置を検知して、前回のタッチ位置から今回のタッチ位置への移動ベクトルを算出する。
さらにCPU110は、この移動ベクトルと画面に水平なX軸とがなす角度をドラッグ角度として取得する。ここで、X軸の向きが画面左から右への方向に設定され、画面に垂直なY軸の向きが画面下から上への方向に設定されているとする。
この場合、例えば、移動ベクトルの方向がX軸と平行で画面左から右への方向であれば、このときのドラッグ角度は0度となる。また移動ベクトルの方向がX軸と垂直で画面下から上への方向であれば、このときのドラッグ角度は90度となる。
さらに移動ベクトルの方向がX軸と垂直で画面上から下への方向であれば、このときのドラッグ角度は−90度となる。さらに移動ベクトルの方向がX軸と平行で画面右から左への方向であれば、このときのドラッグ角度は180度(−180度でもよい)となる。
このようにドラッグ角度は、+180度から−180度の範囲の値を取るようになっている。
さらにCPU110は、前回算出したドラッグ角度と今回算出したドラッグ角度との差分の絶対値を算出する。
この差分は、一定方向へのドラッグが行われている間は、0度となる。これに対して、例えば、左右に往復するドラッグが行われると、ドラッグの方向が反転したときに、差分の絶対値が180度になる。
そしてCPU110は、ドラッグの方向が画面横方向で、ドラッグ角度の差分の絶対値が所定値(例えば90度)以上となったときに、ドラッグの途中でドラッグの方向が左から右又はその逆に反転したと判断する。そしてCPU110は、この操作をコピージェスチャと判定する。
尚、厳密には、ドラッグ角度の差分の絶対値が180度となったときに、ドラッグの方向が反転することになるが、こうすると、正確なコピージェスチャをユーザに要求することになり、操作性が低下する。
そこで、携帯端末100では、ドラッグの角度が90度以上となった時点で、ドラッグの方向が反転したと見なすようになっている。こうすることで、容易にコピージェスチャを行うことができ、操作性が向上する。
またドラッグの方向についても、厳密には、ドラッグ角度が0度又は180度のときに画面横方向となるが、操作性を考慮して、0度又は180度から例えば±30度の範囲であれば、画面横方向のドラッグが行われたと見なすようになっている。
このようにしてCPU110は、コピージェスチャを判定し、コピージェスチャが行われたと認識するようになっている。
コピージェスチャが行われたと認識すると、CPU110は、選択部分をクリップボードにデータ(これをクリップデータとも呼ぶ)としてコピーする。さらにCPU110は、図7(B)に示すように、文書表示画面200に表示されている選択部分の一部を覆うようにして、コピーした選択部分を示すポップアップPwを表示させる。
このポップアップPwには、例えば、コピーした選択部分がそのまま、もしくは縮小して表示される。
これにより、携帯端末100が、コピージェスチャを認識して選択部分をコピーした旨を、ユーザに視認させることができる。このポップアップPwは、所定時間(例えば数秒)経過後、画面から消去される。
このようにして文書表示画面200では、文書中の選択部分をコピーすることができるようになっている。
また一方で、選択部分を切り取るには、図8(A)に示すように、選択枠Frが表示されている状態で、この選択枠Fr内を指でタッチした後、この選択枠Frに囲まれた選択部分をすくい取るようにして、この指を任意の方向に短く滑らせて離すジェスチャ操作を行う。尚、このジェスチャ操作を以下、カットジェスチャとも呼ぶ。
CPU110は、カットジェスチャが行われたと認識すると、選択部分を文書から切り取ってクリップボードに移動させる。
実際、このカットジェスチャが行われたときのタッチ位置の軌跡は、短距離のドラッグが行われた場合と同様の軌跡となる。
そこで、CPU110は、選択枠Fr内を始点として行われたドラッグの長さが所定値以下である場合に、この操作をカットジェスチャと判定し、カットジェスチャが行われたと認識するようになっている。
カットジェスチャが行われたと認識すると、CPU110は、文書から選択部分を切り取り、クリップデータとしてクリップボードに移動させる。この結果、図8(B)に示すように、文書表示画面200では、選択部分が表示されていた箇所が空白となる。
さらにこのときCPU110は、選択部分が表示されていた箇所(すなわち空白部分)の一部を覆うようにして、切り取った選択部分を示すポップアップPwを表示させる。
これにより、携帯端末100が、カットジェスチャを認識して、選択部分を切り取った旨を、ユーザに視認させることができる。このポップアップPwは、所定時間(例えば数秒)経過後、画面から消去される。
このようにして文書表示画面200では、文書中の選択部分を切り取ることができるようになっている。
さらにこの文書表示画面200では、コピー又は切り取った選択部分(すなわちクリップボードに保存されているクリップデータ)を文書中の任意の箇所に貼り付ける(ペーストする)ことができるようになっている。
具体的に、CPU110は、クリップデータが保存されている状態で、文書表示画面200に表示している文書中の任意の箇所が長押しされると、この箇所の近傍に、クリップデータを貼り付けるか否かを選択するためのダイアログボックスを表示させる。
そしてCPU110は、ユーザがこのダイアログボックスを介してクリップデータを貼り付ける旨を選択した場合に、クリップボードからクリップデータを取得して、長押しされた箇所に貼り付ける。
このようにして文書表示画面200では、文書中の任意の箇所にクリップデータを貼り付けることができるようになっている。
ここまで説明したように、文書表示画面200では、簡易なタッチ操作で、文書中の任意の部分の選択、選択部分のコピー及び切り取り、そして貼り付けを行うことができる。
特に、選択部分のコピーと切り取りについては、1回のジェスチャ操作(コピージェスチャ又はカットジェスチャ)で選択的に行うことができるようにした。
これにより、携帯端末100は、選択部分を指定した後、所定のタッチ操作によりメニューを表示させ、さらにこのメニューからコピーか切り取りかを選択するような場合と比して、一段と容易にコピー及び切り取りを行うことができる。
ところで、選択部分を切り取った(又はコピーした)後、この選択部分を貼り付ける前に、この選択部分を切り取りからコピーに(又はコピーから切り取りに)容易に変更できれば、一段と操作性が向上するものと考えられる。
そこで、文書表示画面200では、選択部分を切り取った後、ポップアップPwが表示されている間に、このポップアップPwに対してコピージェスチャを行うことで、選択部分を切り取りからコピーに変更できるようになっている。
具体的に、CPU110は、選択部分を示す選択枠Frに対してカットジェスチャが行われると、選択部分を文書から切り取ってクリップボードに移動させる。この結果、文書表示画面200では、選択部分が表示されていた箇所が空白となる。
またこのときCPU110は、選択部分が表示されていた箇所(すなわち空白部分)の一部を覆うようにして、切り取った選択部分を記したポップアップPwを表示させる。
ここで、図9(A)示すように、このポップアップPwが表示されている間に、ポップアップPw内がタッチされ、そこからコピージェスチャが行われたとする。
するとCPU110は、このコピージェスチャに応じて、選択部分を切り取りからコピーに変更する。
この結果、図9(B)に示すように、文書表示画面200では、選択部分が切り取られて空白だった箇所に、再び選択部分が表示される。
文書表示画面200では、このようにして選択部分を切り取った後、この選択部分を貼り付ける前に、この選択部分を切り取りからコピーに変更できる。
また同様にして文書表示画面200では、選択部分をコピーした後、この選択部分を貼り付ける前に、この選択部分をコピーから切り取りに変更できるようにもなっている。
この場合、CPU110は、選択部分をコピーした後、ポップアップPwが表示されている間に、このポップアップPw内がタッチされて、そこからカットジェスチャが行われると、選択部分をコピーから切り取りに変更する。この結果、文書表示画面200では、選択部分が切り取られて空白となる。
このように、携帯端末100は、選択部分を切り取った又はコピーした後でも、この選択部分を貼り付ける前であれば、この選択部分を切り取りからコピーに又はコピーから切り取りに容易に変更することができる。
尚、上述したように、文書ファイルには、文書データに限らず、画像データが含まれていることもある。この場合、文書表示画面200には、文書データに基づく文書と共に、画像データに基づく画像が、文書中の指定された位置に表示される。
ここで、文書表示画面200では、任意の画像をコピーしたり切り取ったりできるようにもなっている。
実際、画像をコピーするには、図10(A)に示すように、文書表示画面200に任意の画像Piが表示されている状態で、この画像Pi内をタッチした後、そこからコピージェスチャを行う。つまり、画像Pi内を始点とするコピージェスチャを行う。
画像Pi内を始点とするコピージェスチャが行われたと認識すると、CPU110は、この画像Piをクリップボードにクリップデータとしてコピーする。さらにCPU110は、図10(B)に示すように、文書表示画面200に表示されている画像Piの一部を覆うようにしてコピーした画像を示すポップアップPwを表示させる。
このようにして文書表示画面200では、文書中の画像をコピーできるようになっている。
また一方で、画像を切り取るには、図11(A)に示すように、文書表示画面200に任意の画像Piが表示されている状態で、この画像Piをタッチした後、そこからカットジェスチャを行う。つまり、画像Pi内を始点とするカットジェスチャを行う。
画像Pi内を始点とするカットジェスチャが行われたと認識すると、CPU110は、この画像Piを文書から切り取り、クリップデータとしてクリップボードに移動させる。この結果、図11(B)に示すように、文書表示画面200では、画像Piが表示されていた箇所が空白となる。
さらにこのときCPU110は、画像Piが表示されていた箇所(すなわち空白部分)の一部を覆うようにして切り取った画像Piを示すポップアップPwを表示させる。
このようにして文書表示画面200では、文書中の画像を切り取ることができるようになっている。
このように文書表示画面200では、画像であれば、選択からコピー又は切り取りまでを、1回のジェスチャ操作(コピージェスチャ又はカットジェスチャ)で行うことができる。
尚、このようにしてコピー又は切り取られた画像は、文書と同様の操作方法で、文書中の任意の箇所に貼り付けることができるようになっている。
またこの文書表示画面200では、選択枠Fr内に、文書と画像とが共に含まれるようにすることで、文書と画像とを一緒にコピーしたり切り取ったりすることもできる。
[1−2−4.コピー又は切り取るときの処理手順]
次に、携帯端末100が、文書中の選択部分をコピー又は切り取るときに実行する具体的な処理の手順について、図12に示すフローチャートを用いて説明する。
尚、図12に示す処理手順RT1は、携帯端末100のCPU110が、不揮発性メモリ111に格納されているプログラムにしたがって実行する処理の手順である。
CPU110は、文書表示画面200を表示させた状態で、タッチ操作が行われたことを認識すると、この処理手順RT1を開始して、ステップSP1に移る。
ステップSP1においてCPU110は、このときのタッチ操作がジェスチャ操作(コピージェスチャ又はカットジェスチャ)であるかを判定中であるか否かを判別する。このステップSP1で、ジェスチャ操作を判定中ではないことにより否定結果を得ると、CPU110は、ステップSP2に移る。
ステップSP2においてCPU110は、文書中の選択部分を示す選択範囲が確定しているか否かを判別する。このステップSP2で、選択範囲が確定していないことにより否定結果を得ると、CPU110は、再びステップSP1に戻る。
これに対して、選択範囲が確定していることにより、このステップSP2で肯定結果を得ると、CPU110は、ステップSP3に移る。
ステップSP3においてCPU110は、このときのタッチ操作が、選択枠Fr内を始点とするドラッグであるか否かを判別する。
このステップSP3で否定結果を得ると、このことは、このときのタッチ操作が選択枠Fr内を始点とするドラッグではなく、コピージェスチャ又はカットジェスチャの可能性がないことを意味する。このときCPU110は、再びステップSP1に戻る。
これに対して、このステップSP3で肯定結果を得ると、このことは、このときのタッチ操作が選択枠Fr内を始点とするドラッグであり、コピージェスチャ又はカットジェスチャの可能性があることを意味する。このときCPU110は、ステップSP4に移る。
ステップSP4においてCPU110は、このときのタッチ操作が、コピージェスチャ又はカットジェスチャであるかどうかの判定を開始して、再びステップSP1に戻る。
ステップSP4で判定を開始すると、CPU110は、このステップSP1で肯定結果を得て、ステップSP5に移る。
ステップSP5においてCPU110は、ドラッグが継続中であるか否かを判別する。このステップSP5で肯定結果を得ると、CPU110は、ステップSP6に移る。
ステップSP6においてCPU110は、前回のタッチ位置と今回のタッチ位置とをもとに、ドラッグ角度とドラッグ距離(タッチ位置の移動距離)とを得、これをRAM112に記録して、次のステップSP7に移る。
ステップSP7においてCPU110は、RAM112に前回のドラッグ角度(すなわち所定時間前のドラッグ角度)が記録されているか否かを判別する。
このステップSP7で肯定結果を得ると、このことは、少なくとも今回と前回の2回分のドラッグ角度が記録されていて、コピージェスチャ又はカットジェスチャを判定するためのドラッグ角度の差分を算出できる状態にあることを意味する。このときCPU110は、ステップSP8に移る。
ステップSP8においてCPU110は、ドラッグの方向が画面横方向で、ドラッグ角度の差分の絶対値が90度以上であるか否かを判別する。
このステップSP8で肯定結果を得ると、このときのドラッグがコピージェスチャであることを意味する。このときCPU110は、ステップSP9に移り、ジェスチャ操作の判定を終了すると共に選択部分をコピーし、再びステップSP1に戻る。
これに対して、上述のステップSP5で否定結果を得ると、このことは、コピージェスチャと判定されることなく、ドラッグが終了したことを意味する。このときCPU110は、ステップSP10に移る。
ステップSP10においてCPU110は、RAM112に記録されているドラッグ距離の合計をドラッグの長さとして、このドラッグの長さが所定値以下であるか否かを判別する。
このステップSP10で肯定結果を得ると、このときのドラッグがカットジェスチャであることを意味する。このときCPU110は、ステップSP11に移り、ジェスチャ操作の判定を終了すると共に選択部分を切り取って、再びステップSP1に戻る。
一方で、上述のステップSP10で否定結果を得ると、このことは、このときのドラッグが、ジェスチャ操作ではなく、単なるドラッグであったことを意味する。このときCPU110は、ステップSP12に移り、ジェスチャ操作の判定を終了すると共に例えばドラッグに応じて文書をスクロールさせ、再びステップSP1に戻る。
このような処理手順RT1にしたがって、CPU110は、ジェスチャ操作を判定し、判定したジェスチャ操作に応じて、文書中の選択部分のコピー又は切り取りを行うようになっている、
[1−2−5.動作及び効果]
以上の構成において、携帯端末100のCPU110は、所定のタッチ操作に応じて、画面に表示させた文書中の任意の部分を選択枠Frで囲うことにより、この部分を選択部分とする。
さらにCPU110は、この選択枠Fr内を始点とするドラッグが行われると、このドラッグが、コピージェスチャ又はカットジェスチャであるかどうかを判定する。
ここでCPU110は、このドラッグの動きが、拇印を押すようにして、タッチした指を左右方向に半回転させる動きであった場合に、このドラッグがコピージェスチャであると判定して、選択部分をコピーする。
またCPU110は、ドラッグの動きが、選択部分をすくい取るようにして、タッチした指を任意の方向に短く滑らせて離す動きであった場合に、このドラッグがカットジェスチャであると判定して、選択部分を切り取る。
その後、CPU110は、ユーザにより指定された箇所に、コピー又は切り取った選択部分を貼り付ける。
このように携帯端末100では、選択部分のコピーと切り取りとに異なるジェスチャ操作を割り当てたことにより、1回のジェスチャ操作で、選択部分のコピーと切り取りとを選択的に行うことができる。
こうすることで、携帯端末100は、選択部分を指定した後、所定のタッチ操作によりメニューを表示させ、さらにこのメニューからコピーか切り取りかを選択するような場合と比して、一段と容易にコピー及び切り取りを行うことができる。
また携帯端末100のCPU110は、選択部分をコピー又は切り取ると、画面上に、コピー又は切り取った選択部分を示すポップアップPwを所定時間表示させる。
ここでCPU110は、このポップアップPwが表示されている間に、このポップアップPwに対してコピージェスチャ又はカットジェスチャが行われたことを認識すると、選択部分を切り取りからコピーに又はその逆に変更するようになっている。
このように携帯端末100は、選択部分をコピー又は切り取った後でも、この選択部分を貼り付ける前であれば、この選択部分を切り取りからコピーに又はその逆に容易に変更することができる。
以上の構成によれば、携帯端末100は、わざわざメニューを表示させてこのメニューからコピーか切り取りかを選択するような手間を省いて、ジェスチャ操作を変えるだけでコピー又は切り取りを選択的に行うことができる。かくして、コピー&ペースト及びカット&ペーストの操作をより容易にすることができ、従来と比して一段と操作性を向上させることができる。
<2.他の実施の形態>
[2−1.他の実施の形態1]
尚、上述した実施の形態では、長押しからのドラッグで選択枠Frを操作して選択範囲を適宜変更し、指が離された時点で選択枠Frを固定して選択範囲を確定するようにした。そして、この選択枠Frを始点とするジェスチャ操作が行われると、このジェスチャ操作に応じて、選択枠Frに囲まれている選択部分をコピー又は切り取るようにした。
ここで、選択枠Frの操作から選択部分のコピー又は切り取りまでを一連のドラッグで行うことができれば、一段と操作性が向上するものと考えられる。
そこで、CPU110が、図13に示すように、長押しからのドラッグに応じて選択枠Frの大きさを適宜変更した後、指が離される前にジェスチャ操作が行われたら、このとき選択枠Frで囲まれている部分をコピー又は切り取るようにしてもよい。
このようにすれば、選択枠Frの操作から選択部分のコピー又は切り取りまでを一連のドラッグで行うことができるようになる。
ところで、この場合、ジェスチャ操作によって、選択枠Frの大きさが変わってしまうのは望ましくない。
ゆえに、一連のドラッグの中で、選択枠Frの大きさを変更する動きと、ジェスチャ操作に対応する動きとを明確に区別できるようにすることが望ましい。
実際、一連のドラッグで選択枠Frの操作から選択部分のコピー又は切り取りまでを行うようにすると、ユーザが、ドラッグで選択枠Frの大きさを変更した後、一旦指の移動を停止してから最後にジェスチャ操作を行うと想定される。
そこで、タッチ位置が停止した後(すなわち移動量がほぼ0になった後)の動きがどのような動きであるかで、選択枠Frの大きさを変更する動きと、ジェスチャ操作に対応する動きとを区別するようにする。
すなわちCPU110は、タッチ位置が停止した後、さらに所定距離以上ドラッグが行われた場合には、この動きを、選択枠Frの操作に対応する動きであると判定する。
またCPU110は、タッチ位置が停止した後、所定距離未満のドラッグが行われ、このときドラッグの方向が反転したときに、この動きを、コピージェスチャに対応する動きであると判定する。
さらにCPU110は、タッチ位置が停止した後、所定距離未満のドラッグが行われ、たら、このときドラッグの方向が反転してなければ、この動きを、カットジェスチャに対応する動きであると判定する。
このようにすれば、一連のドラッグの中で、選択枠Frの大きさを変更する動きと、ジェスチャ操作に対応する動きとを明確に区別できる。
[2−2.他の実施の形態2]
また上述した実施の形態では、拇印を押すように、画面を指でタッチしてこの指を左右方向に半回転させるジェスチャ操作をコピージェスチャとした。また、選択部分をすくい取るように、指を任意の方向に短く滑らせて離すジェスチャ操作をカットジェスチャとした。
これに限らず、コピージェスチャとカットジェスチャとが、各々異なるタッチ操作であれば、この他種々のタッチ操作を、コピージェスチャ及びカットジェスチャとしてもよい。
例えば、選択枠Fr内の1回タップ(シングルタップ)をコピージェスチャ、選択枠Fr内の2回タップ(ダブルタップ)をカットジェスチャとする等してもよい。
また、例えば、選択枠Fr内の短押しをコピージェスチャ、選択枠Fr内の長押しをカットジェスチャにする等してもよい。
さらに、例えば、選択枠Fr内を始点として円を描くドラッグをコピージェスチャ、選択枠Fr内を始点としてレ点(チェックマーク)を描くドラッグをカットジェスチャにする等してもよい。
[2−3.他の実施の形態3]
さらに上述した実施の形態では、選択枠Fr内を始点とするドラッグの方向が左から右又は右から左に反転した場合に、CPU110が、この操作をコピージェスチャと判定するようにした。
これに限らず、例えば、反転の方向に依らず、選択枠Fr内を始点とするドラッグの方向が反転したら、この操作をコピージェスチャと判定するようにしてもよい。
また一方で、左右に反転しただけでなく、例えば、ドラッグの範囲(すなわちタッチ位置の移動範囲)が所定範囲(例えば指の幅程度の範囲)内であることを条件にくわえてもよい。
さらにこの他種々のアルゴリズムで、コピージェスチャを判定するようにしてもよい。カットジェスチャについても同様である。
[2−4.他の実施の形態4]
さらに上述した実施の形態では、文書中の任意の箇所を長押しして、画面に選択枠Frを表示させ、この選択枠Frをユーザが操作して選択範囲を変更することで、文書中の任意の部分を選択できるようにした。
これに限らず、文書中の任意の部分を選択する方法については、この他種々の方法を用いるようにしてもよい。
例えば、文書表示アプリを起動後、メニューから選択モードが選ばれると、CPU110が、選択モードに移行するようにする。そしてこの選択モード時、ドラッグが行われると、CPU110が、ドラッグの始点と終点とを対角線とする四角形の選択枠Frを表示させるようにする。このような方法で、文書中の任意の部分を選択するようにしてもよい。
また上述した実施の形態では、クリップデータが保存されている状態で、文書中の任意の箇所が長押しされると、ダイアログボックスを表示させ、このダイアログボックスを介して貼り付けが選択されると、クリップデータを貼り付けるようにした。
これに限らず、文書中の任意の箇所にクリップデータを貼り付ける方法については、この他種々の方法を用いるようにしてもよい。
例えば、長押しの代わりに短押しされたらダイアログボックスを表示させて、貼り付けるようにしてもよく、また長押しの代わりにダブルタップされたらダイアログボックスを表示させて、貼り付けるようにする等してもよい。
さらに所定のジェスチャ操作に応じて、ダイアログボックスを表示することなく、直ちにクリップデータを貼り付けるようにしてもよい。この場合のジェスチャ操作としては、例えば、拇印を押すように、画面を指でタッチしてこの指を左右方向に半回転させるジェスチャ操作(すなわちコピージェスチャ)とする。
さらに上述した実施の形態では、文書中の任意の部分を選択した後、この文書中の任意の箇所に、選択した部分(クリップデータ)を貼り付けるようにした。
これに限らず、例えば、文書中の任意の部分を選択した後、この文書とは別の文書を表示させて、この文書中の任意の箇所に、選択した部分を貼り付けるようにしてもよく、またすることが可能である。
また文書中の任意の部分を選択した後、文書表示アプリ以外の例えばメールアプリを起動させて、このメールアプリで表示されるメール本文の任意の箇所に、選択した部分を貼り付ける等してもよく、またすることが可能である。
[2−5.他の実施の形態5]
さらに上述した実施の形態では、横向きのタッチスクリーン102に対して、横長の文書表示画面200を表示した場合について説明したが、これに限らず、縦向きのタッチスクリーン102に対して、縦長の文書表示画面200を表示するようにしてもよい。
この場合、どちらの向きで文書表示画面200を表示させるかについては、例えば、ユーザに適宜選択させるようにすればよい。
尚、縦向きのタッチスクリーンに対して縦長の文書表示画面200を表示させた場合にも、上述した実施の形態と同様の操作方法で、コピー&ペースト及びカット&ペーストを行うことができる。
[2−6.他の実施の形態6]
さらに上述した実施の形態では、文書又は画像をコピー又は切り取る場合について説明したが、これに限らず、画面に表示される情報であれば、この他種々の情報をコピー又は切り取るようにしてもよい。
[2−7.他の実施の形態7]
さらに上述した実施の形態では、静電容量式のタッチパネル102Bを有する携帯端末100に本発明を適用するようにした。
これに限らず、ジェスチャ操作による操作入力が可能な操作デバイスであれば、感圧式のタッチパネルや、液晶パネル内に光センサを内蔵した光センサ式のタッチスクリーン等、この他種々の操作デバイスを有する機器に本発明を適用するようにしてもよい。
また液晶パネル102Aの代わりに、有機EL(Electro Luminescence)パネルなど、この他種々の表示デバイスを有する機器やこの他種々の表示デバイスに接続される機器に本発明を適用するようにしてもよい。
[2−8.他の実施の形態8]
さらに上述した実施の形態では、情報処理装置としての携帯端末100に、操作部及び表示部としてのタッチスクリーン102と、制御部としてのCPU110を設けるようにした。
本発明はこれに限らず、同様の機能を有するものであれば、上述した携帯端末100の各機能部(操作部、制御部、表示部)を、他の種々のハードウェア、もしくはハードウェアとソフトウェアの組み合わせにより構成するようにしてもよい。
[2−9.他の実施の形態9]
さらに上述した実施の形態では、各種処理を実行するためのプログラム(アプリケーションを含む)を、携帯端末100の不揮発性メモリ111に書き込んでおくようにした。
これに限らず、例えば、携帯端末100にメモリカードなどの記憶媒体のスロットを設け、CPU110が、このスロットに差し込まれた記憶媒体からプログラムを読み出して実行するようにしてもよい。
またCPU110が、この記憶媒体から読み出したプログラムを、不揮発性メモリ111にインストールするようにしてもよい。さらにCPU110が、このプログラムを、ネットワークインタフェース113を介して、ネットワーク上の機器からダウンロードして、不揮発性メモリ111にインストールするようにしてもよい。
[2−10.他の実施の形態10]
さらに、本発明は、上述した実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。
本発明は、ジェスチャ操作による操作入力が可能な情報処理装置等で広く利用することができる。
1……情報処理装置、2……操作部、3……制御部、4……表示部、100……携帯端末、101……筐体、102……タッチスクリーン、102A……液晶パネル、102B……タッチパネル、110……CPU。

Claims (12)

  1. 操作部と、
    上記操作部に対する操作に応じて処理を実行する制御部と
    を具え、
    情報のコピーに対応する操作と切り取りに対応する操作とにそれぞれ異なるジェスチャ操作が割り当てられ、
    上記制御部は、
    表示部に表示させた情報の中のユーザに指定された部分を選択した後、上記操作部に対してコピーに対応するジェスチャ操作が行われたときには、選択した部分をコピーする一方で、切り取りに対応するジェスチャ操作が行われたときには、選択した部分を切り取る
    情報処理装置。
  2. 上記操作部は、
    タッチ操作が可能であり、
    上記コピーに対応するジェスチャ操作と切り取りに対応するジェスチャ操作は、それぞれ異なる所定のタッチ操作である
    請求項1に記載の情報処理装置。
  3. 上記制御部は、
    上記操作部に対する操作に応じて、選択する部分となる選択範囲をユーザに指定させるための選択枠を上記表示部に上記情報と共に表示させ、当該情報の中の当該選択枠で囲まれている部分を選択する
    請求項2に記載の情報処理装置。
  4. 上記制御部は、
    上記表示部に表示させた選択枠内がタッチされコピーに対応するジェスチャ操作が行われたときに、選択した部分をコピーする一方で、当該選択枠内がタッチされ切り取りに対応するジェスチャ操作が行われたときに、選択した部分を切り取る
    請求項3に記載の情報処理装置。
  5. 上記制御部は、
    コピー又は切り取りに対応するジェスチャ操作が行われると、選択した部分をコピー又は切り取ると共に、選択した部分をコピー又は切り取った旨を示す子画面を上記表示部に所定時間表示させる
    請求項4に記載の情報処理装置。
  6. 上記制御部は、
    選択部分をコピーした後、上記子画面が表示されている間に、当該子画面内がタッチされ切り取りに対応するジェスチャ操作が行われると、選択部分をコピーから切り取りに変更する一方で、選択部分を切り取った後、上記子画面が表示されている間に、当該子画面内がタッチされコピーに対応するジェスチャ操作が行われると、選択部分を切り取りからコピーに変更する
    請求項5に記載の情報処理装置。
  7. 上記制御部は、
    上記操作部に対するドラッグに応じて、上記選択枠の大きさを変更することで選択範囲を変え、ドラッグしている指が離されずにつづけてコピー又は切り取りに対応するジェスチャ操作が行われると、この時点で選択枠により囲まれている部分を選択して当該選択した部分をコピー又は切り取る
    請求項6に記載の情報処理装置。
  8. 上記制御部は、
    上記情報に含まれている画像内がタッチされコピー又は切り取りに対応するジェスチャ操作が行われた場合には、当該画像の選択からコピー又は切り取りまでの処理を一度に行う
    請求項7に記載の情報処理装置。
  9. 上記コピーに対応するジェスチャ操作は、
    上記選択枠内を指でタッチした後、拇印を押すようにして、タッチしている指を左右方向に半回転させるタッチ操作である
    請求項8に記載の情報処理装置。
  10. 上記切り取りに対応するジェスチャ操作は、
    上記選択枠内を指でタッチした後、選択枠で囲まれた部分をすくい取るようにして、タッチしている指を任意の方向に滑らせるタッチ操作である
    請求項8に記載の情報処理装置。
  11. 制御部が、表示部に表示させた情報の中のユーザに指定された部分を選択した後、操作部に対してコピーに対応するジェスチャ操作が行われたときには、選択した部分をコピーする一方で、当該コピーに対応するジェスチャ操作とは異なるジェスチャ操作である、切り取りに対応するジェスチャ操作が行われたときには、選択した部分を切り取る
    操作方法。
  12. 制御部が、表示部に表示させた情報の中のユーザに指定された部分を選択した後、操作部に対してコピーに対応するジェスチャ操作が行われたときには、選択した部分をコピーする一方で、当該コピーに対応するジェスチャ操作とは異なるジェスチャ操作である、切り取りに対応するジェスチャ操作が行われたときには、選択した部分を切り取る処理を
    情報処理装置に実行させるための情報処理プログラム。
JP2010199348A 2010-09-06 2010-09-06 情報処理装置、操作方法及び情報処理プログラム Pending JP2012058857A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010199348A JP2012058857A (ja) 2010-09-06 2010-09-06 情報処理装置、操作方法及び情報処理プログラム
US13/212,555 US9395908B2 (en) 2010-09-06 2011-08-18 Information processing apparatus, information processing method, and information processing program utilizing gesture based copy and cut operations
CN2011102593741A CN102385454A (zh) 2010-09-06 2011-08-30 信息处理设备、操作方法和信息处理程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010199348A JP2012058857A (ja) 2010-09-06 2010-09-06 情報処理装置、操作方法及び情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2012058857A true JP2012058857A (ja) 2012-03-22

Family

ID=45097296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010199348A Pending JP2012058857A (ja) 2010-09-06 2010-09-06 情報処理装置、操作方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US9395908B2 (ja)
JP (1) JP2012058857A (ja)
CN (1) CN102385454A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246792A (ja) * 2012-05-29 2013-12-09 Kyocera Corp 携帯端末
KR20140032763A (ko) * 2012-09-07 2014-03-17 주식회사 다음커뮤니케이션 텍스트 편집 기능을 제공하기 위한 방법, 사용자 단말기 및 웹 서버
JP5456200B1 (ja) * 2013-08-13 2014-03-26 ソフトバンクモバイル株式会社 文字処理装置及びプログラム
JP2014241143A (ja) * 2014-07-17 2014-12-25 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
JP2015056096A (ja) * 2013-09-13 2015-03-23 シャープ株式会社 情報処理装置
WO2015107617A1 (ja) * 2014-01-14 2015-07-23 株式会社 東芝 電子機器、制御方法およびプログラム
WO2015141093A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
KR101925953B1 (ko) * 2018-10-10 2018-12-06 주식회사 카카오 텍스트 편집 기능을 제공하기 위한 방법, 사용자 단말기 및 웹 서버
CN109725744A (zh) * 2017-10-31 2019-05-07 尚科纺织企业工业及贸易公司 标识织物触摸垫传感器上的手势事件类型的方法
JP2019220207A (ja) * 2013-03-08 2019-12-26 トムソン ライセンシングThomson Licensing 撮影効果のためにジェスチャを使用するための方法および装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140055133A (ko) * 2012-10-30 2014-05-09 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
US8814674B2 (en) 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
GB2511668A (en) 2012-04-12 2014-09-10 Supercell Oy System and method for controlling technical processes
US8954890B2 (en) * 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
CN103376995A (zh) * 2012-04-19 2013-10-30 富泰华工业(深圳)有限公司 触控式电子装置及其页面内容存储方法
JP6124169B2 (ja) 2012-06-08 2017-05-10 クラリオン株式会社 表示装置
WO2014106910A1 (ja) * 2013-01-04 2014-07-10 株式会社ユビキタスエンターテインメント 情報処理装置及び情報入力制御プログラム
US9841881B2 (en) * 2013-11-08 2017-12-12 Microsoft Technology Licensing, Llc Two step content selection with auto content categorization
US10990267B2 (en) 2013-11-08 2021-04-27 Microsoft Technology Licensing, Llc Two step content selection
JP6318794B2 (ja) * 2014-04-08 2018-05-09 富士通株式会社 情報処理装置及び情報処理プログラム
KR102132898B1 (ko) * 2014-05-22 2020-07-10 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
WO2015178707A1 (en) 2014-05-22 2015-11-26 Samsung Electronics Co., Ltd. Display device and method for controlling the same
KR20170030790A (ko) * 2015-09-10 2017-03-20 삼성전자주식회사 컨텐츠 영역 획득 방법 및 이를 지원하는 전자 장치

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
EP0661620B1 (en) * 1993-12-30 2001-03-21 Xerox Corporation Apparatus and method for executing multiple concatenated command gestures in a gesture based input system
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US7532196B2 (en) * 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
US7454717B2 (en) * 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US8147248B2 (en) * 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US8643605B2 (en) * 2005-11-21 2014-02-04 Core Wireless Licensing S.A.R.L Gesture based document editor
US8245155B2 (en) 2007-11-29 2012-08-14 Sony Corporation Computer implemented display, graphical user interface, design and method including scrolling features
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8201109B2 (en) * 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
GB2478230B (en) * 2008-12-15 2014-05-14 Hewlett Packard Development Co Gesture based edit mode
US8255830B2 (en) * 2009-03-16 2012-08-28 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US8543946B2 (en) * 2009-06-29 2013-09-24 Sharp Laboratories Of America, Inc. Gesture-based interface system and method
US8621391B2 (en) * 2009-12-16 2013-12-31 Apple Inc. Device, method, and computer readable medium for maintaining a selection order in a displayed thumbnail stack of user interface elements acted upon via gestured operations
US9465532B2 (en) * 2009-12-18 2016-10-11 Synaptics Incorporated Method and apparatus for operating in pointing and enhanced gesturing modes
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
US8261213B2 (en) * 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
KR20130043229A (ko) * 2010-08-17 2013-04-29 구글 인코포레이티드 터치 감응 장치를 위한 터치 기반의 제스처 검출

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246792A (ja) * 2012-05-29 2013-12-09 Kyocera Corp 携帯端末
KR20140032763A (ko) * 2012-09-07 2014-03-17 주식회사 다음커뮤니케이션 텍스트 편집 기능을 제공하기 위한 방법, 사용자 단말기 및 웹 서버
JP2019220207A (ja) * 2013-03-08 2019-12-26 トムソン ライセンシングThomson Licensing 撮影効果のためにジェスチャを使用するための方法および装置
JP5456200B1 (ja) * 2013-08-13 2014-03-26 ソフトバンクモバイル株式会社 文字処理装置及びプログラム
JP2015036881A (ja) * 2013-08-13 2015-02-23 ソフトバンクモバイル株式会社 文字処理装置及びプログラム
JP2015056096A (ja) * 2013-09-13 2015-03-23 シャープ株式会社 情報処理装置
WO2015107617A1 (ja) * 2014-01-14 2015-07-23 株式会社 東芝 電子機器、制御方法およびプログラム
WO2015141093A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2014241143A (ja) * 2014-07-17 2014-12-25 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
CN109725744A (zh) * 2017-10-31 2019-05-07 尚科纺织企业工业及贸易公司 标识织物触摸垫传感器上的手势事件类型的方法
JP2019109880A (ja) * 2017-10-31 2019-07-04 サンコ テキスタイル イスレットメレリ サン ベ ティク エーエスSanko Tekstil Isletmeleri San. Ve Tic. A.S. 織物タッチパッドセンサでジェスチャイベントのタイプを識別する方法
JP7215651B2 (ja) 2017-10-31 2023-01-31 サンコ テキスタイル イスレットメレリ サン ベ ティク エーエス 織物タッチパッドセンサでジェスチャイベントのタイプを識別する方法
CN109725744B (zh) * 2017-10-31 2023-09-08 尚科纺织企业工业及贸易公司 标识织物触摸垫传感器上的手势事件类型的方法
KR101925953B1 (ko) * 2018-10-10 2018-12-06 주식회사 카카오 텍스트 편집 기능을 제공하기 위한 방법, 사용자 단말기 및 웹 서버

Also Published As

Publication number Publication date
CN102385454A (zh) 2012-03-21
US9395908B2 (en) 2016-07-19
US20110307843A1 (en) 2011-12-15

Similar Documents

Publication Publication Date Title
JP2012058857A (ja) 情報処理装置、操作方法及び情報処理プログラム
EP3956758B1 (en) Systems and methods for interacting with a companion-display mode for an electronic device with a touch-sensitive display
US10936153B2 (en) Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
US10698567B2 (en) Method and apparatus for providing a user interface on a device that indicates content operators
CA2807031C (en) Method and apparatus for adjusting a user interface to reduce obscuration
US8823749B2 (en) User interface methods providing continuous zoom functionality
KR102304178B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US20130227490A1 (en) Method and Apparatus for Providing an Option to Enable Multiple Selections
EP2631737A1 (en) Method and apparatus for providing a contextual user interface on a device
EP2631761A1 (en) Method and apparatus for providing an option to undo a delete operation
JP2012058856A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
EP2778880B1 (en) Method for controlling display function and an electronic device thereof
JP2015138309A (ja) タッチパネル式携帯端末、その制御方法及びコンピュータプログラム