JP6080355B2 - 装置、方法及びプログラム - Google Patents

装置、方法及びプログラム Download PDF

Info

Publication number
JP6080355B2
JP6080355B2 JP2011279836A JP2011279836A JP6080355B2 JP 6080355 B2 JP6080355 B2 JP 6080355B2 JP 2011279836 A JP2011279836 A JP 2011279836A JP 2011279836 A JP2011279836 A JP 2011279836A JP 6080355 B2 JP6080355 B2 JP 6080355B2
Authority
JP
Japan
Prior art keywords
document
editing
display
controller
virtual keyboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011279836A
Other languages
English (en)
Other versions
JP2013131028A (ja
Inventor
ユカ 石塚
ユカ 石塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011279836A priority Critical patent/JP6080355B2/ja
Priority to US13/722,338 priority patent/US9454517B2/en
Publication of JP2013131028A publication Critical patent/JP2013131028A/ja
Application granted granted Critical
Publication of JP6080355B2 publication Critical patent/JP6080355B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Description

本発明は、装置、方法及びプログラムに関する。特に、本発明は、タッチスクリーンディスプレイを有する装置、その装置を制御する方法及びその装置を制御するためのプログラムに関する。
タッチスクリーンディスプレイを備える装置が知られている。タッチスクリーンディスプレイを備える装置には、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンディスプレイを備える装置は、タッチスクリーンディスプレイを介して指又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンディスプレイを備える装置は、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
タッチスクリーンディスプレイを備える装置の基本的な動作は、装置に搭載されるAndroid(登録商標)、BlackBerry(登録商標) OS、Symbian(登録商標) OS、iOS、Windows(登録商標) Phone等のOS(Operating System)によって実現される。
国際公開第2008/086302号
ところで、上記の装置は、文書等を編集する際に、文字を入力するために、仮想的なキーボードをタッチスクリーンディスプレイに表示する。そして、上記の装置は、文書の編集を終了し、新規な文書を開く場合に、仮想的なキーボードの表示を一旦解除してから、新規な文書を開いて、再び仮想的なキーボードを表示する。このように、新規な文書を開くたびに、仮想的なキーボードの終了と再表示が繰り返され、処理負担が生じていた。
本発明は、文書を開く際の処理負担を軽減し、文書を編集する際の操作性を向上することができる装置、方法及びプログラムを提供することを目的とする。
本発明に係る装置は、仮想的なキーボードと、前記仮想的なキーボードにより入力された文書を表示する文書表示領域とを表示するタッチスクリーンディスプレイと、前記文書表示領域に表示された文書の編集から他の文書の編集に移行する操作が行われると、前記仮想的なキーボードの表示を維持したまま前記他の文書の編集に移行する、コントローラと、を備える。
本発明に係る装置では、前記他の文書の編集に移行する際に、前記文書表示領域に表示された文書を終了してもよい。
また、本発明に係る装置では、前記コントローラは、前記他の文書の編集に移行する間に、前記仮想的なキーボードにより入力された文字データを、当該他の文書の前記文書表示領域に表示してもよい。
また、本発明に係る装置では、前記コントローラは、前記他の文書の編集に移行する操作として、前記文書表示領域に対する第1のジェスチャを検出すると、前記仮想的なキーボードの表示を維持したまま前記他の文書の編集に移行してもよい。
また、本発明に係る装置では、前記コントローラは、前記タッチスクリーンディスプレイに対する第2のジェスチャが検出されると、文書の編集を行う文字入力アプリケーションを終了してもよい。
また、本発明に係る方法は、タッチスクリーンディスプレイを備えた装置において、前記タッチスクリーンディスプレイ上に表示される文書を編集する方法であって、前記装置に設けられたコントローラが、仮想的なキーボードと、前記仮想的なキーボードにより入力された文書を表示する文書表示領域とを前記タッチスクリーンディスプレイ上に表示するステップと、前記コントローラが、前記文書表示領域に表示された文書から、他の文書の編集に移行する操作が行われると、前記仮想的なキーボードの表示を維持したまま前記他の文書の編集に移行するステップと、を含む。
また、本発明に係るプログラムは、タッチスクリーンディスプレイを備えた装置において、前記タッチスクリーンディスプレイ上に表示される文書を編集するプログラムであって、仮想的なキーボードと、前記仮想的なキーボードにより入力された文書を表示する文書表示領域とを前記タッチスクリーンディスプレイ上に表示するステップと、
前記文書表示領域に表示された文書の編集から、他の文書の編集に移行する操作が行われると、前記仮想的なキーボードの表示を維持したまま前記他の文書の編集に移行するステップと、を前記装置に実行させる。
本発明によれば、文書を開く際の処理負担を軽減し、文書を編集する際の操作性を向上することができる。
図1は、実施形態に係るスマートフォンの外観を示す斜視図である。 図2は、実施形態に係るスマートフォンの外観を示す正面図である。 図3は、実施形態に係るスマートフォンの外観を示す背面図である。 図4は、ホーム画面の一例を示す図である。 図5は、実施形態に係るスマートフォンの機能を示すブロック図である。 図6は、実施形態に係るタッチスクリーンディスプレイに表示される表示画面を示す図である。 図7は、実施形態に係る文書の編集を行う処理の流れを示すフローチャートである。
本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンディスプレイを備える装置の一例として、スマートフォンについて説明する。
(実施形態)
図1から図3を参照しながら、実施形態に係るスマートフォン1の外観について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、カメラ13をバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、外部インターフェイス14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号又は図形等を表示する。
タッチスクリーン2Bは、タッチスクリーンディスプレイ2に対する指、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、又はスタイラスペン等がタッチスクリーンディスプレイ2に接触した位置を検出することができる。
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bがタッチスクリーンディスプレイ2に対する接触を検出する指、又はスタイラスペン等を単に「指」ということがある。
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触位置、接触時間又は接触回数に基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーンディスプレイ2に対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。
タッチは、一の接触によるジェスチャである。すなわち、タッチは、タッチスクリーンディスプレイ2(例えば、表面)に指が接触するジェスチャである。スマートフォン1は、タッチスクリーンディスプレイ2に指が接触するジェスチャをタッチとして判別する。ロングタッチとは、タッチスクリーンディスプレイ2に指が一定時間以上接触するジェスチャである。スマートフォン1は、タッチスクリーンディスプレイ2に指が一定時間以上接触するジェスチャをロングタッチとして判別する。
リリースは、指がタッチスクリーンディスプレイ2から離れるジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2から離れるジェスチャをリリースとして判別する。スワイプは、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャをスワイプとして判別する。
タップは、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。ダブルタップは、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
ロングタップは、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。ドラッグは、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
フリックは、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャをフリックとして判別する。フリックは、指が画面の上方向へ移動する上フリック、指が画面の下方向へ移動する下フリック、指が画面の右方向へ移動する右フリック、指が画面の左方向へ移動する左フリック等を含む。
ピンチインは、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が互いに近付く方向にスワイプするジェスチャをピンチインとして判別する。ピンチアウトは、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が互いに遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。したがって、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、タッチスクリーンディスプレイ2に表示されている画面に応じて異なる。
図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。
スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップを検出すると、メールアプリケーションを実行する。ここで、スマートフォン1は、例えば、タッチスクリーンディスプレイ2に対するアイコン50の表示位置(領域)に対応する位置(領域)へのジェスチャを、アイコン50に対応付けられたアプリケーションの実行命令であると解釈する。
アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、所定の規則に従って配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。画像は、例えば、利用者の設定に従って任意の画像が壁紙41として決定される。
スマートフォン1は、ホーム画面の数を増減することができる。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面を表示する場合、ホーム画面の数が複数であっても、それらのうちから選択された1つをディスプレイ2Aに表示する。
スマートフォン1は、ホーム画面上に、1つ又は複数のロケータを表示する。ロケータの数は、ホーム画面の数と一致する。ロケータは、現在表示されているホーム画面の位置を示す。現在表示されているホーム画面に対応するロケータは、他のロケータと異なる態様で表示される。
図4に示す例では、4つのロケータ51が表示されている。これは、ホーム画面40の数が4つであることを示す。また、図4に示す例では、左から2番目のシンボルが他のシンボルと異なる態様で表示されている。これは、左から2番目のホーム画面が現在表示されていることを示している。
スマートフォン1は、ホーム画面を表示中に特定のジェスチャを検出すると、ディスプレイ2Aに表示するホーム画面を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に切り替える。また、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に切り替える。
ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、現在時刻、天気の情報、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40とは別の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限られない。
なお、図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。
図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、カメラ12及び13と、外部インターフェイス14と、加速度センサ15と、方位センサ16と、回転検出センサ17とを有する。
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタンに対する操作を検出する。ボタンに対する操作は、例えば、クリック、ダブルクリック、プッシュ、及びマルチプッシュである。
例えば、ボタン3A〜3Cは、ホームボタン、バックボタン又はメニューボタンである。例えば、ボタン3Dは、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。例えば、ボタン3E及び3Fは、音量ボタンである。
照度センサ4は、照度を検出する。例えば、照度とは、光の強さ、明るさ、輝度等である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。
通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えば、セルラーフォンの通信規格としては、LTE(Long Term Evolution)、W−CDMA、CDMA2000、PDC、GSM(登録商標)、PHS(Personal Handy−phone System)等がある。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
レシーバ7は、コントローラ10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。なお、スマートフォン1は、レシーバ7に加えて、スピーカをさらに有してもよい。スマートフォン1は、レシーバ7に代えて、スピーカをさらに有してもよい。
ストレージ9は、プログラム及びデータを記憶する。また、ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、ストレージ9は、複数の種類の記憶デバイスを含んでよい。また、ストレージ9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに所定の画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。テーブル9Dは、キーアサインテーブル等の各種テーブルが格納されている。配置パターンデータベース9Eは、ディスプレイ2Aに表示されるアイコン等の配置パターンが格納されている。設定データ9Zは、スマートフォン1の動作に関する各種の設定機能を提供する。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。なお、制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
コントローラ10は、例えば、CPU(Central Processing Unit)である。コントローラ10は、通信ユニット6等の他の構成要素が統合されたSoC(System−on−a−chip)等の集積回路であってもよい。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行して、ディスプレイ2A及び通信ユニット6等を制御することによって各種機能を実現する。コントローラ10は、タッチスクリーン2B、ボタン3、加速度センサ15等の各種検出部の検出結果に応じて、制御を変更することもある。
コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
外部インターフェイス14は、他の装置が接続される端子である。外部インターフェイス14は、USB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト)、イヤホンマイクコネクタのような汎用的な端子であってもよい。外部インターフェイス14は、Dockコネクタのような専用に設計された端子でもよい。外部インターフェイス14に接続される装置には、例えば、外部ストレージ、スピーカ、通信装置が含まれる。
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。回転検出センサ17は、スマートフォン1の回転を検出する。加速度センサ15、方位センサ16及び回転検出センサ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
このように構成されるスマートフォン1は、文字入力アプリケーション(例えば、メモ帳アプリケーション等の文書作成アプリケーション)によって文書の編集を行う際に、タッチスクリーンディスプレイ2に表示された仮想的なキーボードを表示させる。スマートフォン1は、仮想的なキーボードに対する接触を検出することに応じて、接触を検出した位置に表示されている仮想的なキーボードの文字を入力する。
スマートフォン1は、文字入力アプリケーションによって文書の編集を行う際に、仮想的なキーボードの表示を維持することにより、文書を開く際の処理負担を低減し、文書を編集する際の操作性を向上することができる。以下に、具体的な処理について説明する。
図6(a)〜(g)は、文字入力アプリケーションによって文書の編集を行う際に、タッチスクリーンディスプレイ2に表示される表示画面60を示す図である。ここで、表示画面60は、タッチスクリーンディスプレイ2の表示領域全体を意味する。
図6(a)に示すように、コントローラ10は、文字入力アプリケーションによって文書の編集を行う際に、文書表示領域61及び仮想的なキーボード62を表示画面60に表示する。コントローラ10は、文書表示領域61を表示画面60の上側の領域に表示し、仮想的なキーボード62の下側の領域に表示する。
コントローラ10は、ユーザUによる仮想的なキーボード62に対する接触に応じて、接触された箇所に対応する文字を文書表示領域61に表示する。
図6(a)及び(b)に示すように、コントローラ10は、ユーザUによる文書表示領域61に対するフリックを検出すると、文書表示領域61に表示される文書の編集を終了し、文書表示領域61に表示される文書全体がフリックを行った方向へ移動するように表示する。
図6(b)に示す例では、コントローラ10は、フリックを検出すると、文書表示領域61に表示される文書の編集を終了し、文書表示領域61に表示される文書が左方向へ移動するように表示する。
図6(c)に示すように、コントローラ10は、演出を表示した後、文書を保存するか否かを確認するダイアログボックス63を文書表示領域61に重畳して表示する。
コントローラ10は、ダイアログボックス63の「YES」への接触が検出されると、編集中の文書をストレージ9に記憶し、編集中の文書をストレージ9に記憶したことを示すメッセージボックス64を文書表示領域61に重畳して表示する(図6(d)参照)。そして、コントローラ10は、新規な文書を文書表示領域61に表示する(図6(e)参照)。新規な文書とは、例えば、空白の文書である。
コントローラ10は、ダイアログボックス63の「NO」への接触が検出されると、編集中の文書のデータを破棄し、新規な文書を文書表示領域61に表示する(図6(e)参照)。
なお、図6(c)及び(d)に示す例では、コントローラ10は、文書を保存するか否かを確認するために、ダイアログボックス63及びメッセージボックス64を表示したが、文書を保存するか否かを確認せずに、自動的に文書をストレージに記憶してもよい。
上記の図6(a)〜(e)に示すように、コントローラ10は、文書表示領域61に表示された文書の編集を終了し、新規な文書の編集に移行する操作が行われると、仮想的なキーボード62の表示を維持したまま新規な文書の編集に移行する。
通常、タッチスクリーンディスプレイ上に仮想的なキーボードの表示する装置において、文書表示領域に表示された文書の編集を終了し、他の文書の編集に移行する操作が行われると、仮想的なキーボードの表示が一旦解除される。そのため、新規な文書の編集に移行すると、移行する前に表示されていた仮想的なキーボードにより入力される文字の種類が変化する場合がある。文字の種類が変化する例としては、例えば、平仮名から英字、又はカタカナから英字等のようにデフォルトで設定されている文字の種類に設定される場合が考えられる。この場合、ユーザは、新規な文書の編集に移行する度に、文字の種類を変更する必要があった。
一方、本実施形態に係るスマートフォン1は、仮想的なキーボード62の表示を維持したまま、文書表示領域61に表示された文書の編集から新規な文書の編集に移行する。これにより、スマートフォン1は、ユーザが文字を入力しやすい仮想的なキーボード62の表示を維持するため、文書を開く際の処理負担を低減できる。また、ユーザは、文字の種類を変更する必要がなく、新規な文書を編集する際の操作性が向上する。
コントローラ10は、新規な文書の編集に移行する操作が行われてから、文書表示領域61に表示された文書の編集から新規な文書の編集に移行する間に、仮想的なキーボード62の表示を維持する。例えば、新規な文書の編集に移行する操作の例としては、例えば、文書表示領域61に対するフリックである。そのため、図6(f)に示すように、コントローラ10は、新規な文書の編集に移行する間に、仮想的なキーボード62により入力された文字データをストレージ9に記憶する。そして、コントローラ10は、新規な文書の編集への移行が完了すると、ストレージ9に記憶した文字データを文書表示領域61に表示する。このように、スマートフォン1は、文書表示領域61に表示された文書の編集から新規な文書の編集に移行する間にも文字の入力が可能になるため、新規な文書を編集する際の操作性がさらに向上する。
コントローラ10は、新規な文書の編集に移行する操作として、文書表示領域61に対するフリックを検出すると、仮想的なキーボード62の表示を維持したまま、編集中の文書から新規な文書の編集に移行する。したがって、スマートフォン1は、表示を維持したい仮想的なキーボード62に対して何ら操作を行うことなく、新規な文書の編集に移行することが可能となり、文書を開く際の処理負担を低減できる。また、ユーザは、新規な文書の編集に移行する操作を直感的に行うことができる。
図6(g)に示すように、コントローラ10は、タッチスクリーンディスプレイ2に対して表示画面60全体を覆うジェスチャが検出されると、文書の編集を行う文字入力アプリケーションを終了する。この場合、コントローラ10は、編集中の文書を自動的にストレージ9に記憶してもよく、編集中の文書を自動的に破棄してもよい。また、表示画面60全体を覆うジェスチャは、一例であり、他のジェスチャを検出したことに応じて、文書の編集を行う文字入力アプリケーションを終了してもよい。このようにスマートフォン1は、予め設定されたジェスチャを検出したことに応じて、文書の編集を行う文字入力アプリケーションを終了するため、ユーザは、文書の編集を直感的に行うことができる。
なお、上記の説明では、コントローラ10は、編集中の文書から新規な文書の編集に移行したが、新規な文書に限らない。例えば、コントローラ10は、編集中の文書から他の文書の編集に移行してもよい。例えば、コントローラ10は、2つの文書を切り替えながら編集している状態において、文書表示領域61に対する左方向へのフリックを検出すると、仮想的なキーボード62の表示を維持したまま、一方の文書から他方の文書へ移行してもよい。さらに、この場合、コントローラ10は、文書表示領域61に対する右方向へのフリックを検出すると、仮想的なキーボード62の表示を維持したまま、編集中の2つの文書から新規な文書の編集に移行してもよい。
次に、スマートフォン1による文字入力アプリケーションによって文書の編集を行う処理の流れについて、図7に示すフローチャートを参照しながら説明する。
ステップST1において、コントローラ10は、ストレージ9に記憶された文字入力アプリケーションを起動し、タッチスクリーンディスプレイ2に文書表示領域61及び仮想的なキーボード62を表示する。
ステップST2において、コントローラ10は、ユーザUによる文書表示領域61に対するフリックを検出する。
ステップST3において、コントローラ10は、文書表示領域61に表示される文書の編集を終了し、文書表示領域61に表示される文書がフリックを行った方向へ移動するように表示する。コントローラ10は、仮想的なキーボード62の表示を維持したまま、文書表示領域61に表示された文書の編集から新規な文書の編集に移行する。
ステップST4において、コントローラ10は、演出を表示した後、文書を保存するか否かを確認するダイアログボックス63を文書表示領域61に重畳して表示する。
ステップST5において、コントローラ10は、ダイアログボックス63の「YES」又は「NO」のいずれかへの接触が検出されたか、すなわち、文書を保存するか否かを判定する。コントローラ10は、「YES」への接触が検出された、すなわち、文書を保存する場合、ステップST6へ処理を移し、「NO」への接触が検出された、すなわち、文書を破棄する場合、ステップST7へ処理を移す。
ステップST6において、コントローラ10は、編集中の文書のデータをストレージ9に記憶し、編集中の文書をストレージ9に記憶したことを示すメッセージボックス64を文書表示領域61に重畳して表示する。
ステップST7において、コントローラ10は、編集中の文書のデータを破棄する。コントローラ10は、ステップST3〜ステップST7の間、すなわち、文書表示領域61に表示された文書の編集から新規な文書の編集に移行する間に、仮想的なキーボード62により文字の入力が行われた場合、入力された文字データをストレージ9に記憶する。
ステップST8において、コントローラ10は、仮想的なキーボード62の表示を維持したまま、新規な文書を文書表示領域61に表示する。ここで、コントローラ10は、ステップST3〜ステップST7の間、仮想的なキーボード62により文字の入力が行われた場合、ストレージ9に記憶された文字データを文書表示領域61に表示する。
ステップST9において、コントローラ10は、ステップST1〜ステップST8のいずれかの状態おいて、タッチスクリーンディスプレイ2に対して表示画面60全体を覆うジェスチャが検出されると、文書の編集を行う文字入力アプリケーションを終了して、本フローチャートの処理を終了する。
したがって、スマートフォン1は、仮想的なキーボード62の表示を維持したまま、文書表示領域61に表示された文書の編集から新規な文書の編集に移行する。これにより、スマートフォン1は、ユーザが文字を入力しやすい仮想的なキーボード62の表示を維持するため、文書を開く際の処理負担を低減する。また、ユーザは、仮想的なキーボードの種類を変更する必要がなく、新規な文書を編集する際の操作性が向上する。
なお、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされても良い。また、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な記憶媒体に記憶されていても良い。また、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、外部インターフェイス14に接続される読み取り装置が読み取り可能なCD、DVD、又はBlu−ray等の記憶媒体に記憶されていても良い。
また、図5に示したスマートフォン1の構成は一例であり、本発明の要旨を損なわない範囲において適宜変更して良い。例えば、ボタン3の数と種類は図5の例に限定されない。例えば、スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていても良い。また、スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えて良いし、ボタンを備えなくても良い。また、図5に示した例では、スマートフォン1が2つのカメラを備えることとしたが、スマートフォン1は、1つのカメラのみを備えても良いし、カメラを備えなくても良い。また、図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えることとしたが、スマートフォン1は、このうちいくつかのセンサを備えなくても良いし、位置及び姿勢を検出するための他の種類のセンサを備えても良い。また、照度センサ4と近接センサ5は、別体ではなく、単一のセンサにより構成されても良い。
本発明を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項に係る発明は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
例えば、図5に示した各プログラムは、複数のモジュールに分割されていても良いし、他のプログラムと結合されていても良い。
また、上記の実施形態では、タッチスクリーンディスプレイを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。例えば、添付の請求項に係る装置は、モバイルフォン、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、又はゲーム機等の携帯電子機器であっても良い。また、添付の請求項に係る装置は、デスクトップパソコン、テレビ受像器等の据え置き型の電子機器であっても良い。
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9D テーブル
9E 配置パターンデータベース
9Z 設定データ
10 コントローラ
12、13 カメラ
14 外部インターフェイス
15 加速度センサ
16 方位センサ
17 回転検出センサ
20 ハウジング

Claims (7)

  1. 仮想的なキーボードと、前記仮想的なキーボードにより入力された文書を表示する文書表示領域とを表示するタッチスクリーンディスプレイと、
    前記文書表示領域に表示された文書の編集から他の文書の編集に移行する操作が行われると、前記文書表示領域に表示された文書を終了し、前記仮想的なキーボードの表示画面を維持したまま前記他の文書の編集画面に移行する、コントローラと、
    を備える装置。
  2. 前記コントローラは、前記他の文書の編集に移行する間に、前記仮想的なキーボードにより入力された文字データを、当該他の文書の前記文書表示領域に表示する、請求項1に記載の装置。
  3. 前記コントローラは、前記他の文書の編集に移行する操作として、前記文書表示領域に対する第1のジェスチャを検出すると、前記仮想的なキーボードの表示を維持したまま前記他の文書の編集に移行する、
    請求項1又は2に記載の装置。
  4. 前記コントローラは、前記タッチスクリーンディスプレイに対する第2のジェスチャが検出されると、文書の編集を行う文字入力アプリケーションを終了する、
    請求項1からのいずれか1項に記載の装置。
  5. 前記仮想的なキーボードの表示を維持する際に、文字の種類を変更しない、
    請求項1からのいずれか1項に記載の装置。
  6. タッチスクリーンディスプレイを備えた装置において、前記タッチスクリーンディスプレイ上に表示される文書を編集する方法であって、
    前記装置に設けられたコントローラが、仮想的なキーボードと、前記仮想的なキーボードにより入力された文書を表示する文書表示領域とを前記タッチスクリーンディスプレイ上に表示するステップと、
    前記コントローラが、前記文書表示領域に表示された文書から、他の文書の編集に移行する操作が行われると、前記文書表示領域に表示された文書を終了し、前記仮想的なキーボードの表示を維持したまま前記他の文書の編集に移行するステップと、
    を含む方法。
  7. タッチスクリーンディスプレイを備えた装置において、前記タッチスクリーンディスプレイ上に表示される文書を編集するプログラムであって、
    仮想的なキーボードと、前記仮想的なキーボードにより入力された文書を表示する文書表示領域とを前記タッチスクリーンディスプレイ上に表示するステップと、
    前記文書表示領域に表示された文書の編集から、他の文書の編集に移行する操作が行われると、前記文書表示領域に表示された文書を終了し、前記仮想的なキーボードの表示を維持したまま前記他の文書の編集に移行するステップと、
    を前記装置に実行させるプログラム。
JP2011279836A 2011-12-21 2011-12-21 装置、方法及びプログラム Active JP6080355B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011279836A JP6080355B2 (ja) 2011-12-21 2011-12-21 装置、方法及びプログラム
US13/722,338 US9454517B2 (en) 2011-12-21 2012-12-20 Device, method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011279836A JP6080355B2 (ja) 2011-12-21 2011-12-21 装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013131028A JP2013131028A (ja) 2013-07-04
JP6080355B2 true JP6080355B2 (ja) 2017-02-15

Family

ID=48655797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011279836A Active JP6080355B2 (ja) 2011-12-21 2011-12-21 装置、方法及びプログラム

Country Status (2)

Country Link
US (1) US9454517B2 (ja)
JP (1) JP6080355B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140007019A1 (en) * 2012-06-29 2014-01-02 Nokia Corporation Method and apparatus for related user inputs
JP2016131359A (ja) * 2015-01-15 2016-07-21 株式会社リコー 画像処理装置、及び画像処理方法
JP7183597B2 (ja) * 2018-07-12 2022-12-06 京セラドキュメントソリューションズ株式会社 プレビュー画像表示装置及びプレビュー画像表示プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03174617A (ja) * 1989-12-04 1991-07-29 Hitachi Ltd コンピュータ
JPH09152951A (ja) * 1995-11-29 1997-06-10 Sanyo Electric Co Ltd 手書き入力データ転送方法及びデータ転送システム
JP2002014760A (ja) * 2000-06-30 2002-01-18 Sanyo Electric Co Ltd 仮想キーボード
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP2004341813A (ja) * 2003-05-15 2004-12-02 Casio Comput Co Ltd 入力装置表示制御方法及び入力装置
US7515135B2 (en) * 2004-06-15 2009-04-07 Research In Motion Limited Virtual keypad for touchscreen display
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP2010086064A (ja) * 2008-09-29 2010-04-15 Toshiba Corp 情報処理装置、文字入力方法及びプログラム
KR20100128702A (ko) * 2009-05-29 2010-12-08 삼성전자주식회사 두 개의 터치스크린 디스플레이 패널을 구비한 휴대단말기
US10365819B2 (en) * 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface

Also Published As

Publication number Publication date
US20130167021A1 (en) 2013-06-27
JP2013131028A (ja) 2013-07-04
US9454517B2 (en) 2016-09-27

Similar Documents

Publication Publication Date Title
JP5850736B2 (ja) 装置、方法及びプログラム
JP6159078B2 (ja) 装置、方法、及びプログラム
JP5972629B2 (ja) 装置、方法、及びプログラム
JP6110654B2 (ja) 装置、方法、及びプログラム
JP6091829B2 (ja) 装置、方法、及びプログラム
JP5792017B2 (ja) 装置、方法、及びプログラム
JP2013131185A (ja) 装置、方法、及びプログラム
JP2013092989A (ja) 装置、方法、及びプログラム
JP6058790B2 (ja) 装置、方法、及びプログラム
JP2013200681A (ja) 装置、方法、及びプログラム
JP2013080345A (ja) 装置、方法、及びプログラム
JP2013131193A (ja) 装置、方法、及びプログラム
JP2013089131A (ja) 装置、方法及びプログラム
JP5801673B2 (ja) 電子機器、方法、及びプログラム
JP2013200680A (ja) 装置、方法、及びプログラム
JP2013092988A (ja) 装置、方法、及びプログラム
JP5859932B2 (ja) 装置、方法、及びプログラム
JP5762885B2 (ja) 装置、方法、及びプログラム
JP6080355B2 (ja) 装置、方法及びプログラム
JP2013065290A (ja) 装置、方法、及びプログラム
JP5959372B2 (ja) 装置、方法、及びプログラム
JP2013092891A (ja) 装置、方法、及びプログラム
JP2013080353A (ja) 装置、方法、及びプログラム
JP2013101547A (ja) 装置、方法及びプログラム
JP5848970B2 (ja) 装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170117

R150 Certificate of patent or registration of utility model

Ref document number: 6080355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150