JP2013131185A - 装置、方法、及びプログラム - Google Patents

装置、方法、及びプログラム Download PDF

Info

Publication number
JP2013131185A
JP2013131185A JP2011282284A JP2011282284A JP2013131185A JP 2013131185 A JP2013131185 A JP 2013131185A JP 2011282284 A JP2011282284 A JP 2011282284A JP 2011282284 A JP2011282284 A JP 2011282284A JP 2013131185 A JP2013131185 A JP 2013131185A
Authority
JP
Japan
Prior art keywords
icon
screen
smartphone
folder
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011282284A
Other languages
English (en)
Inventor
Masato Yamazaki
真人 山崎
Koichi Hisada
晃一 久田
Mariko Matsuyama
真理子 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011282284A priority Critical patent/JP2013131185A/ja
Publication of JP2013131185A publication Critical patent/JP2013131185A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】アイコンが配列される画面の使い勝手を向上させる。
【解決手段】1つの態様において、装置(例えば、スマートフォン)1は、画面を表示するタッチスクリーンディスプレイ2と、コントローラ10とを備える。コントローラ10は、タッチスクリーンディスプレイ2に対するジェスチャに応じて上記の画面の一部の領域を拡大する。
【選択図】図5

Description

本出願は、装置、方法、及びプログラムに関する。特に、本出願は、タッチスクリーンを有する装置、その装置を制御する方法、及びその装置を制御するためのプログラムに関する。
タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスには、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、Windows(登録商標) Phoneである。
国際公開第2008/086302号
タッチスクリーンデバイスの多くは、ホーム画面と呼ばれる画面をディスプレイに表示する。ホーム画面には、アイコンと呼ばれるオブジェクトが配置される。タッチスクリーンデバイスは、アイコンに対するジェスチャを検出すると、ジェスチャが行われたアイコンに対応するアプリケーションを実行する。
ホーム画面のようにアイコンを配列して利用者に選択させるユーザインターフェースは、多くの画面で採用されている。このため、アイコンが配列される画面の使い勝手を向上させることは、利用者に大きなメリットをもたらす。このような理由により、アイコンが配列される画面の使い勝手を向上させることができる装置、方法、及びプログラムに対するニーズがある。
1つの態様に係る装置は、画面を表示するタッチスクリーンディスプレイと、前記タッチスクリーンディスプレイに対するジェスチャに応じて、前記画面の一部の領域を拡大するコントローラと、を備える。
1つの態様に係る方法は、タッチスクリーンディスプレイを備える装置を制御する方法であって、画面を前記タッチスクリーンディスプレイに表示するステップと、前記タッチスクリーンディスプレイによって前記画面に対するジェスチャを検出するステップと、前記ジェスチャに応じて前記画面の一部の領域を拡大するステップと、を含む。
1つの態様に係るプログラムは、タッチスクリーンディスプレイを備える装置に、画面を前記タッチスクリーンディスプレイに表示するステップと、前記タッチスクリーンディスプレイによって前記画面に対するジェスチャを検出するステップと、前記ジェスチャに応じて前記画面の一部の領域を拡大するステップと、を実行させる。
図1は、実施形態に係るスマートフォンの外観を示す斜視図である。 図2は、実施形態に係るスマートフォンの外観を示す正面図である。 図3は、実施形態に係るスマートフォンの外観を示す背面図である。 図4は、ホーム画面の一例を示す図である。 図5は、実施形態に係るスマートフォンの機能を示すブロック図である。 図6は、ホーム画面上の領域を拡大する例を示す図である。 図7は、拡大される領域とジェスチャとの対応の例を示す図である。 図8は、拡大される領域を移動させる例を示す図である。 図9は、フォルダに格納されているアイコンに対応するアプリケーションを実行する例を示す図である。 図10は、拡大されたフォルダへアイコンを格納する例を示す図である。 図11は、拡大されたフォルダからアイコンを取り出す例を示す図である。 図12は、ホーム画面上の領域を拡大する処理の処理手順を示すフローチャートである。 図13は、拡大された領域に対する操作が検出された場合の処理手順を示すフローチャートである。
図面を参照しつつ実施形態を詳細に説明する。以下では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明する。
(実施形態)
図1から図3を参照しながら、本実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bが接触を検出する指、ペン、又はスタイラスペン等を単に「指」ということがある。
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。
「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。
「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。
「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
「フリック」は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャをフリックとして判別する。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。
「ピンチイン」は、複数の指が近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が近付く方向にスワイプするジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なる。以下では、説明を簡単にするために、「タッチスクリーン2Bがジェスチャを検出し、検出されたジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。
図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。
スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップが検出されると、メールアプリケーションを実行する。
アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、配置パターンに基づいて配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。利用者の設定に従って任意の画像が壁紙41として決定されてもよい。
スマートフォン1は、ホーム画面の数を増減することができる。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面の数が複数であっても、選択された1つをディスプレイ2Aに表示する。
スマートフォン1は、ホーム画面上に、1つ又は複数のロケータを表示する。ロケータの数は、ホーム画面の数と一致する。ロケータは、どのホーム画面が現在表示されているかを示す。現在表示されているホーム画面に対応するロケータは、他のロケータと異なる態様で表示される。
図4に示す例では、4つのロケータ51が表示されている。これは、ホーム画面40の数が4つであることを示す。さらに、図4に示す例では、左から2番目のシンボルが他のシンボルと異なる態様で表示されている。これは、左から2番目のホーム画面が現在ディスプレイ2Aに表示されていることを示している。
スマートフォン1は、ホーム画面を表示中にジェスチャを検出すると、ディスプレイ2Aに表示するホーム画面を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に切り替える。例えば、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に切り替える。
ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、時刻、天気、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40以外の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限定されない。
図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。
図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュである。
ボタン3A〜3Cは、例えば、ホームボタン、バックボタン、又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
照度センサ4は、照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。
通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
レシーバ7及びスピーカ11は、コントローラ10から送信される音声信号を音声として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の非一過的(non−transitory)な記憶デバイスを含んでよい。ストレージ9は、複数の種類の記憶デバイスを含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メール機能を提供する。電子メール機能は、例えば、電子メールの作成、送信、受信、及び表示等を可能にする。ブラウザアプリケーション9Cは、WEBブラウジング機能を提供する。WEBブラウジング機能は、例えば、WEBページの表示、及びブックマークの編集等を可能にする。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されるジェスチャに応じて、ディスプレイ2Aに表示される情報を更新する機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
コントローラ10は、演算回路である。演算回路は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、又はFPGA(Field−Programmable Gate Array)である。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。機能部は、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。検出部は、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、レシーバ7、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むがこれらに限定されない。
コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されるジェスチャに応じて、ディスプレイ2Aに表示される情報を更新する。
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)(登録商標)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置である。
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
図5においてストレージ9が記憶するプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図5においてストレージ9が記憶するプログラムの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、又はメモリカードである。
図5に示したスマートフォン1の構成は一例であり、本出願の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてよいし、ボタンを備えなくてもよい。図5に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも一つを検出するための他の種類のセンサを備えてもよい。
図6から図11を参照しながら、制御プログラム9Aが提供する機能に基づくスマートフォン1の動作の例について説明する。図6は、ホーム画面40上の領域を拡大する例を示す図である。図6に示すステップSA1において、スマートフォン1は、複数のアイコン50が配置されたホーム画面40をディスプレイ2Aに表示している。ステップSA2では、利用者が、指F1及び指F2を用いて、ホーム画面40に対してピンチアウトを行っている。
スマートフォン1は、ホーム画面40に対するピンチアウトをタッチスクリーン2Bによって検出すると、ステップSA3に示すように、ピンチアウトが行われた領域R1を拡大する。領域R1の拡大に伴って、領域R1内のアイコン50は拡大される。この結果、領域R1内のアイコン50が拡大され、これらのアイコン50の視認性が高まる。
このように、ホーム画面40の一部の領域を拡大することを可能にすることにより、ホーム画面40の使い勝手が向上する。ホーム画面40に配置されるアイコン50のサイズが大きい場合、1つのホーム画面40に配置できるアイコン50の数が少なくなり、利用者は、実行したいアプリケーションに対応するアイコン50がどのホーム画面40に配置されているかを探すことが困難になる。一方、ホーム画面40に配置されるアイコン50のサイズが小さい場合、指によるジェスチャによって特定のアイコン50に対する操作を行おうとするときに、誤って他のアイコン50を操作してしまうことが多くなる。ホーム画面40の一部の領域を拡大することは、多くのアイコン50をホーム画面40に配置しつつ、操作したいアイコン50の付近を拡大して確実に操作することを可能にする。
スマートフォン1は、領域R1の拡大に伴って、領域R1外のアイコン50を縮小する。この結果、拡大した領域R1の下に隠れないように、領域R1外のアイコン50を配置することが可能になる。このため、利用者は、領域R1が拡大する前と同様に、ホーム画面40に配置されている全てのアイコン50を見ることができる。
スマートフォン1は、アイコン50が拡大されていても、アイコン50が縮小されていても、アイコン50の通常の機能を維持する。例えば、スマートフォン1は、アイコン50のサイズにかかわらず、アイコン50に対するタップをタッチスクリーン2Bによって検出すると、タップされたアイコン50に対応するアプリケーションを実行する。
領域R1を拡大するとき、拡大前のアイコン50の配置を利用者が把握できるように、アイコン50を配置することが好ましい。図6に示す例では、ホーム画面40上のアイコン50は、領域R1の拡大前と同じ順序で配列されている。
領域R1を拡大した後のアイコン50の表示の仕方は図6に示した例に限定されない。図6では、領域R1外のアイコン50が縦又は横につぶれたように表示されているが、アイコン50は、縦横比を保ったままで縮小されてもよい。図6では、領域R1の横のアイコン50を、向きを変えずに縮小しているが、文字が読み易いように、領域R1の横のアイコン50を90度回転させてもよい。
図7は、拡大される領域とジェスチャとの対応の例を示す図である。図7に示すステップSB1のように、利用者が、指F1でタッチスクリーンディスプレイ2の位置P1にタッチし、指F2でタッチスクリーンディスプレイ2の位置P2にタッチした状態からピンチアウトを開始したものとする。この場合、スマートフォン1は、ホーム画面40上に配置された1個以上のアイコン50を囲む矩形領域のうち、位置P1及び位置P2を含む最小の矩形領域を領域R1と決定する。領域R1は、アイコン50の外周から所定の余白を設けて設定されてもよい。
その後、指F1及び指F2はタッチスクリーンディスプレイ2に接触したままで移動を開始すると、スマートフォン1は、ステップSB2に示すように、指F1及び指F2の間の距離の変化に応じて、領域R1を拡大する。スマートフォン1は、指F1及び指F2の間の距離が縮まった場合に、領域R1を縮小してもよい。
領域R1を元のサイズに戻すための操作は、例えば、以下の様な操作である。スマートフォン1は、ホーム画面40上のアイコン50が表示されていない領域に対してタップ等の操作が行われた場合に、領域R1を元のサイズに戻してもよい。スマートフォン1は、ピンチイン/ピンチアウトが完了した後、すなわち、指F1及び指F2の少なくとも一方がタッチスクリーン2Bから離れた場合に、領域R1を元のサイズに戻してもよい。スマートフォン1は、領域R1内のアイコン50に対して行われた操作に応じてアプリケーションを実行した場合に、領域R1を元のサイズに戻してもよい。
図7では、ピンチアウトの開始時の指の位置に基づいて領域R1の位置及び範囲が決定される例を示したが、領域R1の決定の仕方はこれに限定されない。例えば、ピンチアウトの開始時の指の位置に基づいて領域R1の位置を決定するが、領域R1の範囲は、指の位置にかかわらず、予め決められたサイズとなるように決定されてもよい。予め決められたサイズは、例えば、アイコン50が縦に2個、横に2個、計4個収まるサイズである。
スマートフォン1は、検出した操作に応じて、ホーム画面40上の他の部分が拡大されるように領域R1を移動させる制御を行う。図8は、領域R1を移動させる例を示す図である。図8に示すステップSC1では、図6に示したステップSA3と同様に、ホーム画面40の中央部分が領域R1として拡大されている。ステップSC2では、利用者が、領域R1内で指F1をタッチスクリーン2Bに接触させ、領域R1を右へドラッグしている。
スマートフォン1は、領域R1のドラッグをタッチスクリーン2Bによって検出すると、ステップSC3に示すように、領域R1をドラッグされた方向へ移動させる。その結果、ステップSC3では、ホーム画面40の中央よりも右寄りの部分が領域R1として拡大されている。
このように、スマートフォン1は、領域R1のドラッグが検出された場合に、領域R1をドラッグされた方向へ移動させる。このため、利用者は、領域R1を移動させながら、ホーム画面上の様々な部分を容易に拡大することができる。スマートフォン1は、領域R1を移動させる場合、アイコン50の一部のみが拡大されないようにホーム画面40上の拡大される範囲を断続的に変更してもよい。あるいは、スマートフォン1は、ホーム画面40上の拡大される範囲を連続的に変更し、拡大される範囲の内側と外側にまたがっているアイコン50については、拡大される範囲の内側の部分だけを拡大してもよい。
スマートフォン1は、拡大された領域R1に含まれるフォルダのサイズが閾値よりも大きい場合に、そのフォルダの機能を有効にする。フォルダは、アイコン50を格納するコンテナとしての機能を有するアイコンである。通常のサイズのときのフォルダ上には、格納されているアイコン50の画像を縮小したサムネイルが配置される。
スマートフォン1は、フォルダに対するタップが検出されると、フォルダ画面を表示して、フォルダに格納されているアイコン50の一覧を表示し、フォルダの機能を有効にする。フォルダの機能には、例えば、フォルダに格納されているアイコン50に対応するアプリケーションを実行する機能、アイコン50をフォルダに格納する機能、及びアイコン50をフォルダから取り出す機能が含まれる。スマートフォン1は、領域R1に含まれるフォルダのサイズが閾値よりも大きくなった場合、フォルダ画面が表示されていなくても、フォルダの機能を有効にする。
図9は、フォルダに格納されているアイコンに対応するアプリケーションを実行する例を示す図である。図9に示すステップSD1において、領域R1内のフォルダ60は、閾値よりも大きくなっている。フォルダ60が閾値よりも大きくなると、フォルダ60に格納されているアイコン50に対応するサムネイルは、アイコン61として機能する。アイコン61は、アイコン50の画像を含む。アイコン61は、アイコン50に含まれる文字を含んでもよい。領域R1は、他のアイコン50又はフォルダ60を含んでいてもよい。
ステップSD2では、利用者が指F1を使用して、アイコン61の1つに対するタップを行っている。タップされたアイコン61は、メールアプリケーション9Bに対応する。そこで、ステップSD3では、スマートフォン1は、メールアプリケーション9Bを実行し、メールアプリケーション9Bによって提供されるメール作成画面70をディスプレイ2Aに表示している。
このように、フォルダ60を拡大することにより、利用者は、フォルダ60に格納されている任意のアイコン50に対応するアプリケーションを実行することができる。
図10は、拡大されたフォルダへアイコンを格納する例を示す図である。図10に示すステップSE1では、図9に示したステップSD1と同様に、領域R1内のフォルダ60は、閾値よりも大きくなっている。ステップSE2では、利用者が指F1を使用して、フォルダ60の左に配置されているアイコン50aをフォルダ60内へドラッグしている。スマートフォン1は、アイコン50aがフォルダ60内へドラッグされたことをタッチスクリーン2Bによって検出すると、アイコン50aをフォルダ60に格納する。その結果、ステップSE3に示すように、アイコン50aは、ホーム画面40から削除され、アイコン50aと同様の外観を有するアイコン61aがフォルダ60上に配置される。
アイコン50aの削除により、ホーム画面40上のアイコン50およびフォルダ60は、アイコン50aの位置を埋めるように配置が変更される。ステップSE3では、フォルダ60が、アイコン50aが配置されていた位置まで左に移動し、フォルダ60の下の行の先頭に配置されていたアイコン50がフォルダ60と同じ行へ移動している。このように、スマートフォン1は、領域R1が拡大されているときでもアイコン50の移動に応じてアイコン50およびフォルダ60の配置を変更する。このため、利用者は、アイコン50を移動させながら、領域R1が元のサイズに戻ったときの配置を容易に把握することができる。
その後、利用者が、領域R1を元のサイズに戻す操作を行うと、ステップSE4に示すように、フォルダ60は元のサイズに縮小される。ステップSE4では、ホーム画面40上に配置されるアイコン50の数が1つ減り、フォルダ60上に配置されるサムネイルの数が1つ増えている。
スマートフォン1は、拡大されていないフォルダ60にアイコン50がドラッグされた場合にもアイコン50をフォルダ60に格納するが、この場合、アイコン50に対応するサムネイル及びアイコン61は、フォルダ60内の予め決められた位置に配置される。一方、拡大されたフォルダ60にアイコン50がドラッグされた場合、スマートフォン1は、アイコン50に対応するサムネイル及びアイコン61がフォルダ60内で配置される位置を、ドラッグの終点(リリースが検出された位置)に応じて決定する。すなわち、利用者は、拡大されたフォルダ60にアイコン50を格納する場合に、アイコン50に対応するサムネイル及びアイコン61が配置される位置を指定することができる。
さらに、既に説明したように、領域R1が拡大されても、領域R1外のアイコン50は領域R1の下に隠れないように配置される。このため、利用者は、領域R1が拡大された場合でも、ホーム画面40上に配置されている任意のアイコン50をフォルダ60に格納することができる。
図11は、拡大されたフォルダからアイコンを取り出す例を示す図である。図11に示すステップSF1では、図9に示したステップSD1と同様に、領域R1内のフォルダ60は、閾値よりも大きくなっている。ステップSF2では、利用者が指F1を使用して、フォルダ60内に配置されているアイコン61bをフォルダ60外へドラッグしている。スマートフォン1は、アイコン61bがフォルダ60外へドラッグされたことをタッチスクリーン2Bによって検出すると、アイコン61bをフォルダ60から取り出す。その結果、ステップSF3に示すように、アイコン61bは、フォルダ60から削除され、アイコン61bと同様の外観を有するアイコン50bがホーム画面40上に追加される。
アイコン50bの追加により、ホーム画面40上のアイコン50およびフォルダ60の配置は変更される。これにより、利用者は、領域R1が元のサイズに戻ったときの配置を容易に把握することができる。
その後、利用者が、領域R1を元のサイズに戻す操作を行うと、ステップSF4に示すように、フォルダ60は元のサイズに縮小される。ステップSF4では、ホーム画面40上に配置されるアイコン50の数が1つ増え、フォルダ60上に配置されるサムネイルの数が1つ減っている。
拡大されているフォルダ60の外へアイコン61がドラッグされた場合、スマートフォン1は、アイコン61に対応するアイコン50がホーム画面40上で配置される位置を、ドラッグの終点に応じて決定する。すなわち、利用者は、拡大されているフォルダ60からアイコン50を取り出す場合に、アイコン50が配置される位置を指定することができる。
さらに、既に説明したように、領域R1が拡大されても、アイコン50は、領域R1が拡大されていないときの配置を把握できるように配置される。このため、利用者は、フォルダ60から取り出したアイコン50をホーム画面40上の所望の位置に配置することができる。
図12を参照しながら、制御プログラム9Aが提供する機能に基づく制御の処理手順の例について説明する。図12は、ホーム画面40上の領域を拡大する処理の処理手順を示している。図12に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。図12に示す処理手順は、ホーム画面40がディスプレイ2Aに表示され、いずれの部分も拡大されていない場合に、繰り返して実行される。コントローラ10は、図12に示す処理手順と並行して、ホーム画面40に関する制御のための他の処理手順を実行することがある。
コントローラ10は、ステップS101として、タッチスクリーン2Bの検出結果を取得する。そして、コントローラ10は、ステップS102として、ホーム画面40に対してピンチアウトが行われたかを判定する。ピンチアウトが行われた場合(ステップS102,Yes)、コントローラ10は、ステップS103として、検出したジェスチャに基づいて、拡大する領域の位置と範囲を決定する。そして、コントローラ10は、ステップS104として、検出したジェスチャに基づいて、設定した領域を拡大する。ピンチアウトが行われてない場合(ステップS102,No)、領域の拡大は行われない。
図13は、拡大された領域に対する操作が検出された場合の処理手順を示している。図13に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。図13に示す処理手順は、ホーム画面40の領域R1が拡大されている場合に繰り返して実行される。コントローラ10は、図13に示す処理手順と並行して、ホーム画面40に関する制御のための他の処理手順を実行することがある。
コントローラ10は、ステップS201として、タッチスクリーン2Bの検出結果を取得する。そして、コントローラ10は、ステップS202として、領域R1のドラッグが行われたかを判定する。領域R1のドラッグが行われた場合(ステップS202,Yes)、コントローラ10は、ステップS203として、検出したジェスチャに基づいて、ホーム画面40の他の部分が拡大されるように、領域R1を移動させる。
領域R1のドラッグが行われていない場合(ステップS202,No)、コントローラ10は、ステップS204として、領域R1に対してピンチイン/ピンチアウトが行われたかを判定する。ピンチイン/ピンチアウトが行われた場合(ステップS204,Yes)、コントローラ10は、ステップS205として、検出されたジェスチャに合わせて、領域R1のサイズを変更する。
領域R1のサイズを変更した後、コントローラ10は、ステップS206として、領域R1にフォルダが含まれているかを判定する。フォルダが含まれていない場合(ステップS206,No)、これ以降の処理手順は行われない。
領域R1にフォルダが含まれている場合(ステップS206,Yes)、コントローラ10は、ステップS207として、フォルダのサイズが閾値より大きいかを判定する。フォルダのサイズが閾値より大きい場合(ステップS207,Yes)、コントローラ10は、ステップS208として、フォルダの機能を有効化する。フォルダのサイズが閾値より大きくない場合(ステップS207,No)、コントローラ10は、ステップS209として、フォルダの機能を無効化する。
領域R1に対してドラッグもピンチも行われていない場合(ステップS204,No)、コントローラ10は、検出されたジェスチャに応じた通常の処理を行う。
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図5に示した各プログラムは、他のプログラムと結合されていてもよい。
上記の実施形態では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。
上記の実施形態では、拡大されたフォルダ60に対してアイコン50を格納する例を示したが、スマートフォン1は、拡大されたフォルダ60に対して他のフォルダ60を格納できるように構成されてもよい。フォルダ60(親フォルダ)内に他のフォルダ60(サブフォルダ)が格納されている場合、スマートフォン1は、領域R1の拡大に伴って、サブフォルダのサイズが閾値よりも大きくなった場合に、サブフォルダの機能を有効にしてもよい。
上記の実施形態では、ホーム画面40に関する制御について説明したが、本発明が適用される画面は、これに限定されない。本発明は、アイコンが配置される各種の画面に適用することができる。例えば、本発明は、画像、動画等のデータに対応するアイコンとそれらを整理するためのフォルダとが配置される画面、ブックマークされたWEBページのURLとそれらを整理するためのフォルダとが配置される画面、電話番号、メールアドレス等の個人情報とそれらを整理するためのフォルダとが配置される画面等に適用することができる。
上記の実施形態では、拡大されたフォルダ60に対して可能な操作として、格納されているアイコン50に対応するアプリケーションの実行、アイコン50の格納、アイコン50の取り出し、フォルダ60の拡大/縮小について説明した。しかしながら、拡大されたフォルダ60に対して可能な操作は、これらに限定されず、ホーム画面40に配置されているアイコン50に対して可能ないずれの操作も実行可能である。例えば、アイコンの名前の変更、アイコンの削除、アイコンに対応するアプリケーションのアンインストール等のための操作が、拡大されたフォルダ60に対して実行されてもよい。
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング

Claims (8)

  1. 画面を表示するタッチスクリーンディスプレイと、
    前記タッチスクリーンディスプレイに対するジェスチャに応じて、前記画面の一部の領域を拡大するコントローラと、
    を備える装置。
  2. 前記画面にはアイコンが配置され、
    前記コントローラは、前記領域を拡大する前に前記画面に表示されていた全ての前記アイコンを、前記領域を拡大した後も前記画面に表示させる請求項1に記載の装置。
  3. 前記コントローラは、前記領域を拡大する場合に、前記領域の外部に配置されている前記アイコンを縮小する請求項2に記載の装置。
  4. 前記コントローラは、拡大された前記領域の内部または外部に配置されたアイコンに対するジェスチャに応じて、当該アイコンに対応するアプリケーションを実行する請求項2または3に記載の装置。
  5. 前記コントローラは、拡大された前記領域に対するジェスチャに応じて、前記領域を移動させる請求項1から4のいずれか1項に記載の装置。
  6. 前記アイコンは、他のアイコンを格納し、格納されているアイコンを縮小して内部に表示するフォルダを含み、
    前記コントローラは、拡大された前記領域に含まれる前記フォルダのサイズが閾値よりも大きくなった場合に、当該フォルダの内部に表示されるアイコンに対する操作を可能にする請求項1から5のいずれか1項に記載の装置。
  7. タッチスクリーンディスプレイを備える装置を制御する方法であって、
    画面を前記タッチスクリーンディスプレイに表示するステップと、
    前記タッチスクリーンディスプレイによって前記画面に対するジェスチャを検出するステップと、
    前記ジェスチャに応じて前記画面の一部の領域を拡大するステップと、
    を含む方法。
  8. タッチスクリーンディスプレイを備える装置に、
    画面を前記タッチスクリーンディスプレイに表示するステップと、
    前記タッチスクリーンディスプレイによって前記画面に対するジェスチャを検出するステップと、
    前記ジェスチャに応じて前記画面の一部の領域を拡大するステップと、
    を実行させるプログラム。
JP2011282284A 2011-12-22 2011-12-22 装置、方法、及びプログラム Pending JP2013131185A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011282284A JP2013131185A (ja) 2011-12-22 2011-12-22 装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011282284A JP2013131185A (ja) 2011-12-22 2011-12-22 装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2013131185A true JP2013131185A (ja) 2013-07-04

Family

ID=48908649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011282284A Pending JP2013131185A (ja) 2011-12-22 2011-12-22 装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2013131185A (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104423781A (zh) * 2013-08-29 2015-03-18 中兴通讯股份有限公司 界面处理方法、装置及终端
JP2016006644A (ja) * 2014-05-30 2016-01-14 キヤノンマーケティングジャパン株式会社 情報処理装置、制御方法、及びプログラム
JP2016126657A (ja) * 2015-01-07 2016-07-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2020074092A (ja) * 2015-08-10 2020-05-14 アップル インコーポレイテッドApple Inc. 視覚フィードバック及び/又は触覚フィードバックを用いてユーザインターフェースオブジェクトを操作するためのデバイス、方法及びグラフィカルユーザインターフェース
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US11442659B2 (en) 2019-11-20 2022-09-13 International Business Machines Corporation Reading sequentially stored files based on read ahead groups
US11921975B2 (en) 2015-03-08 2024-03-05 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US12050761B2 (en) 2012-12-29 2024-07-30 Apple Inc. Device, method, and graphical user interface for transitioning from low power mode

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12045451B2 (en) 2012-05-09 2024-07-23 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US12067229B2 (en) 2012-05-09 2024-08-20 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US12050761B2 (en) 2012-12-29 2024-07-30 Apple Inc. Device, method, and graphical user interface for transitioning from low power mode
CN104423781A (zh) * 2013-08-29 2015-03-18 中兴通讯股份有限公司 界面处理方法、装置及终端
JP2016006644A (ja) * 2014-05-30 2016-01-14 キヤノンマーケティングジャパン株式会社 情報処理装置、制御方法、及びプログラム
JP2016126657A (ja) * 2015-01-07 2016-07-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11921975B2 (en) 2015-03-08 2024-03-05 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JP2020074092A (ja) * 2015-08-10 2020-05-14 アップル インコーポレイテッドApple Inc. 視覚フィードバック及び/又は触覚フィードバックを用いてユーザインターフェースオブジェクトを操作するためのデバイス、方法及びグラフィカルユーザインターフェース
US11442659B2 (en) 2019-11-20 2022-09-13 International Business Machines Corporation Reading sequentially stored files based on read ahead groups

Similar Documents

Publication Publication Date Title
JP6110654B2 (ja) 装置、方法、及びプログラム
JP6159078B2 (ja) 装置、方法、及びプログラム
JP5850736B2 (ja) 装置、方法及びプログラム
JP6002012B2 (ja) 装置、方法、及びプログラム
JP2013131185A (ja) 装置、方法、及びプログラム
JP6194167B2 (ja) 装置、方法、及びプログラム
JP5891083B2 (ja) 装置、方法、及びプログラム
JP5972629B2 (ja) 装置、方法、及びプログラム
JP5840045B2 (ja) 装置、方法、及びプログラム
JP6091829B2 (ja) 装置、方法、及びプログラム
JP2013131193A (ja) 装置、方法、及びプログラム
JP2013105202A (ja) 装置、方法、及びプログラム
JP2013084233A (ja) 装置、方法、及びプログラム
JP6058790B2 (ja) 装置、方法、及びプログラム
JP2013080345A (ja) 装置、方法、及びプログラム
JP2013186726A (ja) 装置、方法、及びプログラム
JP2013089131A (ja) 装置、方法及びプログラム
JP2013084237A (ja) 装置、方法、及びプログラム
JP6096100B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5762935B2 (ja) 装置、方法、及びプログラム
JP5762885B2 (ja) 装置、方法、及びプログラム
JP2013065291A (ja) 装置、方法、及びプログラム
JP6080355B2 (ja) 装置、方法及びプログラム
JP2013101547A (ja) 装置、方法及びプログラム
JP5848970B2 (ja) 装置、方法、及びプログラム