JP5694867B2 - 携帯端末装置、プログラムおよび表示制御方法 - Google Patents

携帯端末装置、プログラムおよび表示制御方法 Download PDF

Info

Publication number
JP5694867B2
JP5694867B2 JP2011142375A JP2011142375A JP5694867B2 JP 5694867 B2 JP5694867 B2 JP 5694867B2 JP 2011142375 A JP2011142375 A JP 2011142375A JP 2011142375 A JP2011142375 A JP 2011142375A JP 5694867 B2 JP5694867 B2 JP 5694867B2
Authority
JP
Japan
Prior art keywords
input position
input
screen
display surface
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011142375A
Other languages
English (en)
Other versions
JP2013008340A (ja
Inventor
今村 仁
仁 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011142375A priority Critical patent/JP5694867B2/ja
Priority to US13/533,568 priority patent/US20120327122A1/en
Publication of JP2013008340A publication Critical patent/JP2013008340A/ja
Application granted granted Critical
Publication of JP5694867B2 publication Critical patent/JP5694867B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、携帯電話機、PDA(Personal Digital Assistant)、タブレットPC(TabletPC)、電子書籍端末等の携帯端末装置および当該携帯端末装置に用いて好適なプログラムと表示制御方法に関するものである。
従来、タッチパネルを備えた携帯端末装置では、表示面に対する入力により、各種動作が実行される。たとえば、表示面への入力に応じて、表示面に表示された画面が、実行中のアプリケーションプログラム(以下、「アプリケーション」と言う。)に基づき変化する(特許文献1)。
特開2010−079802号公報
表示面への入力は、表示された画像に対して直接入力が行えるため、操作性に優れる。しかしながら、上記の構成では、1つの表示面に対してのみ入力が可能なため、入力操作のバリエーションに限りがある。このため、1つの表示面への入力では、簡単で、直感的な入力操作を実現し難い場面が起こり得る。
本発明は、かかる課題に鑑みてなされたものであり、簡単且つ直感的な入力操作を実現可能な携帯端末装置、プログラムおよび表示制御方法を提供することを目的とする。
本発明の第1の態様は携帯端末装置に関する。本態様に係る携帯端末装置は、表示面を有する表示部と、前記表示面に対するタッチ入力の位置を検出する第1検出部と、前記表示面に背向する面に対するタッチ入力の位置を検出する第2検出部と、前記第1検出部により検出された第1入力位置と前記第2検出部により検出された第2入力位置との組み合わせに基づいて、前記表示部に表示された画面を変化させる制御を行う画面制御部と、を備える。ここで、前記画面制御部は、前記第1入力位置と前記第2入力位置との間の相対的な距離が所定の範囲内にあり、且つ、少なくとも前記第1入力位置または前記第2入力位置が変化した場合、変化した入力位置の移動距離または移動時間に応じて前記第1入力位置に表示されたオブジェクトを徐々に小さくし、前記移動距離または前記移動時間が所定の閾値を超えたとき前記オブジェクトを消滅させるように前記画面を変化させる。
本態様に係る携帯端末装置において、前記画面制御部は、前記オブジェクトがくしゃくしゃになって小さく丸まるような画像効果により、前記オブジェクトを徐々に小さくする構成とされ得る。
また、本態様に係る携帯端末装置において、前記画面制御部は、前記第1入力位置および前記第2入力位置の関係の変化に基づき、前記画面の少なくとも一部に対して、拡大、縮小、移動または回転のうち少なくとも一つを含む制御を行う構成とされ得る。
また、本態様に係る携帯端末装置において、前記画面制御部は、前記第1検出部と前記第2検出部が前記画面に含まれるアイコン画像が表示される領域に対応する位置においてタッチ入力を検出した場合、前記第1入力位置および前記第2入力位置の移動に伴い、前記アイコン画像を移動させる制御を行う構成とされ得る。
さらに、本態様に係る携帯端末装置において、前記画面制御部は、前記第1入力位置と前記第2入力位置との間の相対的な距離が所定の範囲内にあり、且つ、少なくとも前記第1入力位置または記第2入力位置が、円周を描くように、または行き来するように変化した場合、変化した入力位置の移動距離または移動時間に応じて前記第1入力位置に表示されたオブジェクトを徐々に小さくし、前記移動距離または前記移動時間が前記所定の閾値を超えたとき前記オブジェクトを消滅させるように前記画面を変化させる構成とされ得る。
また、本態様に係る携帯端末装置において、前記画面制御部は、記第1検出部と前記第2検出部が前記画面に含まれるアイコン画像が表示される領域に対応する位置においてタッチ入力を検出し、且つ、当該領域上において前記第1入力位置または記第2入力位置が変化した場合、変化した入力位置の移動距離または移動時間に応じて前記アイコン画像を徐々に小さくし、前記移動距離または前記移動時間が前記所定の閾値を超えたとき前記アイコン画像を消滅させるように前記画面を変化させる構成とされ得る。
本発明の第2の態様は、プログラムに関する。本態様に係るプログラムは、表示面を有する表示部と、前記表示面に対するタッチ入力の位置を検出する第1検出部と、前記表示面に背向する面に対するタッチ入力の位置を検出する第2検出部と、を有する携帯端末装置のコンピュータに、前記第1検出部により検出された第1入力位置と前記第2検出部により検出された第2入力位置との組み合わせに基づいて、前記表示部に表示された画面を変化させる制御機能を付与する。ここで、前記制御機能は、前記第1入力位置と前記第2入力位置との間の相対的な距離が所定の範囲内にあり、且つ、少なくとも前記第1入力位置または前記第2入力位置が変化した場合、変化した入力位置の移動距離または移動時間に応じて前記第1入力位置に表示されたオブジェクトを徐々に小さくし、前記移動距離または前記移動時間が所定の閾値を超えたとき前記オブジェクトを消滅させるように前記画面を変化させる機能を含む。
本発明の第3の態様は、表示面を有する表示部と、前記表示面に対するタッチ入力の位置を検出する第1検出部と、前記表示面に背向する面に対するタッチ入力の位置を検出する第2検出部と、を有する携帯端末装置の表示制御方法に関する。本態様に係る表示制御方法は、前記第1検出部により検出された第1入力位置と前記第2検出部により検出された第2入力位置との組み合わせに基づいて、前記表示部に表示された画面を変化させる制御ステップを備える。ここで、前記制御ステップは、前記第1入力位置と前記第2入力位置との間の相対的な距離が所定の範囲内にあり、且つ、少なくとも前記第1入力位置または前記第2入力位置が変化した場合、変化した入力位置の移動距離または移動時間に応じて前記第1入力位置に表示されたオブジェクトを徐々に小さくし、前記移動距離または前記移動時間が所定の閾値を超えたとき前記オブジェクトを消滅させるように前記画面を変化させるステップを含む。
本発明によれば、所望の機能を、簡単且つ直感的な入力操作で実現可能な携帯端末装置、プログラムおよび表示制御方法を提供することができる。
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。
実施の形態に係る、携帯電話機の外観構成を示す図である。 実施の形態に係る、両面タッチによる入力状況を例示する図である。 実施の形態に係る、携帯電話機の全体構成を示すブロック図である。 実施の形態に係る、処理手順を説明するためのフローチャートである。 実施例1に係る処理における画面遷移例を示す図である。 実施例2に係る処理における画面遷移例を示す図である。 実施例3に係る処理における画面遷移例を示す図である。 実施例3に係る、こねる操作を説明するための図である。 実施例3に係る、処理手順を説明するためのフローチャートである。 実施例4に係る処理における画面遷移例を示す図である。 実施例4に係る、処理手順を説明するためのフローチャートである。 変更例1に係る処理における画面遷移例を示す図である。 変更例2に係る処理における画面遷移例を示す図である。 その他の変更例に係る処理における画面の表示例を示す図である。 その他の変更例に係る処理における画面遷移例を示す図である。 その他の変更例に係る処理における画面遷移例を示す図である。 その他の変更例に係る処理における画面遷移例を示す図である。 その他の変更例に係る処理における画面遷移例を示す図である。 その他の変更例に係る処理における画面遷移例を示す図である。 その他の変更例に係る処理における画面遷移例を示す図である。
以下、本発明の実施の形態について、図面を参照して説明する。図1は、携帯電話機1の外観構成を示す図である。図1(a)〜(c)は、それぞれ、正面図、側面図および背面図である。
携帯電話機1は、キャビネット10を有する。キャビネット10の正面には、タッチパネルが配されている。タッチパネルは、画面を表示するディスプレイ11と、ディスプレイ11に重ねられるタッチセンサ12とを備える。
ディスプレイ11は、液晶パネル11aと、液晶パネル11aを照明するパネルバックライト11bにより構成されている(図3参照)。液晶パネル11aは、画面を表示するための表示面11cを有し、表示面11cが外部に現れる。表示面11cの上にタッチセンサ12が配されている。なお、ディスプレイ11に代えて、有機ELディスプレイ、LEDディスプレイ等、他の表示装置が用いられてもよい。
タッチセンサ12は透明なシート状に形成される。タッチセンサ12を透して表示面11cを見ることができる。本実施の形態では、タッチセンサ12は、静電容量式となっている。タッチセンサ12は、ユーザが触れた表示面11c上の位置(以下、「第1入力位置」と言う。)を静電容量の変化により検出し、第1入力位置に応じた位置信号を後述のCPU100へ出力する。
表示面11cに背向する面すなわちキャビネット10の背面には、タッチセンサ16が配されている(図1(b)、(c)の斜線領域参照)。タッチセンサ16は、表示面11cと略同じ大きさを有し、キャビネット10の正面側から見て表示面11cにほぼ重なるように配されている。タッチセンサ12と同様、タッチセンサ16は、透明なシート状に形成された静電容量式のタッチセンサである。タッチセンサ16は、ユーザが触れたタッチセンサ16上の位置(以下、「第2入力位置」と言う。)を静電容量の変化により検出し、第2入力位置に応じた位置信号を、後述のCPU100へ出力する。以下では、タッチセンサ16の外部に露出する面を、「入力面16a」と称する。
なお、タッチセンサ12、16は、静電容量式のタッチセンサに限られず、超音波式、感圧式、抵抗膜式、光検知式等、他のタッチセンサであってもよい。
キャビネット10の正面には、マイク13およびスピーカ14が配されている。ユーザは、スピーカ14からの音声を耳で捉え、マイク13に対して音声を発することにより通話を行うことができる。
キャビネット10の背面には、カメラモジュール15のレンズ窓15aが配されている。レンズ窓15aから被写体の画像がカメラモジュール15に取り込まれる。
なお、本実施の形態において、「タッチ」とは、たとえば、ユーザが指(または他の接触部材、以下同様)によって表示面11cや入力面16aに触れることである。「タッチ」には、以下のスライド、タップ、フリック等の操作が含まれる。「スライド」とは、ユーザが表示面11cや入力面16aに指を接触したまま動かす動作を言う。「タップ」とは、ユーザが指で表示面11cや入力面16aを軽く叩くように、表示面11cや入力面16a上のある箇所に指をタッチさせ、その後短時間のうちにリリースする動作である。
「フリック」とは、ユーザが指により表示面11cや入力面16aを素早く弾くような動作であり、表示面11cや入力面16aに指を接触したまま、短時間に所定距離以上指を動かし、その後、リリースする動作を言う。
また、「両面タッチ」とは、表示面11cと入力面16aの両方をタッチする操作である。両面タッチの操作では、表示面11cと入力面16aに対して、それぞれ、タッチ、スライド、タップ、フリックの操作が行われる。
図2(a)、(b)は、両面タッチの操作がなされているときの様子を例示する図である。同図において、第1入力位置P1は、丸印で示され、第2入力位置P2は、「X」字状の印で示される(他の対応する図においても同様)。
図2(a)は、ユーザが左手で携帯電話機1を把持した状態で、左手の人差指が入力面16aにタッチし、右手の人差指が表示面11cにタッチしている状態を示している。また、図2(b)は、ユーザが右手で携帯電話機1を把持した状態で、右手の人差指が入力面16aにタッチし、右手の親指が表示面11cにタッチしている状態を示している。
なお、図2(a)には、便宜上、表示面11cの左下の隅を原点とするx−y座標軸が図示されている。入力面16aにも、表示面11c側から見て入力面16aの左下の隅を原点とするx−y座標軸が設定されている。第1入力位置P1と第2入力位置P2は、それぞれ、表示面11cのx−y座標軸と入力面16aのx−y座標軸上の座標点として取得される。表示面11cに設定されたx−y座標軸の原点と、入力面16aに設定されたx−y座標軸の原点は、表示面11c側から見て、互いに重なっている。
図3は、携帯電話機1の全体構成を示すブロック図である。
本実施の形態の携帯電話機1は、上述した各構成要素の他、CPU100、メモリ200、映像エンコーダ301、音声エンコーダ302、通信モジュール303、バックライト駆動回路304、映像デコーダ305、音声デコーダ306およびクロック307を備えている。
カメラモジュール15は、CCD等の撮像素子を有し、画像を撮影する撮影部を含む。カメラモジュール15は、撮像素子から出力された撮像信号をデジタル化し、その撮像信号にガンマ補正等の各種補正を施して映像エンコーダ301へ出力する。映像エンコーダ301は、カメラモジュール15からの撮像信号にエンコード処理を施してCPU100へ出力する。
マイク13は、集音した音を音声信号に変換して音声エンコーダ302へ出力する。音声エンコーダ302は、マイク13からのアナログの音声信号をデジタルの音声信号に変換するとともに、デジタルの音声信号にエンコード処理を施してCPU100へ出力する。
通信モジュール303は、CPU100からの情報を無線信号に変換し、キャビネット10に内蔵されたアンテナ(図示せず)を介して基地局へ送信する。また、アンテナを介して受信した無線信号を情報に変換してCPU100へ出力する。
バックライト駆動回路304は、CPU100からの制御信号に応じた駆動信号をパネルバックライト11bに供給する。パネルバックライト11bは、バックライト駆動回路304からの駆動信号により点灯し、液晶パネル11aを照明する。
映像デコーダ305は、CPU100からの映像信号を液晶パネル11aで表示できるアナログ若しくはデジタルの映像信号に変換し、液晶パネル11aに出力する。液晶パネル11aは、映像信号に応じた画面を表示面11c上に表示する。
音声デコーダ306は、CPU100からの音声信号、着信音やアラーム音等の各種報知音の音信号にデコード処理を施し、さらにアナログの音声信号や音信号に変換してスピーカ14に出力する。スピーカ14は、音声デコーダ306からの音声信号や音信号に基づいて、音を出力する。
クロック307は、時間を計測し、計測した時間に応じた信号をCPU100へ出力する。
メモリ200は、ROMおよびRAMを含む記憶部である。メモリ200には、CPU100に制御機能を付与するための制御プログラムが記憶されている。
また、メモリ200は、CPU100のワーキングメモリとしても利用される。すなわち、メモリ200は、通話、画像閲覧、画像処理、電子メールの利用などのための各種のアプリケーションプログラムが実行される際、一時的に利用または生成されるデータを記憶する。たとえば、メモリ200は、表示面11cや入力面16aに対する入力(タッチ入力)に関する情報、画面を表示面11cに表示させるためのデータなどを記憶する。
CPU100は、タッチセンサ12、16、映像エンコーダ301、音声エンコーダ302、通信モジュール303、クロック307からの入力信号に従って、実行する制御プログラムに基づいて、マイク13、通信モジュール303、パネルバックライト11b、液晶パネル11a、スピーカ14を動作させる。これにより、各種のアプリケーションが実行される。
CPU100は、制御プログラムやアプリケーションの実行に基づき、メモリ200に記憶された所定の画像のデータを取得し、または、制御プログラムやアプリケーションの実行に基づき、所定の画像のデータを生成する。CPU100は、取得または生成した画像のデータから表示面11cに表示させるための所定の画面のデータを含む信号を生成し、映像デコーダ305へ出力する。
CPU100は、タッチセンサ12、16から取得した第1入力位置P1と第2入力位置P2を、図2を参照して説明したように、携帯電話機1の正面から見て同じ座標系で表されたデータとして保持する。たとえば、表示面11cと入力面16a上の、携帯電話機1の正面から見て略同じ位置がそれぞれタッチされると、これに伴い取得される第1入力位置P1と第2入力位置P2の座標は略同じである。
図4は、実施の形態に係る、処理手順を説明するためのフローチャートである。
所定のアプリケーションの実行中に、タッチセンサ12、16が、それぞれ、表示面11cと入力面16aに対する入力を検出すると(S401:YES)、CPU100は、その入力が所定の操作に対応するものであるかを判定する(S402)。そして、表示面11cと入力面16aに対する入力が所定の操作に対応する場合(S402:YES)、CPU100は、この操作に対応して、表示中の画面を変更する(S403)。
S402における判定と、S403における画面の変更は、アプリケーション毎に相違する。以下、S402における判定と、S403における画面の変更の具体例について説明する。
<実施例1>
図5(a)〜(c)は、リスト画像を含む画面の遷移の例を示す図である。本実施例に示すアプリケーションでは、リスト画像に対する操作によって、ウェブ検索等の機能が実行される。
リスト画像とは、所定の選択肢を列挙する画像である。リスト画像は、複数の領域に区分され、各領域に、所定の機能を実行するための選択肢が割り当てられている。リスト画像によって掲示された選択肢のうち、1つが選択(たとえば、その機能を指す項目の領域上をタップ)されると、CPU100は、当該選択肢に対応した処理を実行する。
図5(a)に示される画面は、中心軸が横方向(X軸方向)を向く、円柱状の立体オブジェクト501の画像を含む。立体オブジェクト501の周面に、リスト画像502が配されている。また、立体オブジェクト501の、図5(a)における右側の面(以下、「天面」と言う。)には、リスト画像502とは別のリスト画像505(図5(c)も参照)が配されている。
図5(a)を参照して、リスト画像502は、周方向に16個の領域に均等に区分されている。リスト画像502の各領域に、当該領域に割り当てられた機能を特定する文字列503と、当該機能を簡潔に表現する画像504が表示される。たとえば、図5(a)において、一番下の領域には、ウェブ検索の機能が割り当てられ、この領域に「Search」なる文字列503と、ウェブ検索を象徴したルーペを模した画像504が配される。ユーザは、各領域に表示された文字列503または画像504を視認することにより、各領域に割り当てられた機能を容易に特定できる。
なお、図5では、便宜上、画像504には、具体的な画像が図示されていないが、実際には、個々の画像504は、上記例の如くルーペを模した画像等、対応する機能をそれぞれ簡潔に表現するものとなっている。
図5(a)において、16種類の機能のうち半数の8種類の機能に関する項目のみが、表示面11cに表示されている。残りの項目は、立体オブジェクト501の背面に隠され、表示面11cには表示されない。
立体オブジェクト501の天面に配されたリスト画像505は円盤状であり、周方向に16個の領域に均等に区分されている。各領域は、扇形となっており、円弧の部分で、リスト画像502の各領域に繋がっている。すなわち、リスト画像505の各領域は、リスト画像502の各領域に1対1に対応している。リスト画像505の各領域には、リスト画像502の対応する領域に配された画像504と同じ画像506が配されている。リスト画像505の各領域には、リスト画像502の対応する領域と同じ機能が割り当てられている。
図5(a)の表示状態において、立体オブジェクト501上で縦方向(Y軸方向)にスライドまたはフリックの操作がなされると、CPU100は、表示面11cに表示された画面上において、立体オブジェクト501を、上記操作がなされた方向に、中心軸を中心に回転させる。これにより、リスト画像502上の、表示面11cに表示されていなかった項目が、新たに表示面11cに表示される。
図5(b)の表示状態において、表示面11cと入力面16aの立体オブジェクト501上の位置がそれぞれタッチされ、さらに、表示面11cに対して左方向(X軸負方向)へのスライドまたはフリックの操作がなされ、同時に、入力面16aに対して右方向(X
軸正方向)へのスライドまたはフリックの操作がなされると、CPU100は、表示面11cに表示された画面上において、立体オブジェクト501を、同図(d)〜(h)に順次示すように、左方向に回転させる。これにより、同図(c)に示すように、リスト画像505が表示面11cに表示される。
なお、スライド操作による場合には、第1入力位置P1と第2入力位置P2との間の、X軸方向における相対的な距離の変化量に応じて、立体オブジェクト501の回転量が決まる。立体オブジェクト501は、両位置の相対的な距離の変化量が大きくなるにつれて左方向に回転する。たとえば、図5(f)の状態で、第1入力位置P1と第2入力位置P2の位置が停止すると、立体オブジェクト501の回転も停止する。この状態で、表示面11cと入力面16aへのタッチが解除されると、立体オブジェクト501は、図5(f)の状態が維持される。なお、立体オブジェクト501が図5(c)の状態に達した後、さらに、第1入力位置P1と第2入力位置P2の移動が継続されても、立体オブジェクト501は、回転せずに、図5(c)の状態に維持される。
また、フリック操作による場合には、同図(d)の状態から、同図(e)、(f)、(g)の状態に遷移して、最終的に同図(h)の状態となる。すなわち、同図(b)の状態において、同図矢印の方向にフリック操作が行われると、立体オブジェクト501は、必ず、同図(c)の状態まで回転する。
また、図5(c)の表示状態において、表示面11cと入力面16aの立体オブジェクト501上の位置がそれぞれタッチされ、図5(b)の場合とは反対方向にスライドまたはフリックの操作がなされると、CPU100は、表示面11cに表示された画面上において、立体オブジェクト501を、同図(h)〜(d)に順次示すように、右方向に回転させる。これにより、同図(b)に示すように、リスト画像502が再び表示面11cに表示される。
本実施例では、図5(b)から図5(c)の状態に立体オブジェクト501を回転させるための操作、および、図5(c)から図5(b)の状態に立体オブジェクト501を回転させるための操作(スライド、フリック)が、図4のステップS402における“所定の操作”に対応し、また、当該操作に応じて立体オブジェクト501を回転させる処理が、図4のステップS403における“操作に対応して画面を変化させる”の処理に対応する。
なお、上記説明では、2つの入力位置(第1入力位置、第2入力位置)の両方が同時に変化することにより立体オブジェクト501の回転がなされたが、2つの入力位置のうち一方の入力位置が略静止し、他方の入力位置がスライドまたはフリック操作により移動することによって、立体オブジェクト501を回転させるようにしてもよい。これによって、図4のステップS402において“所定の操作”がなされたと判定されるバリエーションが増え、より容易に画面の切り替えが行われ得る。
以上、本実施例の構成によれば、表示面11cへの入力と入力面16aへの入力との組み合わせより、画像に対する所定の操作が行われるため、表示面11cへの入力のみによって所定の操作が行われる場合に比べて、操作のバリエーションを増やすことができる。これにより、あたかも立体オブジェクト501を2つの指でつまんで回転させるような、簡単で直感的に分かりやすい操作によって、立体オブジェクト501を回転させることができる。
また、本実施例の構成によれば、操作に応じて、立体オブジェクト501の画像が順次回転するため、ユーザは、自身がなす操作と画面の変化とが対応していることを容易に認
識できる。
さらに、本実施例によれば、ユーザは、図5(b)の状態において各領域に割り当てられた機能の詳細を把握することができ、また、図5(b)の状態から図5(c)の状態に変化させることにより、選択可能な全ての機能を把握することができる。よって、ユーザは、所望の機能を円滑に選択することができる。
なお、本実施例では、立体オブジェクト501の右側の天面にリスト画像505が配されたが、立体オブジェクト501の左側の天面にも、リスト画像505と同様のリスト画像が配されてもよい。この場合、CPU100は、図5(b)に示されるスライドまたはフリックの方向(白矢印参照)とは逆方向のスライドまたはフリックの操作に基づき、立体オブジェクト501を右方向に回転させ、左側の天面に配されたリスト画像を表示する。
<実施例2>
図6は、本実施例に係る処理が実行されたときの画面の遷移例を示す図である。本実施例では、地図閲覧のためのアプリケーションが実行されているときに、図4のステップS402、S403の処理が行われる。
ステップS402において、CPU100は、表示面11c上でスライドの操作がなされたか否かを判定する。たとえば、表示面11cと入力面16aの両方に対して指が触れた後、図6(a)の白矢印に示す如く、表示面11cに対して、スライドにより第1入力位置がP1(黒丸印)からP1´(白丸印)へ移動する操作がなされた場合に、CPU100は、ステップS402においてYESと判定する。
ステップS403において、CPU100は、表示面11cと入力面16aの両方に指が触れたときの第1入力位置P1と第2入力位置P2から、地図画像510上におけるP1−P2間の距離を取得する。そして、CPU100は、P1−P2間の距離がP1´−P2間の距離になるよう、地図画像510を拡大・縮小する。
具体的には、CPU100は、入力位置P1、P1´およびP2の座標に基づき、P1‐P2間の距離DとP1´‐P2間の距離D´を算出する。さらに、CPU100は、距離Dと距離D´より倍率R=D´/Dを算出する。そして、CPU100は、地図画像510を、第2入力位置P2を基点として、倍率Rで拡大または縮小する。地図画像510は、R>1の場合拡大され、R<1の場合縮小される。
以上、本実施例の構成によれば、入力面16aに対するタッチによって基点が定められるため、表示面11cに表示された地図画像510の拡大・縮小処理の基点の近傍の画像が指等で覆われない。このため、基点の近傍の画像が見えなくなることがなく、ユーザは、地図画像501を良好に視認しながら、表示面11cに対する操作により拡大率Rを定めることができる。また、ユーザは、拡大率Rを、表示面11cに対するスライドにより、地図と基点位置を視認しながら容易に指定できる。このように、ユーザは、簡単で直感的に分かりやすい操作によって、地図画像510を拡大・縮小できる。
なお、地図画像510に重ねて、第2入力位置P2上に所定のポインタの画像(たとえば、矢印状や図示の「X」字状のポインタ等)が表示される構成が採られてもよい。この場合、基点位置の正確な把握が可能であり、便利である。地図画像510の視認性を優先する場合には、ポインタの画像は表示されない方が望ましい。
<実施例3>
図7(a)〜(g)は、本実施例に係る処理が実行されているときの画面の遷移例を示す図である。
図7(a)において、表示面11cにアプリケーション起動画面520が表示されている。アプリケーション起動画面520は、アプリケーションの実行を開始するための複数(13個)のアイコン画像(以下、「アイコン」と言う。)521を含む。図7(a)のアプリケーション起動画面520が表示面11cに表示さているときに、本実施例の処理が実行される。
アイコンの削除とは、アプリケーション起動画面520に配されたアイコンの表示を解除することである。追って詳述するように、アイコン521は、「こねる操作」によって消去される。
図8(a)〜(f)は、こねる操作を説明する図である。
図8(a)〜(f)を参照して、「こねる操作」とは、表示面11cと入力面16aとが同時にタッチされている状態において、第1入力位置P1と第2入力位置P2との間の相対的な距離が、所定の範囲(たとえば数ミリメートル〜数センチ)内にあり、且つ、第1入力位置または2入力位置が変化する操作である。ここで、第1入力位置P1と第2入力位置P2との間の相対的な距離とは、第1入力位置P1と第2入力位置P2の、表示面11cに平行な方向(XY平面方向)における距離のことであり、換言すると、携帯電話機1の正面側から見たときの第1入力位置P1と第2入力位置P2との間の距離である。
CPU100は、取得した第1入力位置P1と第2入力位置P2の座標の位置と変化に基づき、なされた操作がこねる操作であるか否かを判定する。
図8(a)では、入力位置P1、P2が小さく円周を描くような、こねる操作が例示されている。こねる操作には、図8(b)〜(d)に示す如く、一方の入力位置(図の場合は第1入力位置P1)が、円周を描くよう移動する操作(図8(b))、略一方向へ前後して移動する操作(図8(c))、ランダムな方向へ移動する操作(図8(d))等が含まれる。一方の入力位置(第1入力位置、第2入力位置)のどちらが移動してもよい。また、入力位置の回転の向き(時計回り、反時計回り)もどちらでもよい。第1入力位置と第2入力位置は、上記の判定条件が満たされればそれぞれどのように移動してもよく、たとえば、図8(e)のように互いに略独立に移動してもよく、また図8(f)のように、略同調して移動してもよい。
ところで、一般に、表示面上にタッチセンサを備えた携帯電話機において、アイコンが配列された画面が表示されている場合においてユーザが1つのアイコンを削除するとき、ユーザは、対象のアイコンを、スライド操作により所定の位置(たとえばゴミ箱)へ移動させる。しかしながら、ユーザが上記のようにアイコンを削除する場合、アイコンが複数配列された画面上ではアイコンを削除するための所定の位置を見つけることが困難となる場合がある。
これに対し本実施例では、アイコン521上でなされるこねる操作に基づきアイコン521が削除される。このため、ユーザはアイコンを削除するための所定の位置を見つける必要がなくアイコンを削除することができる。
図9は、本実施例に係る処理手順を説明するためのフローチャートである。
上述の如く、図7(a)のアプリケーション起動画面520が表示面11cに表示さているときに、図9の処理が実行される。ステップS411の処理は、図4のステップS4
01の処理に同じである。
CPU100は、ステップS411において検出された入力が、アイコン521をこねる操作であるかを判定する(S412)。具体的には、CPU100は、表示面11cと入力面16a上の当該アイコン521の位置がタッチされ、且つ、表示面11cと入力面16a上において上述のこねる操作がなされたか否かを判定する。
たとえば、図7(a)に示す如く、上から2行目且つ右から2列目のアイコン521上においてこねる操作がなされた場合、ステップS412においてYESと判定する。
さらに、CPU100は、CPU100は、こねる操作の距離を検出し(S413)、図7(a)の表示状態において、このこねる操作の距離が所定閾値L1(たとえば数ミリメートル〜数センチメートル)に達すると(S414:YES)、後段(S415〜S420)に示される、対象のアイコン521を削除するための処理を実行する。こねる操作の距離が閾値L1に達しない場合には、こねる操作が継続する間、ステップS411〜S414の処理が繰り返し実行される。
また、こねる操作の距離がL1に達する前にアイコン521上でこねる操作が中断された場合(S412:NO)、ステップS411の処理へ戻る。
ここで、「こねる操作の距離」とは、こねる操作が開始されてから現在までの、こねる操作に基づく第1入力位置P1の移動距離(軌跡の長さ)と第2入力位置P2の移動距離との和である。ユーザがこねる操作を継続するに伴い、こねる操作の距離は増加する。なお、第1入力位置P1または第2入力位置P2が検出されなくなった場合、こねる操作の距離は、0にリセットされる。
たとえば、ユーザが、こねる操作の最中に、表示面11cと入力面16aにタッチした状態を保ったまま、指先を一時静止させた場合には、こねる操作の距離は、こねる操作の停止に応じて増加が停止する。この場合、こねる操作の距離は0にリセットされず、こねる操作が再開されたときに、こねる操作の距離も再び増加する。
さて、図9のステップS415において、CPU100は、図7(c)〜(f)に示す如く、対象とされるアイコン521を強調表示するとともに、こねる操作の距離に応じてアイコン521を、徐々に小さく、且つ、丸く変形する。この後も、第1入力位置P1と第2入力位置P2が検出された場合(S416:YES)、CPU100は、こねる操作の距離を引き続き検出し(S417)、こねる操作の距離が所定閾値L2以上(L2>L1:たとえば、L2はL1の数倍〜数十倍程度の大きさに設定できる。)であるか否かを判定する(S418)。こねる操作の距離が閾値L2に達しない間は、ステップS415〜S417が、こねる操作が継続する間、繰り返し実行される。
このようにアイコンが強調表示され、また縮小・変形されて表示されることにより、ユーザは、当該アイコンに対してこねる操作がなされていることを知ることができる。
こねる操作が継続された結果としてこねる操作の距離が閾値L2を超えた場合(S417:YES)、CPU100は、図7(b)に示す如く、アイコンの表示を解除する(S419)。これによってアイコンが削除される。なお、アイコンの削除の際(S419)、図7(g)に示す如く、アイコン521を削除したことを通知する画像を表示させる。図7(g)では、アイコン521がはじけて消えるかのような画像効果が示されている。
なお、こねる操作の距離が閾値L2に達する前に第1入力位置P1または第2入力位置
P2が検出されなくなった場合(S416:NO)、すなわち、表示面11cまたは入力面16aに対するタッチが解除されると、CPU100は、縮小・変形の過程(図7(c)〜(f))の状態で表示されていたアイコン521を、元の表示状態に戻し(S420)、図9に示される処理を終了する。
なお、CPU100は、対象のアイコン521およびその周辺の色調を変化させる画像効果を施すことにより、上記強調表示を行う。強調表示の方法は、対象のアイコン521がユーザの操作の対象になっていることを通知すれば良く、他の方法により強調表示されてもよい。
以上、本実施例の構成によれば、アイコン521上でこねる操作がなされると、当該アイコン521が、アプリケーション起動画面520から削除される。ユーザは、削除させたいアイコン521を丸め、あるいは、こすって消すかのような操作を表示面11cおよび入力面16aに対して行うことにより、アイコン521を削除できる。すなわち、ユーザは、簡単で直感的に分かりやすい操作で、アイコン521を削除できる。
アイコンの削除等、特定のオブジェクトを消滅させる操作は、通常、注意深く行われることが好ましい場合が多い。こねる操作は、スライド、タップおよびフリックの操作に比較して、被接触物の偶発的な接触によって誤検出されにくい。よって、本実施例によれば、アイコンの削除が誤って行われることを抑制できる。
なお、図7(c)〜(g)は、アイコン521の削除の過程をユーザに分かりやすく通知するための画像効果の一例である。こねる操作に基づいて、次第に削除の対象のアイコン521の明度が下がるなど、上記以外に各種の構成が採られ得る。また、このような画像効果が省かれた構成が採られることもできる。
<実施例4>
図10(a)、(b)は、本実施例に係る処理が実行されているときの画面の遷移例を示す図である。
実施例4では、両面スライドの操作に基づき、操作対象のアイコンが移動される。両面スライドとは、表示面11cと入力面16aとが同時にタッチされている状態において、第1入力位置P1と第2入力位置P2との間の相対的な距離が所定の範囲(たとえば数ミリメートル〜数センチ)内にある状態が保たれたまま、第1入力位置と第2入力位置が同じ方向に移動する操作である(図10(a)参照)。CPU100は、取得した第1入力位置P1と第2入力位置P2の座標に基づいて、なされた操作が両面スライドの操作であるか否かを判定する。
図10(a)、(b)は、図7(a)と同様の、アプリケーション起動画面520である。本実施例では、アプリケーション起動画面520が表示面11cに表示されているときに、処理が実行される。
図11は、本実施例に係る処理手順を説明するためのフローチャートである。
図11のステップS421の処理は、図4のステップS401の処理と同様である。表示面11cと入力面16a上のアイコン521上の位置がタッチされた場合(S422:YES)、CPU100は、後段(S423〜S425)の、アイコンを移動させるための処理を実行する。たとえば、図10(a)に示す如く、上から2行目且つ右から2列目のアイコン521上が表示面11cと入力面16a上においてタッチされた場合に、CPU100は、ステップS421、S422においてYESと判定する。
ステップS422においてYESと判定された後、CPU100は、両面スライドの操作に基づく第1入力位置P1と第2入力位置P2の移動に伴って(白矢印参照)、対象のアイコン521を移動させる(S424)。その後、第1入力位置P1または第2入力位置P2の何れか一方が検出されくなった場合(S424:NO)、CPU100は、両面スライドの操作が終了したとみなし、図10(b)に示す如く、両面スライドの操作による第1入力位置P1と第2入力位置P2の移動の終点位置の近傍の所定の位置に、対象のアイコン521を配置する(S425)。
なお、対象のアイコン521の移動の際、正確には、CPU100は、第1入力位置P1と第2入力位置P2の中間の位置の移動に伴い、対象のアイコン521を移動させる。
また、アイコン521を移動させる際、CPU100は、図10(a)に示す如く、操作の対象とされるアイコン521のサイズを拡大することにより、強調表示する。CPU100は、対象のアイコン521を強調表示することによって、このアイコン521が両面スライドの操作の対象であることを、ユーザへ通知する。アイコンの移動完了時、すなわちアイコン521が移動先に表示されるとき(S425)、この強調表示は解除される。
上記強調表示は、対象のアイコン521がユーザの操作の対象になっていることを通知できるものであれば良く、他の方法により強調表示がなされてもよい。強調表示は、アイコンのサイズの拡大に限らず、明度や彩度等の変化や対象のアイコン周辺に所定の画像効果を施すなど、各種の方法が用いられ得る。また、対象のアイコン521が強調表示されない構成が採られてもよい。
以上、本実施例の構成によれば、1つのアイコン521がつままれ、両面スライドの操作がなされると、そのスライドの操作に伴って、アイコン521が移動される。ユーザは、対象のアイコン521を指先でつまむかのような操作により、アイコン521を移動させることができる。このようなアイコン521の移動の操作は、簡単で直感的に分かりやすい。
なお、通常、表示面上にのみタッチセンサが配された携帯電話機の場合、スライドの操作は、複数の処理のために用いられ得る。たとえば、スライドの操作は、アイコンの移動の他、画面全体のスクロールにも用いられ得る。この場合、スライドの操作は、たとえば、タッチが開始された後に、所定時間(たとえば数百ミリ秒)以上略静止したか否かによって、上記2種類の処理の何れに対応するものであるかが識別される。このように若干異なる複数のスライドの操作が受け付けられる構成では、スライドの操作の誤検出や誤操作が起こり得る。
本実施例の構成によれば、両面スライドによる操作がアイコンの移動のための操作と判定されるため、アイコンの移動のための操作が、表示面11cのみに対する他のスライドの操作と明確に区別される。よって、アイコンの移動のための操作を誤検出することが抑制され得る。
<変更例1>
実施例1では、回転可能に表示される立体オブジェクト501の周面と天面に、図5の2つのリスト画像502、505が配されたが、リスト画像によって示される内容は、適宜変更されてもよい。本変更例では、立体オブジェクト501の周面に、リスト画像502の場合に比較して、より詳細な機能の説明を含むリスト画像が配される。
図12は(a)〜(c)は、本変更例に係る処理が実行されているときの画面の遷移例を示す図である。図12(a)に示される画面は、図5(a)と同様に、立体オブジェクト501の画像を含む。立体オブジェクト501の周面と天面に、リスト画像531、532が表示されている。リスト画像502と505と同様、リスト画像531の各領域とリスト画像532の各領域は、互いに対応している。
図12(a)に示す如く、本変更例では、リスト画像531の各領域に、機能を標記する文字列533と、この機能を詳細に説明する文字列534が表示される。ユーザは、文字列533、534を視認することにより、これらに対応する機能を詳細に知ることができる。リスト画像532の領域は、リスト画像531における領域に対応するように、扇形状の8つの領域に区分されている。リスト画像532の各領域には、リスト画像502において対応する領域の文字列533と同じ文字列535が、配されている。
本変更例においても、実施例1と同様、表示面11cと入力面16aに対するスライドまたはフリックの操作により(図12(b))、立体オブジェクト501が回転する。この結果、図12(c)に示す画面が表示される。よって、簡単で直感的に分かりやすい操作により、表示されるリスト画像を切り替えることができる。
<変更例2>
実施例2では、検出された第1入力位置および第2入力位置の変化に基づき、地図画像510が、拡大・縮小されたが、本変更例では、検出された第1入力位置および第2入力位置の変化に基づき、地図画像510が、拡大・縮小し、さらに回転する。
図13は、本変更例に係る処理が実行されているときの画面の遷移例を示す図である。本変更例に係る図4のフローチャートのステップS401、S402の処理は、実施例2におけるステップS401、S402の処理と同様である。
図4のステップS403において、CPU100は、実施例2と同様、タッチ位置P1(黒丸印)、P1´(白丸印)およびP2の座標を取得し、P1‐P2間の距離DとP1´‐P2間の距離D´から、倍率R=D´/Dを算出する。さらに、CPU100は、第2入力位置P2に対する第1入力位置P1、P1´のなす角θ=∠P1P2P1´(図13(b)参照)を、所定の演算処理の実行により算出する。そして、CPU100は、地図画像510を、第2入力位置P2を基点として、倍率Rで拡大または縮小させながら、第2入力位置P2を基点として、角度θだけ回転(図13(a)、(b)の場合は、時計回りに約40度回転)させる。
以上、本実施例の構成によれば、検出された入力位置P1、P1´、P2に基づいて、地図画像510が、第2入力位置P2を基点に拡大・縮小および回転する。ユーザは、回転の角度θをスライドによる簡単な操作により設定できる。このように、ユーザは、簡単で直感的に分かりやすい操作によって、地図画像510を拡大・縮小および回転させることができる。
なお、上記スライドの操作がなされている間、P1−P2間とP1´−P2間に図13(b)の如く、補助線(同図の一点鎖線)等、回転の角度を通知するための画像を地図画像510に重ねて表示する構成が採られてもよい。このような構成によって、ユーザが、回転の角度を容易に認識することができる。地図画像510の視認性を優先して、回転の角度を通知するための画像が表示されない構成が採られてもよい。
<その他>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態によって何
ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。
実施例3において、図9のステップS419の処理(アイコンの削除)は、適宜変更されてもよい。たとえば、こねる操作がなされたことに基づき対象のアイコンを消滅させる前または後において、図14(a)、(b)に示す如く、アイコンの削除に関する確認または通知のためのダイアログボックス画像(以下、「ダイアログ」と言う。)541、542を表示しても良い。ダイアログ541は、アイコンの削除を許可およびキャンセルするためのボタン541a、541bの画像を含む。ダイアログ542は、操作の対象のアイコンが削除されたことをユーザに通知するため文字列の画像を含み、アイコンの画像が消去された直後に一定時間だけ表示される。
また、実施例3で説明されたこねる操作の判定条件は、適宜修正され得る。たとえば、CPU100は、第1入力位置P1と第2入力位置P2との間の相対的な距離が、所定の範囲(たとえば数ミリメートル〜数センチ)内にあり、且つ、第1入力位置P1と2入力位置P2が相対的に変化する、両面タッチの操作を、こねる操作であると判定するよう構成し得る。ここで、「第1入力位置と2入力位置が相対的に変化する」とは、携帯電話機1の正面側から見たときの第1入力位置P1と第2入力位置P2との間の相対的な位置が変化することである。この場合においては、図8(f)で説明された操作はこねる操作であるとは判定されない。この場合における「こねる操作の距離」は、たとえば、第1入力位置P1と第2入力位置P2との相対的な位置の変化量(一方の入力位置を基点とした他方の入力位置の軌跡の長さ)と修正される。
この他、CPU100は、第1入力位置P1と第2入力位置P2との間の相対的な距離が、所定の範囲(たとえば数ミリメートル〜数センチ)内にあり、且つ、第1入力位置と2入力位置が所定条件に適合するよう変化する操作を、こねる操作であると判定する構成が採られてもよい。ここで、「所定条件」は、たとえば、第1入力位置P1と2入力位置P2が相対的に所定方向へ回転すること、および、第1入力位置P1または2入力位置P2が略一定の方向への反復的に移動を繰り返すこと等である。この場合においても、「こねる操作の距離」は、上記所定条件に従って、適宜修正できる。
さらに、CPU100が、これら複数のこねる操作を、適宜識別する構成が採られてもよい。たとえば、図7(a)を参照して、上述の判定条件の如く第1入力位置と2入力位置が相対的に時計回りに回転するこねる操作に基づき、アイコンが削除され、さらに、アイコン削除後、所定時間内に表示面11c上の略同一位置にて第1入力位置と2入力位置が相対的に反時計回りに回転するこねる操作が行われた場合、削除されたアイコンを再表示する構成が採られてもよい。
上記実施例1では、立体オブジェクト501が、横方向に立体的に回転したが、これに限らず、たとえば、図15(a)〜(o)に示す如く、オブジェクト551が、表示面11cと入力面16aへの操作に基づき、あらゆる方向に回転するよう表示されても良い。図15(a)〜(o)において、黒丸印は第1入力位置P1を表し、X字状印は第2入力位置P2を表す。図示の如く、検出される第1入力位置P1と第2入力位置P2の変化に基づき、オブジェクト551が回転する。ユーザは、あたかも実在する円柱体を指つまんで所望の方向へ回転させるかのように、オブジェクト551を回転させるよう操作できる。
また、上記変更例2では、地図画像510が拡大・縮小および回転したが、たとえば、地図画像510が回転のみするよう、処理が実行されてもよい。この場合、たとえば、CPU100は、図16(a)の如く、図6(a)と同様の操作による入力がなされると、
図16(b)に示す如く、第2入力位置P2を基点として、地図画像510を角度θ=∠P1P2P1´だけ回転させる。
また、図17(a)、(b)に示す如く、地図画像510が、第1入力位置P1と第2入力位置P2の双方の移動に伴って変化するよう構成されてもよい。たとえば、図17(a)に示す如く両面へのタッチの操作(2つの白矢印参照)がなされ、その後、第1入力位置がP1(黒丸印)からP1´(白丸印)へ移動し、第2入力位置がP2(「X」字印)からP2´(三角印)へ移動すると、CPU100は、図17(b)のように、第1入力位置(P1、P1´)と第2入力位置(P2、P2´)の移動に追随して、地図画像510を、移動、拡大・縮小および回転させる。すなわち、CPU100は、第2入力位置の移動に同調して地図画像510を平行移動させ、さらに、移動後の第2入力位置P2´を基点にして、地図画像510を拡大・縮小および回転させる。ここで、拡大・縮小に係る拡大率Rは、操作の開始時と終了時における、第1入力位置と第2入力位置との間の距離の比である。すなわち、DをP1−P2間の距離、D´をP1´−P2´間の距離とした場合、R=D´/Dである。また、回転に係る回転角θは、線分P1−P2と線分P1´‐P2´のなす角である。図17(b)では、図17(a)の地図画像510上のX字印の位置が三角印の位置に移動され、三角印の位置を中心に地図画像510が回転角θだけ時計方向に回転され、さらに、三角印の位置を中心に地図画像510が倍率Rだけ拡大されている。
また、上記実施例3では、こねる操作に基づき、アイコンが削除されたが、削除される対象は、アイコン以外の他のオブジェクトであっても良い。たとえば、電子文書(Electronic Document)等の作成や編集のための画像(オブジェクト)上においてこねる操作がなされた場合、作成または編集の作業の途中であった当該電子文書の編集のための画像が消滅されても良い。
この場合、オブジェクトの画像の消滅のための処理は、図9と同様の処理に基づいて実行され得る。ただし、図9のS412、S415、S419、S420における「アイコン」は、削除対象のオブジェクトとされる。オブジェクト消滅の過程において画像効果を表示面11cに表示するためのステップS415の処理は、オブジェクトに係るデータやアプリケーションの使用環境等に応じて、適宜修正できる。
たとえば、図18(a)〜(c)に示す如く、作成途中の電子メールの本文の画像の上でこねる操作がなされた場合に、電子メールの本文の画像560が、あたかも紙を小さく丸めるような画像効果(画像560a、画像560b参照)により、次第に消滅するように処理が行われる。こねる操作が所定距離以上なされると、CPU100は、図18(c)の如く、データ破棄が可能であることを通知する画像561を表示する。その後、指がリリースされると、CPU100は、作成途中のメール本文の画像を消去し、同時に、作成途中のメール本文のデータを破棄する。
なお、図9の処理では、こねる操作の距離に基づいて(S414、S418)、所定のオブジェクト(アイコン、電子メール本文等)が消滅される。しかしながら、こねる操作の距離に限られず、たとえばこねる操作が継続する時間に基づいて、所定のオブジェクトが消滅されるよう構成できる。
また、上記実施例1〜4では、第1入力位置P1と第2入力位置P2の組み合わせに基づき、表示面11cに表示されていた画面が変化した。しかしながら、表示面11cと入力面16aに対する入力の有無のみに基づいて、すなわち入力の位置に基づかず、画面が変化する構成がとられてもよい。たとえば、CPU100は、図19(a)に示す如く、所定の動画571の再生中に、表示面11cと入力面16aの任意の位置が略同時にタッ
プされたことに基づき(S402:YES)、当該再生を停止させることなく、図19(b)に示す如く表示面11cに画面を表示する。図19(b)示される表示面11cには、再生中の動画571を縮小した動画571aと、再生中の動画571に関する情報を説明する文字列572の画像を表示する(S403)。
上記実施例1〜4で説明された両面へのタッチの操作は、あくまで一例であり、他の形態による両面へのタッチに基づき、表示面11cに表示した画面が変更されてもよい。
たとえば、図20(a)に示す如く動画571の再生中に、入力面16aの任意の位置がタッチされ、且つ、表示面11cにおいて円周を描くようスライドの操作がなされた場合に(S402:YES)、そのスライドの周回数や周回の角度に基づいて、時計の針を回転させて時間を進めるが如く、現在再生中の動画をコマ送りする(S403)よう構成されてもよい。たとえば、図20(a)に示されるスライドの操作の時計回り1周分が1秒分のコマ送りに対応するよう構成され得る。この場合、CPU100は、スライドの操作による第1入力位置P1の変化に伴い、動画571をコマ送りする。たとえば、図20(a)に示す如く時計回りに、6周半スライドの操作がなされたら、CPU100は、図20(b)に示す如く、プログレスバー573および再生時間の表示部574の表示を6秒分進め、6.5秒後の瞬間の動画571を表示する。なお、反時計回りにスライドの操作がなされたら、CPU100は、同様に1周を1秒として、コマ戻し(時間を戻すようコマ送り)を実行する。
入力面16aが配されていない携帯電話機では、動画の再生中において、ディスプレイに表示されたプログレスバーに対する操作により、再生時間を指定することが可能である。しかし、プログレスバーに対する操作では、細かく(たとえば、1秒未満の時間単位で)時間指定することは困難な場合がある。対して、図20の操作では、ディスプレイに表示されたプログレスバーに対する操作よりも細かく再生時間を進退させることができる。
再生時間を細かく進退させる操作は、図20(a)に示される操作に限られる必要はない。たとえば、入力面16aの任意の位置がタッチされ、且つ、表示面11cにおいて、左右の方向へのスライドの操作がなされることに基づき、現在再生中の動画をコマ送りするよう構成できる。この場合、CPU100は、右方向または左方向への第1入力位置P1の移動距離に応じて(たとえば、数センチメートルの移動が1秒分程度のコマ送りまたはコマ戻しに対応する)、現在再生中の動画をコマ送りまたはコマ戻しする。
上記実施例1〜4で説明された表示面11cおよび入力面16aの両方に対する入力により、複数の操作が受付可能であるよう構成できる。たとえば、アプリケーション起動画面が表示面11cに表示された状態において、実施例3で説明されたアイコンを削除するための操作(図7)と、実施例4で説明されたアイコンを移動するための操作(図10)との両方が、互いに識別可能に受け付られる構成が採られ得る。
さらに、上記実施の形態では、いわゆるストレート式の携帯電話機(スマートフォンを含む)に本発明が適用されている。しかしながら、これに限らず、いわゆる折り畳み式、スライド式等、他のタイプの携帯電話機に本発明が適用されてもよい。
さらに、本発明は、携帯電話機に限られず、PDA(Personal DigitalAssistant)、タブレットPC(Tablet PC)、電子書籍端末等、他の携帯端末装置にも適用可能である。
また、たとえば、ディスプレイの正面側から背面側が透ける、いわゆる透明ディスプレイが備えられた携帯端末装置にも、本発明が適用できる。この場合、当該ディスプレイの
表面と、これに背向する面とに、タッチセンサが備えられる。
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
11 ディスプレイ (表示部)
11c 表示面
12 タッチセンサ (第1検出部)
16 タッチセンサ (第2検出部)
16a 入力面 (面)
100 CPU (画面制御部)
P1、P1´ 第1入力位置
P2、P2´ 第2入力位置

Claims (8)

  1. 表示面を有する表示部と、
    前記表示面に対するタッチ入力の位置を検出する第1検出部と、
    前記表示面に背向する面に対するタッチ入力の位置を検出する第2検出部と、
    前記第1検出部により検出された第1入力位置と前記第2検出部により検出された第2入力位置との組み合わせに基づいて、前記表示部に表示された画面を変化させる制御を行う画面制御部と、を備え、
    前記画面制御部は、前記第1入力位置と前記第2入力位置との間の相対的な距離が所定の範囲内にあり、且つ、少なくとも前記第1入力位置または前記第2入力位置が変化した場合、変化した入力位置の移動距離または移動時間に応じて前記第1入力位置に表示されたオブジェクトを徐々に小さくし、前記移動距離または前記移動時間が所定の閾値を超えたとき前記オブジェクトを消滅させるように前記画面を変化させる、
    ことを特徴とする携帯端末装置。
  2. 請求項1に記載の携帯端末装置において、
    記画面制御部は、前記オブジェクトがくしゃくしゃになって小さく丸まるような画像効果により、前記オブジェクトを徐々に小さくする、
    ことを特徴とする携帯端末装置。
  3. 請求項2に記載の携帯端末装置において、
    前記画面制御部は、前記第1入力位置および前記第2入力位置の関係の変化に基づき、前記画面の少なくとも一部に対して、拡大、縮小、移動または回転のうち少なくとも一つを含む制御を行う、
    ことを特徴とする携帯端末装置。
  4. 請求項2または3に記載の携帯端末装置において、
    前記画面制御部は、前記第1検出部と前記第2検出部が前記画面に含まれるアイコン画像が表示される領域に対応する位置においてタッチ入力を検出した場合、前記第1入力位置および前記第2入力位置の移動に伴い、前記アイコン画像を移動させる制御を行う、
    ことを特徴とする携帯端末装置。
  5. 請求項に記載の携帯端末装置において、
    前記画面制御部は、前記第1入力位置と前記第2入力位置との間の相対的な距離が所定の範囲内にあり、且つ、少なくとも前記第1入力位置または記第2入力位置が、円周を描くように、または行き来するように変化した場合、変化した入力位置の移動距離または移動時間に応じて前記第1入力位置に表示されたオブジェクトを徐々に小さくし、前記移動距離または前記移動時間が前記所定の閾値を超えたとき前記オブジェクトを消滅させるように前記画面を変化させる、
    ことを特徴とする携帯端末装置。
  6. 請求項に記載の携帯端末装置において、
    前記画面制御部は、記第1検出部と前記第2検出部が前記画面に含まれるアイコン画像が表示される領域に対応する位置においてタッチ入力を検出し、且つ、当該領域上において前記第1入力位置または記第2入力位置が変化した場合、変化した入力位置の移動距離または移動時間に応じて前記アイコン画像を徐々に小さくし、前記移動距離または前記移動時間が前記所定の閾値を超えたとき前記アイコン画像を消滅させるように前記画面を変化させる、
    ことを特徴とする携帯端末装置。
  7. 表示面を有する表示部と、前記表示面に対するタッチ入力の位置を検出する第1検出部と、前記表示面に背向する面に対するタッチ入力の位置を検出する第2検出部と、を有する携帯端末装置のコンピュータに、
    前記第1検出部により検出された第1入力位置と前記第2検出部により検出された第2入力位置との組み合わせに基づいて、前記表示部に表示された画面を変化させる制御機能を付与するプログラムであって、
    前記制御機能は、前記第1入力位置と前記第2入力位置との間の相対的な距離が所定の範囲内にあり、且つ、少なくとも前記第1入力位置または前記第2入力位置が変化した場合、変化した入力位置の移動距離または移動時間に応じて前記第1入力位置に表示されたオブジェクトを徐々に小さくし、前記移動距離または前記移動時間が所定の閾値を超えたとき前記オブジェクトを消滅させるように前記画面を変化させる機能を含む、
    ことを特徴とするプログラム。
  8. 表示面を有する表示部と、前記表示面に対するタッチ入力の位置を検出する第1検出部と、前記表示面に背向する面に対するタッチ入力の位置を検出する第2検出部と、を有する携帯端末装置の表示制御方法において、
    前記第1検出部により検出された第1入力位置と前記第2検出部により検出された第2入力位置との組み合わせに基づいて、前記表示部に表示された画面を変化させる制御ステップを備え、
    前記制御ステップは、前記第1入力位置と前記第2入力位置との間の相対的な距離が所定の範囲内にあり、且つ、少なくとも前記第1入力位置または前記第2入力位置が変化した場合、変化した入力位置の移動距離または移動時間に応じて前記第1入力位置に表示されたオブジェクトを徐々に小さくし、前記移動距離または前記移動時間が所定の閾値を超えたとき前記オブジェクトを消滅させるように前記画面を変化させるステップを含む、
    ことを特徴とする表示制御方法。
JP2011142375A 2011-06-27 2011-06-27 携帯端末装置、プログラムおよび表示制御方法 Expired - Fee Related JP5694867B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011142375A JP5694867B2 (ja) 2011-06-27 2011-06-27 携帯端末装置、プログラムおよび表示制御方法
US13/533,568 US20120327122A1 (en) 2011-06-27 2012-06-26 Mobile terminal device, storage medium and display control method of mobile terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011142375A JP5694867B2 (ja) 2011-06-27 2011-06-27 携帯端末装置、プログラムおよび表示制御方法

Publications (2)

Publication Number Publication Date
JP2013008340A JP2013008340A (ja) 2013-01-10
JP5694867B2 true JP5694867B2 (ja) 2015-04-01

Family

ID=47361431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011142375A Expired - Fee Related JP5694867B2 (ja) 2011-06-27 2011-06-27 携帯端末装置、プログラムおよび表示制御方法

Country Status (2)

Country Link
US (1) US20120327122A1 (ja)
JP (1) JP5694867B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD841016S1 (en) 2014-12-31 2019-02-19 Sony Corporation Display panel or screen with graphical user interface
CN109828710A (zh) * 2019-01-21 2019-05-31 维沃移动通信有限公司 一种图像处理方法和移动终端

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2708995A4 (en) * 2011-05-12 2014-10-01 Nec Casio Mobile Comm Ltd ELECTRONIC DEVICE, METHOD FOR CONTROLLING IT AND PROGRAM THEREFOR
JP5460679B2 (ja) * 2011-11-28 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法、およびコンテンツファイルのデータ構造
US9204131B2 (en) * 2012-09-14 2015-12-01 Nokia Technologies Oy Remote control system
US10456590B2 (en) * 2012-11-09 2019-10-29 Biolitec Unternehmensbeteiligungs Ii Ag Device and method for laser treatments
KR20140061007A (ko) * 2012-11-13 2014-05-21 엘지이노텍 주식회사 터치 패널 및 이의 입력 방법
JP6087608B2 (ja) * 2012-12-10 2017-03-01 キヤノン株式会社 携帯可能な装置、携帯可能な装置を制御する方法およびプログラム
WO2014105279A1 (en) * 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
US10025459B2 (en) 2013-03-14 2018-07-17 Airwatch Llc Gesture-based workflow progression
US9082223B2 (en) * 2013-03-15 2015-07-14 Dreamworks Animation Llc Smooth manipulation of three-dimensional objects
CN105103110B (zh) 2013-03-27 2018-07-27 日本电气株式会社 信息终端、显示控制方法和程序
KR102034584B1 (ko) * 2013-06-20 2019-10-21 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
CN103324347B (zh) * 2013-06-27 2017-09-22 广东欧珀移动通信有限公司 一种基于多触控面板的移动终端的操作方法和系统
US9612736B2 (en) * 2013-07-17 2017-04-04 Korea Advanced Institute Of Science And Technology User interface method and apparatus using successive touches
CN104423855B (zh) * 2013-08-26 2019-01-15 联想(北京)有限公司 一种信息处理方法及电子设备
JP6213076B2 (ja) * 2013-09-05 2017-10-18 コニカミノルタ株式会社 タッチパネル入力装置、タッチパネル入力装置の制御方法、およびタッチパネル入力装置の制御プログラム
JP6530160B2 (ja) * 2013-11-28 2019-06-12 京セラ株式会社 電子機器
WO2015079700A1 (ja) * 2013-11-28 2015-06-04 京セラ株式会社 電子機器
US10540943B2 (en) 2014-03-25 2020-01-21 Sony Corporation Display control apparatus and display control method
KR20150137452A (ko) * 2014-05-29 2015-12-09 삼성전자주식회사 디스플레이 장치 제어 방법 및 이를 위한 원격 제어 장치
JP2016024580A (ja) * 2014-07-18 2016-02-08 富士通株式会社 情報処理装置、入力制御方法、および入力制御プログラム
DE102014014498B4 (de) * 2014-09-25 2024-08-08 Alcon Inc. Mit einem Touchscreen ausgestattetes Gerät sowie Verfahren zur Steuerung eines derartigen Geräts
JP6468089B2 (ja) * 2015-06-15 2019-02-13 カシオ計算機株式会社 表示装置、表示方法及びプログラム
KR20170008640A (ko) 2015-07-14 2017-01-24 엘지전자 주식회사 투명 디스플레이 장치 및 그의 동작 방법
CN105549868A (zh) * 2015-07-25 2016-05-04 宇龙计算机通信科技(深圳)有限公司 一种移动终端操作处理方法、装置和移动终端
JP2017064862A (ja) * 2015-09-30 2017-04-06 シャープ株式会社 ロボット装置
JP6553547B2 (ja) * 2016-05-31 2019-07-31 日本電信電話株式会社 データ表示装置、データ表示方法、及びプログラム
JP6938119B2 (ja) 2016-06-28 2021-09-22 株式会社ジャパンディスプレイ 入力機能付き透明ディスプレイ
DE112017007915T5 (de) * 2017-10-11 2020-05-20 Mitsubishi Electric Corporation Bedienungseingabevorrichtung, informationsverarbeitungssystem und bedienungsbestimmungsverfahren
KR20200091522A (ko) 2019-01-22 2020-07-31 삼성전자주식회사 컨텐츠의 표시 방향을 제어하기 위한 방법 및 그 전자 장치
JP7095038B2 (ja) * 2020-08-18 2022-07-04 株式会社ジャパンディスプレイ 入力機能付き透明ディスプレイ
WO2023079758A1 (ja) * 2021-11-08 2023-05-11 バルミューダ株式会社 情報処理装置と情報処理プログラムと情報処理方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5544295A (en) * 1992-05-27 1996-08-06 Apple Computer, Inc. Method and apparatus for indicating a change in status of an object and its disposition using animation
US9727082B2 (en) * 2005-04-26 2017-08-08 Apple Inc. Back-side interface for hand-held devices
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8091045B2 (en) * 2007-01-07 2012-01-03 Apple Inc. System and method for managing lists
JP4762262B2 (ja) * 2008-03-13 2011-08-31 シャープ株式会社 情報表示装置及び情報表示方法
US20090231288A1 (en) * 2008-03-17 2009-09-17 Inventec Corporation Hand-held electronic device and combined input method thereof
US8130207B2 (en) * 2008-06-18 2012-03-06 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
US8296728B1 (en) * 2008-08-26 2012-10-23 Adobe Systems Incorporated Mobile device interaction using a shared user interface
US20100053111A1 (en) * 2008-09-04 2010-03-04 Sony Ericsson Mobile Communications Ab Multi-touch control for touch sensitive display
US8836645B2 (en) * 2008-12-09 2014-09-16 Microsoft Corporation Touch input interpretation
JP2010146506A (ja) * 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
US8407606B1 (en) * 2009-01-02 2013-03-26 Perceptive Pixel Inc. Allocating control among inputs concurrently engaging an object displayed on a multi-touch device
CN101996031A (zh) * 2009-08-25 2011-03-30 鸿富锦精密工业(深圳)有限公司 具有触摸输入功能的电子装置及其触摸输入方法
JP2011070609A (ja) * 2009-09-28 2011-04-07 Fujitsu Ltd タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム
JP5363259B2 (ja) * 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
TW201112074A (en) * 2009-09-30 2011-04-01 Higgstec Inc Touch gesture detecting method of a touch panel
JP5458842B2 (ja) * 2009-12-02 2014-04-02 ソニー株式会社 遠隔操作装置、遠隔操作システム、遠隔操作方法およびプログラム
EP2341419A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
TWI605359B (zh) * 2010-04-02 2017-11-11 晨星半導體股份有限公司 觸控板之手勢辨識方法與手勢辨識裝置
JP2012141869A (ja) * 2011-01-05 2012-07-26 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP5710381B2 (ja) * 2011-05-25 2015-04-30 株式会社Nttドコモ 表示装置、表示制御方法及びプログラム
JP5817374B2 (ja) * 2011-09-16 2015-11-18 株式会社リコー 画像処理装置、画像処理方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD841016S1 (en) 2014-12-31 2019-02-19 Sony Corporation Display panel or screen with graphical user interface
CN109828710A (zh) * 2019-01-21 2019-05-31 维沃移动通信有限公司 一种图像处理方法和移动终端
CN109828710B (zh) * 2019-01-21 2020-09-25 维沃移动通信有限公司 一种图像处理方法和移动终端

Also Published As

Publication number Publication date
JP2013008340A (ja) 2013-01-10
US20120327122A1 (en) 2012-12-27

Similar Documents

Publication Publication Date Title
JP5694867B2 (ja) 携帯端末装置、プログラムおよび表示制御方法
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
JP5722642B2 (ja) 携帯端末装置
US20160357412A1 (en) Device, Method, and Graphical User Interface for Providing and Interacting with a Virtual Drawing Aid
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
EP2068235A2 (en) Input device, display device, input method, display method, and program
US9848329B2 (en) Portable terminal and lock state control method
JP6050784B2 (ja) 電子機器及び制御プログラム並びに電子機器の動作方法
KR20150092672A (ko) 복수 개의 윈도우를 디스플레이하는 방법 및 장치
KR20120079271A (ko) 이동 단말기 및 그 제어방법
JP5854928B2 (ja) タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法
JP6183820B2 (ja) 端末、及び端末制御方法
WO2013080704A1 (ja) 電子機器、動作制御方法および記録媒体
KR20140079959A (ko) 제어영역을 이용한 터치스크린 제어방법 및 이를 이용한 단말
JPWO2013047023A1 (ja) 表示装置、表示方法およびプログラム
JP6154184B2 (ja) 表示制御方法、表示制御プログラム、および、携帯情報端末
JP2016178598A (ja) 携帯端末およびプログラム
EP2977878B1 (en) Method and apparatus for displaying screen in device having touch screen
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
KR20120094728A (ko) 유저인터페이스 제공 방법 및 이를 이용한 휴대 단말기
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
JP2014044673A (ja) 携帯端末装置
JP2016062156A (ja) 端末装置
KR20120008660A (ko) 이동 단말기에서 맵 화면 이동방법 및 그 방법을 이용한 이동 단말기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150205

R150 Certificate of patent or registration of utility model

Ref document number: 5694867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees