JP5343692B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP5343692B2
JP5343692B2 JP2009115862A JP2009115862A JP5343692B2 JP 5343692 B2 JP5343692 B2 JP 5343692B2 JP 2009115862 A JP2009115862 A JP 2009115862A JP 2009115862 A JP2009115862 A JP 2009115862A JP 5343692 B2 JP5343692 B2 JP 5343692B2
Authority
JP
Japan
Prior art keywords
information
user operation
display screen
predetermined area
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009115862A
Other languages
English (en)
Other versions
JP2010266961A (ja
Inventor
麗子 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009115862A priority Critical patent/JP5343692B2/ja
Priority to EP10157615.5A priority patent/EP2251776B1/en
Priority to ES10157615.5T priority patent/ES2634897T3/es
Priority to US12/770,390 priority patent/US8970630B2/en
Priority to CN201010172721.2A priority patent/CN101887345B/zh
Publication of JP2010266961A publication Critical patent/JP2010266961A/ja
Application granted granted Critical
Publication of JP5343692B2 publication Critical patent/JP5343692B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関し、例えば表示画面に情報を表示させる際に適用して好適なものである。
従来、情報処理装置は、ユーザ操作に応じて、表示部の表示画面に表示させている画像を拡大又は縮小させるズームや当該画像のスクロールを行うようになされている。
このような情報処理装置は、ユーザにより例えば表示画面に対するタッチ操作が行われると、当該タッチ操作に応じて画像のズームを行うようになされている。またこのような情報処理装置は、ユーザにより例えばユーザの指を表示画面にタッチさせたまま移動させる操作(以下、これをドラッグ操作とも呼ぶ)が行われると、当該ドラッグ操作に応じて画像のスクロールを行うようになされている。
ところで、例えばユーザが地図などの大きな平面を有する画像において所望の位置を探す際など、画像のズーム及びスクロールを同時に行った方が所望の位置を探しやすくユーザにとって便利である場合が考えられる。
そこで、ユーザにドラッグ操作を行わせるだけで、画像のスクロールだけでなく、画像のズームも同時に行うことのできる情報処理装置が提案されている(例えば、非特許文献1及び2参照)。この情報処理装置では、ドラッグ操作の移動速度に応じて画像のズームを行いつつ、ドラッグ操作の移動距離、移動方向などに応じて画像のスクロールを行うようになされている。
五十嵐健夫、KenHinckley、「移動速度に応じた自動ズーミングによる効率的ナビゲーション」、[Online]、2000年12月、インタラクティブシステムとソフトウェアに関するワークショップVIII 日本ソフトウェア科学会、[2009年3月10日検索]、インターネット<URL:http://www-ui.is.s.u-tokyo.ac.jp/~takeo/papers/wiss2000.pdf>
TakeoIgarashi、Ken Hinckley、「Speed-dependent automatic zooming for browsing largedocuments」、[Online]、November 5-8,2000、13th Annual Symposium on User InterfaceSoftware and Technology、[2009年3月10日検索]、インターネット<URL:http://www-ui.is.s.u-tokyo.ac.jp/~takeo/papers/uist2000.pdf>
ところで上述した情報処理装置は、ドラッグ操作に応じて画像のズームとスクロールとを同時に行うことができる反面、画像のズームとスクロールとを別々に行うことができなくなってしまっていた。
そこで、ユーザ操作に応じて、画像のズームなど表示画面に表示させる情報の詳細度の変更と当該情報のスクロールとを同時に行うか又は別々に行うかを選択して行うことができれば、情報処理装置の操作性を格段と向上させることができると考えられる。
本発明は以上の点を考慮してなされたもので、一段と操作性を向上し得る情報処理装置、情報処理方法及び情報処理プログラムを提案しようとするものである。
かかる課題を解決するため本発明においては、操作認識部により表示部の表示画面に対するユーザ操作を認識判別部により操作認識部によって認識されたユーザ操作が表示画面の所定領域内を起点とする操作であるかどうかを判別制御部により判別部によってユーザ操作が所定領域内を起点とする操作であると判別された際は、所定領域内からユーザ操作による表示画面へのタッチ位置が離れるほど、表示画面に表示させている情報の詳細度を下げつつ当該情報をスクロールさせ、また所定領域内からユーザ操作による表示画面へのタッチ位置が一旦離れた後、所定領域へ戻すように近づくにつれ、表示画面に表示させている情報の詳細度を上げつつ当該情報をスクロールさせ、判別部によってユーザ操作が所定領域内を起点とする操作ではないと判別された際は、ユーザ操作に応じて、情報の詳細度の変更又は当該情報のスクロールのいずれかを行うようにした。
これにより本発明の情報処理装置は、操作の起点を変えるという簡易な操作をユーザに行わせるだけで、表示画面に表示させている情報の詳細度の変更と当該情報のスクロールとを同時に行うか又は別々に行うかを選択させることができると共に、ユーザに所定領域内を起点とする操作の仕方を変えさせるだけで、表示画面に表示させている情報の詳細度をどのように変更させるのかを容易に選択させることができる
本発明によれば、操作認識部により表示部の表示画面に対するユーザ操作を認識し、判別部により操作認識部によって認識されたユーザ操作が表示画面の所定領域内を起点とする操作であるかどうかを判別し、制御部により判別部によってユーザ操作が所定領域内を起点とする操作であると判別された際は、所定領域内からユーザ操作による表示画面へのタッチ位置が離れるほど、表示画面に表示させている情報の詳細度を下げつつ当該情報をスクロールさせ、また所定領域内からユーザ操作による表示画面へのタッチ位置が一旦離れた後、所定領域へ戻すように近づくにつれ、表示画面に表示させている情報の詳細度を上げつつ当該情報をスクロールさせ、判別部によってユーザ操作が所定領域内を起点とする操作ではないと判別された際は、ユーザ操作に応じて、情報の詳細度の変更又は当該情報のスクロールのいずれかを行うようにしたことにより、操作の起点を変えるという簡易な操作をユーザに行わせるだけで、表示画面に表示させている情報の詳細度の変更と当該情報のスクロールとを同時に行うか又は別々に行うかを選択させることができると共に、ユーザに所定領域内を起点とする操作の仕方を変えさせるだけで、表示画面に表示させている情報の詳細度をどのように変更させるのかを容易に選択させることができ、かくして一段と操作性を向上し得る情報処理装置、情報処理方法及び情報処理プログラムを実現することができる。
本発明の第1及び第2の実施の形態における情報処理装置の構成を示す略線図である。 本発明の第1の実施の形態における地図情報の詳細度の変更の説明に供する略線図である。 本発明の第1の実施の形態における地図画面(1)の構成を示す略線図である。 本発明の第1の実施の形態における地図情報変更操作の説明に供する略線図である。 本発明の第1の実施の形態における地図画面(2)の構成を示す略線図である。 本発明の第1の実施の形態における地図情報変更操作処理手順を示すフローチャートである。 本発明の第1乃至第3の実施の形態における情報処理装置の機能構成を示すブロック図である。 本発明の第2の実施の形態におけるモチカーソル表示処理手順を示すフローチャートである。 本発明の第3の実施の形態における情報処理装置の構成を示す略線図である。 本発明の第3の実施の形態における楽曲関連情報のフォルダ構造の説明に供する略線図である。 本発明の第3の実施の形態における楽曲関連情報の詳細度の変更の説明に供する略線図である。 本発明の第3の実施の形態における楽曲選択画面の構成を示す略線図である。 本発明の第3の実施の形態における楽曲関連情報変更操作処理手順を示すフローチャートである。 本発明の他の実施の形態における画像閲覧画面の構成を示す略線図である。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.他の実施の形態
<1.第1の実施の形態>
[1−1.情報処理装置の全体構成]
まず、第1の実施の形態について説明する。図1において、1は全体として情報処理装置を示す。この情報処理装置1は携帯型であり、図1(A)に示すように片手で把持し得る程度の大きさ(いわゆる手の平サイズ)でなる扁平矩形状の筐体2を有する。
この筐体2の表面には、長方形板状の表示部3が設けられている。表示部3は、LCD(Liquid Crystal Display)3A(図1(B))の表示面上に、透明なタッチパネル3B(図1(B))を張り付けるようにして形成されている。
つづいて、情報処理装置1の各回路部を、図1(B)を用いて説明する。情報処理装置1では、各回路部がバス10を介して接続されている。CPU11は、不揮発性メモリ12に記憶されているプログラムをRAM(Random Access Memory)13に読み出す。そしてCPU11は、読み出したプログラムをRAM13上で展開し、この展開したプログラムに従って各回路部を制御すると共に、各種処理を実行するようになされている。
タッチパネル3Bは、タッチパネル3Bに対してユーザの指がタッチされると、ユーザの指がタッチされた位置(以下、これをタッチ位置とも呼ぶ)をCPU11に送出する。因みにここでは、静電容量方式のタッチパネル3Bを用いている。
CPU11は、当該タッチ位置をLCD3Aに表示させる表示画面内の座標として検出する。そしてCPU11は、その検出した座標に命令が対応付けられているかどうかを判別し、命令が対応付けられていると判別した場合にはその命令に応じて各種処理を行うようになされている。
[1−2.地図情報変更操作]
次に、この情報処理装置1での地図情報変更操作について、詳しく説明する。CPU11は、ユーザ操作により地図情報を表示するアプリケーションを起動するよう指示されると、不揮発性メモリ12から地図情報データを読み出す。そしてCPU11は、地図情報データに基づいて、任意の地域の地図情報を表示する地図画面20(図3)をLCD3Aに表示させる。
CPU11は、タッチパネル3Bに対するユーザ操作に応じて、地図画面20に表示させる地図情報をスクロールさせたり、地図情報の縮尺など地図情報の詳細度を変更させたりするようになされている。
まずここで、この地図画面20における地図情報の詳細度の変更について、図2を用いて説明する。CPU11は、不揮発性メモリ12から例えば地図画像データを読み出し、これに基づいて地図画面20に地図情報として地図画像PMを表示させる。
そしてCPU11は、ユーザ操作により地図情報の詳細度を上げるよう指示されると、当該操作に応じて、地図情報の縮尺を上げ、当該縮尺に対応した地図画像PMを表示させる。
またCPU11は、ユーザ操作に応じて地図情報の縮尺を上げた結果、地図情報の縮尺が所定値となり、さらにユーザ操作により地図情報の詳細度を上げるよう指示されたとする。このときCPU11は、不揮発性メモリ12から地図画面20に表示させている地図画像PMに対応する航空写真画像データを読み出し、これに基づいて地図画面20に地図情報として航空写真画像PSを表示させる。
そしてCPU11は、ユーザ操作により地図情報の詳細度を上げるよう指示されると、当該操作に応じて、地図情報の縮尺を上げ、当該縮尺に対応した航空写真画像PSを表示させる。
またCPU11は、ユーザ操作に応じて地図情報の縮尺を上げた結果、地図情報の縮尺が所定値となり、さらにユーザ操作により地図情報の詳細度を上げるよう指示されたとする。
このときCPU11は、施設の構内図やフロアマップなどである詳細地図を有する施設が地図画面20内に表示されているかどうかを判別する。
具体的に不揮発性メモリ12には、ビル、駅、娯楽施設などの施設に関する施設情報が地図画像PM及び航空写真画像PSに対応付けられた状態で記録されている。施設情報には、施設の名称、緯度経度情報、詳細地図データなどが対応付けられている。
CPU11は、地図画面20に表示させている航空写真画像PSに対応付けられている施設情報の中に詳細地図データが対応付けられている施設情報があった場合、詳細地図を有する施設が地図画面20内に表示されていると判別する。
そしてCPU11は、詳細地図を有する施設が地図画面20内に表示されていた場合、不揮発性メモリ12からその施設に対応する詳細地図データを読み出す。そしてCPU11は、当該詳細地図データに基づく詳細地図画像PCを地図情報として地図画面20に表示させる。
このようにCPU11は、地図画面20において地図情報の詳細度を上げるよう指示されると、地図情報の縮尺を上げ、当該縮尺に対応する地図画像PM又は航空写真画像PSを表示させるようになされている。
またCPU11は、地図画面20において地図情報の詳細度を上げるよう指示されたとき、地図情報の縮尺が所定値であると、表示させる画像を地図画像PMから航空写真画像PS、又は航空写真画像PSから詳細地図画像PCに切り替えるようになされている。つまりCPU11は、地図画面20に表示させている地図情報としての画像を現在よりも詳細度の高い画像に切り替えるようになされている。
一方CPU11は、地図画面20において地図情報の詳細度を下げるよう指示されると、地図情報の縮尺を下げ、当該縮尺に対応する地図画像PM又は航空写真画像PSを表示させるようになされている。
またCPU11は、地図画面20において地図情報の詳細度を下げるよう指示されたとき、地図情報の縮尺が所定値であると、表示させる画像を詳細地図画像PCから航空写真画像PS、又は航空写真画像PSから地図画像PMに切り替えるようになされている。つまりCPU11は、地図画面20に表示させている地図情報としての画像を現在よりも詳細度の低い画像に切り替えるようになされている。
次に、地図画面20において、地図情報の詳細度の変更やスクロールに対応するユーザ操作について具体的に説明する。
CPU11は、ユーザ操作により地図情報を表示するアプリケーションを起動するよう指示されると、図3に示す地図画面20をLCD3Aに表示させる。
地図画面20は、地図画面20の全体に地図情報を表示させる地図情報表示領域21と、円形状でなる半透明のカーソル(以下、これをモチカーソルとも呼ぶ)MCを表示させる領域(以下、これをモチカーソル表示領域とも呼ぶ)MRとから構成されている。
モチカーソル表示領域MRは、LCD3Aの表示画面の中央(以下、これを画面中央とも呼ぶ)MPを中心とし例えば人間の指の太さと同じくらいの直径でなる円形状の領域であり、地図情報表示領域21内に設けられている。CPU11は、モチカーソルMCをモチカーソル表示領域MRの全体を覆うようにして表示させる。またCPU11は、当該モチカーソルMCを地図情報の上に重ねて表示させ、モチカーソルMCの下にある地図情報が透けて見えるような状態にする。
ここで図4(A)に示すように、ユーザによりモチカーソル表示領域MR内の位置を起点とするドラッグ操作が任意の方向(例えば斜め右上方向)に行われたとする。
このときCPU11は、タッチパネル3Bを介して、ドラッグ操作開始の際のタッチ位置TPがモチカーソル表示領域MR内であることを認識すると、モチカーソル表示領域MR内の位置を起点とするドラッグ操作が開始されたことを認識する。尚、このモチカーソル表示領域MR内の位置を起点とするドラッグ操作のことをモチドラッグ操作とも呼ぶ。
そしてCPU11は、ユーザの指の移動、すなわちタッチ位置TPの移動に合わせて、モチカーソルMCをモチカーソル表示領域MRからタッチ位置TPまで餅のように伸ばして表示させる。このようにCPU11は、モチカーソルMCをタッチ位置TPの移動に合わせて伸縮して表示させるようになされている。
またこのときCPU11は、地図情報の詳細度を変更させつつ地図情報をスクロールさせるよう指示されたことを認識し、モチドラッグ操作に応じて、地図情報表示領域21に表示させている地図情報の詳細度を変更しつつ地図情報をスクロールさせる。
具体的にCPU11は、画面中央MPに対するタッチ位置TPの方向及びタッチ位置TPの移動速度に応じて、地図情報をスクロールさせる。これと同時にCPU11は、画面中央MPからタッチ位置TPまでの距離及びタッチ位置TPの移動速度に応じて、地図情報の詳細度を変更させる。
このときCPU11は、画面中央MPからタッチ位置TPまでの距離が大きいほど、またタッチ位置TPの移動速度が速いほど、地図情報の詳細度を下げるようになされている。ユーザの指の移動距離が大きい又は移動速度が速いということは、ユーザが所望する目的地が遠くにあるということであり、この場合、大局的な視点が求められることが考えられる。従ってCPU11は、ユーザの指の移動距離が大きいほど又は移動速度が速いほど地図情報の詳細度を下げるため、ユーザに直感的な操作を行わせることができる。
ここでユーザが上述したようにモチドラッグ操作を行った後、タッチパネル3Bから指を離したとする。CPU11は、ユーザの指がタッチパネル3Bから離されたことを認識すると、モチドラッグ操作が終了したことを認識し、このとき地図画面20に表示させている地図情報の詳細度及び表示箇所を固定させて表示させる。またCPU11は、モチカーソルMCの形状を縮めて円形状に戻して表示させる。
またここで、ユーザが上述したようにモチドラッグ操作を行った後、図4(B)に示すように、指をタッチさせたままモチカーソル表示領域MR内に向かって指を戻すような操作を引き続き行ったとする。
CPU11は、モチドラッグ操作が開始されると、ユーザの指がタッチパネル3Bにタッチされている間はモチドラッグ操作が継続していると認識する。そしてCPU11は、タッチ位置TPが画面中央MPに戻されるように近づくにつれ、画面中央MPからタッチ位置TPまでの距離に応じて地図情報の詳細度を上げながら、地図情報をスクロールさせるようになされている。
ところで図4(C)に示すように、モチカーソル表示領域MR外の位置を起点とするドラッグ操作(以下これを、通常ドラッグ操作とも呼ぶ)が行われたとする。このときCPU11は、地図情報のスクロールのみが指示されたことを認識し、地図情報の詳細度を変更せず、通常ドラッグ操作に応じて地図情報のスクロールのみを行う。
またCPU11は、通常ドラッグ操作が開始されたことを認識すると、通常ドラッグ操作の間はモチカーソルMCを地図画面20から消し、モチカーソルMCが操作されないようにすると共に地図画面20全体をユーザに見せるようになされている。
従って例えば図4(D)に示すように、通常ドラッグ操作のときにモチカーソル表示領域MRにタッチ位置TPが移動しても、CPU11はそのままスクロールのみを続けるようになされている。
また図4(E)に示すように、モチカーソル表示領域MR外の位置をタッチされ、所定時間押下され続ける操作(以下、これを長押し操作とも呼ぶ)が行われたとする。このときCPU11は、地図情報の詳細度を上げることのみが指示されたことを認識し、地図情報のスクロールを行わずに、長押し操作に応じて地図情報の詳細度を上げる。
一方図4(F)に示すように、モチカーソル表示領域MR外の位置をタッチした後すぐ離す操作(以下、これをタップ操作とも呼ぶ)が行われたとする。このときCPU11は、地図情報の詳細度を下げることのみが指示されたことを認識し、地図情報のスクロールを行わずに、タップ操作に応じて地図情報の詳細度を下げる。
またCPU11は、長押し操作又はタップ操作が開始されたことを認識すると、当該操作の間はモチカーソルMCを地図画面20から消し、モチカーソルMCが操作されないようにすると共に地図画面20全体をユーザに見せるようになされている。
ところでCPU11は、ユーザ操作に応じて地図情報の詳細度の変更やスクロールを行うとき、図5に示すように、地図画面20の左上に、地図情報表示領域21に表示する地図情報がどの範囲の地域であるかを表示するオーバービュー表示領域22を設ける。そしてCPU11は、オーバービュー表示領域22に、縮尺の低いオーバービュー用の地図画像POを表示させると共に、地図情報の表示範囲を示す表示範囲枠SAを表示させる。
CPU11は、ユーザ操作に応じて地図情報の詳細度の変更やスクロールを行い、地図情報表示領域21に表示させる地図情報の表示範囲が変化すると、その変化に合わせて、表示範囲枠SAを移動させたり、その大きさを変化させたりする。そしてCPU11は地図情報の詳細度の変更又は地図情報のスクロールが終了すると、所定時間後(例えば3秒後)にオーバービュー表示領域22の表示を消す。
このようにCPU11は、地図情報表示領域21に表示させる地図情報の表示範囲をユーザに通知するようになされている。これにより情報処理装置1は、ユーザに所望する地図情報を探しやすくさせることができる。
[1−3.地図情報変更操作処理手順]
次に上述した情報処理装置1における地図情報変更操作での動作処理手順(これを、地図情報変更操作処理手順とも呼ぶ)RT1を、図6に示すフローチャートを用いて詳しく説明する。ちなみにこの地図情報変更操作処理手順RT1は、CPU11が不揮発性メモリ12にインストールされたプログラムに従って実行するものである。
CPU11は、地図画面20において、タッチパネル3Bにユーザの指がタッチされユーザ操作が開始されたことを認識すると、地図情報変更操作処理手順RT1をステップSP0から開始して、次のステップSP1に移る。
ステップSP1においてCPU11は、ユーザ操作の起点がモチカーソル表示領域MR内であるかどうかを判断する。具体的にCPU11は、ユーザ操作開始の際のタッチ位置TPがモチカーソル表示領域MR内にあることを判別すると、ユーザ操作の起点がモチカーソル表示領域MR内であると判断する。
このステップSP1において肯定結果が得られると、このことはユーザによりモチドラッグ操作が開始されたことを意味し、このときCPU11はステップSP2に移る。
ステップSP2においてCPU11は、モチドラッグ操作に応じて地図画面20に表示させている地図情報の詳細度を変更しつつ地図情報をスクロールさせ、ステップSP8に移って地図情報変更操作処理手順RT1を終了する。
一方、ユーザ操作の起点がモチカーソル表示領域MR外であることよりステップSP1において否定結果が得られると、このときCPU11は、ステップSP3に移る。
ステップSP3においてCPU11は、ユーザによりドラッグ操作が行われたかどうかを判断する。具体的にCPU11は、タッチ位置TPが所定距離以上移動したことを判別するとドラッグ操作が行われたと判断する。
このステップSP3において肯定結果が得られると、このことはユーザにより通常ドラッグ操作が行われたことを意味し、このときCPU11は、ステップSP4に移る。
ステップSP4においてCPU11は、地図画面20に表示させている地図情報のスクロールのみを行い、ステップSP8に移って地図情報変更操作処理手順RT1を終了する。
一方、ユーザによりドラッグ操作が行われていないことより、ステップSP3において否定結果が得られると、このときCPU11はステップSP5に移る。
ステップSP5においてCPU11は、長押し操作が行われたかどうかを判断する。具体的にCPU11は、タッチパネル3Bに対して指がタッチされた時間が所定時間以上であると判別すると長押し操作が行われたと判断する。
このステップSP5において肯定結果が得られると、このことはユーザによりモチカーソル表示領域MR外に対する長押し操作が行われたことを意味し、このときCPU11はステップSP6に移る。
ステップSP6においてCPU11は、地図画面20に表示させている地図情報の詳細度を上げ、ステップSP8に移って地図情報変更操作処理手順RT1を終了する。
一方、ステップSP5において否定結果が得られると、このことはユーザによりモチカーソル表示領域MR外に対するタップ操作が行われたことを意味し、このときCPU11はステップSP7に移る。
ステップSP7においてCPU11は、地図画面20に表示させている地図情報の詳細度を下げ、ステップSP8に移って地図情報変更操作処理手順RT1を終了する。
このような地図情報変更操作処理手順RT1に従って、CPU11は、ユーザ操作を認識し、当該操作に応じて、地図画面20に表示させている地図情報の詳細度の変更やスクロールを行うようになされている。
[1−4.第1の実施の形態における動作及び効果]
以上の構成において情報処理装置1は、タッチパネル3Bを介してユーザ操作を認識すると、ユーザ操作がモチカーソル表示領域MR内を起点とする操作であるかどうかを判別する。
そして情報処理装置1は、ユーザ操作がモチカーソル表示領域MR内の位置を起点とする操作であると判別した際は、当該ユーザ操作に応じて、地図情報の詳細度を変更させつつ地図情報をスクロールさせる。
一方情報処理装置1は、ユーザ操作がモチカーソル表示領域MR外の位置を起点とするドラッグ操作であると判別した際は、当該ユーザ操作に応じて、地図情報のスクロールのみを行う。
また情報処理装置1は、ユーザ操作がモチカーソル表示領域MR外の位置に対する長押し操作又はタップ操作であると判別した際は、当該ユーザ操作に応じて、地図情報の詳細度の変更のみを行う。
これにより情報処理装置1は、操作の起点を変えるという簡易な操作をユーザに行わせるだけで、地図情報の詳細度の変更と地図情報のスクロールとを同時に行うか又は別々に行うかを選択して行うことができる。
また情報処理装置1は、地図画面20にモチカーソル表示領域MRを示すモチカーソルMCを表示させるようにした。これにより情報処理装置1は、モチカーソル表示領域MRの位置及び範囲をユーザに認識させることができ、ユーザにモチカーソル表示領域MR内を起点とする操作とモチカーソル表示領域MR外を起点とする操作を容易に区別して行わせることができる。
また情報処理装置1は、ユーザ操作により地図情報の詳細度を変更するよう指示されると地図情報の縮尺を変更させ、地図情報の縮尺が所定値である場合には、地図情報として現在よりも詳細度の高い又は詳細度の低い画像へ切り替えるようにした。
これにより情報処理装置1は、ユーザに現在と詳細度の異なる画像へ切り替えるための操作を別途行わせることなく、地図情報の詳細度を変更するための操作を行わせるだけで、自動的に地図情報の縮尺に合わせて様々な詳細度の画像を提供することができる。
また情報処理装置1は、地図画面20に設けるモチカーソル表示領域MRを、表示画面の中央に設けるようにした。これにより情報処理装置1は、ユーザにモチカーソル表示領域MRを起点とするドラッグ操作を行わせる際、タッチ位置TPの移動範囲を広くとることができ、当該ドラッグ操作の範囲を広くとることができる。
また情報処理装置1は、地図画面20に表示させるモチカーソルMCを半透明でなるようにした。これにより情報処理装置1は、モチカーソルMCの下にある地図情報が見えなくなることを防ぐことができる。
以上の構成によれば情報処理装置1は、ユーザ操作がモチカーソル表示領域MR内を起点とする操作であると判別した際は、ユーザ操作に応じて、地図情報の詳細度を変更させつつ地図情報をスクロールさせるようにした。一方情報処理装置1は、ユーザ操作がモチカーソル表示領域MR外を起点とする操作であると判別した際は、ユーザ操作に応じて、地図情報の詳細度の変更又は地図情報のスクロールのいずれかを行うようにした。
これにより情報処理装置1は、操作の起点を変えるという簡易な操作をユーザに行わせるだけで、地図情報の詳細度の変更と地図情報のスクロールとを同時に行うか又は別々に行うかを選択して行うことができ、かくして一段と操作性を向上させることができる。
[1−5.第1の実施の形態における機能構成]
ここで、上述した地図情報変更操作に主眼を置いた情報処理装置1の機能構成について説明する。図7に示すように、情報処理装置1は、操作認識部21、判別部22及び制御部23として機能する。
情報処理装置1では、上述したタッチパネル3B及びCPU11が操作認識部21として機能する。操作認識部21は、表示部の表示画面に対するユーザ操作を認識する。
また情報処理装置1では、上述したCPU11が判別部22として機能する。判別部22は、操作認識部21により認識されたユーザ操作が表示画面の所定領域内(この実施の形態ではモチカーソル表示領域MR内)を起点とする操作であるかどうかを判別する。
さらに情報処理装置1では、上述したCPU11が制御部23として機能する。制御部23は、判別部22によりユーザ操作が所定領域内を起点とする操作であると判別された際は、当該ユーザ操作に応じて、表示画面に表示させている情報(この実施の形態では地図情報)の詳細度を変更させつつ当該情報をスクロールさせる。一方、制御部23は、判別部22によりユーザ操作が所定領域内を起点とする操作ではないと判別された際は、当該ユーザ操作に応じて、当該情報のスクロール又は当該情報の詳細度の変更のいずれかを行う。
このような機能構成により、情報処理装置1は、上述した地図情報変更操作を機能的に実現し得るようになされている。
<2.第2の実施の形態>
次に第2の実施の形態について説明する。この第2の実施の形態では、上述した第1の実施の形態とは異なり、ユーザがタッチパネル3Bを操作しようとするときのみ地図画面20にモチカーソルMCを表示させるようになされている。
実際上、地図画面20上に常にモチカーソルMCが表示されていると、モチカーソルMCと重なる範囲の地図情報が見づらくなってしまう。従って、この第2の実施の形態のように、ユーザがタッチパネル3Bを操作しようとするときのみモチカーソルMCを表示するようにすれば、モチカーソルMCのために地図情報を見づらくすることなく閲覧させることができる。
なお、この第2の実施の形態における情報処理装置50(図1)では、上述した第1の実施の形態における情報処理装置1の表示部3に代えて、表示部53が設けられている。表示部53は、LCD53Aと光センサ方式のタッチパネル53Bとから構成されている。
また、第2の実施の形態における地図情報変更操作は、第1の実施の形態と同様のため、説明を省略する。従ってここでは、地図画面20にモチカーソルMCを表示させる動作処理手順(これを、モチカーソル表示処理手順とも呼ぶ)を主に説明する。
[2−1.モチカーソル表示処理手順]
図8に示すフローチャートを用いて、モチカーソル表示処理手順RT2について具体的に説明する。ちなみに、このモチカーソル表示処理手順RT2は、情報処理装置50のCPU11が、不揮発性メモリ12にインストールされたプログラムに従って実行するものである。
CPU11は、例えば地図画面20をLCD53Aに表示させると、モチカーソル表示処理手順RT2をステップSP100から開始して、次のステップSP101に移る。
ステップSP101においてCPU11は、タッチパネル53Bに入力があるかどうかを判断する。
具体的にタッチパネル53Bは、格子状に配置された複数の光センサを有している。これらの光センサは、所定間隔ごとに外部からタッチパネル53Bに入射する光を受光して、その光強度を検出する。
タッチパネル53Bをユーザが操作しようとすると、タッチパネル53Bの操作面にユーザの指の影ができ、タッチパネル53Bで検出される光強度が下がる。このことをふまえタッチパネル53Bは、光センサにより検出される光強度が変化した場合、タッチパネル53Bに入力があると判別する。そしてタッチパネル53Bは、タッチパネル53Bの操作面における当該光センサの位置を入力位置として、当該光強度の変化量と当該入力位置とをCPU11に送出する。
そしてCPU11は、タッチパネル53Bから光強度の変化量と入力位置とが送出されると、タッチパネル53Bに入力があると判断するようになされている。
このステップSP101においてタッチパネル53Bに入力がないことより否定結果が得られると、このときCPU11は、ステップSP101へ戻り、タッチパネル53Bに入力があるまで待ち受ける。
一方ステップSP101においてタッチパネル53Bに入力があることより肯定結果が得られると、このときCPU11は、ステップSP102に移る。
ステップSP102においてCPU11は、ユーザの指がタッチパネル53Bの操作面に近接しているかどうかを判断する。具体的にタッチパネル53Bの操作面にユーザの指が近いほど、操作面にできるユーザの指の影が濃くなり、タッチパネル53Bで検出される光強度がさらに下がる。このことをふまえ、CPU11は、タッチパネル53Bにより送出された光強度の変化量が所定値以上であった場合、ユーザの指がタッチパネル53Bの操作面に近接していると判断する。
このステップSP102において否定結果が得られると、このことは、ユーザがタッチパネル53Bを操作しようとしていないことを意味する。このときCPU11は、ステップSP101へ戻り、タッチパネル53Bに入力があるまで待ち受ける。
一方ステップSP102に肯定結果が得られると、このことはユーザがタッチパネル53Bを操作しようとしていることを意味する。このときCPU11は、ステップSP103に移る。
ステップSP103においてCPU11は、入力位置が表示画面の中央付近であるかどうかを判断する。具体的にCPU11は、タッチパネル53Bから送出された入力位置に基づいて、当該入力位置をLCD3Aに表示する表示画面内の座標として検出する。そしてCPU11は、その検出した座標が、表示画面の中央を中心とする所定領域(例えばモチカーソル表示領域MRの数倍程度)内にあるかどうかを判別する。そしてCPU11は、その検出した座標が所定領域内にあることを判別すると、入力位置が表示画面の中央付近であると判断する。
このステップSP103において否定結果が得られると、このことは、ユーザの指がモチカーソル表示領域MRから遠いため、ユーザがモチカーソルMCを操作しようとしていないことを意味する。このときCPU11は、ステップSP101へ戻り、タッチパネル3Bに入力があるまで待ち受ける。
一方ステップSP103において肯定結果が得られると、このことは、ユーザの指がモチカーソル表示領域MRに近いため、ユーザがモチカーソルMCを操作しようとしていることを意味する。このときCPU11は、ステップSP104に移る。
ステップSP104においてCPU11は、地図画面20のモチカーソル表示領域MRにモチカーソルMCを表示し、ステップSP105に移ってモチカーソル表示処理手順RT2を終了する。
このようなモチカーソル表示処理手順RT2に従って、CPU11はモチカーソルMCを表示するようになされている。
このように、第2の実施の形態の情報処理装置50は、ユーザの指がタッチパネル53Bの操作面に近接したと判別されると地図画面20にモチカーソルMCを表示させ、これ以外のときはモチカーソルMCを表示させないようにした。
これにより情報処理装置50は、ユーザがモチカーソルMCを操作しようとするとき以外は、ユーザにモチカーソルMCのために地図情報を見づらくすることなく閲覧させることができる。
[2−2.第2の実施の形態における機能構成]
ここで、上述したモチカーソルMCを表示させる処理に主眼を置いた情報処理装置50の機能構成について説明する。情報処理装置50は、情報処理装置1(図7)と同様に、操作認識部21、判別部22及び制御部23として機能する。
情報処理装置50では、上述したタッチパネル53B及びCPU11が操作認識部21として機能する。操作認識部21は、表示部の表示画面に対応する操作面(この実施の形態では、タッチパネル53Bの操作面)に対する指示物(この実施の形態では、ユーザの指)の近接及び接触を検出し、検出の結果に基づいて、ユーザ操作を認識する。
また情報処理装置50では、上述したCPU11が制御部23として機能する。制御部23は、操作認識部21により指示物の近接が検出されると、表示画面に所定領域を示す枠(この実施の形態では、モチカーソルMC)を表示させる。
このような機能構成により、情報処理装置50は、上述したモチカーソルMCを表示させる処理を機能的に実現し得るようになされている。
<3.第3の実施の形態>
次に第3の実施の形態について説明する。この第3の実施の形態では、上述した第1の実施の形態とは異なり、ユーザが再生したい楽曲を選択するための楽曲選択画面30(図12)を表示させるようになされている。
尚、第3の実施の形態における情報処理装置100には、図1と対応する部分に同一符号を付した図9(A)及び(B)に示すように、上述した第1の実施の形態における情報処理装置1の構成に加えてヘッドホン104及び音声出力部114が設けられている。
CPU11は、ユーザ操作により楽曲を再生するよう指示されると、不揮発性メモリ12から楽曲の音声データを読み出す。そしてCPU11は、当該音声データに対して復号処理及び増幅処理などの所定の再生処理を施すことにより音声信号を得て、この音声信号を音声出力部114に送出する。この結果、音声出力部114から、ヘッドホン104を介してこの音声信号に基づく楽曲の音声が出力されるようになされている。
[3−1.楽曲関連情報変更操作]
次に、情報処理装置100における楽曲関連情報変更操作について、詳しく説明する。ここで、この情報処理装置100では、図10に示すように、複数の楽曲データMD(MD1、MD2、…、MDn)が不揮発性メモリ12に記録されている。因みに、楽曲データMDには楽曲の音声データだけでなく、その楽曲に関連する情報である楽曲関連情報(タイトル名、アーティスト名、アルバム名、ジャンルなど)のデータが含まれる。
楽曲データMDのそれぞれは、楽曲関連情報に基づいて、アルバムごとのフォルダ(これをアルバムフォルダとも呼ぶ)FB(FB1、FB2、…、FBn)に振り分けられて格納されている。また、アルバムフォルダFBは、楽曲関連情報に基づいて、アーティストごとのフォルダ(これをアーティストフォルダとも呼ぶ)FA(FA1、FA2、…、FAn)に振り分けられて格納されている。さらに、アーティストフォルダFAは、楽曲関連情報に基づいて、ジャンル(例えば、ロック、クラシックなど)ごとのフォルダ(これをジャンルフォルダとも呼ぶ)FJ(FJ1、FJ2、…、FJn)に振り分けられて格納されている。そしてジャンルフォルダFJは、音楽フォルダFMに格納されている。
アルバムフォルダFBには、当該アルバムフォルダFBに対応するアルバムのジャケット写真画像PBがそれぞれ格納されている。またアーティストフォルダFAには、当該アーティストフォルダFAに対応するアーティストの画像(これをアーティスト画像とも呼ぶ)PAがそれぞれ格納されている。さらに、ジャンルフォルダFJには、当該ジャンルフォルダFJに対応するジャンルを示すアイコン画像(これをジャンル画像とも呼ぶ)PJがそれぞれ格納されている。尚、ジャケット写真画像PB、アーティスト画像PA、ジャンル画像PJも楽曲関連情報である。
因みにここでは、ジャンルフォルダFJが格納されている階層をジャンル層LJ、アーティストフォルダFAが格納されている階層をアーティスト層LAとも呼ぶ。また、アルバムフォルダFBが格納されている階層をアルバム層LB、楽曲データが格納されている階層を楽曲層LTとも呼ぶ。
CPU11は、ユーザ操作により楽曲を再生するアプリケーションを起動するよう指示されると、不揮発性メモリ12に記録されている複数の楽曲の楽曲関連情報を読み出す。そしてCPU11は、当該楽曲関連情報に基づいて、楽曲を選択するための楽曲選択画面30(図12)をLCD3Aに表示させる。尚、楽曲選択画面30について詳しくは後述する。
CPU11は、タッチパネル3Bに対するユーザ操作に応じて、楽曲選択画面30に表示させる楽曲関連情報の詳細度を変更させたり、楽曲関連情報をスクロールさせたりするようになされている。
ここで、楽曲選択画面30に表示させる楽曲関連情報の詳細度の変更について、図11を用いて説明する。CPU11は、例えば音楽フォルダFMに格納されている複数のジャンルフォルダFJのそれぞれからジャンル画像PJを読み出す。そしてCPU11は、楽曲選択画面30に、ジャンル画像PJを格子状に並べて配置して表示させる。つまりCPU11は、楽曲選択画面30に、ジャンル層LJの楽曲関連情報を表示させる。
このときCPU11は、ユーザ操作により楽曲関連情報の詳細度を上げるよう指示されると、任意のジャンルフォルダFJに格納されているアーティストフォルダFAからアーティスト画像PAを読み出す。そしてCPU11は、楽曲選択画面30に、アーティスト画像PAを格子状に並べて配置して表示させる。
このようにCPU11は、楽曲選択画面30に表示させている楽曲関連情報の階層をジャンル層LJからアーティスト層LAに切り替える。
さらにこのときCPU11は、ユーザ操作により楽曲関連情報の詳細度を上げるよう指示されると、任意のアーティストフォルダFAに格納されているアルバムフォルダFBからジャケット写真画像PBを読み出す。そしてCPU11は、楽曲選択画面30に、ジャケット写真画像PBを格子状に並べて配置して表示させる。
このようにCPU11は、楽曲選択画面30に表示させている楽曲関連情報の階層をアーティスト層LAからアルバム層LBに切り替える。
さらにこのときCPU11は、ユーザ操作により楽曲関連情報の詳細度を上げるよう指示されると、任意のアルバムフォルダFBに格納されている楽曲データMDからタイトル名TNを読み出し、楽曲選択画面30の上下にリスト表示させる。
このようにCPU11は、楽曲選択画面30に表示させている楽曲関連情報の階層をアルバム層LBから楽曲層LTに切り替える。
以上のようにCPU11は、楽曲選択画面30においてユーザ操作により楽曲関連情報の詳細度を上げるよう指示されると、楽曲関連情報の階層を現在よりも下位の階層へ切り替えるようになされている。
一方CPU11は、楽曲選択画面30においてユーザ操作により楽曲関連情報の詳細度を下げるよう指示されると、楽曲関連情報の階層を現在よりも上位の階層へ切り替えるようになされている。
次に、楽曲選択画面30において、楽曲関連情報の詳細度の変更やスクロールに対応するユーザ操作について具体的に説明する。
CPU11は、ユーザ操作により楽曲を再生するアプリケーションを起動するよう指示されると、図12に示すように、楽曲選択画面30をLCD3Aに表示させる。
具体的に楽曲選択画面30は、楽曲関連情報を表示させる楽曲関連情報表示領域31とモチカーソルMCを表示させるモチカーソル表示領域MRとから構成されている。
例えばCPU11は、楽曲関連情報表示領域31に、複数のアルバムフォルダFBから読み出したジャケット写真画像PB(PB1、PB2、…、PBn)を格子状に並べて配置して表示させる。つまりCPU11は、楽曲選択画面30に、アルバム層LBの楽曲関連情報を表示させる。
ここで、ユーザによりモチカーソル表示領域MR外の位置を起点とするドラッグ操作、すなわち通常ドラッグ操作が行われたとする。このときCPU11は、楽曲関連情報をスクロールするよう指示されたことを認識し、通常ドラッグ操作に応じて、楽曲選択画面30の楽曲関連情報(ここではジャケット写真画像PB)をスクロールさせる。
また、ユーザによりモチカーソル表示領域MR外の位置にあるジャケット写真画像PBが長押し操作されたとする。このときCPU11は、楽曲関連情報の詳細度を上げるよう指示されたことを認識し、長押し操作に応じて楽曲関連情報を現在の階層よりも下位の階層に切り替える。
ここではCPU11は、楽曲関連情報をアルバム層LBから楽曲層LTに切り替え、楽曲関連情報表示領域31に当該ジャケット写真画像PBに対応するアルバム内の楽曲のタイトル名TNを上下にリスト表示させる。
一方、ユーザによりモチカーソル表示領域MR外の位置をタップ操作されたとする。このときCPU11は、楽曲関連情報の詳細度を下げるよう指示されたことを認識し、タップ操作に応じて楽曲関連情報を現在の階層よりも上位の階層に切り替える。
ここではCPU11は、楽曲関連情報をアルバム層LBからアーティスト層LAに切り替え、複数のアーティストフォルダFAからアーティスト画像PAを読み出し、楽曲関連情報表示領域31に格子状に並べて配置して表示させる。
また、ユーザによりモチカーソル表示領域MR内の位置を起点とするドラッグ操作、すなわちモチドラッグ操作が行われたとする。このときCPU11は、楽曲関連情報の詳細度を変更しつつ楽曲関連情報のスクロールを行うよう指示されたことを認識し、モチドラッグ操作に応じて、楽曲関連情報の階層を現在よりも上位又は下位の階層へ切り替えると共に楽曲関連情報をスクロールさせる。
具体的にCPU11は、モチドラッグ操作においてユーザがモチカーソル表示領域MRから指を遠ざけるほど、つまり画面中央MPからタッチ位置TPまでの距離が大きくなるほど、楽曲関連情報の詳細度を下げる。すなわちCPU11は、モチドラッグ操作において画面中央MPからタッチ位置TPまでの距離が大きくなるにつれ、楽曲関連情報の階層を、楽曲層LT、アルバム層LB、アーティスト層LA、ジャンル層LJの順に切り替える。これと共にCPU11は、画面中央MPに対するタッチ位置TPの方向及びタッチ位置TPの移動速度に応じて、そのとき表示させている階層の楽曲関連情報をスクロールさせる。
一方CPU11は、モチドラッグ操作においてユーザがモチカーソル表示領域MRに指を近づけるほど、つまり画面中央MPからタッチ位置TPまでの距離が小さくなるほど、楽曲関連情報の詳細度を上げる。すなわちCPU11は、モチドラッグ操作において画面中央MPからタッチ位置TPまでの距離が小さくなるにつれ、楽曲関連情報の階層を、ジャンル層LJ、アーティスト層LA、アルバム層LB、楽曲層LTの順に切り替える。これと共にCPU11は、画面中央MPに対するタッチ位置TPの方向及びタッチ位置TPの移動速度に応じて、そのとき表示させている階層の楽曲関連情報をスクロールさせる。
ここでユーザによるモチドラッグ操作において、タッチ位置TPが画面中央MPから離れた後、再び画面中央MPに近づいて、楽曲層LTの楽曲関連情報が楽曲選択画面30に表示されているとする。その後モチドラッグ操作において、タッチ位置TPがさらに画面中央MPに近づいてモチカーソル表示領域MR内に入ったとする。
このときCPU11は、楽曲選択画面30の中央に表示されているタイトル名TNに対応する楽曲が選択されたことを認識し、当該楽曲を再生する。この結果、音声出力部114及びヘッドホン104を介して当該楽曲の音声が出力されるようになされている。
このようにCPU11は、ユーザにモチドラッグ操作において楽曲関連情報の詳細度を高める操作を行わせた結果、最終的には楽曲の再生を最も詳細度の高い状態とみなして行うようになされている。これにより情報処理装置1は、ユーザにモチドラッグ操作を行わせるだけで、楽曲関連情報の詳細度の変更だけでなく楽曲を選択して再生させることもできる。
[3−2.楽曲関連情報変更操作処理手順]
次に上述した情報処理装置100における楽曲関連情報変更操作での動作処理手順(これを、楽曲関連情報変更操作処理手順とも呼ぶ)RT3を、図13に示すフローチャートを用いて詳しく説明する。ちなみにこの楽曲関連情報変更操作処理手順RT3は、CPU11が不揮発性メモリ12にインストールされたプログラムに従って実行するものである。
CPU11は、楽曲選択画面30において、タッチパネル3Bにユーザの指がタッチされユーザ操作が開始されたことを認識すると、楽曲関連情報変更操作処理手順RT3をステップSP200から開始して、次のステップSP201に移る。
ステップSP201においてCPU11は、ユーザ操作の起点がモチカーソル表示領域MR内であるかどうかを判断する。このステップSP201において肯定結果が得られると、このことはユーザによりモチドラッグ操作が開始されたことを意味し、このときCPU11は、ステップSP202に移る。
ステップSP202においてCPU11は、楽曲選択画面30に表示させている楽曲関連情報を現在よりも上位又は下位の階層へ切り替えると共に楽曲関連情報をスクロールさせ、ステップSP208に移って楽曲関連情報変更操作処理手順RT3を終了する。
一方、ユーザ操作の起点がモチカーソル表示領域MR外であることよりステップSP201において否定結果が得られると、このときCPU11は、ステップSP203に移る。
ステップSP203においてCPU11は、ユーザによりドラッグ操作が行われたかどうかを判断する。このステップSP203において肯定結果が得られると、このことはユーザにより通常ドラッグ操作が行われたことを意味し、このときCPU11は、ステップSP204に移る。
ステップSP204においてCPU11は、楽曲選択画面30に表示させている楽曲関連情報のスクロールのみを行い、ステップSP208に移って楽曲関連情報変更操作処理手順RT3を終了する。
一方、ユーザによりドラッグ操作が行われていないことより、ステップSP203において否定結果が得られると、このときCPU11はステップSP205に移る。
ステップSP205においてCPU11は、長押し操作が行われたかどうかを判断する。このステップSP205において肯定結果が得られると、このことはユーザによりモチカーソル表示領域MR外に対する長押し操作が行われたことを意味し、このときCPU11はステップSP206に移る。
ステップSP206においてCPU11は、楽曲選択画面30に表示させている楽曲関連情報を現在よりも下位の階層に切り替え、ステップSP208に移って楽曲関連情報変更操作処理手順RT3を終了する。
一方、ステップSP205において否定結果が得られると、このことはユーザによりモチカーソル表示領域MR外に対するタップ操作が行われたことを意味し、このときCPU11はステップSP207に移る。
ステップSP207においてCPU11は、楽曲選択画面30に表示させている楽曲関連情報を現在よりも上位の階層に切り替え、ステップSP208に移って楽曲関連情報変更操作処理手順RT3を終了する。
このような楽曲関連情報変更操作処理手順RT3に従って、CPU11は、ユーザ操作を認識し、当該操作に応じて、楽曲選択画面30に表示させている楽曲関連情報のスクロールや階層の切り替えを行うようになされている。
[3−3.動作及び効果]
以上の構成において情報処理装置100には、楽曲関連情報がフォルダの階層ごとに詳細度が異なるように記録されている。
情報処理装置100は、タッチパネル3Bを介してユーザ操作を認識すると、当該ユーザ操作がモチカーソル表示領域MR内を起点とする操作であるかどうかを判別する。
そして情報処理装置100は、当該ユーザ操作がモチカーソル表示領域MR内を起点とする操作であると判別した際は、当該ユーザ操作に応じて、楽曲関連情報の階層を現在よりも上位又は下位の階層へ切り替えると共に楽曲関連情報をスクロールさせる。
一方情報処理装置100は、当該ユーザ操作がモチカーソル表示領域MR外を起点とするドラッグ操作であると判別した際は、当該ユーザ操作に応じて、楽曲関連情報のスクロールのみを行う。
また情報処理装置100は、ユーザ操作がモチカーソル表示領域MR外の位置に対する長押し操作又はタップ操作であると判別した際は、当該ユーザ操作に応じて、現在よりも上位又は下位の階層の楽曲関連情報への切り替えのみを行う。
これにより情報処理装置100は、操作の起点を変えるという簡易な操作をユーザに行わせるだけで、現在よりも上位又は下位の階層の楽曲関連情報への切り替えと楽曲関連情報のスクロールとを同時に行うか又は別々に行うかを選択して行うことができる。
この他第3の実施の形態における情報処理装置100は、第1の実施の形態における情報処理装置1とほぼ同様の作用効果を奏しうる。
以上の構成によれば情報処理装置100は、ユーザ操作がモチカーソル表示領域MR内を起点とする操作であると判別した際は、ユーザ操作に応じて、楽曲関連情報の詳細度を変更させつつ楽曲関連情報をスクロールさせるようにした。一方情報処理装置1は、ユーザ操作がモチカーソル表示領域MR外を起点とする操作であると判別した際は、ユーザ操作に応じて、楽曲関連情報の詳細度の変更又は楽曲関連情報のスクロールのいずれかを行うようにした。
これにより情報処理装置100は、操作の起点を変えるという簡易な操作をユーザに行わせるだけで、楽曲関連情報の詳細度の変更と楽曲関連情報のスクロールとを同時に行うか又は別々に行うかを選択して行うことができる。かくして情報処理装置100は、一段と操作性を向上させることができる。
[3−4.第3の実施の形態における機能構成]
ここで、上述した楽曲関連情報変更操作に主眼を置いた情報処理装置100の機能構成について説明する。情報処理装置100は、情報処理装置1(図7)と同様に、操作認識部21、判別部22及び制御部23として機能する。
情報処理装置100では、上述したタッチパネル3B及びCPU11が操作認識部21として機能する。操作認識部21は、表示部の表示画面に対するユーザ操作を認識する。
また情報処理装置100では、上述したCPU11が判別部22として機能する。判別部22は、操作認識部21により認識されたユーザ操作が表示画面の所定領域内(この実施の形態ではモチカーソル表示領域MR内)を起点とする操作であるかどうかを判別する。
さらに情報処理装置100では、上述したCPU11が制御部23として機能する。制御部23は、判別部22によりユーザ操作が所定領域内を起点とする操作であると判別された際は、当該ユーザ操作に応じて、表示画面に表示させている情報(この実施の形態では楽曲関連情報)の詳細度を変更しつつ当該情報をスクロールさせる。一方、制御部23は、判別部22によりユーザ操作が所定領域内を起点とする操作ではないと判別された際は、当該ユーザ操作に応じて、当該情報のスクロール又は当該情報の詳細度の変更のいずれかを行う。
このような機能構成により、情報処理装置100は、上述した楽曲関連情報変更操作を機能的に実現し得るようになされている。
<4.他の実施の形態>
[4−1.他の実施の形態1]
なお上述した第1の実施の形態では、CPU11は、地図画面20に地図情報を表示させ、ユーザ操作に応じて地図情報のスクロールや詳細度の変更を行うようにした。
これに限らずCPU11は、例えばデジタルスチルカメラなどで撮影された撮影画像を表示させ、ユーザ操作に応じて撮影画像のスクロールや詳細度の変更を行うようにしてもよい。
この場合、不揮発性メモリ12には、予め複数の撮影画像に対応する複数の撮影画像データが記録されているとする。CPU11は、ユーザ操作により撮影画像を表示するアプリケーションを起動するよう指示されると、不揮発性メモリ12から複数の撮影画像データを読み出す。そしてCPU11は、図14に示すように、当該複数の撮影画像データに基づいて、複数の撮影画像PD(PD1、PD2、…、PDn)を縦横に隙間なく並べて配置した表示画像PEを生成する。
そしてCPU11は、表示画像PEに基づいて、画像閲覧画面40をLCD3Aに表示させる。具体的に画像閲覧画面40は、表示画像PEを表示させる撮影画像表示領域41とモチカーソルMCを表示させるモチカーソル表示領域MRとから構成されている。
ここで、ユーザにより通常ドラッグ操作が行われたとする。このときCPU11は、表示画像PEをスクロールするよう指示されたことを認識し、通常ドラッグ操作に応じて、表示画像PEをスクロールさせる。
また、ユーザによりモチカーソル表示領域MR外の位置が長押し操作されたとする。このときCPU11は、表示画像PEの詳細度を上げるよう指示されたことを認識し、長押し操作された位置を中心に表示画像PEの拡大率を所定量上げる。
このようにCPU11は表示画像PEの拡大率を上げることにより、表示画像PE内の撮影画像PDを拡大した画像を画像閲覧画面40に表示させ、ユーザに拡大した撮影画像PDを閲覧させることができる。
一方、ユーザによりモチカーソル表示領域MR外の位置をタップ操作されたとする。このときCPU11は、表示画像PEの詳細度を下げるよう指示されたことを認識し、タップ操作された位置を中心に表示画像PEの拡大率を所定量下げる。
このようにCPU11は、表示画像PEの拡大率を下げることにより、表示画像PE内の複数の撮影画像PDを画像閲覧画面40に表示させ、ユーザに複数の撮影画像PDを閲覧させることができる。
また、ユーザによりモチドラッグ操作が行われたとする。このときCPU11は、表示画像PEの詳細度を変更しつつ表示画像PEをスクロールさせるよう指示されたことを認識し、モチドラッグ操作に応じて、表示画像PEの拡大率を変更させつつ表示画像PEをスクロールさせる。
このように情報処理装置1は、ユーザ操作がモチカーソル表示領域MR内を起点とする操作であると判別した際は、ユーザ操作に応じて、画像の拡大率を変更させつつ画像をスクロールする。一方情報処理装置1は、ユーザ操作がモチカーソル表示領域MR外を起点とする操作であると判別した際は、ユーザ操作に応じて、画像の拡大率の変更又は画像のスクロールのいずれかを行う。
これにより情報処理装置1は、操作の起点を変えるという簡易な操作をユーザに行わせるだけで、画像の拡大率の変更と画像のスクロールとを同時に行うか又は別々に行うかを選択して行うことができる。
またこれに限らず、情報処理装置1は、例えばウェブページや新聞などのドキュメントの画像など、この他種々の画像を表示画面に表示させ、ユーザ操作に応じて画像のスクロールや詳細度の変更を行うようにしてもよい。
[4−2.他の実施の形態2]
また上述した第1の実施の形態では、ユーザ操作により地図情報の詳細度を変更するよう指示されると、例えば航空写真画像PSを現在よりも詳細度の高い詳細地図画像PC又は詳細度の低い地図画像PMへ切り替えるようにした。
これに限らずCPU11は、ユーザ操作に応じてこの他種々の画像を現在よりも詳細度の高い画像又は詳細度の低い画像へ切り替えるようにしてもよい。
[4−3.他の実施の形態3]
さらに上述した第2の実施の形態では、CPU11は、ユーザの指がタッチパネル53Bの操作面の中央付近に近接したと判別されると地図画面20にモチカーソルMCを表示させるようにした。
これに限らずCPU11は、ユーザの指がタッチパネル53Bの操作面に近接したと判別されれば、操作面の中央付近でなくても、地図画面20にモチカーソルMCを表示させるようにしてもよい。
[4−4.他の実施の形態4]
さらに上述した第2の実施の形態では、光センサ方式のタッチパネル53Bを用いる場合について述べたが、本発明はこれに限らず、指示物の近接を検出できるタッチパネルであればこの他種々の方式のタッチパネルを用いるようにしてもよい。
さらに上述した第2の実施の形態では、タッチパネル53Bに対する操作を行う指示物としてユーザの指を用いた場合について述べた。本発明はこれに限らず、タッチパネルで近接を検出できるような指示物であれば、この他鉛筆、棒、専用のタッチペンなど、この他種々の指示物を用いてもよい。
[4−5.他の実施の形態5]
さらに上述した第3の実施の形態では、CPU11は、楽曲選択画面30に楽曲関連情報を表示させ、ユーザ操作に応じて楽曲関連情報のスクロールや詳細度の変更を行うようにした。
これに限らずCPU11は、ユーザ操作に応じて、例えば静止画や動画などのコンテンに関連するコンテンツ関連情報を表示画面に表示させ、コンテンツ関連情報のスクロールや詳細度の変更を行うようにしてもよい。
この場合、コンテンツ関連情報は、階層的に詳細度が異なるように管理されているものであればよく、例えばデータベースで管理されているものであってもよい。
[4−6.他の実施の形態6]
さらに上述した第1乃至第3の実施の形態では、一例として、画面中央MPを中心とし人間の指の太さと同じくらいの直径でなる円形状の領域でなるモチカーソル表示領域MRについて述べた。
本発明はこれに限らず、モチカーソル表示領域MR内の位置を起点とする操作とモチカーソル表示領域MR外の位置を起点とする操作とをユーザに区別させられるのであれば、モチカーソル表示領域MRの形状、大きさ、位置等を第1乃至第3の実施の形態とは異なるものにしてもよい。例えば、楽曲選択画面30のようにタイトル名TNを上下にリスト表示させユーザに上下のドラッグ操作を行わせる場合は、モチカーソル表示領域MRを画面中央MPよりも左側又は右側に配置するようにしてもよい。
さらに上述した第1乃至第3の実施の形態では、一例として、円形状でなる半透明のモチカーソルMCについて述べた。本発明はこれに限らず、モチカーソル表示領域MRの位置及び範囲を示すのであれば、モチカーソルMCの形状、大きさ、色など第1乃至第3の実施の形態とは異なるものにしてもよい。
[4−7.他の実施の形態7]
さらに上述した第1乃至第3の実施の形態では、地図情報変更操作処理、モチカーソル表示処理及び楽曲関連情報変更操作処理を実行するためのプログラムを不揮発性メモリ12に記憶しておくようにした。
これに限らず、これらのプログラムを例えばCD(Compact Disc)などの所定の記録媒体に記録しておき、CPU11がこのプログラムを記録媒体から読み出して実行するようにしてもよい。また、CPU11がこのプログラムをインターネット上の所定のサーバからダウンロードして不揮発性メモリ12にインストールするようにしてもよい。
[4−8.他の実施の形態8]
さらに上述した第1乃至第3の実施の形態では、情報処理装置としての情報処理装置1、情報処理装置50及び情報処理装置100に、操作認識部21としてのタッチパネル3B及びタッチパネル53Bと、操作認識部21、判別部22、制御部23としてのCPU11とを設けるようにした。
これに限らず、同様の機能を有するのであれば、上述した各機能部を、他の種々のハードウェア又はソフトウェアにより構成するようにしてもよい。例えば、操作認識部21、判別部22、制御部23のそれぞれを個別のハードウェアで実現するようにしてもよい。また、操作認識部21についても、タッチパネル3Bに代えて、マウスやリモートコントローラ、ユーザのジェスチャを認識するステレオセンサなどを用いるようにしてもよい。
また同様の構成を有する情報処理装置であれば、携帯型オーディオプレイヤ、PDA(Personal Digital Assistant)、携帯電話機など、この他種々の情報処理装置に本発明を適用するようにしてもよい。
[4−9.他の実施の形態9]
さらに、本発明は、上述した第1乃至第3の実施の形態とここまで説明した他の実施の形態1乃至8とに限定されるものではない。すなわち本発明は、上述した第1乃至第3の実施の形態とここまで説明した他の実施の形態1乃至8の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態も適用範囲とする。例えば、上述した第2の実施の形態と他の実施の形態1とを組み合わせるようにしてもよい。
本発明の情報処理装置、情報処理方法及び情報処理プログラムは、例えば、携帯型オーディオプレイヤ、PDA、携帯電話機等のその他種々の情報処理装置に適用することができる。
1、50、100……情報処理装置、3、53……表示部、3A、53A……LCD、3B、53B……タッチパネル、11……CPU、12……不揮発性メモリ、21……操作認識部、22……判別部、23……制御部、MC……モチカーソル、MR……モチカーソル表示領域。

Claims (10)

  1. 表示部の表示画面に対するユーザ操作を認識する操作認識部と、
    上記操作認識部により認識された上記ユーザ操作が上記表示画面の所定領域内を起点とする操作であるかどうかを判別する判別部と、
    上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作であると判別された際は、上記所定領域内から上記ユーザ操作による上記表示画面へのタッチ位置が離れるほど、上記表示画面に表示させている情報の詳細度を下げつつ当該情報をスクロールさせ、また上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が一旦離れた後、上記所定領域へ戻すように近づくにつれ、上記表示画面に表示させている上記情報の詳細度を上げつつ当該情報をスクロールさせ、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作ではないと判別された際は、上記ユーザ操作に応じて、上記情報の詳細度の変更又は当該情報のスクロールのいずれかを行う制御部と
    を具える情報処理装置。
  2. 上記制御部は、
    上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作であると判別された際は、上記所定領域内から上記ユーザ操作による上記表示画面へのタッチ位置が離れるほど、また当該タッチ位置の移動速度が速いほど、上記表示画面に表示させている上記情報の詳細度を下げ、上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が一旦離れた後、上記所定領域へ戻すように近づくにつれ、上記所定領域内から上記タッチ位置までの距離に応じて、上記表示画面に表示させている上記情報の詳細度を上げる
    請求項1に記載の情報処理装置。
  3. 上記制御部は、
    上記表示画面に上記所定領域を示す枠を表示させる
    請求項1に記載の情報処理装置。
  4. 上記操作認識部は、
    上記表示画面に対応する操作面に対する指示物の近接及び接触を検出し、検出の結果に基づいて、上記ユーザ操作を認識し、
    上記制御部は、
    上記操作認識部により上記指示物の近接が検出されると、上記表示画面に上記所定領域を示す枠を表示させる
    請求項に記載の情報処理装置。
  5. 上記制御部は、
    上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作であると判別された際は、上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が離れるほど、上記表示画面に表示させている地図情報の縮尺を下げつつ当該地図情報をスクロールさせ、また上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が一旦離れた後、上記所定領域へ戻すように近づくにつれ、上記表示画面に表示させている上記地図情報の縮尺を上げつつ当該情報をスクロールさせ、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作ではないと判別された際は、上記ユーザ操作に応じて、上記地図情報の縮尺の変更又は当該地図情報のスクロールのいずれかを行う
    請求項1に記載の情報処理装置。
  6. 上記表示画面に表示させている情報とは、階層的に詳細度が異なるように管理された、コンテンツに関連するコンテンツ関連情報であり、
    上記制御部は、
    上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作であると判別された際は、上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が離れるほど、上記コンテンツ関連情報を現在よりも下位の階層へ切り替えると共に当該コンテンツ関連情報をスクロールさせ、また上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が一旦離れた後、上記所定領域へ戻すように近づくにつれ、上記コンテンツ関連情報を現在よりも上位の階層へ切り替えると共に当該コンテンツ関連情報をスクロールさせ、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作ではないと判別された際は、上記ユーザ操作に応じて、現在よりも上位の階層のコンテンツ関連情報への切り替え又は現在よりも下位の階層のコンテンツ関連情報への切り替え又は上記コンテンツ関連情報のスクロールのいずれかを行う
    請求項1に記載の情報処理装置。
  7. 上記制御部は、
    上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作であると判別された際は、上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が離れるほど、上記表示画面に表示させている画像の拡大率を下げつつ当該画像をスクロールさせ、また上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が一旦離れた後、上記所定領域へ戻すように近づくにつれ、上記表示画面に表示させている上記画像の拡大率を上げつつ当該画像をスクロールさせ、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作ではないと判別された際は、上記ユーザ操作に応じて、上記画像の拡大率の変更又は当該画像のスクロールのいずれかを行う
    請求項1に記載の情報処理装置。
  8. 上記制御部は、
    上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作であると判別された際は、上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が離れるほど、上記表示画面に表示させている画像を現在よりも詳細度の低い画像へ切り替えると共に当該画像をスクロールさせ、また上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が一旦離れた後、上記所定領域へ戻すように近づくにつれ、上記表示画面に表示させている上記画像を現在よりも詳細度の高い画像へ切り替えると共に当該画像をスクロールさせ、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作ではないと判別された際は、上記ユーザ操作に応じて、現在よりも詳細度の高い画像への切り替え又は現在よりも詳細度の低い画像への切り替え又は当該画像のスクロールのいずれかを行う
    請求項1に記載の情報処理装置。
  9. 操作認識部が、表示部の表示画面に対するユーザ操作を認識し、
    判別部が、上記操作認識部により認識された上記ユーザ操作が上記表示画面の所定領域内を起点とする操作であるかどうかを判別し、
    制御部が、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作であると判別された際は、上記所定領域内から上記ユーザ操作による上記表示画面へのタッチ位置が離れるほど、上記表示画面に表示させている情報の詳細度を下げつつ当該情報をスクロールさせ、また上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が一旦離れた後、上記所定領域へ戻すように近づくにつれ、上記表示画面に表示させている上記情報の詳細度を上げつつ当該情報をスクロールさせ、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作ではないと判別された際は、上記ユーザ操作に応じて、上記情報の詳細度の変更又は当該情報のスクロールのいずれかを行う
    情報処理方法。
  10. コンピュータに、
    操作認識部が、表示部の表示画面に対するユーザ操作を認識するステップと、
    判別部が、上記操作認識部により認識された上記ユーザ操作が上記表示画面の所定領域内を起点とする操作であるかどうかを判別するステップと、
    制御部が、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作であると判別された際は、上記所定領域内から上記ユーザ操作による上記表示画面へのタッチ位置が離れるほど、上記表示画面に表示させている情報の詳細度を下げつつ当該情報をスクロールさせ、また上記所定領域内から上記ユーザ操作による上記表示画面への上記タッチ位置が一旦離れた後、上記所定領域へ戻すように近づくにつれ、上記表示画面に表示させている上記情報の詳細度を上げつつ当該情報をスクロールさせ、上記判別部により上記ユーザ操作が上記所定領域内を起点とする操作ではないと判別された際は、上記ユーザ操作に応じて、上記情報の詳細度の変更又は当該情報のスクロールのいずれかを行うステップと
    を実行させるための情報処理プログラム。
JP2009115862A 2009-05-12 2009-05-12 情報処理装置、情報処理方法及び情報処理プログラム Active JP5343692B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009115862A JP5343692B2 (ja) 2009-05-12 2009-05-12 情報処理装置、情報処理方法及び情報処理プログラム
EP10157615.5A EP2251776B1 (en) 2009-05-12 2010-03-24 Information processing
ES10157615.5T ES2634897T3 (es) 2009-05-12 2010-03-24 Procesamiento de información
US12/770,390 US8970630B2 (en) 2009-05-12 2010-04-29 Information processing device, information processing method, and information processing program
CN201010172721.2A CN101887345B (zh) 2009-05-12 2010-05-05 信息处理装置和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009115862A JP5343692B2 (ja) 2009-05-12 2009-05-12 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2010266961A JP2010266961A (ja) 2010-11-25
JP5343692B2 true JP5343692B2 (ja) 2013-11-13

Family

ID=42155123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009115862A Active JP5343692B2 (ja) 2009-05-12 2009-05-12 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (5)

Country Link
US (1) US8970630B2 (ja)
EP (1) EP2251776B1 (ja)
JP (1) JP5343692B2 (ja)
CN (1) CN101887345B (ja)
ES (1) ES2634897T3 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101724000B1 (ko) * 2010-11-22 2017-04-06 삼성전자주식회사 터치스크린 단말기에서 화면 스크롤 방법 및 장치
CN102955667A (zh) * 2011-08-17 2013-03-06 宏碁股份有限公司 手持装置和数据浏览方法
JP5726706B2 (ja) * 2011-10-14 2015-06-03 クラリオン株式会社 ナビゲーション装置
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
JP6011187B2 (ja) * 2012-09-18 2016-10-19 株式会社リコー 情報処理端末及び情報処理方法
JP2014089522A (ja) * 2012-10-29 2014-05-15 Kyocera Corp 電子機器及び制御プログラム並びに電子機器の動作方法
TWI525523B (zh) * 2013-05-26 2016-03-11 仁寶電腦工業股份有限公司 電子裝置的操作方法以及系統
JP2015022567A (ja) * 2013-07-19 2015-02-02 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
KR20150026649A (ko) * 2013-09-03 2015-03-11 삼성전자주식회사 전자 장치에서 제스처를 설정하는 장치 및 방법
US9244593B2 (en) * 2013-10-28 2016-01-26 Beijing Lenovo Software Ltd. Information processing methods and electronic devices
US10339681B2 (en) 2013-11-22 2019-07-02 Raytheon Company Interactive multimedia process flow chart builder
US20150149912A1 (en) * 2013-11-22 2015-05-28 Raytheon Company Interactive multimedia process flow chart analysis
KR20160037508A (ko) * 2014-09-29 2016-04-06 삼성전자주식회사 디스플레이 장치 및 그의 표시 방법
WO2016063258A1 (en) 2014-10-24 2016-04-28 Realitygate (Pty) Ltd Target-directed movement in a user interface
US20180088785A1 (en) * 2015-02-26 2018-03-29 Flow Labs, Inc. Navigating a set of selectable items in a user interface
JP6262283B2 (ja) * 2016-05-17 2018-01-17 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
CN109643174B (zh) 2016-08-24 2022-09-13 索尼公司 信息处理设备、存储介质和信息处理系统
JP6277354B2 (ja) * 2016-11-01 2018-02-14 株式会社ユピテル 電子機器
JP6396394B2 (ja) * 2016-11-04 2018-09-26 ヤフー株式会社 表示プログラム、端末装置、表示方法及び配信装置
JP2017117467A (ja) * 2016-12-22 2017-06-29 パイオニア株式会社 画像表示装置、画像表示システム、画像表示方法及びプログラム
JP6541726B2 (ja) * 2017-07-20 2019-07-10 ヤフー株式会社 情報表示プログラム、情報表示方法、情報表示装置、及び配信装置
KR102297903B1 (ko) * 2019-12-20 2021-09-06 네이버 주식회사 웹 브라우저 디스플레이 방법 및 이를 이용하는 단말장치
JP2023014240A (ja) * 2022-07-19 2023-01-26 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3610635B2 (ja) * 1995-07-18 2005-01-19 マツダ株式会社 車載機器の操作用表示装置
JPH0950235A (ja) * 1995-08-10 1997-02-18 Zanavy Informatics:Kk 車載情報装置
JPH10268759A (ja) * 1997-03-21 1998-10-09 Sony Corp 電子地図表示装置
JP3713696B2 (ja) * 1997-06-02 2005-11-09 ソニー株式会社 デジタルマップの拡大縮小表示方法、デジタルマップの拡大縮小表示装置、及びデジタルマップの拡大縮小表示プログラムを格納した格納媒体
US6747680B1 (en) * 1999-12-13 2004-06-08 Microsoft Corporation Speed-dependent automatic zooming interface
JPH11327433A (ja) * 1998-05-18 1999-11-26 Denso Corp 地図表示装置
JP4216940B2 (ja) * 1999-02-19 2009-01-28 株式会社ザナヴィ・インフォマティクス ナビゲーション装置
JP2002081942A (ja) * 2000-09-06 2002-03-22 Kenwood Corp ナビゲーション装置
JP3618303B2 (ja) * 2001-04-24 2005-02-09 松下電器産業株式会社 地図表示装置
JP2002358162A (ja) * 2001-06-01 2002-12-13 Sony Corp 画像表示装置
KR101104921B1 (ko) * 2003-08-08 2012-01-12 코닌클리케 필립스 일렉트로닉스 엔.브이. 문서를 스크롤링하는 방법
JP4314927B2 (ja) * 2003-08-15 2009-08-19 ソニー株式会社 ナビゲーション装置
US7551187B2 (en) * 2004-02-10 2009-06-23 Microsoft Corporation Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking
JP4476687B2 (ja) * 2004-05-07 2010-06-09 株式会社ナビタイムジャパン 携帯ナビゲーション端末および地図表示方法ならびにプログラム
EP1774427A2 (en) * 2004-07-30 2007-04-18 Apple Computer, Inc. Mode-based graphical user interfaces for touch sensitive input devices
TW200701082A (en) * 2005-06-23 2007-01-01 Elan Microelectronics Corp Scroll control method used in the touch panel
JP2007108841A (ja) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd データ処理装置
US7693912B2 (en) * 2005-10-31 2010-04-06 Yahoo! Inc. Methods for navigating collections of information in varying levels of detail
JP5129478B2 (ja) * 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
WO2007114067A1 (ja) * 2006-04-06 2007-10-11 Pioneer Corporation 地図表示装置及び地図表示方法
CN101059730A (zh) * 2006-04-21 2007-10-24 宏达国际电子股份有限公司 直觉式图像浏览控制器以及具有该装置的电子设备
JP2007328510A (ja) * 2006-06-07 2007-12-20 Ricoh Co Ltd コンテンツ変換装置、コンテンツ表示装置、コンテンツ閲覧装置、コンテンツ変換方法、コンテンツ閲覧方法およびプログラム
KR100835956B1 (ko) * 2006-12-04 2008-06-09 삼성전자주식회사 이동통신 단말기의 이미지 처리 방법
JP4921943B2 (ja) * 2006-12-07 2012-04-25 クラリオン株式会社 ナビゲーション装置
US8032298B2 (en) * 2007-03-29 2011-10-04 Alpine Electronics, Inc. Method and apparatus for incorporating adaptive scroll operation for navigation system
CN101089562A (zh) * 2007-07-18 2007-12-19 晟航行动运算股份有限公司 快速移动地图的装置及其使用方法
JP2009036881A (ja) * 2007-07-31 2009-02-19 Aisin Aw Co Ltd 地図表示装置、地図表示プログラム、及びナビゲーション装置
JP2009098086A (ja) * 2007-10-19 2009-05-07 Xanavi Informatics Corp ナビゲーション装置、スクロール方法
JP2009115862A (ja) 2007-11-01 2009-05-28 Ricoh Co Ltd 現像装置、及び電子写真式画像形成装置
US9176620B2 (en) * 2008-07-22 2015-11-03 Lg Electronics Inc. Mobile terminal and method for displaying information list thereof
JP5279646B2 (ja) * 2008-09-03 2013-09-04 キヤノン株式会社 情報処理装置、その動作方法及びプログラム
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
JP5270485B2 (ja) * 2009-07-30 2013-08-21 富士通コンポーネント株式会社 タッチパネル装置及び方法並びにプログラム及び記録媒体

Also Published As

Publication number Publication date
CN101887345B (zh) 2015-09-16
EP2251776B1 (en) 2017-06-14
EP2251776A2 (en) 2010-11-17
ES2634897T3 (es) 2017-09-29
US20110134126A1 (en) 2011-06-09
JP2010266961A (ja) 2010-11-25
EP2251776A3 (en) 2014-07-02
US8970630B2 (en) 2015-03-03
CN101887345A (zh) 2010-11-17

Similar Documents

Publication Publication Date Title
JP5343692B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP5666122B2 (ja) 表示情報制御装置および方法
US8806380B2 (en) Digital device and user interface control method thereof
US20190205004A1 (en) Mobile terminal and method of operating the same
CN108052275B (zh) 执行显示器上的对象的方法和电子设备
JP5494337B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
TW201346702A (zh) 用於在顯示器上執行物件的方法與裝置
CN105320453B (zh) 显示装置和控制显示装置的方法
JP6054027B2 (ja) 移動端末機の画面出力最適化のためのコンテンツ制御方法及びそのシステム
US20130154978A1 (en) Method and apparatus for providing a multi-touch interaction in a portable terminal
US20130254714A1 (en) Method and apparatus for providing floating user interface
KR20140007163A (ko) 모바일 장치에 클립보드 기능을 제공하는 방법 및 장치
JP5111003B2 (ja) 携帯情報機器、電子ブック、情報記憶媒体、携帯情報機器の制御方法及び電子ブックの制御方法
TWI512600B (zh) 具有動態拼圖介面的電子裝置及控制方法與系統
JP2012123475A (ja) 情報処理装置及び表示方法
CN103809904A (zh) 显示方法和使用显示方法的电子装置
KR20090070491A (ko) 터치스크린을 이용한 화면 제어 장치 및 방법
US20110202880A1 (en) Information processing device, information processing method, and program
KR101998941B1 (ko) 사용자 인터페이스 및 타일의 의미 스케일을 조정하기 위한 방법
KR20150126494A (ko) 이동 단말기 및 그 제어 방법
CN103164152A (zh) 用于编辑视频的装置、方法和图形用户接口
JP2012521048A (ja) タッチスクリーンディスプレイを有する多機能デバイスでの編集の方法およびグラフィカルユーザインターフェース
TWI515638B (zh) 具有動態拼圖介面的電子裝置及控制方法與系統
KR20130081550A (ko) 페이지 검색 방법 및 이를 지원하는 단말기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130729

R151 Written notification of patent or utility model registration

Ref document number: 5343692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250