JP2011028560A - 情報処理装置、表示方法及び表示プログラム - Google Patents
情報処理装置、表示方法及び表示プログラム Download PDFInfo
- Publication number
- JP2011028560A JP2011028560A JP2009174430A JP2009174430A JP2011028560A JP 2011028560 A JP2011028560 A JP 2011028560A JP 2009174430 A JP2009174430 A JP 2009174430A JP 2009174430 A JP2009174430 A JP 2009174430A JP 2011028560 A JP2011028560 A JP 2011028560A
- Authority
- JP
- Japan
- Prior art keywords
- cpu
- image
- display
- finger
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
Abstract
【課題】タッチスクリーンでの操作性を一段と向上し得る。
【解決手段】DSC100は、タッチ位置Rapに対応付けられた情報を、タッチスクリーン109の表示画面上の指によって隠れる領域外に表示させるようにしたことにより、タッチ位置Rapに対応付けられた情報を指によって隠れないように表示できるので、ユーザが指で表示画面をどのようにタッチするかによらず当該情報をユーザに確実に視認させることができるので、タッチスクリーン109での操作性を一段と向上することができる。
【選択図】図8
【解決手段】DSC100は、タッチ位置Rapに対応付けられた情報を、タッチスクリーン109の表示画面上の指によって隠れる領域外に表示させるようにしたことにより、タッチ位置Rapに対応付けられた情報を指によって隠れないように表示できるので、ユーザが指で表示画面をどのようにタッチするかによらず当該情報をユーザに確実に視認させることができるので、タッチスクリーン109での操作性を一段と向上することができる。
【選択図】図8
Description
本発明は、情報処理装置、表示方法及び表示プログラムに関し、例えばタッチスクリーンを有する情報処理装置に適用して好適なものである。
近年、タッチスクリーンを有し、ユーザが表示部の表示画面にタッチするようにして入力可能な情報処理装置が広く普及している。
このような情報処理装置としては、例えば表示画面に表示されたアイコンを指でタッチするように選択させるものが提案されている(例えば、特許文献1参照)。この情報処理装置は、選択されたアイコンに応じたメニューを表示させるなど、選択されたアイコンに応じた処理を実行するようになされている。
ところで上述した情報処理装置において、指などの指示物で表示画面をタッチすると、指示物によって表示画面の一部が隠されてしまう。したがって、例えば表示画面がタッチされることに応じて情報を表示するような場合、指示物によって当該情報が隠されてしまうと、ユーザは当該情報を視認することができず、操作がしづらくなるという問題があった。
本発明は以上の点を考慮してなされたもので、タッチスクリーンでの操作性を一段と向上し得る情報処理装置、表示方法及び表示プログラムを提案しようとするものである。
かかる課題を解決するため本発明の情報処理装置においては、表示部の表示画面に対する指示物のタッチ位置を検出する位置検出部と、表示画面上の指示物によって隠れる領域を検出する領域検出部と、位置検出部によりタッチ位置が検出されると、当該タッチ位置に対応付けられた情報を、領域検出部により検出された領域外に表示させる制御部とを設けるようにした。
これにより、タッチ位置に対応付けられた情報を指示物によって隠れないように表示できるので、ユーザが指示物で表示画面をどのようにタッチするかによらず当該情報をユーザに確実に視認させることができる。
本発明によれば、タッチ位置に対応付けられた情報を指示物によって隠れないように表示できるので、ユーザが指示物で表示画面をどのようにタッチするかによらず当該情報をユーザに確実に視認させることができる。かくしてタッチスクリーンでの操作性を一段と向上し得る情報処理装置、表示方法及び表示プログラムを実現できる。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.他の実施の形態
1.第1の実施の形態
2.第2の実施の形態
3.他の実施の形態
<1.第1の実施の形態>
[1−1.第1の実施の形態の概要]
まず、第1の実施の形態の概要を説明する。この概要を説明した後、本実施の形態の具体例の説明に移る。
[1−1.第1の実施の形態の概要]
まず、第1の実施の形態の概要を説明する。この概要を説明した後、本実施の形態の具体例の説明に移る。
図1において1は、情報処理装置を示す。この情報処理装置1は、表示部2の表示画面に対する指示物のタッチ位置を検出する位置検出部3を有している。またこの情報処理装置1は、表示部2の表示画面上の指示物によって隠れる領域を検出する領域検出部4を有している。
さらにこの情報処理装置1は、位置検出部3によりタッチ位置が検出されると、当該タッチ位置に対応付けられた情報を領域検出部4により検出された領域外に表示させる制御部5を有している。
このような構成により、情報処理装置1は、タッチ位置に対応付けられた情報を指示物によって隠れないように表示できるので、ユーザが指示物で表示画面をどのようにタッチするかによらず当該情報をユーザに確実に視認させることができる。
このような構成でなる情報処理装置1の具体例について、以下、詳しく説明する。
[1−2.DSC(デジタルスチルカメラ)の外観構成]
次に、図2(A)及び(B)を用いて、上述した情報処理装置1の具体例であるデジタルスチルカメラ(以下、DSCとも呼ぶ)100の外観構成について説明する。
次に、図2(A)及び(B)を用いて、上述した情報処理装置1の具体例であるデジタルスチルカメラ(以下、DSCとも呼ぶ)100の外観構成について説明する。
DSC100は、片手で把持し得る程度の大きさでなる略扁平矩形状の筐体101を有している。この筐体101の前面101Aには、その上部に撮影レンズ102、AF(Auto Focus)イルミネータ103、フラッシュ104が設けられている。AFイルミネータ103は、セルフタイマランプも兼ねている。
さらに前面101Aには、上下にスライド可能なレンズカバー105が取り付けられている。レンズカバー105は、下方にスライドさせられると撮影レンズ102、AFイルミネータ103、フラッシュ104を露出させる一方で、上方にスライドさせられると、これらを覆うことで保護するようになっている。
尚、DSC100は、レンズカバー105が下方にスライドさせられると、自動的に電源オンするようにもなっている。
また筐体101の上面101Bには、シャッタボタン106、再生ボタン107及び電源ボタン108が設けられている。さらに筐体101の背面101Cには、タッチスクリーン109が設けられている。
再生ボタン107は、DSC100の動作モードを、撮影した画像をタッチスクリーン109に表示する再生モードに切り替える為のハードウェアキーである。またタッチスクリーン109は、ユーザの指によるタッチ操作が可能な表示デバイスである。
DSC100は、レンズカバー105が下方にスライドさせられると、もしくは電源ボタン108が押下されると、電源オンして、撮影モードで起動する。
するとDSC100は、撮影レンズ102を介して撮像した画像をモニタリング画像としてタッチスクリーン109に表示する。そしてDSC100は、シャッタボタン106が押下されると、画像を記録する。
またDSC100は、再生ボタン107が押下されると、再生モードに切り換わる。するとDSC100は、記録した画像のうちの例えば1つをタッチスクリーン109に表示する。そしてDSC100は、タッチスクリーン109に対するタッチ操作に応じて、表示する画像を切り替える。
[1−3.DSC(デジタルスチルカメラ)のハードウェア構成]
次に図3を用いて、DSC100のハードウェア構成について説明する。DSC100は、CPU110が、プログラムROM111に書き込まれたプログラムをRAM112にロードして実行することで各種処理を実行すると共に、タッチスクリーン109や操作部113からの信号に応じて各部を制御する。因みに、CPUは、Central Processing Unitの略である。また、ROMは、Read Only Memoryの略、RAMは、Random Access Memoryの略である。
次に図3を用いて、DSC100のハードウェア構成について説明する。DSC100は、CPU110が、プログラムROM111に書き込まれたプログラムをRAM112にロードして実行することで各種処理を実行すると共に、タッチスクリーン109や操作部113からの信号に応じて各部を制御する。因みに、CPUは、Central Processing Unitの略である。また、ROMは、Read Only Memoryの略、RAMは、Random Access Memoryの略である。
タッチスクリーン109は光センサ方式のものであり、タッチスクリーン109の表示画面には、複数の画素セットが例えばマトリクス状に配置されている。各画素セットには、表示部109Aとして赤色表示、緑色表示及び青色表示のそれぞれに対応する発光素子と、光センサ109Bとが設けられている。
光センサ109Bは、外部からタッチスクリーン109の表示画面に入射する光を受光し、所定時間ごとに、受光した光の光強度と当該光センサ109Bのタッチスクリーン109上における位置とに応じた信号を生成する。そして光センサ109Bは、当該信号をCPU110に送るようになされている。
例えば図4(A)に示すように、タッチスクリーン109の表示画面に対してユーザの指が接触しているとする。この場合、指先はタッチスクリーン109の表示画面に接触しており、指先以外の部分は当該表示画面に接触はしていないが近接はしていると考えられる。
このときタッチスクリーン109の表示画面においてユーザの指が接触している領域では、ユーザの指により当該表示画面に入射する光が遮られるため、光センサ109Bで受光する光の光強度は小さくなる。
またタッチスクリーン109の表示画面においてユーザの指が近接している領域では、ユーザの指の影ができるため、光センサ109Bで受光する光の光強度は若干小さくなるが、指が接触している領域よりは大きくなる。
一方タッチスクリーン109の表示画面においてユーザの指が接触も近接もしていない領域では、当該表示画面に入射する光が遮られることがないため、光センサ109Bで受光する光の光強度は指が接触又は近接している領域より大きくなる。
このことをふまえCPU110は、図4(B)に示すように、光センサ109Bにより受光した光の光強度が所定の閾値(これを第1閾値とも呼ぶ)よりも小さい領域を検出し、これを指が接触している領域Raであると認識する。
そしてCPU110は、指が接触している領域Raにおける重心をタッチスクリーン109の表示画面の座標として検出し、この座標をユーザの指が接触した位置(つまりタッチ位置)Rapとして認識する。
CPU110は、光センサ109Bより所定時間ごとに送られてくる信号より順次タッチ位置Rapを認識していくことで、タッチ位置Rapがどのように動いたのか(すなわちタッチ位置Rapの軌跡)を認識する。
そしてCPU110は、このようにして認識したタッチ位置Rapとその軌跡とに基づいて、画面上のどの位置に対して、どのようなタッチ操作が行われたのかを判別するようになされている。
またCPU110は、光センサ109Bにより受光した光の光強度が、第1閾値よりも大きい所定の閾値(これを第2閾値とも呼ぶ)よりも小さく且つ第1閾値よりも大きい領域を検出し、これを指が近接している領域Rbであると認識する。
そしてCPU110は、指が接触している領域Ra及び指が近接している領域Rbがユーザの指によって隠れる領域であると認識し、この領域外にタッチ位置Rapに対応付けられた情報を表示させる。つまりCPU110は、タッチ位置Rapに対応付けられた情報をユーザの指によって隠れないように表示させるようになっている。
尚、タッチスクリーン109上の指によって隠れる領域外にタッチ位置Rapに対応付けられた情報を表示させる処理については、後述する画像メニュー表示処理手順及び撮影位置修正処理手順において詳しく説明する。
操作部113(図3)は、上述したシャッタボタン106、再生ボタン107及び電源ボタン108などからなるデバイスであり、これらの操作に応じた信号をCPU110に送る。
CPU110は、操作部113から送られてくる信号に基づいて、シャッタボタン106、再生ボタン107及び電源ボタン108のどれが操作されたかを判別する。
実際、CPU110は、操作部113の電源ボタン108が押下されて電源オンすると、又はタッチスクリーン109に対するタッチ操作により動作モードを撮影モードに切り替えるよう指示されると、撮影モードで動作する。
このときCPU110は、モータドライバ114を制御して、アクチュエータ115を駆動させることで、上述した撮影レンズ102やAFイルミネータ103などからなるレンズ部116を、DSC100の筐体101から露出させる。またCPU110は、アクチュエータ115を駆動させることで、レンズ部116の絞りを調整したり、光学ズームのズーム倍率を変更したり、フォーカスレンズを移動させたりする。
またこのときCPU110は、タイミングジェネレータ(TG)117を制御して、タイミング信号をCCD(Charge Coupled Device)などでなる撮像素子118に供給する。撮像素子118は、このタイミング信号に基づいて動作することにより、レンズ部116を介して取り込まれた被写体からの光を電気信号に変換(すなわち光電変換)して、これをアナログ信号処理部119に送る。
アナログ信号処理部119は、CPU110の制御のもと、この電気信号に対してアナログ信号処理(増幅等)を施すことでアナログ画像信号を得、これをアナログデジタル変換部(これをA/D変換部とも呼ぶ)120に送る。
A/D変換部120は、CPU110の制御のもと、送られてきたアナログ画像信号をアナログデジタル変換(A/D変換)することでデジタル画像信号を得、これをデジタル信号処理部121に送る。
デジタル信号処理部121は、CPU110の制御のもと、A/D変換部120から送られてきたデジタル画像信号に対してデジタル信号処理(ノイズ除去等)を施した後、タッチスクリーン109の表示部109Aに送る。この結果、タッチスクリーン109には、被写体の画像がモニタリング画像として表示される。このようにしてDSC100は、撮影者に被写体を確認させる。
またこのとき、デジタル信号処理部121は、CPU110の制御のもと、ボタンやアイコンなどのグラフィックス信号を生成して、これをデジタル画像信号に重畳する。この結果タッチスクリーン109には、モニタリング画像と共にボタンやアイコンなどが表示される。
またここで、操作部113のシャッタボタン106が押下されたとする。するとCPU110は、この操作に応じて画像を記録する。
このときデジタル信号処理部121は、CPU110の制御のもと、A/D変換部120から送られてきたデジタル画像信号を、例えばJPEGなどの圧縮伸長フォーマットで圧縮することで圧縮画像データを生成して、CPU110に送る。因みに、JPEGとは、Joint Photographic Experts Groupの略である。
またこのときデジタル信号処理部121は、CPU110の制御のもと、当該デジタル画像信号に基づく画像を縮小したサムネイル画像データも生成して、CPU110に送る。
またGPS(Global Positioning System)モジュール122は、CPU110の制御のもと、複数のGPS衛星から信号を受信し、この信号に基づいてDSC100の現在位置(緯度、経度など)を測位する。そしてGPSモジュール122は、この現在位置、つまり撮影時の位置を示す撮影位置情報をCPU110に送る。
またCPU110は、タイマなどの計時部(図示せず)から現在の日時(つまり撮影日時)を取得する。
そしてCPU110は、送られてきた圧縮画像データに、サムネイル画像データ、撮影位置情報、撮影日時などをメタデータとして付加して画像ファイルを生成する。
そしてCPU110は、この画像ファイルを記録デバイス123に記録する。このようにしてCPU110は、画像を記録する。
因みに、記録デバイス123は、例えば数ギガバイト〜数十ギガバイト程度の不揮発性メモリであり、DSC100に予め内蔵された記録媒体であってもよいし、メモリカードのようにDSC100に着脱可能な記録媒体であってもよい。
またDSC100は、記録デバイス123とは別に、EEPROM(Electrically Erasable Programmable ROM)124を有している。CPU110は、このEEPROM124に、ユーザにより設定された各種情報など、電源オフ後も保持する必要がある情報を記憶させるようになっている。尚このような情報を記憶させる記憶媒体として、EEPROM124の代わりに例えばフラッシュメモリを用いるようにしてもよい。
また一方で、操作部113の再生ボタン108が押下されると、又はタッチスクリーン109に対するタッチ操作により動作モードを再生モードに切り替えるよう指示されると、CPU110は、再生モードで動作する。
DSC100は、再生モードとして、画像を1枚ずつ表示する通常表示モードと、複数の画像を一覧で表示する一覧表示モードと、撮影位置に対応する地図画像上に画像を表示する地図表示モードとを有している。
CPU110は、タッチスクリーン109を介して通常表示モードが選択されると、記録デバイス123に記録されている画像ファイルのうちの1つ(例えば撮影日時が最も新しい画像ファイル)を読み出す。そしてCPU110は、この画像ファイルから圧縮画像データを抽出して、デジタル信号処理部121に送る。
デジタル信号処理部121は、CPU110の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これをタッチスクリーン109の表示部109Aに送る。この結果、タッチスクリーン109には、再生された画像が表示される。
またCPU110は、タッチスクリーン109を介して一覧表示モードが選択されると、記録デバイス123に記録されている複数の画像ファイル(例えば撮影日時が新しい順に複数枚)を読み出す。そしてCPU110は、これらの画像ファイルからサムネイル画像データを抽出し、デジタル信号処理部121に送る。
デジタル信号処理部121は、CPU110の制御のもと、送られてきたサムネイル画像データをもとに画像一覧画面となる画面表示信号を生成し、表示部109Aに送る。この結果、図5に示すように、サムネイル画像データに基づくサムネイル画像Tp(Tp1、Tp2、・・・、Tpn)が例えばマトリクス状に並べられた画像一覧画面Igがタッチスクリーン109に表示される。
またCPU110は、タッチスクリーン109を介して地図表示モードが選択されると、記録デバイス123に記録されている画像ファイル(例えば撮影日時が最も新しい画像ファイル)を読み出す。
そしてCPU110は、この画像ファイルからサムネイル画像データを抽出し、デジタル信号処理部121に送る。これと共にCPU110は、この画像ファイルから撮影位置情報を抽出し、これをもとに記録デバイス123から撮影位置を含む周辺の地図画像データを読み出して、デジタル信号処理部121に送る。
デジタル信号処理部121は、CPU110の制御のもと、送られてきたサムネイル画像データと地図画像データをもとに、地図画面となる画面表示信号を生成し、これを表示部109Aに送る。
この結果、図6に示すように、地図画像データに基づく地図画像Mp上の撮影位置に対応する位置に、サムネイル画像データに基づくサムネイル画像Tpを配置した地図画面Mgがタッチスクリーン109に表示される。
またデジタル信号処理部121は、CPU110の制御のもと、ボタンやアイコンなどのグラフィックス信号を生成して、これを画面表示信号に重畳する。この結果タッチスクリーン109には、画像一覧画面Igや地図画面Mg上に、ボタンやアイコンなどが表示される。
このようにしてCPU110は、画像を再生する。
尚、このDSC100のタッチスクリーン109が、上述した情報処理装置1の表示部2に相当するハードウェアである。またこのDSC100のCPU110が上述した情報処理装置1の制御部5に相当するハードウェアである。さらにこのDSC100のタッチスクリーン109及びCPU110が上述した情報処理装置1の位置検出部3及び領域検出部4に相当するハードウェアである。尚、このDSC100では、タッチスクリーン109とCPU110とが協働して、情報処理装置1の位置検出部3及び領域検出部4と同等の機能を実現するようになっている。
[1−4.画像メニュー表示処理手順]
DSC100は、一覧表示モードのとき、ユーザ操作に応じて、例えば削除、編集、転送などといった画像に対して行いうる各種処理のメニューを表示させるようになされている。以下、この画像に対して行いうる各種処理のメニューを表示させる動作処理手順(これを画像メニュー表示処理手順とも呼ぶ)について、図7に示すフローチャートを用いて説明する。
DSC100は、一覧表示モードのとき、ユーザ操作に応じて、例えば削除、編集、転送などといった画像に対して行いうる各種処理のメニューを表示させるようになされている。以下、この画像に対して行いうる各種処理のメニューを表示させる動作処理手順(これを画像メニュー表示処理手順とも呼ぶ)について、図7に示すフローチャートを用いて説明する。
因みにこの画像メニュー表示処理手順RT1は、DSC100のCPU110が、プログラムROM111に書き込まれているプログラムに従って実行する処理手順である。
CPU110は、タッチスクリーン109を介して一覧表示モードが選択されると、この画像メニュー表示処理手順RT1を開始して、ステップSP1に移る。
ステップSP1においてCPU110は、上述したように複数の画像のサムネイル画像Tpを一覧で表示する画像一覧画面Ig(図5)をタッチスクリーン109に表示させ、次のステップSP2に移る。
ステップSP2においてCPU110は、任意のサムネイル画像Tp上の一箇所を指でタッチし所定時間以上押下する操作(つまり、サムネイル画像Tpに対する長押し操作)が行われたか否かを判別する。
尚CPU110は、上述したようにタッチスクリーン109を介して、任意のサムネイル画像Tp上でタッチ位置Rapが所定時間以上動かないことを認識すると、当該サムネイル画像Tpに対する長押し操作が行われたと判別する。
このステップSP2において任意のサムネイル画像Tpに対する長押し操作が行われていないことより否定結果が得られると、CPU110は、再度ステップSP2に戻り、任意のサムネイル画像Tpに対する長押し操作が行われるまで待ち受ける。
一方ステップSP2において任意のサムネイル画像Tpに対する長押し操作が行われたことより肯定結果が得られると、CPU110は、任意のサムネイル画像Tpが示す画像が選択されたと認識し、次のステップSP3に移る。
ステップSP3においてCPU110は、上述したようにタッチスクリーン109を介して、当該タッチスクリーン109上の指によって隠れる領域を検出して、ステップSP4に移る。
ステップSP4においてCPU110は、図8に示すように、画像に対して行いうる各種処理のメニューを示す画像メニューアイコンGmを、画像一覧画面Igに表示させる。
具体的に画像メニューアイコンGmは、例えば縦長の吹き出し形状で表示される。画像メニューアイコンGmには、上から順に、削除メニューアイコンGm1、編集メニューアイコンGm2、転送メニューアイコンGm3が縦一列に設けられる。削除メニューアイコンGm1は、選択した画像の削除処理を示すものであり、編集メニューアイコンGm2は、選択した画像の編集処理を示すものであり、転送メニューアイコンGm3は、選択した画像の外部機器への転送処理を示すものである。
このときCPU110は、長押し操作されているサムネイル画像Tpの右側又は左側のいずれかの位置で、タッチスクリーン109上の指によって隠れる領域と重ならないように画像メニューアイコンGmを表示させるようになされている。
例えば図8(A)に示すように、指が右下側からサムネイル画像Tpにタッチしている場合、サムネイル画像Tpの右下部分と当該サムネイル画像Tpの右下側が、指によって隠れてしまう領域となる。ここで、サムネイル画像Tpの右側に当該サムネイル画像Tpに隣接させて画像メニューアイコンGmを表示させると、当該画像メニューアイコンGmの当該領域内となる部分が指によって隠れてしまう。
この場合CPU110は、画像メニューアイコンGmを、指によって隠れる領域と重ならない位置であるサムネイル画像Tpの左側に、当該サムネイル画像Tpに隣接させて表示させる。
一方図8(B)に示すように、指が左下側からサムネイル画像Tpにタッチしている場合、サムネイル画像Tpの左下部分と当該サムネイル画像Tpの左下側が、指によって隠れてしまう領域となる。ここで、サムネイル画像Tpの左側に当該サムネイル画像Tpに隣接させて画像メニューアイコンGmを表示させると、当該画像メニューアイコンGmの当該領域内となる部分が指によって隠れてしまう。
この場合CPU110は、画像メニューアイコンGmを、指によって隠れる領域と重ならない位置であるサムネイル画像Tpの右側に、当該サムネイル画像Tpに隣接させて表示させる。
このようにCPU110は、タッチスクリーン109上の指によって隠れる領域外に画像メニューアイコンGmを表示させて、次のステップSP5(図7)に移る。
ステップSP5においてCPU110は、画像メニューアイコンGmの削除メニューアイコンGm1、編集メニューアイコンGm2、転送メニューアイコンGm3のいずれかが選択されたか否かを判別する。具体的にCPU110は、指がタッチスクリーン109にタッチされたまま、これらの画像メニューアイコンGm上のいずれかの位置に移動して指が離されると、指が離された位置の画像メニューアイコンGmが選択されたと認識する。
このステップSP5において肯定結果が得られるとCPU110は、次にステップSP6に移る。
ステップSP6においてCPU110は、選択された画像に対して、選択された画像メニューアイコンGmに対応する処理を実行する。
CPU110は、例えば図8(C)に示すように、削除メニューアイコンGm1が選択されると、選択された画像に対応する画像ファイルを記録デバイス123から削除する。これと共にCPU110は、図8(D)に示すように、選択されていた画像のサムネイル画像Tpの表示を削除する。
またCPU110は、編集メニューアイコンGm2が選択された場合、選択された画像を編集するための編集画面(図示せず)を表示させる。この編集画面では、例えば画像の彩度を変えてモノクロやセピア色の画像を生成したり、画像の明度や色相を変えた画像を生成したりできるようになされている。
またCPU110は、転送メニューアイコンGm3が選択された場合、選択された画像を、DSC100の例えばUSB(Universal Serial Bus)端子(図示せず)を介して接続されたUSB機器(例えばプリンタなど)に転送する。
このようにCPU110は、選択された画像に対して、選択された画像メニューアイコンGmに対応する処理を実行すると、画像メニュー表示処理手順RT1(図7)を終了する。
一方ステップSP5において、削除メニューアイコンGm1、編集メニューアイコンGm2、転送メニューアイコンGm3のいずれかが選択されていないことより否定結果が得られると、CPU110はステップSP7に移る。
ステップSP7においてCPU110は、タッチスクリーン109から指が離されたか否かを判別する。
このステップSP7において否定結果が得られると、CPU110は、ステップSP5に戻る。そしてCPU110は、再度画像メニューアイコンGmの削除メニューアイコンGm1、編集メニューアイコンGm2、転送メニューアイコンGm3のいずれかが選択されたか否かを判別する。
一方ステップSP7において肯定結果が得られると、CPU110は、画像の選択が解除されたと認識し、画像メニューアイコンGmを非表示にしてステップSP2に戻る。そしてCPU110は、再びサムネイル画像Tpに対する長押し操作が行われるまで待ち受ける。
このような画像メニュー表示処理手順RT1により、DSC100は、画像メニューアイコンGmを表示させ、当該画像メニューアイコンGmに対するタッチ操作に応じて、画像に対する各種処理を行うようになされている。
[1−5.撮影位置修正処理手順]
またDSC100においてGPSモジュール122は、画像の撮影時に、障害物やノイズなどの影響により誤った撮影位置を測位してしまうことも考えられる。そこでDSC100では、地図表示モードのとき、ユーザ操作に応じて画像の撮影位置を修正できるようになされている。以下、この画像の撮影位置を修正する処理を行う動作処理手順(これを撮影位置修正処理手順とも呼ぶ)について、図9に示すフローチャートを用いて説明する。
またDSC100においてGPSモジュール122は、画像の撮影時に、障害物やノイズなどの影響により誤った撮影位置を測位してしまうことも考えられる。そこでDSC100では、地図表示モードのとき、ユーザ操作に応じて画像の撮影位置を修正できるようになされている。以下、この画像の撮影位置を修正する処理を行う動作処理手順(これを撮影位置修正処理手順とも呼ぶ)について、図9に示すフローチャートを用いて説明する。
因みにこの撮影位置修正処理手順RT2も、DSC100のCPU110が、プログラムROM111に書き込まれているプログラムに従って実行する処理手順である。
CPU110は、タッチスクリーン109を介して地図表示モードが選択されると、この撮影位置修正処理手順RT2を開始して、ステップSP101に移る。
ステップSP101においてCPU110は、上述したように地図画像Mp上の撮影位置に対応する位置に、画像のサムネイル画像Tpを配置した地図画面Mg(図6)をタッチスクリーン109に表示させ、次のステップSP102に移る。
ステップSP102においてCPU110は、サムネイル画像Tp上の箇所を指でタッチされ、その指がタッチされたまま移動される操作(つまりサムネイル画像Tpに対するドラッグ操作)が開始されたか否かを判別する。
具体的にCPU110は、タッチスクリーン109を介してサムネイル画像Tp上のタッチ位置Rapが所定距離以上移動したことを認識すると、サムネイル画像Tpに対するドラッグ操作が開始されたと判別する。
このステップSP102においてサムネイル画像Tpに対するドラッグ操作が開始されていないことより否定結果が得られると、CPU110は、再度ステップSP102に戻る。そしてCPU110は、サムネイル画像Tpに対するドラッグ操作が開始されるまで待ち受ける。
一方ステップSP102においてサムネイル画像Tpに対するドラッグ操作が開始されたことより肯定結果が得られると、CPU110は、次のステップSP103に移る。
ステップSP103においてCPU110は、上述したようにタッチスクリーン109を介して、当該タッチスクリーン109上の指によって隠れる領域を検出して、ステップSP104に移る。
ステップSP104においてCPU110は、サムネイル画像Tpに隣接する位置でありタッチスクリーン109上の指によって隠れる領域外の位置に、撮影位置アイコンSiを表示させる。
この撮影位置アイコンSiは、新たな撮影位置となる位置を示すものであり、サムネイル画像Tpに対するドラッグ操作中、サムネイル画像Tpと共に移動するようになされている。
サムネイル画像Tpに対するドラッグ操作が行われている際、サムネイル画像Tpは指で隠れてしまうので、地図画像Mp上のどの位置にサムネイル画像Tpがあるのかユーザが確認しにくくなる。そこでドラッグ操作の間、サムネイル画像Tpに隣接させて撮影位置アイコンSiを表示させることで、どの位置が新たな撮影位置として選択されようとしているのかをユーザに通知するようになされている。
例えば図10に示すように、サムネイル画像Tpの左下部分と当該サムネイル画像Tpの左下側が指によって隠れてしまう領域となる場合、サムネイル画像Tpの例えば右下角近傍に撮影位置アイコンSiを表示させる。
そしてCPU110は、サムネイル画像Tpに対するドラッグ操作に合わせてサムネイル画像Tpを移動させる。これと共にCPU110は、撮影位置アイコンSiが常にサムネイル画像Tpの右下角近傍にあるように、撮影位置アイコンSiを移動させる。つまりCPU110は、サムネイル画像Tpの移動と合わせて、撮影位置アイコンSiとサムネイル画像Tpとの相対位置が変化しないように移動させる。
ここでサムネイル画像Tpに対するドラッグ操作中にタッチスクリーン109に対する指の傾きが変化して、例えば図11に示すように、サムネイル画像Tpの右下部分と当該サムネイル画像Tpの右下側が、指によって隠れる領域となったとする。このとき、サムネイル画像Tpの右下角近傍に撮影位置アイコンSiが表示されたままだと、撮影位置アイコンSiが指によって隠れてしまう。
CPU110は、このように撮影位置アイコンSiの移動後の表示位置が指によって隠れる領域に入ると判別すると、当該撮影位置アイコンSiの表示位置を、指によって隠れる領域外である例えば左下角近傍に移動させる。
またサムネイル画像Tpに対するドラッグ操作中に、図12に示すようにサムネイル画像Tpが地図画面Mgの右端に移動したとする。
このとき撮影位置アイコンSiの表示位置がサムネイル画像Tpの右下角近傍のままだと地図画面Mg外の位置になってしまい、撮影位置アイコンSiを表示することができなくなってしまう。
CPU110は、このように撮影位置アイコンSiの移動後の表示位置が地図画面Mg外になると判別すると、当該撮影位置アイコンSiの表示位置を地図画面Mg内且つ指によって隠れる領域外である例えば左上角近傍に移動させる。
以上のようにCPU110は、常に、サムネイル画像Tpに隣接する位置であり且つタッチスクリーン109上の指によって隠れる領域外の位置に、撮影位置アイコンSiを表示させるようにして、次のステップSP105(図9)に移る。
ステップSP105においてCPU110は、タッチスクリーン109からユーザの指が離されたか否かを判別する。
このステップSP105においてタッチスクリーン109からユーザの指が離されていないことより否定結果が得られると、このことは、サムネイル画像Tpに対するドラッグ操作が継続中であることを意味している。このときCPU110は、再度ステップSP105に戻り、タッチスクリーン109からユーザの指が離されるまで待ち受ける。
一方ステップSP105においてタッチスクリーン109からユーザの指が離されたことより肯定結果が得られると、このことは、サムネイル画像Tpに対するドラッグ操作が終了したことを意味する。このときCPU110は、ステップSP106に移る。
ステップSP106においてCPU110は、タッチスクリーン109からユーザの指が離されたときの撮影位置アイコンSiの地図画像Mp上の位置を、サムネイル画像Tpが示す画像の撮影位置として修正する。つまりCPU110は、画像ファイルのメタデータに記されている撮影位置情報を、修正した撮影位置を示す撮影位置情報に更新する。
例えば図13(A)に示すようにサムネイル画像Tpが移動されたときに、ユーザの指がタッチスクリーン109から離されたとする。CPU110は、このときの撮影位置アイコンSiの位置を、当該サムネイル画像Tpが示す画像の撮影位置として修正する。
またこのときCPU110は、図13(B)に示すように、修正した撮影位置に対応する地図画像Mp上の位置にサムネイル画像Tpを表示させ、撮影位置アイコンSiを非表示にする。
このようにCPU110は画像の撮影位置を修正して、撮影位置修正処理手順RT2を終了する。
[1−6.第1の実施の形態における動作及び効果]
以上の構成において、DSC100のCPU110は、タッチスクリーン109の表示画面上に入射する光の光強度に基づいて、ユーザの指が表示画面に接触及び近接している領域を検出する。そしてCPU110は、当該領域を、表示画面上の指によって隠れる領域として検出する。
以上の構成において、DSC100のCPU110は、タッチスクリーン109の表示画面上に入射する光の光強度に基づいて、ユーザの指が表示画面に接触及び近接している領域を検出する。そしてCPU110は、当該領域を、表示画面上の指によって隠れる領域として検出する。
そしてCPU110は、一覧表示モードのとき、タッチスクリーン109を介してサムネイル画像Tpに対する長押し操作を認識すると、画像メニューアイコンGmを表示画面上の指によって隠れる領域外に表示させる。
またCPU110は、地図表示モードのとき、タッチスクリーン109を介してサムネイル画像Tpに対するドラッグ操作を認識すると、撮影位置アイコンSiを表示画面上の指によって隠れる領域外に表示させる。
つまりCPU110は、動作モードに応じてタッチ位置Rap(この場合サムネイル画像Tp上の箇所)に対応付けられた情報を、表示画面上の指によって隠れる領域外に表示させるようにした。
これによりDSC100は、タッチ位置Rapに対応付けられた情報を指によって隠れないように表示できるので、ユーザが指で表示画面をどのようにタッチするかによらず当該情報をユーザに確実に視認させることができる。
またCPU110は、地図表示モードのとき、サムネイル画像Tp上に指がタッチされ、指がタッチされたまま移動する操作(つまりドラッグ操作)が行われると、タッチ位置Rapの移動に合わせてサムネイル画像Tpを移動させる。
これと共にCPU110は、撮影位置アイコンSiをサムネイル画像Tpとの相対位置が変化しないように移動させる。つまりCPU110は、撮影位置アイコンSiをタッチ位置Rapとの相対位置が変化しないように移動させる。
そしてCPU110は、移動後の撮影位置アイコンSiの表示位置がタッチスクリーン109の表示画面外になると判別すると、当該撮影位置アイコンSiの表示位置を表示画面内且つ指によって隠れる領域外に移動させるようにした。
これによりDSC100は、サムネイル画像Tpがどの位置に移動されても、撮影位置アイコンSiを指によって隠れないように表示できるので、当該撮影位置アイコンSiをユーザに確実に視認させることができる。
以上の構成によれば、DSC100は、タッチ位置Rapに対応付けられた情報を、タッチスクリーン109の表示画面上の指によって隠れる領域外に表示させるようにした。
これによりDSC100は、タッチ位置Rapに対応付けられた情報を指によって隠れないように表示できるので、ユーザが指で表示画面をどのようにタッチするかによらず当該情報をユーザに確実に視認させることができる。かくしてDSC100は、タッチスクリーン109での操作性を一段と向上することができる。
<2.第2の実施の形態>
[2−1.第2の実施の形態の概要]
次に第2の実施の形態について説明する。因みにこの概要を説明した後、本実施の形態の具体例の説明に移る。
[2−1.第2の実施の形態の概要]
次に第2の実施の形態について説明する。因みにこの概要を説明した後、本実施の形態の具体例の説明に移る。
図1と対応する部分について同様の符号を付した図14において、50は、第2の実施の形態における情報処理装置を示す。この情報処理装置50は、上述した第1の実施の形態と同様の位置検出部3及び領域検出部4を有している。
また情報処理装置50は、領域検出部4により検出された領域の表示画面に対する傾きに基づいて、指示物がユーザの右手か若しくはユーザの左手かを判別する判別部51を有している。
さらに情報処理装置50は、位置検出部3によりタッチ位置が検出されると、当該タッチ位置に対応付けられた情報を領域検出部4により検出された領域外に表示させる制御部52を有している。この制御部52は、指示物がユーザの右手か若しくはユーザの左手かという判別部51による判別結果に応じて、表示させる情報を変えるようにもなされている。
このような構成でなる情報処理装置50の具体例であるDSC100について、以下、詳しく説明する。尚DSC100のハードウェア構成については、第1の実施の形態のハードウェア構成(図3)と同様であるので第1の実施の形態を参照とする。
尚第2の実施の形態において、DSC100のCPU110が情報処理装置50の判別部51及び制御部52に相当するハードウェアである。またDSCのタッチスクリーン109及びCPU110が情報処理装置50の位置検出部3及び領域検出部4に相当するハードウェアである。
[2−2.地図表示モード操作処理手順]
第2の実施の形態におけるDSC100は、地図表示モードのとき、ユーザがタッチスクリーン109を右手で操作しているか又は左手で操作しているかによって、表示させるアイコンを変えるようになされている。以下、この地図表示モードでの操作における動作処理手順(これを地図表示モード操作処理手順とも呼ぶ)について、図15に示すフローチャートを用いて説明する。
第2の実施の形態におけるDSC100は、地図表示モードのとき、ユーザがタッチスクリーン109を右手で操作しているか又は左手で操作しているかによって、表示させるアイコンを変えるようになされている。以下、この地図表示モードでの操作における動作処理手順(これを地図表示モード操作処理手順とも呼ぶ)について、図15に示すフローチャートを用いて説明する。
因みに、この地図表示モード操作処理手順RT3は、DSC100のCPU110が、プログラムROM111に書き込まれているプログラムに従って実行する処理手順である。
CPU110は、タッチスクリーン109を介して地図表示モードが選択されると、この地図表示モード操作処理手順RT3を開始して、ステップSP201に移る。
ステップSP201においてCPU110は、上述した第1の実施の形態と同様である地図画面Mg(図6)をタッチスクリーン109に表示させ、次のステップSP202に移る。
ステップSP202においてCPU110は、サムネイル画像Tp上の箇所が指でタッチされたか否かを判別する。
このステップSP202においてサムネイル画像Tp上の箇所が指でタッチされていないことより否定結果が得られると、CPU110は、再度ステップSP202に戻る。そしてCPU110は、サムネイル画像Tp上の箇所がタッチされるまで待ち受ける。
一方ステップSP202においてサムネイル画像Tp上の箇所が指でタッチされたことより肯定結果が得られると、CPU110は、次のステップSP203に移る。
ステップSP203においてCPU110は、上述した第1の実施の形態と同様にタッチスクリーン109を介して、当該タッチスクリーン109上の指によって隠れる領域を検出して、ステップSP204に移る。
ステップSP204においてCPU110は、タッチスクリーン109上の指によって隠れる領域の表示画面に対する傾きに基づいて、ユーザがタッチスクリーン109を右手で操作しているか又は左手で操作しているかを判別する。
例えば図16(A)に示すように、ユーザの指が右下側からタッチスクリーン109をタッチしている、つまりユーザが右手で操作しているとする。このときCPU110は、例えば図16(B)に示すように、ユーザの指によって隠れる領域として指が接触している領域Ra及び指が近接している領域Rbを検出する。
CPU110は、指が接触している領域Ra及び指が近接している領域Rbを検出してタッチ位置Rapを検出すると共に、指が近接している領域Rbにおける重心Rbpをタッチスクリーン109の表示画面の座標として検出する。
指が接触している領域Raは指先の方にあるため、その重心であるタッチ位置Rapは指先の方にあると考えられる。一方、指が近接している領域Rbは指先から指の付け根までに渡っているため、その重心Rbpは指の中心あたりであり、タッチ位置Rapよりも指の付け根側にあると考えられる。つまり、タッチ位置Rapと重心Rbpの位置関係は、指先と指の付け根の位置関係を示していると考えられる。
ユーザが右手で操作している場合、タッチスクリーン109の表示画面に対して指の付け根が指先よりも右側にあり、指先側に向かって指が左に傾いていると考えられる。ゆえにCPU110は、重心Rbpがタッチ位置Rapよりも右側にあることより指によって隠れる領域が表示画面に対して左に傾いていると認識すると、ユーザが右手で操作していると判別する。
一方図17(A)に示すように、ユーザの指が左下側からタッチスクリーン109をタッチしている、つまりユーザが左手で操作しているとする。この場合、タッチスクリーン109の表示画面に対して、指の付け根が指先よりも左側にあり、指先側に向かって指が右側に傾いていると考えられる。ゆえにCPU110は、図17(B)に示すように、重心Rbpがタッチ位置Rapよりも左側にあることより指によって隠れる領域が表示画面に対して右に傾いていると認識すると、ユーザが左手で操作していると判別する。
このステップSP204(図15)においてユーザがタッチスクリーン109を右手で操作していると判別されると、CPU110は、ステップSP205に移る。
ステップSP205においてCPU110は、図18(A)に示すように、タッチスクリーン109上の指によって隠れている領域外であり且つサムネイル画像Tpに隣接する位置に、第1の実施の形態と同様の撮影位置アイコンSiを表示させる。そしてCPU110は、ステップSP206に移る。
ステップSP206においてCPU110は、上述した撮影位置修正処理手順RT2(図10)のステップSP105〜SP106と同様の処理を実行する。すなわちCPU110は、サムネイル画像Tpに対するドラッグ操作に応じてサムネイル画像Tp及び撮影位置アイコンSiを移動し、指が離されたときの撮影位置アイコンSiの地図画像Mp上の位置を、画像の撮影位置として修正する。そしてCPU110は、地図表示モード操作処理手順RT3を終了する。
一方ステップSP204においてユーザがタッチスクリーン109を左手で操作していると判別されると、CPU110は、ステップSP207に移る。
ステップSP207においてCPU110は、図18(B)に示すように、タッチスクリーン109上の指によって隠れる領域外であり且つサムネイル画像Tpに隣接する位置に、第1の実施の形態と同様の画像メニューアイコンGmを表示させる。そしてCPU110は、ステップSP208に移る。
ステップSP208においてCPU110は、上述した画像メニュー表示処理手順RT1(図7)のステップSP5〜SP7と同様の処理を実行する。すなわちCPU110は、タッチされたサムネイル画像Tpが示す画像に対して、選択された画像メニューアイコンGmに対応する処理を実行する。そしてCPU110は、地図表示モード操作処理手順RT3を終了する。
このような地図表示モード操作処理手順RT3により、DSC100は、ユーザがタッチスクリーン109を右手で操作しているか又は左手で操作しているかに応じて、撮影位置アイコンSi又は画像メニューアイコンGmを切り替えて表示させる。
つまりDSC100は、タッチ操作を行う際に、右手で行うか又は左手で行うかを変えるだけで、異なる2種類のアイコンを表示させることができるようになされている。
尚地図表示モードにおいて、撮影位置アイコンSi及び画像メニューアイコンGmには、それぞれ利用頻度(ユーザが利用する可能性の高さを想定したもの)が予め設定されている。
地図表示モードのときは、画像に対する各種処理を行う機能よりも撮影位置を修正する機能の方が、ユーザの利用頻度が高い機能であると想定される。従ってDSC100では、撮影位置アイコンSiの方が画像メニューアイコンGmよりも利用頻度が高いと設定されている。
またDSC100においては、ユーザの利き手が右手であるとデフォルトで設定されているとする。
このような設定によりCPU110は、利き手である右手による操作の場合には利用頻度の高い方のアイコンである撮影位置アイコンSiを表示させるようになされている。一方CPU110は、利き手ではない左手による操作の場合には、撮影位置アイコンSiよりも利用頻度の低い方のアイコンである画像メニューアイコンGmを表示させるようになされている。
このようにDSC100は、ユーザに、操作しやすい利き手によるタッチ操作を行わせるだけで、より利用頻度の高いアイコンを視認させることができるようになされている。
[2−3.タップ操作処理手順]
またDSC100は、一覧表示モードのとき、サムネイル画像Tpに対するタップ操作(指をタッチさせた後すぐに離す操作)がユーザの右手で行われたか又は左手で行われたかによって、実行する処理を変えるようになされている。以下、このサムネイル画像Tpに対するタップ操作での動作処理手順(これをタップ操作処理手順とも呼ぶ)について、図19に示すフローチャートを用いて説明する。
またDSC100は、一覧表示モードのとき、サムネイル画像Tpに対するタップ操作(指をタッチさせた後すぐに離す操作)がユーザの右手で行われたか又は左手で行われたかによって、実行する処理を変えるようになされている。以下、このサムネイル画像Tpに対するタップ操作での動作処理手順(これをタップ操作処理手順とも呼ぶ)について、図19に示すフローチャートを用いて説明する。
因みに、このタップ操作処理手順RT4は、DSC100のCPU110が、プログラムROM111に書き込まれているプログラムに従って実行する処理手順である。
CPU110は、タッチスクリーン109を介して一覧表示モードが選択されると画像一覧画面Ig(図5)をタッチスクリーン109に表示させ、このタップ操作処理手順RT4を開始して、ステップSP301に移る。
ステップSP301においてCPU110は、タッチスクリーン109を介して任意のサムネイル画像Tpに対するタップ操作が行われたか否かを判別する。
具体的にCPU110は、タッチスクリーン109を介してサムネイル画像Tp上の箇所が指でタッチされ、その後所定時間以内に指が離されたことを認識すると、サムネイル画像Tpに対するタップ操作が行われたと判別する。
このステップSP301において任意のサムネイル画像Tpに対するタップ操作が行われていないことより否定結果が得られると、CPU110は、再度ステップSP301に戻る。そしてCPU110は、任意のサムネイル画像Tpに対するタップ操作が行われるまで待ち受ける。
一方ステップSP301において任意のサムネイル画像Tpに対するタップ操作が行われたことより肯定結果が得られると、CPU110は、任意のサムネイル画像Tpが示す画像が選択されたと認識し、次のステップSP302に移る。
ステップSP302においてCPU110は、上述した第1の実施の形態と同様にタッチスクリーン109を介して、タッチスクリーン109上の指によって隠れる領域を検出して、ステップSP303に移る。
ステップSP303においてCPU110は、上述した地図表示モード操作処理手順RT3と同様に、ユーザがタッチスクリーン109を右手で操作したか又は左手で操作したかを判別する。
このステップSP303においてユーザがタッチスクリーン109を右手で操作したと判別されると、CPU110は、ステップSP304に移る。
ステップSP304においてCPU110は、図20(A)に示すように、タップ操作されたサムネイル画像Tpが示す画像Pをタッチスクリーン109の表示画面全体に表示させて、タップ操作処理手順RT4を終了する。
一方ステップSP303においてユーザがタッチスクリーン109を左手で操作したと判別されると、CPU110は、ステップSP305に移る。
ステップSP305においてCPU110は、タップ操作されたサムネイル画像Tpに隣接する位置であり且つタッチスクリーン109上の指によって隠れる領域外の位置に画像メニューアイコンGmを表示させて、次のステップSP306に移る。
例えばCPU110は、図20(B)に示すように、サムネイル画像Tpの左下部分と当該サムネイル画像Tpの左下側が指によって隠れる領域となると認識したとする。
このときCPU110は、サムネイル画像Tpに隣接する位置であり且つ指によって隠れない位置である、当該サムネイル画像Tpの上側に画像メニューアイコンGmを表示させる。尚この画像メニューアイコンGmには、削除メニューアイコンGm1、編集メニューアイコンGm2、転送メニューアイコンGm3が横一列に設けられる。
ステップSP306においてCPU110は、上述した画像メニュー表示処理手順RT1(図7)のステップSP5〜SP7と同様の処理を実行する。すなわちCPU110は、タップ操作されたサムネイル画像Tpが示す画像に対して、選択された画像メニューアイコンGmに対応する処理を実行する。そしてCPU110は、タップ操作処理手順RT4を終了する。
このようなタップ操作処理手順RT4により、DSC100は、一覧表示モードのとき、サムネイル画像Tpに対するタップ操作が右手で行われたか又は左手で行われたかに応じて、実行する処理を変えるようになされている。
つまりDSC100は、一覧表示モードにおいてタップ操作を行う際に、右手で行うか又は左手で行うかを変えるだけで、異なる2種類の命令を入力させることができるようになされている。
尚一覧表示モードにおいて、画像メニューアイコンGmを表示させる処理及び画像を表示画面全体に表示させる処理には、それぞれ利用頻度が予め設定されている。
一覧表示モードのときは、画像に対する各種処理を行う機能よりも画像を表示画面全体に表示させる機能の方が、ユーザの利用頻度が高い機能であると考えられる。従ってDSC100では、画像メニューアイコンGmを表示させる処理よりも画像を表示画面全体に表示させる処理の方が、利用頻度が高いと設定されている。
またDSC100においては、デフォルトでユーザの利き手が右手であると設定されている。
このような設定によりCPU110は、利き手である右手によるタップ操作の場合には、利用頻度の高い方の処理である表示画面全体に画像を表示させる処理を実行するようになされている。一方CPU110は、利き手ではない左手による操作の場合には、利用頻度の低い方の処理である画像メニューアイコンGmを表示させる処理を実行するようになされている。
このようにDSC100は、一覧表示モードにおいて、ユーザに、操作しやすい利き手によるタップ操作を行わせるだけで、より利用頻度の高い方の処理の命令入力を行わせることができるようになされている。
[2−4.ドラッグ操作処理手順]
さらにDSC100は、一覧表示モードのとき、サムネイル画像Tpに対するドラッグ操作がユーザの右手で行われたか又は左手で行われたかによって、実行する処理を変えるようになされている。以下、このサムネイル画像Tpに対するドラッグ操作での動作処理手順(これをドラッグ操作処理手順とも呼ぶ)について、図21に示すフローチャートを用いて説明する。
さらにDSC100は、一覧表示モードのとき、サムネイル画像Tpに対するドラッグ操作がユーザの右手で行われたか又は左手で行われたかによって、実行する処理を変えるようになされている。以下、このサムネイル画像Tpに対するドラッグ操作での動作処理手順(これをドラッグ操作処理手順とも呼ぶ)について、図21に示すフローチャートを用いて説明する。
因みに、このドラッグ操作処理手順RT5は、DSC100のCPU110が、プログラムROM111に書き込まれているプログラムに従って実行する処理手順である。
CPU110は、タッチスクリーン109を介して一覧表示モードが選択されると画像一覧画面Ig(図5)をタッチスクリーン109に表示させ、このドラッグ操作処理手順RT5を開始して、ステップSP401に移る。
ステップSP401においてCPU110は、タッチスクリーン109を介して任意のサムネイル画像Tpに対するドラッグ操作が開始されたか否かを判別する。
このステップSP401において任意のサムネイル画像Tpに対するドラッグ操作が行われていないことより否定結果が得られると、CPU110は、再度ステップSP401に戻る。そしてCPU110は、任意のサムネイル画像Tpに対するドラッグ操作が開始されるまで待ち受ける。
一方ステップSP401において任意のサムネイル画像Tpに対するドラッグ操作が開始されたことより肯定結果が得られると、CPU110は、次のステップSP402に移る。
ステップSP402においてCPU110は、上述した第1の実施の形態と同様にタッチスクリーン109を介して、タッチスクリーン109上の指によって隠れる領域を検出して、ステップSP403に移る。
ステップSP403においてCPU110は、上述した地図表示モード操作処理手順RT3と同様に、ユーザがタッチスクリーン109を右手で操作しているか又は左手で操作しているかを判別する。
このステップSP403においてユーザがタッチスクリーン109を右手で操作したと判別されると、CPU110は、ステップSP404に移る。
ステップSP404においてCPU110は、図22(A)に示すように、サムネイル画像Tpに対するドラッグ操作に応じて、画像一覧画面Ig全体をスクロールさせて、次のステップSP405に移る。
ステップSP405においてCPU110は、タッチスクリーン109からユーザの指が離されたか否かを判別する。
このステップSP405において否定結果が得られると、このことはサムネイル画像Tpに対するドラッグ操作が継続中であることを意味する。このときCPU110はステップSP404に戻り、サムネイル画像Tpに対するドラッグ操作に応じて画像一覧画面Igのスクロールを継続する。
一方ステップSP405において肯定結果が得られると、このことはサムネイル画像Tpに対するドラッグ操作が終了したことを意味する。このときCPU110は、画像一覧画面Igのスクロールを終了し、ドラッグ操作処理手順RT5を終了する。
またステップSP403においてユーザがタッチスクリーン109を左手で操作したと判別されると、CPU110はステップSP406に移る。
ステップSP406においてCPU110は、図22(B)に示すように、サムネイル画像Tpに対するドラッグ操作に応じて、当該サムネイル画像Tpのみをドラッグ(つまり画像一覧画面Ig上で移動)させ、次のステップSP407に移る。
ステップSP407においてCPU110は、タッチスクリーン109からユーザの指が離されたか否かを判別する。
このステップSP407において否定結果が得られると、このことはサムネイル画像Tpに対するドラッグ操作が継続中であることを意味する。このときCPU110はステップSP406に戻り、サムネイル画像Tpに対するドラッグ操作に応じて、サムネイル画像Tpのドラッグを継続する。
一方ステップSP407において肯定結果が得られると、このことはサムネイル画像Tpに対するドラッグ操作が終了したことを意味する。このときCPU110は、指が離された位置に当該サムネイル画像Tpの表示位置を固定し、これに伴ってこの他のサムネイル画像Tpの表示位置を移動させて、ドラッグ操作処理手順RT5を終了する。
このようなドラッグ操作処理手順RT5により、DSC100は、一覧表示モードのとき、サムネイル画像Tpに対するドラッグ操作が右手で行われたか又は左手で行われたかに応じて、実行する処理を変えるようになされている。
つまりDSC100は、一覧表示モードにおいてドラッグ操作を行う際に、右手で行うか又は左手で行うかを変えるだけで、異なる2種類の命令を入力させることができるようになされている。
尚一覧表示モードにおいて、サムネイル画像Tpをドラッグさせる処理及び画像一覧画面Igをスクロールさせる処理には、それぞれ利用頻度が予め設定されている。
一覧表示モードのときは、サムネイル画像Tpのドラッグ機能よりも画像一覧画面Igのスクロール機能の方が、ユーザの利用頻度が高い機能であると考えられる。従ってDSC100では、サムネイル画像Tpをドラッグさせる処理よりも画像一覧画面Igをスクロールさせる処理の方が、利用頻度が高いと設定されている。
またDSC100においては、デフォルトでユーザの利き手が右手であると設定されている。
このような設定によりCPU110は、利き手である右手によるドラッグ操作の場合には、利用頻度の高い方の処理である画像一覧画面Igをスクロールさせる処理を実行するようになされている。一方CPU110は、利き手ではない左手によるドラッグ操作の場合には、利用頻度の低いほうの処理であるサムネイル画像Tpをドラッグさせる処理を実行するようになされている。
このようにDSC100は、一覧表示モードにおいて、ユーザに、操作しやすい利き手によるドラッグ操作を行わせるだけで、より利用頻度の高い方の処理の命令入力を行わせることができるようになされている。
[2−5.3D地図画像操作処理手順]
さらにこのDSC100は、動作モードとして、撮影モード及び再生モードの他に、3D地図画像を表示させる3D地図表示モードを有している。DSC100は、3D地図表示モードのとき、3D地図画像に対するドラッグ操作がユーザの右手で行われたか又は左手で行われたかによって、実行する処理を変えるようになされている。以下、この3D地図画像に対するドラッグ操作における動作処理手順(これを3D地図画像操作処理手順とも呼ぶ)について、図23に示すフローチャートを用いて説明する。
さらにこのDSC100は、動作モードとして、撮影モード及び再生モードの他に、3D地図画像を表示させる3D地図表示モードを有している。DSC100は、3D地図表示モードのとき、3D地図画像に対するドラッグ操作がユーザの右手で行われたか又は左手で行われたかによって、実行する処理を変えるようになされている。以下、この3D地図画像に対するドラッグ操作における動作処理手順(これを3D地図画像操作処理手順とも呼ぶ)について、図23に示すフローチャートを用いて説明する。
因みに、この3D地図画像操作処理手順RT6は、DSC100のCPU110が、プログラムROM111に書き込まれているプログラムに従って実行する処理手順である。
CPU110は、タッチスクリーン109を介して3D地図表示モードが選択されると、この3D地図画像操作処理手順RT6を開始して、ステップSP501に移る。
ステップSP501においてCPU110は、GPSモジュール122を介してDSC100の現在位置を示す現在位置情報を取得し、現在位置情報をもとに記録デバイス123から現在位置を含む周辺の3D地図画像データを読み出す。
そしてCPU110は、デジタル信号処理部121を介して3D地図画像データをもとに図24に示す3D地図画面Dgを生成し、タッチスクリーン109に表示させて、次のステップSP502に移る。尚3D地図画面Dgには、3D地図画像データに基づく3D地図画像Dpが、例えば3D地図を真上から見下ろした状態で表示される。
ステップSP502においてCPU110は、タッチスクリーン109を介して3D地図画像Dpに対するドラッグ操作が開始されたか否かを判別する。
このステップSP502において3D地図画像Dpに対するドラッグ操作が行われていないことより否定結果が得られると、CPU110は、再度ステップSP502に戻る。そしてCPU110は、3D地図画像Dpに対するドラッグ操作が開始されるまで待ち受ける。
一方ステップSP502において3D地図画像Dpに対するドラッグ操作が開始されたことより肯定結果が得られると、CPU110は、次のステップSP503に移る。
ステップSP503においてCPU110は、上述した第1の実施の形態と同様にタッチスクリーン109を介して、タッチスクリーン109上の指によって隠れる領域を検出して、ステップSP504に移る。
ステップSP504においてCPU110は、上述した地図表示モード操作処理手順RT3と同様に、ユーザがタッチスクリーン109を右手で操作しているか又は左手で操作しているかを判別する。
このステップSP504においてユーザがタッチスクリーン109を右手で操作したと判別されると、CPU110は、ステップSP505に移る。
ステップSP505においてCPU110は、図24(A)に示すように、3D地図画像Dpに対するドラッグ操作に応じて、3D地図画像をスクロールさせて、次のステップSP506に移る。
ステップSP506においてCPU110は、タッチスクリーン109からユーザの指が離されたか否かを判別する。
このステップSP506において否定結果が得られると、このことは3D地図画像Dpに対するドラッグ操作が継続中であることを意味する。このときCPU110はステップSP505に戻り、3D地図画像Dpに対するドラッグ操作に応じて3D地図画像Dpのスクロールを継続する。
一方ステップSP506において肯定結果が得られると、このことは3D地図画像Dpに対するドラッグ操作が終了したことを意味する。このときCPU110は、3D地図画像Dpのスクロールを終了し、3D地図画像操作処理手順RT6を終了する。
またステップSP504においてユーザがタッチスクリーン109を左手で操作したと判別されると、CPU110はステップSP507に移る。
ステップSP507においてCPU110は、図23(B)に示すように、3D地図画像Dpに対するドラッグ操作に応じて、当該3D地図画像Dpの俯瞰角度を変更させ、次のステップSP508に移る。
ステップSP508においてCPU110は、タッチスクリーン109からユーザの指が離されたか否かを判別する。
このステップSP508において否定結果が得られると、このことは3D地図画像Dpに対するドラッグ操作が継続中であることを意味する。このときCPU110はステップSP507に戻り、3D地図画像Dpに対するドラッグ操作に応じて、3D地図画像Dpの俯瞰角度の変更を継続する。
一方ステップSP508において肯定結果が得られると、このことは3D地図画像Dpに対するドラッグ操作が終了したことを意味する。このときCPU110は、指が離されたときの俯瞰角度に固定して3D地図画像Dpを表示させ、3D地図画像操作処理手順RT6を終了する。
このような3D地図画像操作処理手順RT6により、DSC100は、3D地図画像に対するドラッグ操作がユーザの右手で行われたか又は左手で行われたかによって、実行する処理を変えるようになされている。
つまりDSC100は、3D地図画像表示モードにおいてドラッグ操作を行う際に、右手で行うか又は左手で行うかを変えるだけで、異なる2種類の命令を入力させることができるようになされている。
尚3D地図画像表示モードにおいて、3D地図画像Dpの俯瞰角度を変更する処理及び3D地図画像Dpをスクロールさせる処理には、それぞれ利用頻度が予め設定されている。
3D地図画像表示モードのときは、3D地図画像Dpの俯瞰角度を変更する機能よりも3D地図画像Dpをスクロールさせる機能の方が、ユーザの利用頻度が高い機能であると考えられる。従ってDSC100では、3D地図画像Dpの俯瞰角度を変更する処理よりも3D地図画像Dpをスクロールさせる処理の方が、利用頻度が高いと設定されている。
またDSC100においては、デフォルトでユーザの利き手が右手であると設定されている。
このような設定によりCPU110は、利き手である右手によるドラッグ操作の場合には、利用頻度の高い方の処理である3D地図画像Dpをスクロールさせる処理を実行するようになされている。一方CPU110は、利き手ではない左手によるドラッグ操作の場合には、利用頻度の低い方の処理である3D地図画像Dpの俯瞰角度を変更させる処理を実行するようになされている。
このようにDSC100は、3D地図画像表示モードにおいて、ユーザに、操作しやすい利き手によるドラッグ操作を行わせるだけで、より利用頻度の高い方の処理の命令入力を行わせることができるようになされている。
[2−6.第2の実施の形態における動作及び効果]
以上の構成において、DSC100の地図表示モードでは、サムネイル画像Tp上の箇所に、当該箇所をタッチされると表示させるアイコンとして撮影位置アイコンSiと画像メニューアイコンGmとが対応付けられている。
以上の構成において、DSC100の地図表示モードでは、サムネイル画像Tp上の箇所に、当該箇所をタッチされると表示させるアイコンとして撮影位置アイコンSiと画像メニューアイコンGmとが対応付けられている。
DSC100のCPU110は、地図表示モードのとき、サムネイル画像Tpがタッチされたと認識すると、タッチスクリーン109の表示画面上の指によって隠れる領域の当該表示画面に対する傾きを認識する。CPU110は、認識した傾きに基づいて、タッチスクリーン109をタッチする指示物がユーザの右手か又は左手かを判別する。
そしてCPU110は、指示物がユーザの右手であると判別した場合、サムネイル画像Tp上の箇所(つまりタッチ位置Rap)に対応付けられている撮影位置アイコンSiを、タッチスクリーン109上の指によって隠れる領域外に表示させる。
一方CPU110は、指示物がユーザの左手であると判別した場合、サムネイル画像Tp上の箇所(つまりタッチ位置Rap)に対応付けられている画像メニューアイコンGmを、タッチスクリーン109上の指によって隠れる領域外に表示させる。
つまりCPU110は、地図表示モードのとき、タッチスクリーン109をタッチする指示物がユーザの右手か又はユーザの左手かに応じて、表示させるアイコンを変えるようにした。
これによりDSC100は、何度もタッチ操作を行わせることなく、1回のタッチ操作を右手で行うか又は左手で行うかを変えさせるだけで、2種類のアイコンを表示させることができる。かくしてDSC100は、容易且つ直感的な操作で2種類のアイコンを表示させることができる。
また地図表示モードでは、サムネイル画像Tp上の箇所に対応付けられている撮影位置アイコンSi及び画像メニューアイコンGmの各々に、予め利用頻度が設定されている。上述したように、ここでは、撮影位置アイコンSiの方が画像メニューアイコンGmよりも利用頻度が高いと設定されている。
そしてCPU110は、指示物が、予めユーザの利き手であると設定された右手であると判別した場合は、タッチ位置Rapに対応付けられたアイコンのうち、利用頻度の高い方のアイコン(つまり撮影位置アイコンSi)を表示させるようにした。
これによりDSC100は、ユーザに、操作しやすい利き手による操作を行わせるだけで、より利用頻度の高いアイコンを視認させることができる。つまりDSC100は、一段と操作性を向上することができる。
またDSC100の一覧表示モードでは、サムネイル画像Tpに対するタップ操作に、当該サムネイル画像Tpが示す画像を表示画面全体に表示させる処理と、画像メニューアイコンGmを表示させる処理とが対応づけられている。
CPU110は、サムネイル画像Tpに対するタップ操作が行われたと認識すると、タップ操作を行った指示物がユーザの右手か又は左手かを判別する。
そしてCPU110は、指示物が右手であると判別した場合、当該タップ操作に対応付けられた当該サムネイル画像Tpが示す画像を表示画面全体に表示させる処理を実行する。
一方CPU110は、指示物が左手であると判別した場合、当該タップ操作に対応付けられた画像メニューアイコンGmを表示させる処理を実行する。
つまりCPU110は、ユーザがタッチスクリーン109に対して右手で操作を行っているか又は左手で操作を行っているかに応じて、実行する処理を変えるようにした。
これによりDSC100は、ユーザに何度も操作を行わせることなく、1回の操作を右手で行うか左手で行うかを変えさせるだけで、異なる2種類の命令を入力させることができる。かくしてDSC100は、容易且つ直感的な操作で2種類の命令を入力させることができる。
また一覧表示モードでは、サムネイル画像Tpに対するタップ操作に対応付けられている当該サムネイル画像Tpが示す画像を表示画面全体に表示させる処理及び画像メニューアイコンGmを表示させる処理の各々に、利用頻度が設定されている。上述したようにここでは、画像を表示画面全体に表示させる処理の方が画像メニューアイコンGmを表示させる処理よりも利用頻度が高いと設定されている。
そしてCPU110は、指示物が、予めユーザの利き手であると設定された右手であると判別した場合は、当該タップ操作に対応付けられた処理のうち、利用頻度の高い方の処理(つまり画像を表示画面全体に表示させる処理)を実行するようにした。
これによりDSC100は、ユーザに、操作しやすい利き手による操作を行わせるだけで、より利用頻度の高い方の処理の命令入力を行わせることができる。つまりDSC100は、一段と操作性を向上することができる。
この他第2の実施の形態におけるDSC100は、第1の実施の形態と同様の効果を奏しうる。
<3.他の実施の形態>
[3−1.他の実施の形態1]
尚、上述した第1の実施の形態では、CPU110は、サムネイル画像Tpがタッチされたことを認識すると、所定の配置で削除メニューアイコンGm1、編集メニューアイコンGm2、転送メニューアイコンGm3を表示させるようにした。
[3−1.他の実施の形態1]
尚、上述した第1の実施の形態では、CPU110は、サムネイル画像Tpがタッチされたことを認識すると、所定の配置で削除メニューアイコンGm1、編集メニューアイコンGm2、転送メニューアイコンGm3を表示させるようにした。
これに限らずCPU110は、このように複数の情報がタッチ位置Rapに対応付けられている場合、当該情報の各々に予め設定された例えば利用頻度やお薦め度などの優先度に基づいて、当該情報の表示画面上での配置を決定するようにしてもよい。
例えば、削除メニューアイコンGm1及び転送メニューアイコンGm3はユーザの利用頻度が高いため優先度が高く設定されているとする。また編集メニューアイコンGm2は、これらのアイコンよりもユーザの利用頻度が低いため、優先度が低く設定されているとする。
CPU110は、サムネイル画像Tpが長押し操作されると、指によって隠れる領域外であり且つタッチ位置Rapの近くに、優先度の高い方のアイコン(つまり削除メニューアイコンGm1及び転送メニューアイコンGm3)を配置して表示させる。一方CPU110は、指によって隠れる領域外であり且つこれらのアイコンよりもタッチ位置Rapから遠くに優先度の低い方のアイコン(つまり編集メニューアイコンGm2)を配置して表示させる。
例えば図25(A)に示すように、画像一覧画面Igにおいて、サムネイル画像Tpの右下部分と当該サムネイル画像Tpの右下側が、指によって隠れる領域となっているとする。
この場合CPU110は、指によって隠れる領域外である、サムネイル画像Tpの上側及び左側(つまりタッチ位置Rapから近い位置)に削除メニューアイコンGm1及び転送メニューアイコンGm3を表示させる。またCPU110は、指によって隠れる領域外である、サムネイル画像Tpの斜め左上側(つまり上側及び左側よりもタッチ位置Rapから遠い位置)に編集メニューアイコンGm2を表示させる。
一方図25(B)に示すように、画像一覧画面Igにおいて、サムネイル画像Tpの左下部分と当該サムネイル画像Tpの左下側が、指によって隠れる領域となっているとする。
この場合CPU110は、指によって隠れる領域外である、サムネイル画像Tpの上側及び右側(つまりタッチ位置Rapから近い位置)に削除メニューアイコンGm1及び転送メニューアイコンGm3を表示させる。またCPU110は、指によって隠れる領域外である、サムネイル画像Tpの斜め右上側(つまり上側及び右側よりもタッチ位置Rapから遠い位置)に編集メニューアイコンGm2を表示させる。
つまりCPU110は、画像メニューアイコンGmにおける3種のアイコンを、タッチスクリーン109上の指によって隠れる領域外であり、且つ優先度が高く設定されたアイコンほどタッチ位置Rapから近くなるように配置する。
これによりDSC100は、ユーザの優先度の高いアイコンをユーザの指先の近くに表示させることができるので、ユーザがアイコンを選択する際により操作をしやすくすることができる。
また上述した第1及び第2の実施の形態と同様に、DSC100は、画像メニューアイコンGmを指によって隠れることなく表示させることができるので、当該画像メニューアイコンGmをユーザに確実に視認させることができる。
[3−2.他の実施の形態2]
また上述した第2の実施の形態では、ユーザの利き手が右手であるとデフォルトで設定されている場合について述べた。
また上述した第2の実施の形態では、ユーザの利き手が右手であるとデフォルトで設定されている場合について述べた。
これに限らずCPU110は、ユーザ入力に応じて、ユーザの利き手を予め設定するようにしてもよい。
例えばCPU110は、ユーザ入力により利き手が左手であると設定されたとする。この場合CPU110は、地図表示モードのとき、サムネイル画像Tpに対するタッチ操作が、利き手であると設定された左手によって行われたと判別した場合、利用頻度の高い方のアイコンである撮影位置アイコンSiを表示させる。
またCPU110は、一覧表示モードのとき、サムネイル画像Tpに対するドラッグ操作が、利き手であると設定された左手によって行われたと判別した場合、利用頻度の高い方の処理である画像一覧画面Igのスクロールを行う。
[3−3.他の実施の形態3]
さらに上述した第1の実施の形態では、CPU110は、一覧表示モードのとき、サムネイル画像Tpに対する長押し操作に応じて、タッチスクリーン109上の指によって隠れる領域外に画像メニューアイコンGmを表示させるようにした。
さらに上述した第1の実施の形態では、CPU110は、一覧表示モードのとき、サムネイル画像Tpに対する長押し操作に応じて、タッチスクリーン109上の指によって隠れる領域外に画像メニューアイコンGmを表示させるようにした。
これに限らずCPU110は、サムネイル画像Tpに対する長押し操作に応じて、例えば当該サムネイル画像Tpが示す画像に関連する画像(例えば同一人物が撮影されているなど)を当該領域外に表示させるようにしてもよい。
この場合CPU110は、関連する画像が複数枚ある場合は、当該複数枚の画像を当該領域外に表示させるようにしてもよい。
またこれに限らずCPU110は、サムネイル画像Tpに対する長押し操作に応じて、当該サムネイル画像Tpを、当該領域外に移動して表示させるようにしてもよい。
つまりCPU110は、タッチ位置Rapがタッチされるのに応じて表示させるよう対応付けられている情報であれば、この他、一又は複数の種々の情報を、当該領域外に表示させるようにしてもよい。
[3−4.他の実施の形態4]
さらに上述した第1の実施の形態では、長押し操作されているサムネイル画像Tpの右側又は左側に隣接するいずれかの位置で、タッチスクリーン109上の指によって隠れる領域外の位置に、画像メニューアイコンGmを表示させるようにした。
さらに上述した第1の実施の形態では、長押し操作されているサムネイル画像Tpの右側又は左側に隣接するいずれかの位置で、タッチスクリーン109上の指によって隠れる領域外の位置に、画像メニューアイコンGmを表示させるようにした。
これに限らずCPU110は、画像メニューアイコンGmを、タッチスクリーン109上の指によって隠れる領域外であり且つタッチ位置Rapに応じた位置に表示させるようにしてもよい。
例えばタッチされたサムネイル画像Tpの右下側が指によって隠れる領域であり、当該サムネイル画像Tpがタッチスクリーン109の表示画面の上端近傍であるとする。このときCPU110は、指によって隠れる領域外であり且つ表示画面の上端にかからない位置であるサムネイル画像Tpの斜め左下側に、画像メニューアイコンGmを表示させる。
またこれに限らずCPU110は、タッチスクリーン109上の指によって隠れる領域外であれば、この他種々の位置に画像メニューアイコンGmを表示させるようにしてもよい。
[3−5.他の実施の形態5]
さらに上述した第1及び第2の実施の形態では、CPU110は、ユーザの指がタッチスクリーン109の表示画面に接触及び近接している領域を、表示画面上の指によって隠れる領域として検出するようにした。
さらに上述した第1及び第2の実施の形態では、CPU110は、ユーザの指がタッチスクリーン109の表示画面に接触及び近接している領域を、表示画面上の指によって隠れる領域として検出するようにした。
これに限らずCPU110は、ユーザの指がタッチスクリーン109の表示画面に接触又は近接している領域のいずれか一方を表示画面上の指によって隠れる領域として検出するようにしてもよい。
[3−6.他の実施の形態6]
さらに上述した実施の形態では、光センサ方式のタッチスクリーン109を用いる場合について述べた。本発明はこれに限らず、表示画面上の指示物によって隠れる領域を検出できるタッチスクリーンであれば、例えば静電容量方式、抵抗膜方式などこの他種々の方式のタッチスクリーンを用いるようにしてもよい。
さらに上述した実施の形態では、光センサ方式のタッチスクリーン109を用いる場合について述べた。本発明はこれに限らず、表示画面上の指示物によって隠れる領域を検出できるタッチスクリーンであれば、例えば静電容量方式、抵抗膜方式などこの他種々の方式のタッチスクリーンを用いるようにしてもよい。
さらに上述した実施の形態では、タッチスクリーン109に対する操作を行う指示物としてユーザの指を用いた場合について述べた。本発明はこれに限らず、この他鉛筆、棒、専用のタッチペンなど、この他種々の指示物を用いてもよい。
この場合CPU110は、上述した地図表示モード操作処理手順RT3のステップSP204においては、タッチスクリーン109にタッチされる指示物がユーザの右手によって操作されている物か又は左手によって操作されている物かを判別する。
[3−7.他の実施の形態7]
さらに上述した実施の形態では、情報処理装置としてのDSC100に、位置検出部、領域検出部としてのタッチスクリーン109を設けるようにした。さらにこのDSC100に位置検出部、領域検出部、制御部、判別部としてのCPU110を設けるようにした。
さらに上述した実施の形態では、情報処理装置としてのDSC100に、位置検出部、領域検出部としてのタッチスクリーン109を設けるようにした。さらにこのDSC100に位置検出部、領域検出部、制御部、判別部としてのCPU110を設けるようにした。
本発明はこれに限らず、同様の機能を有するのであれば、上述したDSC100の各機能部を、他の種々のハードウェアもしくはソフトウェアにより構成するようにしてもよい。
さらに上述した実施の形態では、DSC100に本発明を適用するようにした。これに限らず、タッチスクリーン109などの、タッチ操作が可能な表示デバイスを有する機器であれば、デジタルビデオカメラ、パーソナルコンピュータ、携帯型電話機など、この他種々の機器に適用するようにしてもよく、また適用することができる。例えば、地図画像を表示するナビゲーション装置に適用するようにしてもよい。
[3−8.他の実施の形態8]
さらに上述した実施の形態では、各種処理を実行するためのプログラムを、DSC100のプログラムROM111に書き込んでおくようにした。
さらに上述した実施の形態では、各種処理を実行するためのプログラムを、DSC100のプログラムROM111に書き込んでおくようにした。
これに限らず、このプログラムを例えばメモリカードなどの記録媒体に記録しておき、DSC100のCPU110が、このプログラムを記録媒体から読み出して実行するようにしてもよい。また記録媒体から読み出したプログラムを、EEPROM124にインストールするようにしてもよい。
[3−9.他の実施の形態9]
さらに本発明は、上述した第1及び第2実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した第1及び第2の実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用領域が及ぶものである。
さらに本発明は、上述した第1及び第2実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した第1及び第2の実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用領域が及ぶものである。
本発明は、例えば、タッチスクリーンを有する機器で広く利用することができる。
1……情報処理装置、2……表示部、3……位置検出部、4……領域検出部、5……制御部、100……DSC、109……タッチスクリーン、109A……表示部、109B……光センサ、110……CPU、121……デジタル信号処理部、122……GPSモジュール、123……記録デバイス、Rap……タッチ位置、Ra……指が接触している領域、Rb……指が近接している領域、Ig……画像一覧画面、Mg……地図画面、Tp……サムネイル画像、Gm……画像メニューアイコン、Si……撮影位置アイコン。
Claims (8)
- 表示部の表示画面に対する指示物のタッチ位置を検出する位置検出部と、
上記表示画面上の上記指示物によって隠れる領域を検出する領域検出部と、
上記位置検出部により上記タッチ位置が検出されると、当該タッチ位置に対応付けられた情報を上記領域検出部により検出された上記領域外に表示させる制御部と
を具える情報処理装置。 - 上記領域検出部により検出された上記領域の上記表示画面に対する傾きに基づいて、上記指示物がユーザの右手又は当該右手で操作されている物か、若しくはユーザの左手又は当該左手で操作されている物かを判別する判別部
を具え、
上記制御部は、
上記判別部による判別結果に応じて表示させる情報を変える
請求項1に記載の情報処理装置。 - 上記情報の各々には、予め利用頻度が設定されており、
上記制御部は、
上記指示物が予め設定されたユーザの利き手若しくは当該利き手で操作されている物であると上記判別部により判別された場合は、利用頻度の高い方の情報を表示させる
請求項2に記載の情報処理装置。 - 上記制御部は、
上記情報を表示させた後上記指示物がタッチされたまま上記タッチ位置が移動すると、当該タッチ位置の移動に合わせて当該情報の表示位置を当該タッチ位置との相対位置が変化しないように移動させ、移動後の上記情報の表示位置が表示画面外になると判別すると、当該情報の表示位置を当該表示画面内且つ上記領域外に移動させる
請求項1に記載の情報処理装置。 - 上記タッチ位置には複数の情報が対応付けられており、
上記制御部は、
上記複数の情報の各々に設定されている優先度に基づいて、当該複数の情報の上記表示画面上での配置を決定する
請求項1に記載の情報処理装置。 - 上記領域検出部は、
上記表示画面上の上記指示物が接触又は近接している領域の少なくともいずれか一方を、上記表示画面上の上記指示物によって隠れる領域として検出する
請求項1に記載の情報処理装置。 - 情報処理装置の位置検出部が、表示部の表示画面に対する指示物のタッチ位置を検出する位置検出ステップと、
情報処理装置の領域検出部が、上記表示画面上の上記指示物によって隠れる領域を検出する領域検出ステップと、
情報処理装置の制御部が、上記位置検出ステップにより上記タッチ位置が検出されると、当該タッチ位置に対応付けられた情報を上記領域検出ステップにより検出された上記領域外に表示させる表示ステップと、
を具える表示方法。 - 情報処理装置に、
情報処理装置の位置検出部が、表示部の表示画面に対する指示物のタッチ位置を検出する位置検出ステップと、
情報処理装置の領域検出部が、上記表示画面上の上記指示物によって隠れる領域を検出する領域検出ステップと、
情報処理装置の制御部が、上記位置検出ステップにより上記タッチ位置が検出されると、当該タッチ位置に対応付けられた情報を上記領域検出ステップにより検出された上記領域外に表示させる表示ステップと、
を実行させるための表示プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009174430A JP2011028560A (ja) | 2009-07-27 | 2009-07-27 | 情報処理装置、表示方法及び表示プログラム |
EP10167948.8A EP2280339B1 (en) | 2009-07-27 | 2010-06-30 | Information processing apparatus, display method, and display program |
CN2010102338917A CN101968695B (zh) | 2009-07-27 | 2010-07-20 | 信息处理设备、显示方法 |
US12/839,511 US9001051B2 (en) | 2009-07-27 | 2010-07-20 | Information processing apparatus, display method, and display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009174430A JP2011028560A (ja) | 2009-07-27 | 2009-07-27 | 情報処理装置、表示方法及び表示プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011028560A true JP2011028560A (ja) | 2011-02-10 |
Family
ID=43007356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009174430A Pending JP2011028560A (ja) | 2009-07-27 | 2009-07-27 | 情報処理装置、表示方法及び表示プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9001051B2 (ja) |
EP (1) | EP2280339B1 (ja) |
JP (1) | JP2011028560A (ja) |
CN (1) | CN101968695B (ja) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012230568A (ja) * | 2011-04-26 | 2012-11-22 | Fuji Xerox Co Ltd | 画像表示装置およびプログラム |
JP2012243066A (ja) * | 2011-05-19 | 2012-12-10 | Sony Computer Entertainment Inc | 情報処理装置、情報処理装置の制御方法、プログラム及び情報記憶媒体 |
JP2013003619A (ja) * | 2011-06-13 | 2013-01-07 | Sharp Corp | 操作装置及び画像形成装置 |
JP2013020363A (ja) * | 2011-07-08 | 2013-01-31 | Konica Minolta Business Technologies Inc | 情報処理装置、その制御方法、および、表示制御プログラム |
JP2013152529A (ja) * | 2012-01-24 | 2013-08-08 | Canon Inc | 情報処理装置及びその制御方法 |
JP2014016943A (ja) * | 2012-07-11 | 2014-01-30 | Sharp Corp | 情報処理装置、表示方法、およびプログラム |
JP2014026654A (ja) * | 2012-07-25 | 2014-02-06 | Samsung Electronics Co Ltd | ユーザ端末装置及びその制御方法 |
WO2014024772A1 (ja) * | 2012-08-08 | 2014-02-13 | シャープ株式会社 | 操作入力装置、操作入力方法、操作入力プログラム及び電子機器 |
JP2014059735A (ja) * | 2012-09-18 | 2014-04-03 | Sharp Corp | 情報処理装置、表示方法、およびプログラム |
JP2014086056A (ja) * | 2012-10-26 | 2014-05-12 | Konica Minolta Inc | データ処理装置、設定方法および設定プログラム |
JPWO2012157272A1 (ja) * | 2011-05-16 | 2014-07-31 | パナソニック株式会社 | 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム |
JP2014211866A (ja) * | 2013-03-14 | 2014-11-13 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 携帯端末機のアプリ提供方法、そのための電子装置及びそれを実行するためのプログラムを記録したコンピュータ読み取り可能な記憶媒体 |
JP2015515040A (ja) * | 2012-02-15 | 2015-05-21 | アップル インコーポレイテッド | ドキュメント内のコンテンツオブジェクトを共有するためのデバイス、方法、及びグラフィカルユーザインタフェース |
JP2015158907A (ja) * | 2014-02-12 | 2015-09-03 | ビステオン グローバル テクノロジーズ インコーポレイテッド | 検出した方向に基づく呼出しの提供 |
JP2015526807A (ja) * | 2012-07-15 | 2015-09-10 | アップル インコーポレイテッド | 3d相互作用のマルチタッチジェスチャ認識の曖昧性除去 |
JP2015215924A (ja) * | 2015-08-20 | 2015-12-03 | コニカミノルタ株式会社 | データ処理装置、設定方法および設定プログラム |
US9244556B2 (en) | 2011-09-26 | 2016-01-26 | Nec Corporation | Display apparatus, display method, and program |
US9329760B2 (en) | 2012-01-20 | 2016-05-03 | Canon Kabushiki Kaisha | Information processing apparatus, control method thereof, and program |
US9335906B2 (en) | 2012-01-20 | 2016-05-10 | Canon Kabushiki Kaisha | Information processing apparatus, control method thereof, and recording medium |
JP2016129341A (ja) * | 2016-01-26 | 2016-07-14 | 株式会社ニコン | 制御装置、およびプログラム |
WO2017154119A1 (ja) * | 2016-03-08 | 2017-09-14 | 富士通株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
JP2018072483A (ja) * | 2016-10-26 | 2018-05-10 | 株式会社半導体エネルギー研究所 | 表示装置および電子機器 |
US9996215B2 (en) | 2014-01-17 | 2018-06-12 | Fujitsu Limited | Input device, display control method, and integrated circuit device |
JP2018109813A (ja) * | 2016-12-28 | 2018-07-12 | 富士ゼロックス株式会社 | 表示装置、画像形成装置及びプログラム |
JP2019082748A (ja) * | 2017-10-27 | 2019-05-30 | 富士ゼロックス株式会社 | 文書処理装置及び文書処理プログラム |
JP2020071500A (ja) * | 2018-10-29 | 2020-05-07 | セイコーエプソン株式会社 | 表示方法および表示装置 |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5471124B2 (ja) * | 2009-07-29 | 2014-04-16 | ソニー株式会社 | 画像検索装置、画像検索方法及び画像検索プログラム |
US8593418B2 (en) * | 2010-08-08 | 2013-11-26 | Qualcomm Incorporated | Method and system for adjusting display content |
JP5598232B2 (ja) * | 2010-10-04 | 2014-10-01 | ソニー株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
US9026359B2 (en) * | 2010-11-01 | 2015-05-05 | Nokia Corporation | Visually representing a three-dimensional environment |
JP5614275B2 (ja) * | 2010-12-21 | 2014-10-29 | ソニー株式会社 | 画像表示制御装置および画像表示制御方法 |
US20120297339A1 (en) * | 2011-01-27 | 2012-11-22 | Kyocera Corporation | Electronic device, control method, and storage medium storing control program |
JP5360140B2 (ja) * | 2011-06-17 | 2013-12-04 | コニカミノルタ株式会社 | 情報閲覧装置及び制御プログラム並びに制御方法 |
CN103797454B (zh) * | 2011-09-15 | 2017-07-25 | 三菱电机株式会社 | 梯形图程序生成装置 |
KR101817653B1 (ko) * | 2011-09-30 | 2018-01-12 | 삼성전자주식회사 | 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체 |
BR112014011974A2 (pt) * | 2011-11-21 | 2017-05-30 | Nippon Kogaku Kk | dispositivo de exibição e programa de controle de exibição |
JPWO2013080444A1 (ja) * | 2011-11-29 | 2015-04-27 | パナソニックIpマネジメント株式会社 | 表示制御装置、表示制御方法、および表示制御プログラム |
KR101866272B1 (ko) | 2011-12-15 | 2018-06-12 | 삼성전자주식회사 | 그립 센서를 이용한 사용자 기반의 휴대용 단말기의 장치 및 방법 |
CN104012073B (zh) | 2011-12-16 | 2017-06-09 | 奥林巴斯株式会社 | 拍摄装置及其拍摄方法、存储能够由计算机来处理的追踪程序的存储介质 |
US20130300764A1 (en) * | 2012-05-08 | 2013-11-14 | Research In Motion Limited | System and method for displaying supplementary information associated with a graphic object on a display of an electronic device |
EP2662665A1 (en) * | 2012-05-08 | 2013-11-13 | BlackBerry Limited | System and method for displaying supplementary information associated with a graphic object on a display of an electronic device |
US9959031B2 (en) | 2012-05-22 | 2018-05-01 | Sony Mobile Communications Inc | Electronic device with dynamic positioning of user interface element |
CN102855085B (zh) * | 2012-08-28 | 2015-04-08 | 广东欧珀移动通信有限公司 | 一种电子终端的文件操作方法 |
US20140108982A1 (en) * | 2012-10-11 | 2014-04-17 | Microsoft Corporation | Object placement within interface |
JP6000797B2 (ja) * | 2012-10-17 | 2016-10-05 | シャープ株式会社 | タッチパネル式入力装置、その制御方法、および、プログラム |
KR101990036B1 (ko) | 2012-10-31 | 2019-06-17 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
WO2014112419A1 (ja) * | 2013-01-16 | 2014-07-24 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20140282269A1 (en) * | 2013-03-13 | 2014-09-18 | Amazon Technologies, Inc. | Non-occluded display for hover interactions |
WO2014189632A1 (en) * | 2013-05-20 | 2014-11-27 | Citrix Systems, Inc. | Providing enhanced user interfaces |
CN109388762B (zh) * | 2013-06-03 | 2022-04-29 | 华为终端有限公司 | 应用分享的方法和装置 |
US9109921B1 (en) * | 2013-06-19 | 2015-08-18 | Amazon Technologies, Inc. | Contextual based navigation element |
CN103389877B (zh) * | 2013-07-24 | 2017-03-22 | Tcl通讯(宁波)有限公司 | 一种基于触摸屏的手指倾斜识别方法、系统及移动终端 |
USD757091S1 (en) * | 2013-12-31 | 2016-05-24 | Beijing Qihoo Technology Co. Ltd | Display screen with animated graphical user interface |
US9262012B2 (en) * | 2014-01-03 | 2016-02-16 | Microsoft Corporation | Hover angle |
US9239648B2 (en) * | 2014-03-17 | 2016-01-19 | Google Inc. | Determining user handedness and orientation using a touchscreen device |
US10503392B2 (en) * | 2015-06-25 | 2019-12-10 | Oath Inc. | User interface adjustment methods and systems |
JP6758921B2 (ja) * | 2016-06-01 | 2020-09-23 | キヤノン株式会社 | 電子機器及びその制御方法 |
CN106325544B (zh) * | 2016-08-30 | 2019-04-19 | 广东小天才科技有限公司 | 一种终端的应用程序启动方法和装置 |
KR102557116B1 (ko) * | 2016-10-19 | 2023-07-20 | 엘지전자 주식회사 | 이동 단말기 |
KR102257909B1 (ko) * | 2016-11-07 | 2021-05-28 | 스냅 인코포레이티드 | 이미지 변경자들의 선택적 식별 및 순서화 |
JP6763283B2 (ja) * | 2016-11-18 | 2020-09-30 | セイコーエプソン株式会社 | 電子機器 |
US10289300B2 (en) * | 2016-12-28 | 2019-05-14 | Amazon Technologies, Inc. | Feedback animation for touch-based interactions |
US10409480B2 (en) | 2016-12-28 | 2019-09-10 | Amazon Technologies, Inc. | Interruption and resumption of feedback animation for touch-based interactions |
US10521854B1 (en) | 2017-01-04 | 2019-12-31 | Amazon Technologies, Inc. | Selection and display of custom user interface controls |
US10922743B1 (en) | 2017-01-04 | 2021-02-16 | Amazon Technologies, Inc. | Adaptive performance of actions associated with custom user interface controls |
DE102017201799A1 (de) * | 2017-02-06 | 2018-08-09 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung |
US10318071B2 (en) * | 2017-03-23 | 2019-06-11 | Intel Corporation | Method and apparatus for a blob angle orientation recognition in a touch device |
CN107920165A (zh) * | 2017-11-16 | 2018-04-17 | 宁波萨瑞通讯有限公司 | 一种日程删除方法及系统 |
JP7005334B2 (ja) * | 2017-12-22 | 2022-01-21 | キヤノン株式会社 | 電子機器、その制御方法およびプログラム |
JP7118656B2 (ja) * | 2018-02-08 | 2022-08-16 | キヤノン株式会社 | 情報処理装置、その制御方法、及びプログラム |
JP6857154B2 (ja) * | 2018-04-10 | 2021-04-14 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
TWI730539B (zh) * | 2019-10-09 | 2021-06-11 | 開曼群島商粉迷科技股份有限公司 | 動態數位內容的顯示方法、圖形使用者介面與系統 |
CN110716680B (zh) * | 2019-10-09 | 2021-05-07 | 广州视源电子科技股份有限公司 | 智能交互平板的控制方法和装置 |
JP2022182801A (ja) * | 2021-05-28 | 2022-12-08 | 京セラドキュメントソリューションズ株式会社 | 表示装置及び画像形成装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187077A (ja) * | 1992-11-09 | 1994-07-08 | Soichiro Nara | 日本語入力方法およびキーボード配列 |
WO2004051392A2 (en) * | 2002-11-29 | 2004-06-17 | Koninklijke Philips Electronics N.V. | User interface with displaced representation of touch area |
CN1846248A (zh) * | 2003-07-09 | 2006-10-11 | 怀尔德西德有限公司 | 共享输入键方法及设备 |
KR20070006477A (ko) * | 2005-07-08 | 2007-01-11 | 삼성전자주식회사 | 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치 |
JP5201999B2 (ja) * | 2006-02-03 | 2013-06-05 | パナソニック株式会社 | 入力装置、及びその方法 |
JP2008052062A (ja) * | 2006-08-24 | 2008-03-06 | Ricoh Co Ltd | 表示装置、表示装置の表示方法、プログラム及び記録媒体 |
JP2009010775A (ja) | 2007-06-28 | 2009-01-15 | Sony Corp | 画像表示装置、撮像装置、画像表示方法、プログラム |
EP2225628B1 (en) * | 2007-12-20 | 2018-05-30 | Myriad France | Method and system for moving a cursor and selecting objects on a touchscreen using a finger pointer |
US20090167702A1 (en) * | 2008-01-02 | 2009-07-02 | Nokia Corporation | Pointing device detection |
JP4982430B2 (ja) * | 2008-05-27 | 2012-07-25 | 株式会社エヌ・ティ・ティ・ドコモ | 文字入力装置及び文字入力方法 |
JP5471124B2 (ja) * | 2009-07-29 | 2014-04-16 | ソニー株式会社 | 画像検索装置、画像検索方法及び画像検索プログラム |
-
2009
- 2009-07-27 JP JP2009174430A patent/JP2011028560A/ja active Pending
-
2010
- 2010-06-30 EP EP10167948.8A patent/EP2280339B1/en active Active
- 2010-07-20 US US12/839,511 patent/US9001051B2/en not_active Expired - Fee Related
- 2010-07-20 CN CN2010102338917A patent/CN101968695B/zh not_active Expired - Fee Related
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10782873B2 (en) | 1999-01-25 | 2020-09-22 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
US9529440B2 (en) | 1999-01-25 | 2016-12-27 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
JP2012230568A (ja) * | 2011-04-26 | 2012-11-22 | Fuji Xerox Co Ltd | 画像表示装置およびプログラム |
US9470922B2 (en) | 2011-05-16 | 2016-10-18 | Panasonic Intellectual Property Corporation Of America | Display device, display control method and display control program, and input device, input assistance method and program |
JP6073782B2 (ja) * | 2011-05-16 | 2017-02-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム |
JPWO2012157272A1 (ja) * | 2011-05-16 | 2014-07-31 | パナソニック株式会社 | 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム |
JP2012243066A (ja) * | 2011-05-19 | 2012-12-10 | Sony Computer Entertainment Inc | 情報処理装置、情報処理装置の制御方法、プログラム及び情報記憶媒体 |
JP2013003619A (ja) * | 2011-06-13 | 2013-01-07 | Sharp Corp | 操作装置及び画像形成装置 |
JP2013020363A (ja) * | 2011-07-08 | 2013-01-31 | Konica Minolta Business Technologies Inc | 情報処理装置、その制御方法、および、表示制御プログラム |
US9244556B2 (en) | 2011-09-26 | 2016-01-26 | Nec Corporation | Display apparatus, display method, and program |
US9335906B2 (en) | 2012-01-20 | 2016-05-10 | Canon Kabushiki Kaisha | Information processing apparatus, control method thereof, and recording medium |
US9329760B2 (en) | 2012-01-20 | 2016-05-03 | Canon Kabushiki Kaisha | Information processing apparatus, control method thereof, and program |
JP2013152529A (ja) * | 2012-01-24 | 2013-08-08 | Canon Inc | 情報処理装置及びその制御方法 |
US10289660B2 (en) | 2012-02-15 | 2019-05-14 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
US10803235B2 (en) | 2012-02-15 | 2020-10-13 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
JP2015515040A (ja) * | 2012-02-15 | 2015-05-21 | アップル インコーポレイテッド | ドキュメント内のコンテンツオブジェクトを共有するためのデバイス、方法、及びグラフィカルユーザインタフェース |
US11783117B2 (en) | 2012-02-15 | 2023-10-10 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
JP2014016943A (ja) * | 2012-07-11 | 2014-01-30 | Sharp Corp | 情報処理装置、表示方法、およびプログラム |
US11422694B2 (en) | 2012-07-15 | 2022-08-23 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
JP2015526807A (ja) * | 2012-07-15 | 2015-09-10 | アップル インコーポレイテッド | 3d相互作用のマルチタッチジェスチャ認識の曖昧性除去 |
JP2014026654A (ja) * | 2012-07-25 | 2014-02-06 | Samsung Electronics Co Ltd | ユーザ端末装置及びその制御方法 |
WO2014024772A1 (ja) * | 2012-08-08 | 2014-02-13 | シャープ株式会社 | 操作入力装置、操作入力方法、操作入力プログラム及び電子機器 |
JP2014059735A (ja) * | 2012-09-18 | 2014-04-03 | Sharp Corp | 情報処理装置、表示方法、およびプログラム |
JP2014086056A (ja) * | 2012-10-26 | 2014-05-12 | Konica Minolta Inc | データ処理装置、設定方法および設定プログラム |
US9232094B2 (en) | 2012-10-26 | 2016-01-05 | Konica Minolta, Inc. | System and method for move and drop of clone image on a touch panel |
JP2014211866A (ja) * | 2013-03-14 | 2014-11-13 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 携帯端末機のアプリ提供方法、そのための電子装置及びそれを実行するためのプログラムを記録したコンピュータ読み取り可能な記憶媒体 |
US10007394B2 (en) | 2013-03-14 | 2018-06-26 | Samsung Electronics Co., Ltd. | Applications presentation method and system of mobile terminal |
US9996215B2 (en) | 2014-01-17 | 2018-06-12 | Fujitsu Limited | Input device, display control method, and integrated circuit device |
JP2015158907A (ja) * | 2014-02-12 | 2015-09-03 | ビステオン グローバル テクノロジーズ インコーポレイテッド | 検出した方向に基づく呼出しの提供 |
JP2015215924A (ja) * | 2015-08-20 | 2015-12-03 | コニカミノルタ株式会社 | データ処理装置、設定方法および設定プログラム |
JP2016129341A (ja) * | 2016-01-26 | 2016-07-14 | 株式会社ニコン | 制御装置、およびプログラム |
JPWO2017154119A1 (ja) * | 2016-03-08 | 2019-01-10 | 富士通コネクテッドテクノロジーズ株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
WO2017154119A1 (ja) * | 2016-03-08 | 2017-09-14 | 富士通株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
JP2018072483A (ja) * | 2016-10-26 | 2018-05-10 | 株式会社半導体エネルギー研究所 | 表示装置および電子機器 |
JP2018109813A (ja) * | 2016-12-28 | 2018-07-12 | 富士ゼロックス株式会社 | 表示装置、画像形成装置及びプログラム |
JP2019082748A (ja) * | 2017-10-27 | 2019-05-30 | 富士ゼロックス株式会社 | 文書処理装置及び文書処理プログラム |
US11170155B2 (en) | 2017-10-27 | 2021-11-09 | Fujifilm Business Innovation Corp. | Document processing apparatus and non-transitory computer readable medium |
JP7073670B2 (ja) | 2017-10-27 | 2022-05-24 | 富士フイルムビジネスイノベーション株式会社 | 文書処理装置及び文書処理プログラム |
US11681858B2 (en) | 2017-10-27 | 2023-06-20 | Fujifilm Business Innovation Corp. | Document processing apparatus and non-transitory computer readable medium |
JP2020071500A (ja) * | 2018-10-29 | 2020-05-07 | セイコーエプソン株式会社 | 表示方法および表示装置 |
Also Published As
Publication number | Publication date |
---|---|
US9001051B2 (en) | 2015-04-07 |
CN101968695A (zh) | 2011-02-09 |
EP2280339B1 (en) | 2019-12-25 |
CN101968695B (zh) | 2013-04-24 |
EP2280339A1 (en) | 2011-02-02 |
US20110018827A1 (en) | 2011-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011028560A (ja) | 情報処理装置、表示方法及び表示プログラム | |
JP5652652B2 (ja) | 表示制御装置および方法 | |
JP5326802B2 (ja) | 情報処理装置、画像拡大縮小方法及びそのプログラム | |
JP5995607B2 (ja) | 電子機器、プログラムおよび記録媒体 | |
US8629847B2 (en) | Information processing device, display method and program | |
JP2011060209A5 (ja) | ||
JP6647103B2 (ja) | 表示制御装置およびその制御方法 | |
JP2010072749A (ja) | 画像検索装置、デジタルカメラ、画像検索方法および画像検索用プログラム | |
JP2009077228A (ja) | 撮像装置とその制御方法 | |
CN111385470B (zh) | 电子设备、电子设备的控制方法和计算机可读介质 | |
US11295530B2 (en) | Electronic apparatus for playing back a virtual reality video image and control method therefor | |
JP7094815B2 (ja) | 表示制御装置、表示制御装置の制御方法、プログラム、記憶媒体 | |
JP2006042170A (ja) | 再生装置、カメラおよび再生装置の音量制御方法 | |
JP7267764B2 (ja) | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 | |
US11380075B2 (en) | Electronic apparatus for playing back a virtual reality video image and control method therefor | |
JP5644905B2 (ja) | 情報処理装置、画像拡大縮小方法及びそのプログラム | |
JP2012014519A (ja) | 表示制御装置 | |
US11112907B2 (en) | Electronic device and method for controlling same | |
JP7098495B2 (ja) | 画像処理装置及びその制御方法 | |
JP2010124241A (ja) | カメラ、カメラの表示方法および画像表示用プログラム | |
CN110881102B (zh) | 摄像设备、摄像设备的控制方法和计算机可读介质 | |
US20230345121A1 (en) | Image pickup device and control method thereof | |
JP2018132961A (ja) | 表示制御装置及び方法 | |
JP7086722B2 (ja) | 表示制御装置およびその制御方法 | |
JP2010124240A (ja) | カメラ、カメラの表示方法および画像表示用プログラム |