JP5665838B2 - Image processing apparatus, image display method, and program - Google Patents

Image processing apparatus, image display method, and program Download PDF

Info

Publication number
JP5665838B2
JP5665838B2 JP2012286403A JP2012286403A JP5665838B2 JP 5665838 B2 JP5665838 B2 JP 5665838B2 JP 2012286403 A JP2012286403 A JP 2012286403A JP 2012286403 A JP2012286403 A JP 2012286403A JP 5665838 B2 JP5665838 B2 JP 5665838B2
Authority
JP
Japan
Prior art keywords
image
display
detected
displayed
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012286403A
Other languages
Japanese (ja)
Other versions
JP2013093043A (en
Inventor
卓未 宮城島
卓未 宮城島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Datacom Co Ltd
Original Assignee
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Datacom Co Ltd filed Critical Zenrin Datacom Co Ltd
Priority to JP2012286403A priority Critical patent/JP5665838B2/en
Publication of JP2013093043A publication Critical patent/JP2013093043A/en
Application granted granted Critical
Publication of JP5665838B2 publication Critical patent/JP5665838B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、地図画像などの画像を表示する技術に関する。   The present invention relates to a technique for displaying an image such as a map image.

近年、携帯電話やPDA(Personal Data Assistant)などの装置において、画面上に表示された地図画像などの画像を操作するために、ユーザインタフェースとしてタッチパネルを採用する例が増加している。   In recent years, in a device such as a mobile phone or a PDA (Personal Data Assistant), an example of adopting a touch panel as a user interface in order to operate an image such as a map image displayed on a screen is increasing.

特許文献1には、タッチパネルを採用する装置において、画面に表示された地図画像上の任意の位置にユーザが指を近づけた場合に、その指先付近に小さく表示されていた建物の名前を拡大表示する技術が開示されている(特許文献1の図19参照)。更に、この特許文献1には、拡大表示した建物の名前が指先の下に隠れてしまう場合に、その名前の表示位置を移動させる技術が開示されている。しかし、この特許文献1に記載の技術では、指先の下に建物の名前が表示されている場合に限って、その表示位置を移動させることができるに過ぎず、建物の名前以外、例えば、建物を表す画像が指先の下に隠れていたとしても、その画像の表示位置を移動させることはできなかった。   In Patent Document 1, in a device that uses a touch panel, when a user brings a finger close to an arbitrary position on a map image displayed on a screen, the name of a building displayed small near the fingertip is enlarged and displayed. (See FIG. 19 of Patent Document 1). Further, this Patent Document 1 discloses a technique for moving the display position of a name when the name of the enlarged building is hidden under the fingertip. However, in the technique described in Patent Document 1, only when the name of the building is displayed under the fingertip, the display position can only be moved. Even if an image representing the image is hidden under the fingertip, the display position of the image cannot be moved.

特開2008−250948号公報JP 2008-250948 A

上述した問題を考慮し、本発明が解決しようとする課題は、タッチパネル等によって画像の操作を受け付ける装置において、指先の下に隠れてしまう画像の視認性を向上させることにある。   Considering the above-described problems, the problem to be solved by the present invention is to improve the visibility of an image hidden under a fingertip in an apparatus that accepts an image operation using a touch panel or the like.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
本発明の第1の形態は、表示装置を備えた画像処理装置であって、
前記表示装置が有する所定の表示領域に第1の画像を表示する第1表示部と、
前記表示領域に対する所定の図形形状を示すジェスチャの入力と、前記表示領域内において指定された第1の位置と第2の位置と、を検出する位置検出部と、
前記位置検出部によって前記ジェスチャが入力されたことが検出された場合に、前記第1の画像から、前記位置検出部によって検出された第1の位置を含む所定範囲内の第2の画像を複製し、該第2の画像を、前記第1の画像上に重畳させて、前記検出された第1の位置から離れた所定の位置であって前記第1の位置と前記第2の位置との位置関係に応じた位置に表示し、前記第2の画像を前記所定の位置に表示しつつ、前記第1の位置を中心として前記第2の位置に追従させて前記第1の画像を回転表示させる第2表示部と
を備え
前記第1の位置と前記第2の位置との位置関係に応じた位置とは、
前記第1の位置と前記第2の位置とが右上がりの関係にある場合には、前記検出された第1の位置に対して左上の位置であり、
前記第1の位置と前記第2の位置とが右下がりの関係にある場合には、前記検出された第1の位置に対して右上の位置である、
画像処理装置である。
このような構成の画像処理装置であれば、表示装置が有する表示領域内において所定の図形形状を示すジェスチャが入力され、位置が指先等で指定された場合において、その指先の下に隠れる画像(第2の画像)を、もともと表示されている画像(第1の画像)から複製して他の位置に表示する。そのため、表示されている画像の種別に関わらず、指先の下に隠れている画像を他の位置に表示することができる。この結果、指先の下に隠れた画像の視認性を向上させることが可能になる。また、上記構成の画像処理装置であれば、どの位置を中心として画像を回転させているかを容易に確認することができる。
SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
A first aspect of the present invention is an image processing apparatus provided with a display device,
A first display unit that displays a first image in a predetermined display area of the display device;
A position detector that detects an input of a gesture indicating a predetermined graphic shape for the display area, and a first position and a second position specified in the display area;
When it is detected that the gesture is input by the position detection unit, a second image within a predetermined range including the first position detected by the position detection unit is copied from the first image. Then, the second image is superimposed on the first image, and is a predetermined position away from the detected first position, and the first position and the second position Displaying the first image at a position corresponding to the positional relationship, rotating the first image by following the second position with the first position as a center while displaying the second image at the predetermined position. and a second display portion which,
The position according to the positional relationship between the first position and the second position is:
When the first position and the second position are in a right-up relationship, the upper left position with respect to the detected first position;
When the first position and the second position are in a downward-sloping relationship, the position is an upper right position with respect to the detected first position.
An image processing apparatus.
In the case of an image processing apparatus having such a configuration, when a gesture indicating a predetermined graphic shape is input within a display area of the display apparatus and the position is designated by a fingertip or the like, an image ( The second image) is copied from the originally displayed image (first image) and displayed at another position. Therefore, an image hidden under the fingertip can be displayed at another position regardless of the type of the displayed image. As a result, it becomes possible to improve the visibility of the image hidden under the fingertip. Further, with the image processing apparatus having the above-described configuration, it is possible to easily confirm which position is used as the center for rotating the image.

[適用例1]表示装置を備えた画像処理装置であって、前記表示装置が有する所定の表示領域に第1の画像を表示する第1表示部と、前記表示領域内において指定された位置を検出する位置検出部と、前記第1の画像から、前記位置検出部によって検出された位置を含む所定範囲内の第2の画像を複製し、該第2の画像を、前記第1の画像上の、前記検出された位置から離れた所定の位置に表示する第2表示部とを備える画像処理装置。 Application Example 1 An image processing apparatus including a display device, wherein a first display unit that displays a first image in a predetermined display area of the display device, and a position specified in the display area A position detection unit to detect and a second image within a predetermined range including the position detected by the position detection unit are duplicated from the first image, and the second image is copied onto the first image. An image processing apparatus comprising: a second display unit configured to display at a predetermined position away from the detected position.

このような構成の画像処理装置であれば、表示装置が有する表示領域内の位置を指先等で指定した場合において、その指先の下に隠れる画像(第2の画像)を、もともと表示されている画像(第1の画像)から複製して他の位置に表示する。そのため、表示されている画像の種別に関わらず、指先の下に隠れている画像を他の位置に表示することができる。この結果、指先の下に隠れた画像の視認性を向上させることが可能になる。   In the case of the image processing apparatus having such a configuration, when the position in the display area of the display apparatus is designated by a fingertip or the like, an image (second image) hidden under the fingertip is originally displayed. Duplicate from the image (first image) and display it at another position. Therefore, an image hidden under the fingertip can be displayed at another position regardless of the type of the displayed image. As a result, it becomes possible to improve the visibility of the image hidden under the fingertip.

[適用例2]適用例1に記載の画像処理装置であって、前記第2表示部は、前記位置検出部によって、前記位置の指定が所定時間以上なされたことを検出した場合に、前記第2の画像の表示を行う画像処理装置。このような構成であれば、位置を指定する操作の度に、第2の画像を表示する必要がない。この結果、画像処理装置の処理負担を軽減することが可能になる。 Application Example 2 In the image processing device according to Application Example 1, the second display unit detects the first display when the position detection unit detects that the position is specified for a predetermined time or more. An image processing apparatus that displays two images. With such a configuration, it is not necessary to display the second image every time the position is designated. As a result, the processing burden on the image processing apparatus can be reduced.

[適用例3]適用例2に記載の画像処理装置であって、前記第1表示部は、前記位置検出部によって、前記指定された位置が前記表示領域内で連続的に移動されたことを検出した場合に、該指定された位置の移動に追従させて前記第1の画像を前記表示装置にスクロールさせて表示し、前記第2表示部は、前記第1の画像がスクロールされているか否かに関わらず、前記所定時間以上の位置の指定の検出を行う画像処理装置。このような構成であれば、第2の画像を表示するか否かを判断する所定時間のカウント中にも、第1の画像をスクロールさせることができる。そのため、第1の画像をスクロール表示させる操作と、第2の画像の表示を行うための操作とを一体の動作で行うことが可能となり、ユーザの利便性を向上させることが可能になる。 Application Example 3 In the image processing apparatus according to Application Example 2, in the first display unit, the designated position is continuously moved in the display area by the position detection unit. When detected, the first image is scrolled and displayed on the display device following the movement of the designated position, and the second display unit displays whether or not the first image is scrolled. Regardless of this, an image processing apparatus that detects designation of a position that is longer than the predetermined time. With such a configuration, the first image can be scrolled even during the counting of a predetermined time for determining whether or not to display the second image. Therefore, the operation for scrolling the first image and the operation for displaying the second image can be performed as an integrated operation, and the convenience for the user can be improved.

[適用例4]適用例3に記載の画像処理装置であって、前記第2表示部は、前記第2の画像を表示した場合に、前記第1表示部による前記第1の画像のスクロールに追従させて前記第2の画像を移動させる画像処理装置。このような構成であれば、第2の画像を表示させたまま、第1の画像と第2の画像とを同時にスクロールさせることができるので、指先の下に隠れる画像と、画面外に表示される画像との対比を容易に行うことが可能になる。 Application Example 4 In the image processing apparatus according to Application Example 3, the second display unit may be configured to scroll the first image by the first display unit when displaying the second image. An image processing apparatus that moves the second image by following the movement. With such a configuration, the first image and the second image can be scrolled at the same time while the second image is displayed, so that the image hidden under the fingertip is displayed outside the screen. It is possible to easily compare with an image.

[適用例5]適用例4に記載の画像処理装置であって、前記第2表示部は、前記第2の画像の移動によって、該第2の画像の表示位置が、前記表示領域外になる場合に、前記第2の画像の表示位置を前記表示領域内の位置に変更する画像処理装置。このような構成であれば、第2の画像が、画面外に消失してしまうことを抑制することができる。 Application Example 5 In the image processing device according to Application Example 4, in the second display unit, the display position of the second image is out of the display area due to the movement of the second image. In this case, the image processing apparatus changes the display position of the second image to a position in the display area. With such a configuration, the second image can be prevented from disappearing outside the screen.

[適用例6]適用例3ないし適用例5のいずれかに記載の画像処理装置であって、前記第1表示部は、スクロール表示可能な前記第1の画像と共に、スクロール表示不能なユーザインタフェースを表すインタフェース画像を表示可能であり、前記第2表示部は、前記所定範囲内に前記インタフェース画像が含まれる場合であっても、該インタフェース画像を含む第2の画像を、前記所定の位置に表示する画像処理装置。このような構成であれば、表示されている画像がスクロール表示可能な画像であるかスクロール表示不能な画像であるかを問わず、その画像上に指先が触れれば、その画像を含む第2の画像を、他の位置に表示することが可能になる。この結果、例えば、表示領域内に固定的に表示されているボタン等に指先が触れた場合に、そのボタン等を表す画像についても指先の位置から離れた位置に表示される。そのため、そのボタンが確実に操作されているかを容易に確認することが可能になる。 Application Example 6 In the image processing device according to any one of Application Examples 3 to 5, the first display unit includes a scrollable display of the first image and a user interface that cannot be scrolled. The interface image can be displayed, and the second display unit displays the second image including the interface image at the predetermined position even when the interface image is included in the predetermined range. An image processing apparatus. With such a configuration, regardless of whether the displayed image is an image that can be scroll-displayed or an image that cannot be scroll-displayed, if the fingertip touches the image, the second image including the image is included. This image can be displayed at other positions. As a result, for example, when a fingertip touches a button or the like fixedly displayed in the display area, an image representing the button or the like is also displayed at a position away from the position of the fingertip. Therefore, it is possible to easily confirm whether or not the button has been operated reliably.

本発明は、上述した画像処理装置としての構成のほか、画像処理方法や、コンピュータプログラムとしても構成することができる。コンピュータプログラムは、コンピュータが読取可能な記録媒体に記録されていてもよい。記録媒体としては、例えば、フレキシブルディスクや光ディスク、光磁気ディスク、メモリカード、フラッシュメモリ、ハードディスク等の種々の媒体を利用することができる。   In addition to the configuration as the image processing apparatus described above, the present invention can also be configured as an image processing method and a computer program. The computer program may be recorded on a computer-readable recording medium. As the recording medium, for example, various media such as a flexible disk, an optical disk, a magneto-optical disk, a memory card, a flash memory, and a hard disk can be used.

本発明の実施例としての画像処理装置10の正面図である。1 is a front view of an image processing apparatus 10 as an embodiment of the present invention. 画像処理装置10の内部構成を示すブロック図である。2 is a block diagram showing an internal configuration of the image processing apparatus 10. FIG. 部分画像表示処理ルーチンのフローチャートである。It is a flowchart of a partial image display processing routine. 指先がタッチパネル12に触れた際の表示状態を示す図である。It is a figure which shows a display state when a fingertip touches the touch panel. タッチパネル12上で指先を滑らせた後の表示状態を示す図である。It is a figure which shows the display state after sliding a fingertip on the touch panel. 指先の右上に部分画像が表示された例を示す図である。It is a figure which shows the example by which the partial image was displayed on the upper right of the fingertip. 部分画像が表示された状態で、タッチパネル12上で指先を滑らせた状態を示す図である。It is a figure which shows the state which slid the fingertip on the touch panel 12 in the state where the partial image was displayed. メニューボタンが部分画像として表示された例を示す図である。It is a figure which shows the example in which the menu button was displayed as a partial image. 部分画像の表示位置が左側に反転された表示例を示す図である。It is a figure which shows the example of a display in which the display position of the partial image was reversed to the left side. 部分画像の表示位置が下側に反転された表示例を示す図である。It is a figure which shows the example of a display in which the display position of the partial image was reversed below. 地図画像と部分画像とが回転表示された例を示す図である。It is a figure which shows the example by which the map image and the partial image were rotated and displayed. 右手の2本の指でタッチパネル12を触れた場合の部分画像の表示例を示す図である。It is a figure which shows the example of a display of the partial image at the time of touching the touch panel 12 with two fingers of a right hand. 左手の2本の指でタッチパネル12を触れた場合の部分画像の表示例を示す図である。It is a figure which shows the example of a display of the partial image at the time of touching the touch panel 12 with two fingers of the left hand.

以下、本発明の実施の形態を実施例に基づき次の順序で説明する。
A.携帯電話の構成:
B.部分画像表示処理:
C.変形例:
Hereinafter, embodiments of the present invention will be described in the following order based on examples.
A. Mobile phone configuration:
B. Partial image display processing:
C. Variation:

A.携帯電話の構成:
図1は、本発明の実施例としての画像処理装置10の正面図である。図1に示すように、本実施例では、画像処理装置10として携帯電話を適用している。本実施例の画像処理装置10は、表示装置として、液晶ディスプレイ14を備えている。液晶ディスプレイ14内の表示領域には、例えば、地図画像や写真画像などの画像が表示される。図1には、液晶ディスプレイ14に、地図画像が表示されている例を示した。液晶ディスプレイ14には、光透過型のタッチパネル12が重ね合わせて設けられている。ユーザは、このタッチパネル12に指先やスタイラスペン等の各種ペンを接触させることで、液晶ディスプレイ14に表示された画像に対して種々の操作を行うことができる。タッチパネル12としては、例えば、静電容量方式や抵抗膜方式など、種々の方式のものを採用することができる。
A. Mobile phone configuration:
FIG. 1 is a front view of an image processing apparatus 10 as an embodiment of the present invention. As shown in FIG. 1, in this embodiment, a mobile phone is applied as the image processing apparatus 10. The image processing apparatus 10 of this embodiment includes a liquid crystal display 14 as a display device. In the display area within the liquid crystal display 14, for example, an image such as a map image or a photographic image is displayed. FIG. 1 shows an example in which a map image is displayed on the liquid crystal display 14. The liquid crystal display 14 is provided with a light transmissive touch panel 12 in an overlapping manner. The user can perform various operations on the image displayed on the liquid crystal display 14 by bringing the touch panel 12 into contact with various pens such as a fingertip and a stylus pen. As the touch panel 12, various types such as a capacitance type and a resistance film type can be adopted, for example.

図2は、画像処理装置10の内部構成を示すブロック図である。図2に示すように、画像処理装置10は、CPU16とRAM18とROM20とを備えている。CPU16には、タッチパネル12が接続されており、更に、現在位置を測位するGPS受信機22や、アンテナ24を介して音声通信やデータ通信などの通信制御を行う無線通信回路26、電話番号等の入力を行う操作ボタン28、画像処理装置10の姿勢を検出する姿勢検出回路30、液晶ディスプレイ14に表示する画像データが一時的に記憶される画像メモリ32、画像メモリ32から画像データを読み込んで液晶ディスプレイ14に表示を行う表示制御回路34、が接続されている。また、図2には示していないが、画像処理装置10は、携帯電話として動作するためのマイクやスピーカ、音声の着信や発信を制御する回路などを備えている。   FIG. 2 is a block diagram showing an internal configuration of the image processing apparatus 10. As shown in FIG. 2, the image processing apparatus 10 includes a CPU 16, a RAM 18, and a ROM 20. The touch panel 12 is connected to the CPU 16, and further, a GPS receiver 22 that measures the current position, a wireless communication circuit 26 that performs communication control such as voice communication and data communication via the antenna 24, a telephone number, and the like. An operation button 28 for inputting, an attitude detection circuit 30 for detecting the attitude of the image processing apparatus 10, an image memory 32 for temporarily storing image data to be displayed on the liquid crystal display 14, and image data read from the image memory 32 to read liquid crystal A display control circuit 34 for displaying on the display 14 is connected. Although not shown in FIG. 2, the image processing apparatus 10 includes a microphone and a speaker for operating as a mobile phone, a circuit for controlling incoming and outgoing voices, and the like.

CPU16は、ROM20に記憶された制御プログラムをRAM18にロードして実行することで、画像処理装置10の全般的な動作の制御を行うほか、地図画像表示部36(第1表示部)や、部分画像表示部38(第2表示部)として機能する。   The CPU 16 loads the control program stored in the ROM 20 into the RAM 18 and executes it, thereby controlling the overall operation of the image processing apparatus 10, as well as the map image display unit 36 (first display unit) It functions as an image display unit 38 (second display unit).

地図画像表示部36は、液晶ディスプレイ14に地図画像を表示する処理を実現する。具体的には、地図画像表示部36は、GPS受信機22から現在位置を示す経緯度を取得すると、無線通信回路26を用いて、外部のサーバ(図示せず)にアクセスし、その経緯度を中心とした所定範囲(例えば、液晶ディスプレイ14の表示領域の9つ分の範囲)の地図画像データを受信する。この地図画像データは、ベクター形式のデータである。地図画像表示部36は、サーバから地図画像データを取得すると、取得した地図画像データをRAM18に記憶する。地図画像表示部36は、RAM18に記憶された地図画像データのうち、液晶ディスプレイ14の表示領域分の地図画像データをラスタ形式に変換して画像メモリ32に転送する。表示制御回路34は、画像メモリ32からラスタ形式の地図画像データを読み込み、これを電気信号に変換して液晶ディスプレイ14を駆動する。地図画像表示部36は、これらの処理を行うことで、地図画像を液晶ディスプレイ14に表示することができる。   The map image display unit 36 realizes processing for displaying a map image on the liquid crystal display 14. Specifically, when the map image display unit 36 acquires the longitude and latitude indicating the current position from the GPS receiver 22, the map image display unit 36 accesses an external server (not shown) using the wireless communication circuit 26, and the longitude and latitude are obtained. Map image data of a predetermined range (for example, a range corresponding to nine display areas of the liquid crystal display 14) is received. This map image data is vector format data. When acquiring the map image data from the server, the map image display unit 36 stores the acquired map image data in the RAM 18. The map image display unit 36 converts the map image data for the display area of the liquid crystal display 14 out of the map image data stored in the RAM 18 into a raster format and transfers it to the image memory 32. The display control circuit 34 reads raster-format map image data from the image memory 32, converts it into an electrical signal, and drives the liquid crystal display 14. The map image display unit 36 can display the map image on the liquid crystal display 14 by performing these processes.

部分画像表示部38は、ユーザがタッチパネル12を操作した場合に、ユーザの指先の下に隠れる画像を複製し、これを指先の位置から離れた位置に表示する処理を実現する。この処理の具体的な説明は後述する。   When the user operates the touch panel 12, the partial image display unit 38 reproduces an image hidden under the fingertip of the user and displays the image at a position away from the position of the fingertip. A specific description of this process will be described later.

画像処理装置10は、図2に示したように、姿勢検出回路30を備えている。この姿勢検出回路30は、加速度センサを備えており、この加速度センサを用いることで、重力方向に対する画像処理装置10の設置角度(持つ方向)を検出する。CPU16は、この姿勢検出回路30を用いて、図1に示した状態から画像処理装置10が所定角度以上(例えば、70°以上)回転させられたことを検出すると、表示制御回路34を制御して、地図画像の表示方向を90°回転させて液晶ディスプレイ14に表示させる。つまり、画像処理装置10は、液晶ディスプレイ14の表示方向を、ユーザが画像処理装置10を持つ方向に応じて、水平方向と垂直方向に切り換えることができる。   The image processing apparatus 10 includes an attitude detection circuit 30 as shown in FIG. The posture detection circuit 30 includes an acceleration sensor, and detects the installation angle (direction in which the image processing apparatus 10 is installed) with respect to the direction of gravity by using the acceleration sensor. When the CPU 16 detects that the image processing apparatus 10 has been rotated by a predetermined angle or more (for example, 70 ° or more) from the state shown in FIG. 1 using the posture detection circuit 30, the CPU 16 controls the display control circuit 34. Thus, the display direction of the map image is rotated by 90 ° and displayed on the liquid crystal display 14. That is, the image processing apparatus 10 can switch the display direction of the liquid crystal display 14 between the horizontal direction and the vertical direction according to the direction in which the user holds the image processing apparatus 10.

B.部分画像表示処理:
図3は、CPU16の地図画像表示部36および部分画像表示部38によって実行される部分画像表示処理ルーチンのフローチャートである。この部分画像表示処理ルーチンでは、ユーザがタッチパネル12を操作した場合に、ユーザの指先の下に隠れる画像を、他の位置に移動させて表示する処理が行われる。
B. Partial image display processing:
FIG. 3 is a flowchart of a partial image display processing routine executed by the map image display unit 36 and the partial image display unit 38 of the CPU 16. In this partial image display processing routine, when the user operates the touch panel 12, an image hidden under the fingertip of the user is moved to another position and displayed.

この画像表示処理ルーチンが実行されると、CPU16は、まず、タッチパネル12にユーザの指先が接触したかを検出する(ステップS100)。ユーザの指先がタッチパネル12に接触したことを検出すると、CPU16は、タイマのカウントを開始する(ステップS102)。   When this image display processing routine is executed, the CPU 16 first detects whether the user's fingertip has touched the touch panel 12 (step S100). When detecting that the user's fingertip has touched the touch panel 12, the CPU 16 starts counting of the timer (step S102).

タイマのカウント開始後、CPU16は、タッチパネル12から、ユーザの指先が接触した座標を取得する(ステップS104)。座標を取得すると、CPU16は、地図画像表示部36を用いて、取得した座標に応じて地図画像をスクロール表示させる(ステップS106)。つまり、この処理によれば、ユーザがタッチパネル12上で指先を滑らせた場合に、その指先の動きに追従して、地図画像をスクロールさせることができる。もちろん、ステップS104で取得された座標が、以前の座標から変動しない場合には、地図画像はスクロールされず、その表示位置は変わらない。図4および図5には、指先の動きに追従して地図画像がスクロールされた例を示している。図4が、指先がタッチパネル12に触れた際の表示状態を示し、図5が、タッチパネル12上で指先を滑らせた後の表示状態を示している。なお、ステップS106の処理では、後述する部分画像が地図画像上に表示されている場合には、この部分画像についても、ユーザの指先の動きにあわせてスクロールさせる。   After the timer starts counting, the CPU 16 acquires the coordinates at which the user's fingertip touches from the touch panel 12 (step S104). When the coordinates are acquired, the CPU 16 uses the map image display unit 36 to scroll and display the map image according to the acquired coordinates (step S106). That is, according to this process, when the user slides the fingertip on the touch panel 12, the map image can be scrolled following the movement of the fingertip. Of course, if the coordinates acquired in step S104 do not vary from the previous coordinates, the map image is not scrolled and its display position does not change. 4 and 5 show an example in which the map image is scrolled following the movement of the fingertip. 4 shows a display state when the fingertip touches the touch panel 12, and FIG. 5 shows a display state after the fingertip is slid on the touch panel 12. In the process of step S106, when a partial image to be described later is displayed on the map image, this partial image is also scrolled in accordance with the movement of the user's fingertip.

続いて、CPU16は、ステップS102でカウントを開始したタイマの値が、0.5秒以上になったかを判断する(ステップS108)。タイマ値が0.5秒以上であれば、CPU16は、ステップS104で取得した座標を中心に含む部分画像(例えば、1cm×1cmに相当する画像)を画像メモリ32からコピーする(ステップS110)。そして、コピーされた部分画像を、ステップS104で取得した座標から所定の距離(例えば、1cm相当の距離)だけ離れた右上の位置に、地図画像に重畳させて表示する(ステップS112)。図6には、こうして、指先の右上に部分画像が表示された例を示している。本実施例では、図6のように部分画像が表示された状態で、タッチパネル12上で指先を滑らせると、上述したステップS106の処理によって、地図画像と部分画像とが指先の動きに追従して同時にスクロールする。図7には、図6に示した表示状態から地図画像と部分画像とが同時にスクロールした例を示した。このように、地図画像と部分画像とが指先の動きに追従して同時にスクロールすると、部分画像内の画像は、スクロールの前後で変動しない。   Subsequently, the CPU 16 determines whether or not the value of the timer that has started counting in step S102 has reached 0.5 seconds or more (step S108). If the timer value is 0.5 seconds or more, the CPU 16 copies a partial image (for example, an image corresponding to 1 cm × 1 cm) centered on the coordinates acquired in step S104 from the image memory 32 (step S110). Then, the copied partial image is displayed superimposed on the map image at the upper right position separated by a predetermined distance (for example, a distance equivalent to 1 cm) from the coordinates acquired in step S104 (step S112). FIG. 6 shows an example in which a partial image is displayed on the upper right of the fingertip in this way. In the present embodiment, when the fingertip is slid on the touch panel 12 in a state where the partial image is displayed as shown in FIG. 6, the map image and the partial image follow the movement of the fingertip by the process of step S106 described above. Scroll simultaneously. FIG. 7 shows an example in which the map image and the partial image are simultaneously scrolled from the display state shown in FIG. As described above, when the map image and the partial image are simultaneously scrolled following the movement of the fingertip, the images in the partial image do not fluctuate before and after scrolling.

上述したステップS110およびステップS112の処理では、画面上に固定的に表示された(つまり、スクロール表示がされない)メニューボタン等のユーザインタフェース上で指を0.5秒以上接触させた場合においても、そのユーザインタフェースが部分画像内に表示される。図8には、メニューボタンが部分画像内に表示された例を示した。但し、図8のように部分画像内にメニューボタンが表示された状態で、メニューボタンの上から指先を他の位置に滑らせると、当然ながら部分画像内からはメニューボタンが消去されることになる。加えて、本実施例では、メニューボタンがタッチパネル12を介してユーザによって押された場合には、そのボタンが凹む様子がアニメーションによって表示される。本実施例では、こうした本来のメニューボタンのアニメーション表示と同様に、部分画像内のメニューボタンについてもアニメーション表示される。このように、部分画像内のメニューボタンについても本来のメニューボタンと同様にアニメーション表示させれば、本当にボタンが押されているかを、部分画像内のボタンの表示状態によって容易に確認することが可能になる。このような効果は、ユーザインタフェースを表す画像が指先に隠れてしまうほど小さな場合に特に有効である。但し、本実施例では、他の位置からメニューボタンの上まで指先を滑らせて移動させた場合には、部分画像内にメニューボタンは表示するが、メニューボタンが操作されたとは扱わない。そのため、このような場合には、本来のメニューボタンおよび部分画像内のメニューボタン共に、アニメーション表示は行われないことになる。   In the processing of step S110 and step S112 described above, even when a finger is touched for 0.5 seconds or longer on a user interface such as a menu button that is fixedly displayed on the screen (that is, not scrolled), The user interface is displayed in the partial image. FIG. 8 shows an example in which the menu button is displayed in the partial image. However, when the menu button is displayed in the partial image as shown in FIG. 8, if the fingertip is slid to another position on the menu button, the menu button is naturally deleted from the partial image. Become. In addition, in this embodiment, when the menu button is pressed by the user via the touch panel 12, the state in which the button is depressed is displayed by animation. In the present embodiment, the menu button in the partial image is also displayed in an animated manner in the same way as the original animation display of the menu button. In this way, if the menu button in a partial image is animated as well as the original menu button, it can be easily confirmed by the display state of the button in the partial image whether the button is actually pressed. become. Such an effect is particularly effective when the image representing the user interface is small enough to be hidden behind the fingertip. However, in this embodiment, when the fingertip is slid from another position onto the menu button, the menu button is displayed in the partial image, but it is not handled that the menu button is operated. Therefore, in such a case, neither the original menu button nor the menu button in the partial image is displayed with animation.

ステップS112において部分画像を地図画像上に重畳表示すると、CPU16は、表示された部分画像が、液晶ディスプレイ14の表示領域の右端からはみ出るかを判断する(ステップS114)。右端からはみ出た場合には、部分画像の表示位置を水平方向において反転させ、左側に移動させる(ステップS116)。右端からはみ出ていなければ、ステップS116の処理はスキップする。図9には、部分画像の表示位置が左側に反転された例を示している。続いて、CPU16は、表示された部分画像が、液晶ディスプレイ14の表示領域の上端からはみ出るかを判断する(ステップS118)。上端からはみ出た場合には、部分画像の表示位置を垂直方向に反転させ、下側に移動させる(ステップS120)。上側からはみ出ていなければ、ステップS120の処理はスキップする。図10には、部分画像の表示位置が下側に反転された例を示している。上述したステップS114〜S120によれば、部分画像を、常に、液晶ディスプレイ14の表示領域内に表示することができる。なお、図10には、部分画像が左側に反転表示された後に、更に、下側に反転表示された例を示している。そのため指先の左下に部分画像が表示されている。これに対して、部分画像が右側に表示されている時に、部分画像が上端からはみ出れば、部分画像の表示位置は指先の右下となる。   When the partial image is superimposed and displayed on the map image in step S112, the CPU 16 determines whether or not the displayed partial image protrudes from the right end of the display area of the liquid crystal display 14 (step S114). When it protrudes from the right end, the display position of the partial image is reversed in the horizontal direction and moved to the left side (step S116). If it does not protrude from the right end, the process of step S116 is skipped. FIG. 9 shows an example in which the display position of the partial image is reversed to the left side. Subsequently, the CPU 16 determines whether or not the displayed partial image protrudes from the upper end of the display area of the liquid crystal display 14 (step S118). When it protrudes from the upper end, the display position of the partial image is reversed in the vertical direction and moved downward (step S120). If it does not protrude from the upper side, the process of step S120 is skipped. FIG. 10 shows an example in which the display position of the partial image is inverted downward. According to steps S114 to S120 described above, the partial image can always be displayed in the display area of the liquid crystal display 14. FIG. 10 shows an example in which the partial image is displayed in reverse on the left side and further displayed in reverse on the lower side. Therefore, a partial image is displayed at the lower left of the fingertip. On the other hand, when the partial image is displayed on the right side and the partial image protrudes from the upper end, the display position of the partial image is the lower right of the fingertip.

ところで、上記ステップS100において、タッチパネル12にユーザの指先が接触したことが検出されない場合には、CPU16は、部分画像が既に表示されているかを判断する(ステップS122)。部分画像が既に表示されていれば、CPU16は、部分画像を消去し(ステップS124)、タイマをリセットする(ステップS126)。部分画像が表示されていなければ、これらの処理(ステップS124,S126)はスキップする。上述したステップS122〜S126の処理によれば、指先がタッチパネル12から離れた場合に、既に表示されている部分画像を画面上から消去することができる。   By the way, when it is not detected in step S100 that the user's fingertip touches the touch panel 12, the CPU 16 determines whether the partial image has already been displayed (step S122). If the partial image is already displayed, the CPU 16 deletes the partial image (step S124) and resets the timer (step S126). If the partial image is not displayed, these processes (steps S124 and S126) are skipped. According to the processing in steps S122 to S126 described above, when the fingertip is separated from the touch panel 12, the already displayed partial image can be erased from the screen.

なお、上述した部分画像表示処理ルーチンの実行中に、姿勢検出回路30によって、画像処理装置10の姿勢が変化させられたことを検出した場合には、CPU16は、表示制御回路34を制御して、画面全体の表示方向を切り換える。そのため、ユーザが、画像処理装置10を持つ方向を、垂直方向から水平方向に切り換えれば、図11に示すように、地図画像や部分画像、メニューボタン等の表示方向がすべて90°だけ変化することになる。   When the posture detection circuit 30 detects that the posture of the image processing apparatus 10 has been changed during the execution of the partial image display processing routine described above, the CPU 16 controls the display control circuit 34. Switch the display direction of the entire screen. Therefore, if the user switches the direction in which the image processing apparatus 10 is held from the vertical direction to the horizontal direction, the display directions of map images, partial images, menu buttons, etc. all change by 90 ° as shown in FIG. It will be.

以上で説明した本実施例の画像処理装置10であれば、タッチパネル12の操作によって、ユーザの指先の下に画像が隠れてしまった場合であっても、その指先の下の画像を他の位置に部分画像として表示させることが可能になる。そのため、指先の下に表示されている画像の視認性を向上させることが可能になる。   In the case of the image processing apparatus 10 according to the present embodiment described above, even if the image is hidden under the fingertip of the user by the operation of the touch panel 12, the image under the fingertip is moved to another position. Can be displayed as a partial image. Therefore, the visibility of the image displayed under the fingertip can be improved.

また、本実施例では、地図画像等の画像だけではなく、メニューボタンなど、指先の下に隠れている他のオブジェクトについても他の位置に部分画像として表示する。そのため、地図画像などの画像に限らず、ユーザインタフェースも含めて、指先の下に表示されているすべての画像の視認性を向上させることができる。更に、本実施例では、メニューボタンが押されてアニメーション表示された場合に、部分画像内に表示されたメニューボタンもアニメーション表示される。そのため、ユーザインタフェースが確実に操作されたかを容易に確認することが可能になる。   In this embodiment, not only an image such as a map image but also other objects hidden under the fingertip, such as menu buttons, are displayed as partial images at other positions. Therefore, not only an image such as a map image, but also the visibility of all images displayed under the fingertips including the user interface can be improved. Further, in this embodiment, when the menu button is pressed and displayed as an animation, the menu button displayed in the partial image is also displayed as an animation. Therefore, it is possible to easily confirm whether the user interface has been reliably operated.

加えて、本実施例では、部分画像の表示中であっても、指先がタッチパネル12上を移動すると、その移動に追従して、地図画像と部分画像とがスクロール表示される。つまり、部分画像を表示させたまま地図画像と部分画像との両者をスクロールさせることができる。この結果、指先の下に隠れた画像と、画面外に表示される画像との対比を容易に行うことが可能になる。また、このスクロール表示の結果、部分画像が画面の端部からはみ出る状況になった場合でも、本実施例では、その端部の反対側、つまり、表示領域内に、部分画像の表示位置を変更する。そのため、部分画像自体が、画面の端からはみ出て見えなくなってしまうことがない。更に、本実施例では、部分画像の表示が開始される0.5秒の時間のカウント中にも、地図画像のスクロールを行うことができる。そのため、スクロール表示を行うための操作と、部分画像を表示させるための操作とを一体の動作で行うことが可能となるため、ユーザの利便性を向上させることが可能になる。   In addition, in this embodiment, even when the partial image is being displayed, when the fingertip moves on the touch panel 12, the map image and the partial image are scroll-displayed following the movement. That is, it is possible to scroll both the map image and the partial image while displaying the partial image. As a result, it is possible to easily compare the image hidden under the fingertip with the image displayed outside the screen. In addition, even when the partial image protrudes from the edge of the screen as a result of the scroll display, in this embodiment, the display position of the partial image is changed on the opposite side of the edge, that is, in the display area. To do. For this reason, the partial image itself does not protrude from the edge of the screen and become invisible. Further, in this embodiment, the map image can be scrolled even during the counting of the time of 0.5 seconds when the display of the partial image is started. Therefore, the operation for performing the scroll display and the operation for displaying the partial image can be performed as an integrated operation, so that the convenience for the user can be improved.

また、上述したように、本実施例では、ユーザがタッチパネル12に指を接触させてから、所定時間後に、指先の下の画像を部分画像として他の位置に表示する。そのため、タッチパネル12が操作される度に、部分画像を表示する必要がない。この結果、CPU16の処理負担が軽減するので、画像処理装置10の消費電力を節減することが可能になる。   In addition, as described above, in this embodiment, after the user touches the touch panel 12 with a finger, the image under the fingertip is displayed as a partial image at another position after a predetermined time. Therefore, it is not necessary to display a partial image every time the touch panel 12 is operated. As a result, the processing load on the CPU 16 is reduced, so that the power consumption of the image processing apparatus 10 can be reduced.

C.変形例:
以上、本発明の一実施例について説明したが、本発明はこのような実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。例えば、ソフトウェアによって実現した機能は、ハードウェアによって実現するものとしてもよい。そのほか、以下のような変形が可能である。
C. Variation:
As mentioned above, although one Example of this invention was described, it cannot be overemphasized that this invention is not limited to such an Example, but can take a various structure in the range which does not deviate from the meaning. For example, a function realized by software may be realized by hardware. In addition, the following modifications are possible.

上記実施例は、タッチパネル12から取得される座標が1点であることを前提として説明した。つまり、上記実施例では、指1本でタッチパネル12が操作されることを想定している。しかし、タッチパネル12は、複数の座標、例えば、2点の座標を取得可能としてもよい。このとき、例えば、2点の座標のうち、先に取得された座標に基づいて、部分画像を表示することとしてもよい。また、取得された2点の座標が右上がりの関係となれば、右手によって操作していると判断し、図12に示すように、左上に部分画像を表示させてもよい。また、逆に、取得された2点の座標が右下がりの関係となれば、左手によって操作していると判断し、図13に示すように、右上に部分画像を表示させてもよい。このように、操作している手が左手か右手かに応じて部分画像の表示位置を切り換えることとすれば、2本の指の中に部分画像が隠れてしまうことを抑制することが可能になる。また、2点の座標を取得可能な場合において、例えば、最初に取得された座標を中心とし、次に取得された座標に追従させて地図画像を回転表示させることとしてもよい。この場合、例えば、最初に取得された座標、すなわち、円の中心の画像を部分画像として他の位置に表示させることが可能である。こうすることで、どの位置を中心として画像を回転させているかを容易に確認することが可能になる。   The above embodiment has been described on the assumption that the coordinate acquired from the touch panel 12 is one point. That is, in the above embodiment, it is assumed that the touch panel 12 is operated with one finger. However, the touch panel 12 may be able to acquire a plurality of coordinates, for example, two coordinates. At this time, for example, the partial image may be displayed based on the previously acquired coordinates among the coordinates of the two points. If the acquired coordinates of the two points are in a right-up relationship, it is determined that the operation is performed with the right hand, and a partial image may be displayed on the upper left as shown in FIG. Conversely, if the acquired coordinates of the two points are in a right-down relationship, it may be determined that the left hand is operating and a partial image may be displayed on the upper right as shown in FIG. In this way, if the display position of the partial image is switched according to whether the operating hand is the left hand or the right hand, it is possible to suppress the partial image from being hidden between the two fingers. Become. Further, in the case where the coordinates of two points can be acquired, for example, the map image may be rotated and displayed with the first acquired coordinate as the center and following the acquired coordinate. In this case, for example, the first acquired coordinate, that is, the image of the center of the circle can be displayed as a partial image at another position. In this way, it is possible to easily confirm which position is used as the center for rotating the image.

上記実施例では、画像処理装置10の姿勢が垂直方向から水平方向(あるいはその逆)に変化した場合に、地図画像や部分画像の表示方向を90°回転している。これに対して、画像処理装置10は、液晶ディスプレイ14(およびタッチパネル12)のみが回転可能な機構を備えていてもよい。この場合には、加速度センサではなく、液晶ディスプレイ14が回転されたことを検出するための機械的あるいは光学的なスイッチを本体部分に設けておくことで、液晶ディスプレイ14が回転したかどうかを判断することができる。   In the above embodiment, when the posture of the image processing apparatus 10 changes from the vertical direction to the horizontal direction (or vice versa), the display direction of the map image or the partial image is rotated by 90 °. On the other hand, the image processing apparatus 10 may include a mechanism that allows only the liquid crystal display 14 (and the touch panel 12) to rotate. In this case, it is determined whether or not the liquid crystal display 14 is rotated by providing a mechanical or optical switch for detecting that the liquid crystal display 14 is rotated instead of the acceleration sensor in the main body portion. can do.

上記実施例では、指先の下に隠れている画像を複製して、部分画像として他の位置に表示している。つまり、部分画像内の画像は、指先の下に隠れている画像と等倍率の画像である。これに対して、部分画像として、指先の下に隠れた画像を拡大して表示することも可能である。このように、指先の下の画像を拡大して表示すれば、指先の下の画像の細部を容易に確認することが可能になる。また、逆に、指先の下の画像とその周囲を含む画像を縮小して部分画像として表示することも可能である。このように、指先の下の画像やその周囲を含む画像を縮小して表示すれば、指先の下の画像の位置が、地図画像の中のどの位置に該当するかを容易に確認することが可能になる。   In the above embodiment, the image hidden under the fingertip is duplicated and displayed as a partial image at another position. That is, the image in the partial image is an image with the same magnification as the image hidden under the fingertip. On the other hand, an image hidden under the fingertip can be enlarged and displayed as a partial image. Thus, if the image under the fingertip is enlarged and displayed, the details of the image under the fingertip can be easily confirmed. Conversely, the image under the fingertip and the image including the periphery of the image can be reduced and displayed as a partial image. In this way, if the image under the fingertip and the image including the periphery thereof are reduced and displayed, it is possible to easily confirm which position in the map image the position of the image under the fingertip corresponds to. It becomes possible.

上記実施例では、画像処理装置10として携帯電話を適用している。しかし、画像処理装置10として適用可能な装置は携帯電話に限られない。例えば、PDAやPND(Personal Navigation Device)、ナビゲーションシステム、パーソナルコンピュータ、街頭端末など、表示装置とタッチパネルとを備える種々の装置を画像処理装置10として適用することが可能である。   In the above embodiment, a mobile phone is applied as the image processing apparatus 10. However, an apparatus applicable as the image processing apparatus 10 is not limited to a mobile phone. For example, various devices including a display device and a touch panel, such as a PDA, a PND (Personal Navigation Device), a navigation system, a personal computer, and a street terminal, can be applied as the image processing device 10.

上記実施例では、指先が画面内の通常の位置に触れられた場合には、指先の右上の位置に部分画像が表示される。しかし、通常時における部分画像の表示位置はこれに限られない。例えば、指先の左上や左下、右下、あるいは、上下左右のいずれかに表示してもよい。通常時にどの方向に表示されるかは、指先によって表示が妨げられないことを指標として適宜決定することができる。   In the above embodiment, when the fingertip touches the normal position in the screen, the partial image is displayed at the upper right position of the fingertip. However, the display position of the partial image in the normal time is not limited to this. For example, it may be displayed on the upper left, lower left, lower right, or up, down, left, or right of the fingertip. Which direction is normally displayed can be determined as an indicator that the display is not hindered by the fingertip.

上記実施例では、指先が画面に所定時間以上接触した場合に、部分画像を表示している。これに対して、指先が画面に接触された状態で、所定の図形形状を示すジェスチャが指先によって行われたことを検出した場合に部分画像を表示してもよい。   In the above embodiment, the partial image is displayed when the fingertip touches the screen for a predetermined time or more. On the other hand, a partial image may be displayed when it is detected that a gesture indicating a predetermined graphic shape is performed by the fingertip while the fingertip is in contact with the screen.

10…画像処理装置
12…タッチパネル
14…液晶ディスプレイ
16…CPU
18…RAM
20…ROM
22…GPS受信機
24…アンテナ
26…無線通信回路
28…操作ボタン
30…姿勢検出回路
32…画像メモリ
34…表示制御回路
36…地図画像表示部
38…部分画像表示部
DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus 12 ... Touch panel 14 ... Liquid crystal display 16 ... CPU
18 ... RAM
20 ... ROM
DESCRIPTION OF SYMBOLS 22 ... GPS receiver 24 ... Antenna 26 ... Wireless communication circuit 28 ... Operation button 30 ... Attitude detection circuit 32 ... Image memory 34 ... Display control circuit 36 ... Map image display part 38 ... Partial image display part

Claims (3)

表示装置を備えた画像処理装置であって、
前記表示装置が有する所定の表示領域に第1の画像を表示する第1表示部と、
前記表示領域に対する所定の図形形状を示すジェスチャの入力と、前記表示領域内において指定された第1の位置と第2の位置と、を検出する位置検出部と、
前記位置検出部によって前記ジェスチャが入力されたことが検出された場合に、前記第1の画像から、前記位置検出部によって検出された第1の位置を含む所定範囲内の第2の画像を複製し、該第2の画像を、前記第1の画像上に重畳させて、前記検出された第1の位置から離れた所定の位置であって前記第1の位置と前記第2の位置との位置関係に応じた位置に表示し、前記第2の画像を前記所定の位置に表示しつつ、前記第1の位置を中心として前記第2の位置に追従させて前記第1の画像を回転表示させる第2表示部と
を備え
前記第1の位置と前記第2の位置との位置関係に応じた位置とは、
前記第1の位置と前記第2の位置とが右上がりの関係にある場合には、前記検出された第1の位置に対して左上の位置であり、
前記第1の位置と前記第2の位置とが右下がりの関係にある場合には、前記検出された第1の位置に対して右上の位置である、
画像処理装置。
An image processing apparatus provided with a display device,
A first display unit that displays a first image in a predetermined display area of the display device;
A position detector that detects an input of a gesture indicating a predetermined graphic shape for the display area, and a first position and a second position specified in the display area;
When it is detected that the gesture is input by the position detection unit, a second image within a predetermined range including the first position detected by the position detection unit is copied from the first image. Then, the second image is superimposed on the first image, and is a predetermined position away from the detected first position, and the first position and the second position Displaying the first image at a position corresponding to the positional relationship, rotating the first image by following the second position with the first position as a center while displaying the second image at the predetermined position. and a second display portion which,
The position according to the positional relationship between the first position and the second position is:
When the first position and the second position are in a right-up relationship, the upper left position with respect to the detected first position;
When the first position and the second position are in a downward-sloping relationship, the position is an upper right position with respect to the detected first position.
Image processing device.
表示装置を備えた画像処理装置による画像表示方法であって、
前記表示装置が有する所定の表示領域に第1の画像を表示し、
前記表示領域に対して所定の図形形状を示すジェスチャが入力されたことを検出し、
前記ジェスチャが入力されたことが検出された場合に、
前記表示領域内において指定された第1の位置と第2の位置とを検出し、
前記第1の画像から、前記検出された第1の位置を含む所定範囲内の第2の画像を複製し、該第2の画像を、前記第1の画像上に重畳させて、前記検出された第1の位置から離れた所定の位置であって前記第1の位置と前記第2の位置との位置関係に応じた位置に表示し、前記第2の画像を前記所定の位置に表示しつつ、前記第1の位置を中心として前記第2の位置に追従させて前記第1の画像を回転表示させ
前記第1の位置と前記第2の位置との位置関係に応じた位置とは、
前記第1の位置と前記第2の位置とが右上がりの関係にある場合には、前記検出された第1の位置に対して左上の位置であり、
前記第1の位置と前記第2の位置とが右下がりの関係にある場合には、前記検出された第1の位置に対して右上の位置である、
画像表示方法。
An image display method by an image processing apparatus provided with a display device,
Displaying a first image in a predetermined display area of the display device;
Detecting that a gesture indicating a predetermined figure shape is input to the display area;
When it is detected that the gesture is input,
Detecting a first position and a second position designated in the display area;
A second image within a predetermined range including the detected first position is duplicated from the first image, and the second image is superimposed on the first image to be detected. Display at a predetermined position away from the first position and in accordance with a positional relationship between the first position and the second position, and display the second image at the predetermined position. While rotating the first image to follow the second position around the first position ,
The position according to the positional relationship between the first position and the second position is:
When the first position and the second position are in a right-up relationship, the upper left position with respect to the detected first position;
When the first position and the second position are in a downward-sloping relationship, the position is an upper right position with respect to the detected first position.
Image display method.
表示装置を備えたコンピュータが画像を表示するためのプログラムであって、
前記表示装置が有する所定の表示領域に第1の画像を表示する機能と、
前記表示領域に対する所定の図形形状を示すジェスチャの入力と、前記表示領域内において指定された第1の位置と第2の位置と、を検出する機能と、
前記ジェスチャが入力されたことが検出された場合に、前記第1の画像から、前記検出された第1の位置を含む所定範囲内の第2の画像を複製し、該第2の画像を、前記第1の画像上に重畳させて、前記検出された第1の位置から離れた所定の位置であって前記第1の位置と前記第2の位置との位置関係に応じた位置に表示し、前記第2の画像を前記所定の位置に表示しつつ、前記第1の位置を中心として前記第2の位置に追従させて前記第1の画像を回転表示させる機能と
をコンピュータに実現させ
前記第1の位置と前記第2の位置との位置関係に応じた位置とは、
前記第1の位置と前記第2の位置とが右上がりの関係にある場合には、前記検出された第1の位置に対して左上の位置であり、
前記第1の位置と前記第2の位置とが右下がりの関係にある場合には、前記検出された第1の位置に対して右上の位置である、
プログラム。
A program for displaying an image by a computer having a display device,
A function of displaying a first image in a predetermined display area of the display device;
A function for detecting an input of a gesture indicating a predetermined figure shape for the display area, and a first position and a second position designated in the display area;
When it is detected that the gesture is input, a second image within a predetermined range including the detected first position is duplicated from the first image, and the second image is It is superimposed on the first image and displayed at a predetermined position away from the detected first position and in accordance with the positional relationship between the first position and the second position. And causing the computer to display the second image at the predetermined position and to rotate and display the first image by following the second position around the first position ,
The position according to the positional relationship between the first position and the second position is:
When the first position and the second position are in a right-up relationship, the upper left position with respect to the detected first position;
When the first position and the second position are in a downward-sloping relationship, the position is an upper right position with respect to the detected first position.
program.
JP2012286403A 2012-12-28 2012-12-28 Image processing apparatus, image display method, and program Active JP5665838B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012286403A JP5665838B2 (en) 2012-12-28 2012-12-28 Image processing apparatus, image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012286403A JP5665838B2 (en) 2012-12-28 2012-12-28 Image processing apparatus, image display method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009022517A Division JP5174704B2 (en) 2009-02-03 2009-02-03 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2013093043A JP2013093043A (en) 2013-05-16
JP5665838B2 true JP5665838B2 (en) 2015-02-04

Family

ID=48616072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012286403A Active JP5665838B2 (en) 2012-12-28 2012-12-28 Image processing apparatus, image display method, and program

Country Status (1)

Country Link
JP (1) JP5665838B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109901765B (en) 2015-10-06 2022-06-21 佳能株式会社 Electronic device and control method thereof
JP6809258B2 (en) 2017-02-02 2021-01-06 コニカミノルタ株式会社 Image processing equipment, condition display method, and computer program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3389452B2 (en) * 1997-05-09 2003-03-24 株式会社ジャストシステム Window display control device, window display control method, and computer-readable recording medium storing a program for causing a computer to execute the method
JP2004152217A (en) * 2002-11-01 2004-05-27 Canon Electronics Inc Display device with touch panel
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP5210497B2 (en) * 2006-04-12 2013-06-12 クラリオン株式会社 Navigation device
JP2008250948A (en) * 2007-03-30 2008-10-16 Sharp Corp Information processing device, information processing method, information processing program, storage medium recording information processing program, and information display device
JP2008209915A (en) * 2008-01-29 2008-09-11 Fujitsu Ten Ltd Display device

Also Published As

Publication number Publication date
JP2013093043A (en) 2013-05-16

Similar Documents

Publication Publication Date Title
JP5174704B2 (en) Image processing apparatus and image processing method
US20190121539A1 (en) Electronic apparatus and display method
KR101892567B1 (en) Method and apparatus for moving contents on screen in terminal
EP2808781B1 (en) Method, storage medium, and electronic device for mirroring screen data
US9753607B2 (en) Electronic device, control method, and control program
KR102097496B1 (en) Foldable mobile device and method of controlling the same
US9438713B2 (en) Method and apparatus for operating electronic device with cover
US9013422B2 (en) Device, method, and storage medium storing program
JP5370259B2 (en) Portable electronic devices
CN104932809B (en) Apparatus and method for controlling display panel
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
US20120297339A1 (en) Electronic device, control method, and storage medium storing control program
KR20160028823A (en) Method and apparatus for executing function in electronic device
US20150212724A1 (en) Manipulation input device, manipulation input method, manipulation input program, and electronic apparatus
KR20140136356A (en) user terminal device and interaction method thereof
WO2013107382A1 (en) Electronic device
JP5854928B2 (en) Electronic device having touch detection function, program, and control method of electronic device having touch detection function
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
JP5665838B2 (en) Image processing apparatus, image display method, and program
JP5820414B2 (en) Information processing apparatus and information processing method
JP6183820B2 (en) Terminal and terminal control method
JP2010211323A (en) Input system, portable terminal, input/output device, input system control program, computer-readable recording medium and method for controlling input system
JP6169815B2 (en) Apparatus, method, and program
US20200033959A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method
KR20110066545A (en) Method and terminal for displaying of image using touchscreen

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141209

R150 Certificate of patent or registration of utility model

Ref document number: 5665838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250