WO2013161169A1 - 表示装置、表示制御方法及びプログラム - Google Patents

表示装置、表示制御方法及びプログラム Download PDF

Info

Publication number
WO2013161169A1
WO2013161169A1 PCT/JP2013/001798 JP2013001798W WO2013161169A1 WO 2013161169 A1 WO2013161169 A1 WO 2013161169A1 JP 2013001798 W JP2013001798 W JP 2013001798W WO 2013161169 A1 WO2013161169 A1 WO 2013161169A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
finger
enlarged
screen
proximity
Prior art date
Application number
PCT/JP2013/001798
Other languages
English (en)
French (fr)
Inventor
中尾 雅俊
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US14/394,782 priority Critical patent/US9772757B2/en
Publication of WO2013161169A1 publication Critical patent/WO2013161169A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present invention relates to a display device, a display control method, and a program that display data according to an input operation received via a touch panel.
  • a touch panel for example, smart phones
  • a display unit for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) display
  • content for example, a map
  • the mobile terminal displays a wide-area map by reducing the display magnification or details by increasing the display magnification in accordance with a user input operation.
  • a simple map for example, a local map around a specific point
  • Patent Document 1 a display device with improved operability of the touch panel is known (for example, see Patent Document 1).
  • the display device of Patent Literature 1 enlarges and displays the button touched by the finger, and confirms the selection of the enlarged portion after the finger leaves the screen. .
  • a non-contact type user input device having a touch panel that detects the proximity of the user's finger is known (see, for example, Patent Document 2).
  • the non-contact type user input device of Patent Document 2 includes a plurality of linear transmission electrodes, a transmitter that supplies an alternating current for transmission to each transmission electrode, and a plurality that is arranged so as not to contact each transmission electrode.
  • a capacitor is formed at each intersection of the transmission electrode and the reception electrode, and a capacitor is formed according to the proximity of the user's fingertip. Therefore, the capacitance of the capacitor changes according to the proximity of the fingertip.
  • the non-contact type user input device can recognize the distance between the touch panel and the finger based on the change in capacitance.
  • the conventional mobile terminal has the following problems. Specifically, when a user refers to a specific area around a content such as a map or performs an operation on the periphery of a specific area, if the conventional mobile terminal locally displays the area around the specific area, the user It is difficult to grasp a simple map. That is, it has been difficult to comprehend a map of a wide area and to refer to a local map around a specific point or to operate a specific point.
  • Patent Document 1 can enlarge and display a portion touched by a finger, but it is assumed that the content displayed on the screen is selectively switched in accordance with a user input operation. It is not considered.
  • Patent Document 2 describes that the proximity of a finger and a non-contact type user input device is detected, but it is assumed that the content displayed on the screen is selectively switched according to a user input operation. It is thought that it is not done.
  • the present invention has been made in view of the above-described conventional circumstances, and is a display that selectively switches the content displayed on the screen in accordance with a user input operation on the touch panel without performing a complicated operation.
  • An object is to provide a device, a display control method, and a program.
  • the present invention provides a display unit that displays an image on a screen, a proximity detection unit that detects the proximity of a finger to the screen, and the image displayed on the screen according to the detected proximity of the finger.
  • An image generation unit that generates an enlarged image enlarged by the enlarged display magnification of the image, and a local enlarged image of a part of the generated enlarged image at a position of the screen in the vertically downward direction of the finger where the proximity is detected
  • a display control unit that displays the image on the image.
  • the present invention is a display control method in a display device, the step of displaying an image on a screen, the step of detecting the proximity of a finger to the screen, and according to the detected proximity of the finger, A step of generating an enlarged image in which the image displayed on the screen is enlarged at a predetermined enlarged display magnification; and the generated enlarged image at a position of the screen in a vertically downward direction of the finger where the proximity is detected. And displaying a part of the locally enlarged image on the image superimposed on the image.
  • the present invention provides a step of displaying an image on a screen as a display device, a step of detecting the proximity of a finger to the screen, and displaying on the screen according to the detected proximity of the finger.
  • Generating a magnified image obtained by enlarging the image that has been magnified by a predetermined magnified display magnification; and a part of the generated magnified image at a position of the screen in a vertically downward direction of the finger where the proximity is detected And a step of displaying a locally enlarged image of the image superimposed on the image.
  • the contents displayed on the screen can be selectively switched according to the user's input operation on the touch panel without performing a complicated operation.
  • the content displayed on the screen can be selectively switched in accordance with a user input operation on the touch panel without performing a complicated operation.
  • the block diagram which shows the hardware constitutions of the portable terminal in each embodiment Block diagram showing functional configuration of portable terminal
  • Explanatory drawing which shows the example in which the local enlarged image around the “target point” or the local enlarged image around “ ⁇ alternation” is displayed by the movement of the finger over the distance a or the distance a ′ in the prior art.
  • Explanatory drawing which shows the example in which the local expansion image around "target point” is displayed by movement of the finger over distance a 'in this embodiment.
  • the display device is an electronic device including a display unit that displays data on a screen, and is, for example, a mobile phone, a smartphone, a tablet terminal, a digital still camera, a PDA (personal digital assistant), or an electronic book terminal.
  • a portable terminal for example, smart phone
  • the portable terminal of each embodiment is not limited to each electronic device mentioned above.
  • the present invention can also be expressed as a display device as a device or a program for operating the display device as a computer. Furthermore, the present invention can also be expressed as a display control method including each operation (step) executed by the display device. That is, the present invention can be expressed in any category of an apparatus, a method, and a program.
  • the predetermined process is, for example, a process of executing contents related to the content currently displayed in the application.
  • the “button” may be a hyperlinked character string, that is, a news headline, or an image (for example, an icon or an icon for prompting the user to perform a selection operation). Keyboard software key) or a combination of a character string and an image.
  • the display device can accept selection of “news headline” corresponding to the button, for example, as an operation on the button, and display the details of the news corresponding to the selected button in response to the input operation of the user.
  • the “button” is determined according to the application running on the display device.
  • the “button” may be a location on the map indicating a specific point that the user wants to refer to or a specific point where the user wants to search for a route when the map is displayed as application content, for example.
  • the display device accepts, for example, a route search operation from the current location of the user to a specific point corresponding to the button as an input operation of a predetermined process in response to the user's input operation, and searches for and displays the corresponding route. be able to.
  • the two axes representing the horizontal plane on the touch panel are the x-axis and the y-axis
  • the vertical direction of the touch panel that is, the axis representing the vertical direction (height direction) from the touch panel is the z-axis.
  • “coordinates” are the position on the horizontal plane of the touch panel, that is, the coordinates (x, y) determined by the combination of the x coordinate and the y coordinate, the coordinates (x, y), the touch panel, the finger, And the coordinate (x, y, z) using the distance in the vertical direction (height direction) between them, that is, the height z of the finger from the touch panel.
  • the instruction medium for the touch panel will be described using the user's finger as an example, but is not limited to the finger, and a conductive stylus held by the user's hand may be used.
  • the instruction medium is not particularly limited as long as it is a medium that can detect proximity and touch to the touch panel according to the structure and detection method of the touch panel.
  • an operation of placing a finger on a position on a space separated from the surface of the touch panel is defined as a “hover operation”, and the position on the touch panel surface is determined from the position on the space that is deceived by the hover operation.
  • the operation of sliding substantially in parallel is defined as “hover slide operation”. Therefore, the operation in which the finger directly touches the surface of the touch panel is not “hover operation” but “touch operation”.
  • the distance (proximity distance) between the finger and the surface of the touch panel in the hover operation or the hover slide operation is inversely proportional to the capacitance detected by the touch panel, it corresponds to the capacitance range that can be detected by the touch panel.
  • a map is used as an example of content for easy understanding, and a display magnification (for example, 1) before being enlarged and displayed according to the application of the mobile terminal of each embodiment.
  • the image initially displayed by (multiple) is defined as “original image”.
  • FIG. 1 is a block diagram illustrating a hardware configuration of the mobile terminal 1 in each embodiment.
  • the portable terminal 1 includes a processor 11, a display unit 13, a touch panel driver 14, a touch panel 15, a power control unit 16, a communication control unit 17 connected to an antenna 17a, a ROM (Read Only Memory) 21, and a RAM (Random Access Memory) 22. And a storage unit 23.
  • the processor 11, the display unit 13, the touch panel driver 14, the power supply control unit 16, the communication control unit 17, the ROM 21, the RAM 22, and the storage unit 23 are connected to each other via a bus 19 so as to be able to input and output data.
  • the processor 11 is configured using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor), and performs overall control of the mobile terminal 1 and performs various other arithmetic processing or control. Process.
  • the processor 11 reads a program and data stored in the ROM 21 and performs various processes in each embodiment described later.
  • the ROM 21 stores an application 65 (see FIG. 2) installed in the mobile terminal 1, and a program and data for the processor 11 to execute the processing of each unit shown in FIG.
  • the ROM 21 stores a table 21a described later.
  • the RAM 22 operates as a work memory in the operation of the processor 11, the touch panel driver 14, or the communication control unit 17.
  • the storage unit 23 is configured using a hard disk or flash memory built in the mobile terminal 1 and stores data acquired or generated by the mobile terminal 1.
  • the application 65 is stored in the storage unit 23.
  • the storage unit 23 may be configured using, for example, an external storage medium (for example, a USB memory) connected via a USB (Universal Serial Bus) terminal instead of a hard disk or a flash memory.
  • an external storage medium for example, a USB memory
  • USB Universal Serial Bus
  • the display unit 13 is configured using, for example, an LCD or an organic EL (Electroluminescence) display, and displays data output from the processor 11 or the touch panel driver 14 on the screen.
  • LCD Organic EL
  • the touch panel driver 14 controls the operation of the touch panel 15 and monitors a user input operation on the touch panel 15. For example, when the touch panel 15 detects the touch by the touch operation of the user's finger 68 (see FIG. 3) or the proximity by the hover operation, the touch panel driver 14 is in contact coordinates (x, y) or proximity coordinates (x, y, z). And the information of the contact coordinates (x, y) or the proximity coordinates (x, y, z) is output to the processor 11, the RAM 22, or the storage unit 23.
  • the contact coordinates (x, y) are referred to as “touch coordinates (x, y)”.
  • the touch panel 15 is mounted on the screen 45 (see FIG. 3) of the display unit 13 and detects that the user's finger 68 performs a touch operation on the horizontal plane of the touch panel 15. Further, the touch panel 15 detects that the user's finger 68 is close to the touch panel 15 by a hover operation.
  • the touch panel 15 has a finger height z that is equal to or less than a predetermined value zth in a hover operation, or a finger
  • the proximity state of the finger 68 is detected when the electrostatic capacitance determined according to the height z of the finger is equal to or greater than a predetermined value.
  • the power supply control unit 16 is configured using a power supply source (for example, a battery) of the mobile terminal 1, and switches the power supply state of the mobile terminal 1 to an on state or an off state according to an input operation to the touch panel 15. When the power supply is on, the power supply control unit 16 supplies power from the power supply source to each unit shown in FIG. 1 so that the mobile terminal 1 can operate.
  • a power supply source for example, a battery
  • the communication control unit 17 is configured using a wireless communication circuit, transmits data as a processing result processed by the processor 11 via a transmission / reception antenna 17a, and further, a base station (not shown) or other communication Receives data sent from the terminal.
  • the mobile terminal 1 shown in FIG. 1 has a configuration necessary for the description of each embodiment, and further includes a voice control unit that controls call voice, a microphone that collects user's voice, and a call partner. And a speaker that outputs the audio data.
  • FIG. 2 is a block diagram illustrating a functional configuration of the mobile terminal 1.
  • a proximity detection unit 5 includes a proximity detection unit 5, a touch detection unit 10, a screen display unit 30, a memory 40, a proximity coordinate extraction unit 51, a touch coordinate extraction unit 52, a display layer switching determination unit 54, and an image position conversion unit. 56, an image button management unit 55, a display layer image generation unit 58, an application screen generation unit 59, an image composition unit 60, and an application 65.
  • the proximity detector 5 detects a state in which the finger 68 is close to the touch panel 15 by a hover operation.
  • the proximity detection unit 5 outputs a proximity notification indicating that the finger has approached the touch panel 15 to the proximity coordinate extraction unit 51.
  • the touch detection unit 10 detects an operation in which the finger 68 touches the touch panel 15 by a touch operation.
  • the touch detection unit 10 outputs a contact notification that the finger 68 has touched the touch panel 15 to the touch coordinate extraction unit 52.
  • the proximity detection unit 5 and the touch detection unit 10 can be configured using the touch panel 15, and in FIG. 2, the proximity detection unit 5 and the touch detection unit 10 are configured separately. You may comprise.
  • the screen display unit 30 corresponds to the display unit 13 shown in FIG. 1 and displays the composite image data output from the image composition unit 60 described later on the screen 45.
  • the synthesized image data is data obtained by synthesizing the data of the screen in the application 65 (hereinafter simply referred to as “application screen”) and the image data generated by the display layer image generating unit 58 by the image synthesizing unit 60.
  • the memory 40 corresponds to the RAM 22 or the storage unit 23 shown in FIG. 1 and is configured as at least an image button database 55a.
  • the image button database 55a includes, for example, screen data and image data used in the application 65, image data generated by the application 65, an enlarged image generated flag indicating that image data of an enlarged image has already been generated, not shown.
  • the image data received from the base station or other communication terminal, the coordinate information of the button used in the application 65, and the operation information of the application 65 assigned to the button are stored.
  • the memory 40 temporarily stores information on the proximity coordinates (x, y, z) extracted by the proximity coordinate extraction unit 51 or the touch coordinates (x, y) extracted by the touch coordinate extraction unit 52. May be. In FIG. 2, the arrows from the proximity coordinate extraction unit 51 and the touch coordinate extraction unit 52 to the memory 40 are omitted in order to avoid complication of the drawing.
  • the proximity coordinate extraction unit 51 calculates and extracts the proximity coordinates (x, y, z) of the finger 68 with respect to the touch panel 15 based on the proximity notification output from the proximity detection unit 5, and the proximity coordinates (x, y, The coordinates (x, y) indicating the position of the finger 68 on the touch panel 15 in the vertically downward direction of z) are set as a reference point 75 (see later).
  • the x component and the y component are coordinate values representing the position of the touch panel 15 on the horizontal plane, and the z component is a vertical distance between the finger 68 and the touch panel 15, That is, the coordinate value represents the height of the finger 68 with respect to the touch panel 15.
  • the proximity coordinate extraction unit 51 outputs each information of the extracted proximity coordinates (x, y, z) and the reference point (x, y) to the display layer switching determination unit 54 and the image position conversion unit 56, respectively.
  • the display layer switching determination unit 54 determines whether the image data of the enlarged image 46 (see FIG. 3) has already been generated. For example, the display layer switching determination unit 54 inquires of the image button management unit 55 whether or not the enlarged image generated flag indicating that the image data of the enlarged image 46 has already been generated is stored in the memory 40. Based on the inquiry result output from the management unit 55, it is determined whether or not the enlarged image 46 has already been generated.
  • the display layer switching determination unit 54 determines that the image data of the enlarged image 46 has not been generated based on the inquiry result from the image button management unit 55, the reference point output from the proximity coordinate extraction unit 51. Based on each information of 75 (x, y) and proximity coordinates (x, y, z), it is determined to generate image data of an enlarged image that is substantially centered on the reference point 75 in the image data of the original image.
  • the display layer switching determination unit 54 determines not to generate image data of an enlarged image that is substantially centered on the reference point 75 in the image data of the original image.
  • the predetermined threshold value zth is a threshold value for determining whether or not the proximity detection unit 5 can detect a state in which the finger 68 is close to the touch panel 15, and the display layer switching determination unit 54 further determines whether the original image has the original image. This is a threshold value for determining whether or not to generate image data of an enlarged image having the reference point 75 in the image data as the center.
  • the display layer switching determination unit 54 determines to generate the image data of the enlarged image
  • the display layer switching determination unit 54 generates information on the enlarged display magnification set in advance and the image data of the enlarged image in the operation of the display layer switching determination unit 54.
  • the information on the enlarged display magnification is one.
  • the information is not limited to one, and a plurality of pieces of information on the enlarged display magnification are provided according to the value of the height z of the finger 68 with respect to the touch panel 15. (For details, refer to the second embodiment).
  • the image button management unit 55 reads and writes information indicating the display coordinates on the screen 45 of each button constituting the application screen used in the application 65 from the memory 40.
  • the image position conversion unit 56 determines which position of the fingertip, that is, the position on the touch panel 15 in the vertical direction of the finger 68 is the original image. Determine if it is a position. Note that the position specified by the image position conversion unit 56 is not a position specified depending on the physical size of the display unit 13 of the original image, for example, a position on the touch panel 15 in the vertically downward direction of the finger 68.
  • the position specified by the logical coordinate information of the image data of the original image for example, the position specified by the longitude and latitude of the original image when the content is a map.
  • the image position conversion unit 56 includes information on the enlarged display magnification and the enlarged image generation instruction output from the display layer switching determination unit 54, and the original image corresponding to the reference point (x, y) output from the proximity coordinate extraction unit 51. Is output to the display layer image generation unit 58.
  • the image position conversion unit 56 continuously outputs enlarged image generation instructions to the display layer image generation unit 58 at predetermined short intervals. For example, when the finger 68 moves approximately parallel to the horizontal surface of the touch panel 15 by a hover slide operation, the image position conversion unit 56 displays an enlarged image generation instruction for an enlarged image corresponding to the fingertip after the movement. 58.
  • the image position conversion unit 56 determines whether or not the button is defined for the touch coordinates (x, y) based on the information of the touch coordinates (x, y) output from the touch coordinate extraction unit 52.
  • the management unit 55 is inquired.
  • the image position conversion unit 56 determines whether or not a button is defined for the touch coordinates (x, y) based on the inquiry result output from the image button management unit 55.
  • the image position conversion unit 56 determines that the button is defined in the touch coordinates (x, y)
  • the selection that the button corresponding to the touch coordinates (x, y) is selected by the touch operation of the finger 68.
  • a notification is output to the application 65.
  • the display layer image generation unit 58 is based on the enlarged image generation instruction output from the image position conversion unit 56 and information on the specified position of the original image corresponding to the reference point (x, y), and the image button management unit 55.
  • the image data of the original image including the coordinates (x, y) of the reference point and the image data (for example, icon) of the button included in the image data of the original image are acquired from the memory 40.
  • the display layer image generation unit 58 uses the acquired original image image data and button image data to display information on the display range of the original image image data output from the application screen generation unit 59 and information on the enlarged display magnification.
  • the image data of the original image including the position of the reference point of the image data of the original image corresponding to the fingertip based on the enlarged image generation instruction and the information on the specified position of the original image corresponding to the reference point (x, y) Generates image data of an enlarged image enlarged by the enlargement display magnification.
  • the display layer image generation unit 58 performs partial enlargement corresponding to the predetermined range in the image data of the generated enlarged image based on the information of the predetermined range defined in advance in the operation of the display layer image generation unit 58. Cut out the image data of the image.
  • the display layer image generation unit 58 outputs image data of a part of the extracted enlarged image, that is, image data of a locally enlarged image in which the periphery of the specific point is locally enlarged, to the image synthesis unit 60.
  • the display layer image generation unit 58 continuously cuts out image data of the enlarged image. For example, when the finger 68 is moved by a hover slide operation, the image position conversion unit 56 calculates the distance (relative movement amount of the finger) between the reference point corresponding to the fingertip after movement and the reference point corresponding to the fingertip before movement. Based on the ratio of the display magnifications of the original image and the enlarged image, which will be described later, the position information in the finger movement direction according to the multiplication result of the ratio and the relative movement amount of the finger is displayed in the display layer image generation unit 58. Output. The display layer image generation unit 58 continues to cut out image data of an enlarged image within a predetermined range including a position corresponding to the information output from the image position conversion unit 56 (see FIG. 5).
  • the display layer image generation unit 58 displays the enlarged image data and the original image image data in a superimposed manner (see FIG. 4) as will be described later (see FIG. 4). Is moved substantially parallel to the enlarged image according to the ratio of the relative movement amount of the finger 68 and the display magnification ratio starting from the reference point 75 (see FIG. 4) of the image data of the enlarged image before the finger 68 is moved. Cut out the image data.
  • the application screen generation unit 59 uses the image data of the original image acquired from the memory 40 via the image button management unit 55 to generate screen data for the application screen in the application 65. Generate.
  • the application screen generation unit 59 outputs the generated screen data, that is, the information of the display range of the image data of the original image to the display layer image generation unit 58, and outputs the generated screen data to the image composition unit 60.
  • the application screen generation unit 59 and the application 65 are shown as separate configurations. However, the application 65 has the function of the application screen generation unit 59, so that the application screen generation unit 59 and the application 65 You may comprise as the application 65 which bundled.
  • the image composition unit 60 as a display control unit includes screen data of the screen 45 (see FIG. 4) output from the application screen generation unit 59 and a local enlarged image 46a (see FIG. 4) output from the display layer image generation unit 58. ) And the image data of the enlarged image.
  • the image synthesis unit 60 causes the screen display unit 30 to display the synthesized image data.
  • FIG. 3A is an explanatory diagram showing the concept of each layer of the original image and the enlarged image.
  • FIG. 3B is a diagram showing the relationship between the first layer 71 corresponding to the original image 47 and the finger 68.
  • FIG. 3C is a diagram showing the relationship between the second layer 72 corresponding to the enlarged image 46 and the finger 68.
  • two layers that is, the layer 71 of the image data of the original image 47 is set as the first layer 71, and the image data of the original image 47 is enlarged by the enlargement display magnification as the second layer.
  • a layer 72 of image data of the image 46 is set.
  • the image data set for each layer is stored in the storage unit 23 (memory 40).
  • image data of the original image of the original image 47 (for example, a map image) is set.
  • the display layer switching determination unit 54 sets a reference point 75 in the image data of the original image 47. That is, the display layer switching determination unit 54 determines the position on the touch panel 15 when the proximity of the finger 68 to the touch panel 15 is detected (the black circle portion around “XX station” in the original image 47 in FIG. 3). Initially set as a reference point 75 in the layer 71.
  • FIG. 3B when the original image is set in the first layer, the proximity state is not detected between the finger 68 and the touch panel 15.
  • FIG. 3C when an enlarged image is set in the second layer, a proximity state is detected between the finger 68 and the touch panel 15.
  • the display layer image generation unit 58 When the proximity of the finger 68 is detected, the display layer image generation unit 58 generates the image data of the enlarged image 46 with the reference point 75 as the center, and the enlarged image indicating that the image data of the enlarged image 46 has been generated. The generated flag is output to the display layer switching determination unit 54.
  • the display layer switching determination unit 54 sets the image data of the enlarged image 46 in the layer 72 based on the enlarged image generated flag output from the display layer image generating unit 58. In FIG. 2, the arrow between the display layer image generation unit 58 and the display layer switching determination unit 54 is omitted in order to avoid complication of the drawing.
  • the enlarged image 46 shown in FIG. 3 is an image obtained by enlarging the original image 47 about the reference point 75.
  • the image data of the original image 47 is displayed on the screen 45, and the image data of the enlarged image 46 corresponding to the range in which the user's finger 68 can move, that is, the size (physical size) of the screen 45 is displayed. Generated.
  • the display layer image generating unit 58 After generating the enlarged image 46, the display layer image generating unit 58 generates a part of the size of the screen 45 from the image data of the enlarged image 46 that matches the size (physical size) of the screen 45 of the display unit 13. The image data of the enlarged image of the enlarged image is cut out. Note that the display layer image generation unit 58 includes a part of the original data 47 in accordance with a predetermined range of information output from the image position conversion unit 56 with the reference point 75 as the center. You may generate the image data of the local enlarged image which expanded the image.
  • the mobile terminal 1 is displayed on the screen 45 of the display unit 13 within a window frame 48 (see FIG. 4) having a size corresponding to a predetermined range of information defined in advance in the operation of the display layer image generation unit 58.
  • a local enlarged image 46 a that is a part of the enlarged image 46 can be displayed so as to overlap the original image 47.
  • the mobile terminal 1 of the present embodiment displays a specific point on the map corresponding to the fingertip that is difficult for the user to visually recognize because the finger 68 is touching the touch panel 15. Since the finger 68 and the touch panel 15 are separated from each other by the hover operation, the user can explicitly recognize them.
  • FIG. 4 shows a locally enlarged image 46c around the “target point 46d” or a locally enlarged image around “before ⁇ alternation” by the movement of the finger 68 over the distance a of the vector A or the distance a ′ of the vector A ′ in the prior art. It is explanatory drawing which shows the example in which 46b is displayed.
  • FIG. 4 shows a locally enlarged image 46c around the “target point 46d” or a locally enlarged image around “before ⁇ alternation” by the movement of the finger 68 over the distance a of the vector A or the distance a ′ of the vector A ′ in the prior art.
  • FIG. 5 is an explanatory diagram illustrating an example in which the locally enlarged image 46c around the “target point 46d” is displayed by the movement of the finger 68 over the distance a ′ of the vector A ′ in the present embodiment.
  • a map is used as an example of content.
  • a local enlarged image 46 a that includes the fingertip that is, the position (reference point 75) of the touch panel 15 (screen 45) in the vertical downward direction of the finger 68 in the window frame 48.
  • the local enlarged image 46 a is displayed in the display area within the window frame 48 in the screen 45, and the original image 47 of the enlarged image 46 is displayed in the display area other than the window frame 48 in the screen 45.
  • the position of “XX station” is set as the reference point 75. Note that the size of the window frame 48 may be arbitrarily changed.
  • the user In a state in which the local enlarged image 46a around the position of “OO station” set as the reference point 75 is displayed in the window frame 48, the user displays a small size that is difficult to select with the display magnification of the original image 47.
  • the desired target point 46d is selected, and a local enlarged image 46c around the target point 46d is to be displayed in order to search for a route from “OO station” as the reference point 75 to the target point 46d.
  • the finger 68 moves while the local enlarged image 46a is displayed in the window frame 48, the content of the local enlarged image 46a displayed in the window frame 48 is switched in accordance with the moving direction of the finger 68. .
  • the content of the local enlarged image 46a displayed in the window frame 48 is displayed on the display of the image data of the original image 47 by the movement of the finger 68 in the upper left direction of FIG.
  • Switching is performed according to a magnification (for example, 1). That is, the content of the local enlarged image 46a displayed in the window frame 48 is not the display magnification of the image data of the enlarged image 46 when the finger 68 moves over the distance a in the upper left direction of the drawing in FIG. Since it is affected by the display magnification of the image data of the original image 47, a locally enlarged image 46c around the target point 46d that is a distance a away from the reference point 75 is displayed.
  • the content of the locally enlarged image 46a that is switched according to the movement of the finger 68 is affected by the display magnification of the image data of the original image 47. Therefore, for example, a position that is not so far away from the reference point 75 (for example, a target point). It may be difficult to move the finger 68 to 46d), that is, to finely adjust the moving distance of the finger 68. If the finger 68 can be moved appropriately by the distance a, the content of the local enlarged image 46a is displayed as the local enlarged image 46c around the target point 46d that is separated from the reference point 75 by the distance a.
  • the relative movement amount of the finger 68 from the reference point 75 that is, the reference point 75 and the finger
  • the content of the local enlarged image 46a displayed in the window frame 48 is the scale of the image data of the original image 47 (20,000 minutes).
  • the content of the locally enlarged image 46b of the place moved by the distance (600 m) according to the relative movement amount (3 cm) of the finger 68 that is, when the finger 68 moves over the distance a ′ in the upper left direction in FIG. 4, the area “before ⁇ alternation” is displayed as a locally enlarged image 46 b in the window frame 48 b.
  • the content of the local enlarged image 46 a displayed in the window frame 48 is the display of the image data of the original image 47.
  • Switching is performed according to the ratio between the magnification (for example, 1 time) and the display magnification (for example, 2 times) of the image data of the enlarged image 46 and the relative movement amount of the finger 68 from the reference point 75. Therefore, the periphery of the target point 46d (see the dotted circle 48d in FIG. 5) is displayed in the window frame 48e as the locally enlarged image 46e corresponding to the movement destination of the finger 68 (see FIG. 5).
  • the finger 68 selects the target point 46d by a touch operation.
  • the route search from the “station” to the target point 46d can be performed as a continuous operation (a series of operations).
  • the position of the button from the reference point 75 to the target point 46d is determined by the finger 68. It is assumed that the robot has moved to a position (distance a ′ from the reference point 75) that is approximately twice the distance (distance a from the reference point 75 (see FIG. 4)).
  • the mobile terminal 1 according to the present embodiment has a ratio (that is, 1 / 10,000) of the display magnification (for example, 1 / 20,000) of the image data of the original image 47 and the display magnification (for example, 1 / 10,000) of the image data of the enlarged image 46.
  • the content of (dotted circle 48d in FIG. 5) is displayed on the window frame 48e as a locally enlarged image 46e corresponding to the movement destination of the finger 68.
  • the reference point in the local enlarged image 46e enlarged and displayed by the movement of the finger 68 over the distance a ′ is the position after the movement of the finger 68 over the distance a ′, that is, the target point in the local enlarged image 46e (enlarged image 46).
  • the position is 46d.
  • the mobile terminal 1 performs local processing based on the ratio of the map scale (display magnification) of the original image 47 and the map scale (display magnification) of the enlarged image 46 and the relative movement amount of the finger 68. Since the enlarged image is switched, it is possible to easily switch the locally enlarged image desired by the user, and to easily finely adjust the movement of the locally enlarged image on the map using the finger 68.
  • FIG. 6 is a flowchart for explaining the operation procedure of the mobile terminal 1 according to the first embodiment.
  • the flowchart shown in FIG. 6 shows the case where the user's finger 68 comes close to the touch panel 15 or is touched when the image data of the original image 47 is displayed on the screen 45 of the display unit 13 of the mobile terminal 1.
  • An operation procedure of the terminal 1 is represented.
  • the image data of the original image 47 displayed on the screen 45 is set to the first layer (layer 71) by the display layer switching determination unit 54.
  • the proximity detector 5 detects whether or not the user's finger 68 has approached the touch panel 15 by a hover operation (S1).
  • the proximity detection unit 5 detects that the user's finger 68 is not close to the touch panel 15 by a hover operation (S1, NO)
  • the proximity coordinate extraction unit indicates that the finger 68 is not close to the touch panel 15 To 51.
  • the proximity coordinate extraction unit 51 outputs that the finger 68 is not close to the touch panel 15 to the display layer switching determination unit 54.
  • step S2 determines whether the image data of the enlarged image is generated based on the output from the proximity coordinate extraction unit 51, and determines that the image data of the enlarged image is generated In this case, the image data of the enlarged image is deleted from the memory 40 by the image button management unit 55. Thereby, the portable terminal 1 cancels the display of the image data of the enlarged image (S2).
  • the operation of the display layer switching determination unit 54 that determines whether image data of an enlarged image has been generated will be described in detail in step S5. Note that the operation in step S2 is omitted when the image data of the enlarged image is not generated.
  • the proximity detection unit 5 When the proximity detection unit 5 detects that the finger 68 has approached the touch panel 15 (S1, YES), the proximity detection unit 5 outputs a proximity notification that the finger 68 has approached the touch panel 15 to the proximity coordinate extraction unit 51.
  • the proximity coordinate extraction unit 51 calculates and extracts the proximity coordinates (x, y, z) of the finger 68 with respect to the touch panel 15 based on the proximity notification output from the proximity detection unit 5 (S3).
  • the proximity coordinate extraction unit 51 sets the coordinates (x, y) indicating the position on the touch panel 15 in the vertical downward direction of the finger 68 among the proximity coordinates (x, y, z) as the reference point 75 of the original image. (S3).
  • the proximity coordinate extraction unit 51 outputs each information of the extracted proximity coordinates (x, y, z) and the reference point (x, y) to the display layer switching determination unit 54 and the image position conversion unit 56, respectively.
  • the touch detection unit 10 detects whether or not the finger 68 has touched the touch panel 15 (S4).
  • the touch detection unit 10 has not detected the touch operation of the finger 68 on the touch panel 15 (S4, NO)
  • the operation of the mobile terminal 1 proceeds to step S5.
  • the display layer switching determination unit 54 determines whether or not the enlarged image 46 has already been generated (S5).
  • the display layer switching determination unit 54 inquires of the image button management unit 55, for example, whether or not the enlarged image generated flag is stored in the memory 40, and based on the inquiry result output from the image button management unit 55. Then, it is determined whether or not the enlarged image 46 has already been generated.
  • the display layer switching determination unit 54 determines that the enlarged image 46 is not generated (S5, NO), the reference point 75 (x, y) and the proximity coordinates (x, y) output from the proximity coordinate extraction unit 51 are displayed. , Z), it is determined to generate image data of an enlarged image that is substantially centered on the reference point 75 in the image data of the original image.
  • the display layer switching determination unit 54 determines to generate the image data of the enlarged image
  • the display layer switching determination unit 54 generates information on the enlarged display magnification set in advance and the image data of the enlarged image in the operation of the display layer switching determination unit 54. Are respectively output to the image position conversion unit 56.
  • the image position conversion unit 56 determines which position of the fingertip, that is, the position on the touch panel 15 in the vertical direction of the finger 68 is the original image. Determine if it is a position. Further, the image position conversion unit 56 corresponds to the enlarged display magnification information and the enlarged image generation instruction output from the display layer switching determination unit 54 and the reference point (x, y) output from the proximity coordinate extraction unit 51. Information on the specified position of the original image is output to the display layer image generation unit 58.
  • the display layer image generation unit 58 is based on the enlarged image generation instruction output from the image position conversion unit 56 and information on the specified position of the original image corresponding to the reference point (x, y), and the image button management unit 55.
  • the image data of the original image including the coordinates (x, y) of the reference point 75 and the button image data (for example, icon) included in the image data of the original image are acquired from the memory 40.
  • the display layer image generation unit 58 uses the acquired image data of the original image and button image data to display information on the display range of the image data of the original image output from the application screen generation unit 59, an enlarged image generation instruction, and Based on the information on the specified position of the original image corresponding to the reference point (x, y), the image data of the original image including the position of the reference point 75 of the image data of the original image corresponding to the fingertip is substantially enlarged. Image data of an enlarged image enlarged by the display magnification is generated (S6).
  • the display layer image generation unit 58 outputs the enlarged image generation completed flag to the display layer switching determination unit 54.
  • the display layer switching determination unit 54 sets the image data of the enlarged image 46 in the layer 72 based on the enlarged image generated flag output from the display layer image generating unit 58.
  • the display layer image generation unit 58 holds information on the reference point (x, y) of the image data of the generated enlarged image (S7). Furthermore, the display layer image generation unit 58 performs partial enlargement corresponding to the predetermined range in the image data of the generated enlarged image based on the information of the predetermined range defined in advance in the operation of the display layer image generation unit 58. Image data of the image (local enlarged image) is cut out (S8). The display layer image generation unit 58 outputs image data of a part of the extracted enlarged image, that is, image data of a locally enlarged image in which the periphery of the specific point is locally enlarged, to the image synthesis unit 60.
  • the image composition unit 60 synthesizes the screen data of the screen 45 output from the application screen generation unit 59 and the image data of the local enlarged image 46a (see FIG. 3) output from the display layer image generation unit 58 (S9). ).
  • the image synthesis unit 60 causes the screen display unit 30 to display the synthesized image data. Thereafter, the operation of the mobile terminal 1 returns to Step S1.
  • the display layer switching determining unit 54 determines in step S5 that the enlarged image 46 has already been generated (S5, YES), the reference point ((5) in the image data of the enlarged image 46 already generated in step S7).
  • the relative movement amount of the finger 68 determined by x, y) and the coordinates (x1, y1) indicating the position on the touch panel 15 in the vertical downward direction of the current finger 68 is calculated (S10).
  • the display layer switching determination unit 54 outputs the calculated relative movement amount of the finger 68 to the image position conversion unit 56.
  • the image position conversion unit 56 determines the distance between the reference point corresponding to the fingertip after movement and the reference point corresponding to the fingertip before movement (relative movement amount of the finger 68, see distance a ′ shown in FIG. 5), and the original image. Based on the ratio between the display magnifications of 47 and the enlarged image 46, the position information in the moving direction of the finger 68 according to the multiplication result of the ratio and the relative movement amount of the finger is output to the display layer image generating unit 58. .
  • the display layer image generation unit 58 cuts out image data of an enlarged image within a predetermined range including a position corresponding to the information output from the image position conversion unit 56 (S8).
  • the touch coordinate extraction unit 52 detects from the touch detection unit 10 that the touch operation has been detected.
  • the information of the touch coordinates (x, y) is output to the display layer switching determination unit 54.
  • the display layer switching determination unit 54 determines whether or not the enlarged image 46 has already been generated based on the information on the touch coordinates (x, y) output from the touch coordinate extraction unit 52 (S11). Since the determination method in step S11 is the same as that in step S5, the description of the specific determination method is omitted. In FIG. 2, in order to avoid complication of the drawing, an arrow between the touch coordinate extraction unit 52 and the display layer switching determination unit 54 is omitted.
  • the display layer switching determination unit 54 determines that the image data of the enlarged image 46 has not been generated (S11, NO)
  • the display layer switching determination unit 54 informs the image position conversion unit 56 that the image data of the enlarged image 46 has not been generated. Output.
  • the image position conversion unit 56 is based on the coordinate information of the image data of the original image 47. It is specified which position of the original image 47 the position of the touch coordinates (x, y) is (S12). After step S12, the operation of the mobile terminal 1 proceeds to step S13.
  • step S12 is performed when the display layer switching determination unit 54 determines that the enlarged image 46 is generated (S11, YES), and the touch coordinates (x, y) are the original image 47 and the enlarged image 46.
  • the image position conversion unit 56 determines that the image 45 is not within the range of the enlarged image 46 in the screen 45 displayed in a superimposed manner (S14, NO).
  • the image position conversion unit 56 determines that the touch coordinates (x, y) are within the range of the enlarged image 46 in the screen 45 on which the original image 47 and the enlarged image 46 are displayed in an overlapping manner ( (S14, YES), based on the coordinate information of the enlarged image 46, it is specified which position of the enlarged image the position of the touch coordinates (x, y) is (S15).
  • the coordinate information of the enlarged image 46 is coordinate information indicating the logical position of the original image corresponding to the logical position of the touched local enlarged image.
  • the image position conversion unit 56 inquires of the image button management unit 55 whether there is a button at the specified position on the screen 45.
  • the image position conversion unit 56 determines whether there is a button at the position specified on the screen 45 based on the inquiry result from the image button management unit 55 (S13). When it is determined that there is no button (S13, NO), the operation of the mobile terminal 1 returns to step S3.
  • the image position conversion unit 56 When it is determined that there is a button (S13, YES), the image position conversion unit 56 outputs to the application 65 that the button has been pressed by the touch operation in step S4. The application 65 determines the operation corresponding to the button (S16), and executes the determined operation (S17). Thereafter, the operation of the mobile terminal 1 shown in FIG. 6 ends.
  • step S1 After the approach of the finger 68 is once detected in step S1, if the finger 68 moves away from the touch panel 15 in the direction perpendicular to the touch panel 15 in the middle of the processing after step S2, the portable terminal 1 is not detected. Only the original image 47 may be displayed on the screen 45, and the process may return to step S1. Thereby, the portable terminal 1 can return easily to the screen display of only an original image, and can simplify user operation.
  • the mobile terminal 1 when the proximity of the finger 68 is detected, the mobile terminal 1 according to the first embodiment generates and generates an enlarged image that includes the reference point 75 of the original image displayed on the screen 45 as a substantial center.
  • the enlarged image a local enlarged image in a predetermined range with the reference point as a substantial center and the original image are superimposed on each other and displayed on the screen 45 of the display unit 13.
  • the mobile terminal 1 can efficiently perform operations on the details of the image displayed on the screen 45, can greatly improve the operability of the user, and without performing complicated operations.
  • the content (map image) displayed on the screen can be selectively switched in accordance with a user input operation on the touch panel.
  • the mobile terminal 1 displays the relative movement amount (distance) of the finger 68 by the hover slide operation of the finger 68 and each of the original image and the enlarged image. Based on the display magnification ratio, the contents of the local enlarged image are switched to a local enlarged image in a predetermined range including the position in the finger movement direction according to the multiplication result of the ratio and the relative movement amount of the finger.
  • the portable terminal 1 can fine-tune the content of a local enlarged image simply by the hover slide operation of the finger 68, and can improve the operativity for a user.
  • the portable terminal 1 displays the local enlarged image on the display unit 13, thereby simplifying the selection operation for the target point from the search for the target point (for example, the search operation for the route from the current location as the reference point to the target point). Operation (for example, a combination of a hover slide operation and a touch operation).
  • the enlarged display magnification is varied according to the proximity distance of the finger 68, that is, the value of the height z of the finger 68 with respect to the touch panel 15, and the locally enlarged image 46a enlarged by the changed enlarged display magnification. Will be described as being overlaid on the original image 47.
  • the portable terminal 1 of the second embodiment has the same configuration as the portable terminal 1 of the first embodiment, the portable terminal 1 of the second embodiment is the same as the portable terminal 1 of the first embodiment.
  • the description of the constituent elements will be omitted by using the same reference numerals, and different contents will be described.
  • FIG. 7 is an explanatory diagram showing a relationship between the height z value of the finger 68 and the enlarged images 46AA, 46BB, and 46CC corresponding to the height z value in the second embodiment.
  • the first enlarged image 46AA is set in the second layer 72A as the upper layer of the first layer 71 in which the original image 47 is set. Also in this embodiment, two layers are set as in the first embodiment.
  • the first enlarged image 46AA is set as the first layer 71.
  • the third enlarged image 46CC obtained by further enlarging the second enlarged image 46BB is set in the second layer 72C
  • the second enlarged image 46BB is set in the first layer 71.
  • the fourth and subsequent nth enlarged images obtained by further enlarging the third enlarged image 46CC are set as the second layer, and the (n ⁇ 1) th enlarged image becomes Set to the first layer 71.
  • FIG. 7 after the original image 47 is displayed on the screen 45 and the first layer 71 is set, when the proximity of the finger 68 to the touch panel 15 is detected at the height z 1 , the original image is displayed.
  • a first enlarged image 46AA in which 47 is enlarged by the first enlarged display magnification is generated and set in the second layer 72A.
  • the reference point 75 moves by moving substantially parallel to the touch panel 15 of the finger 68 as in the first embodiment (the first layer 72A). 2) (See the thick white arrow in the second layer 72A).
  • the finger 68 is further close at close to the position of height z 2 is the sensed on the touch panel 15.
  • the first enlarged image 46AA is set in the first layer 71
  • the second enlarged image 46BB in which the original image is enlarged by the second enlarged display magnification is generated and set in the second layer 72B.
  • the reference point 75 moves by moving substantially parallel to the touch panel 15 of the finger 68 as in the first embodiment (the thick outline of the second layer 72B). See arrow).
  • the finger 68 is further close at close to the position of height z 3 is the sensed on the touch panel 15 .
  • the second enlarged image 46BB is set in the first layer 71, and a third enlarged image 46CC in which the original image is enlarged by the third enlarged display magnification is generated and set in the second layer 72C.
  • FIG. 8 is an explanatory diagram showing the relationship between the enlarged image in the second embodiment and the background image displayed by superimposing each enlarged image.
  • the enlarged image shows a locally enlarged image 46 a displayed in the window frame 48 of the screen 45 of the display unit 13 of the mobile terminal 1
  • the background image is an image excluding the locally enlarged image 46 a displayed on the screen 45. is there.
  • the content of the local enlarged image that is a part of the first enlarged image 46AA is displayed as the enlarged image
  • the content of the original image 47 is displayed as the background image.
  • the content of the local enlarged image that is a part of the second enlarged image 46BB is displayed as an enlarged image
  • the content of the first enlarged image 46AA is displayed as a background image.
  • the content of the (n ⁇ 1) th enlarged image is displayed as the background image.
  • the original image 47 may always be displayed as the background image.
  • FIG. 9 is a diagram showing a specific example of the table 21a representing the relationship between the value of the height z of the finger 68 and the enlarged display magnification.
  • the enlargement display magnification of the local enlarged image 46a varies depending on the distance between the finger 68 and the touch panel 15, that is, the value of the height z of the finger 68.
  • the table 21 a is stored in the ROM 21, but the table 21 a may be stored in the storage unit 23.
  • the mobile terminal 1 displays the original image 47 over the entire screen 45 of the display unit 13.
  • the original image 47 that is, the original image 47 with an enlarged display magnification of 1 [times] is set as the first layer 71, and the second layer As 72A, the first enlarged image 46A, that is, the first enlarged image 46A having an enlarged display magnification of 5 [times] is set.
  • the first enlarged image 46A that is, the first enlarged image 46A having an enlarged display magnification of 5 [times].
  • the second enlarged image 46B that is, the second enlarged image 46B having an enlarged display magnification of 10 [times] is set as the second layer 72A.
  • the (n ⁇ 1) th enlarged image that is, the enlarged display magnification of 50 [times]
  • the (n-1) enlarged image is set, and the nth enlarged image, that is, the nth enlarged image with an enlarged display magnification of 100 [times] is set as the second layer 72A.
  • the display layer switching determination unit 54 refers to the table 21a shown in FIG. 9 and switches information on the enlarged display magnification of the image according to the information (value) of the height z of the finger 68 with respect to the touch panel 15.
  • the display layer switching determination unit 54 uses the concept of hysteresis so that the display magnification of the enlarged image is not frequently switched when the finger 68 is positioned around the boundary value of the height z shown in FIG.
  • the concept of hysteresis is not used, according to the table 21a, if the position of the finger 68 is 24 mm from the touch panel 15, for example, 10 times is used as the enlargement display magnification, but the position of the finger 68 is further 2 mm away to 26 mm. Then, 5 times is used as the enlargement display magnification.
  • FIG. 10 is a flowchart illustrating an operation procedure of the mobile terminal 1 according to the second embodiment.
  • description is abbreviate
  • the proximity detection unit 5 When the proximity detection unit 5 detects that the finger 68 has approached the touch panel 15 (S1, YES), the proximity detection unit 5 outputs a proximity notification that the finger 68 has approached the touch panel 15 to the proximity coordinate extraction unit 51.
  • the proximity coordinate extraction unit 51 calculates and extracts the proximity coordinates (x, y, z) of the finger 68 with respect to the touch panel 15 based on the proximity notification output from the proximity detection unit 5 (S3A).
  • the value of the z coordinate is the distance between the finger 68 and the touch panel 15, that is, the value of the height z of the finger 68 with respect to the touch panel 15 ( (See FIG. 9).
  • the proximity coordinate extraction unit 51 sets the coordinates (x, y) indicating the position on the touch panel 15 in the vertical downward direction of the finger 68 among the proximity coordinates (x, y, z) as the reference point 75 of the original image. (S3A).
  • the proximity coordinate extraction unit 51 outputs each information of the extracted proximity coordinates (x, y, z) and the reference point (x, y) to the display layer switching determination unit 54 and the image position conversion unit 56, respectively.
  • the touch detection unit 10 detects whether or not the finger 68 has touched the touch panel 15 (S4).
  • the touch detection unit 10 has not detected the touch operation of the finger 68 on the touch panel 15 (S4, NO)
  • the operation of the mobile terminal 1 proceeds to step S5A.
  • the display layer switching determination unit 54 refers to the table 21 a illustrated in FIG. 9 and switches the magnification display magnification of the image according to the information on the height z of the finger 68 with respect to the touch panel 15.
  • the display layer switching determination unit 54 determines whether or not an enlarged image enlarged by the switched enlargement display magnification is displayed on the screen 45 of the display unit 13 (S5A).
  • step S5A when it is determined that the enlarged image enlarged by the enlarged display magnification switched according to the value of the height z of the finger 68 with respect to the touch panel 15 is not displayed (S5A, NO), the first In the same manner as in the above embodiment, in step S6, an enlarged image enlarged by the switched enlarged display magnification is generated.
  • step S5A determines in step S5A that the enlarged image enlarged by the enlarged display magnification switched according to the value of the height z of the finger 68 with respect to the touch panel 15 is displayed.
  • S5A, YES the reference point (x, y) of the image data of the enlarged image 46 already generated in step S7 and the touch panel 15 in the vertical downward direction of the current finger 68.
  • the relative movement amount of the finger 68 determined by the coordinates (x1, y1) indicating the upper position is calculated (S10).
  • the display layer switching determination unit 54 outputs the calculated relative movement amount of the finger 68 to the image position conversion unit 56.
  • the image position conversion unit 56 determines the distance between the reference point corresponding to the fingertip after movement and the reference point corresponding to the fingertip before movement (relative movement amount of the finger 68, see distance a ′ shown in FIG. 5), and the original image. Based on the ratio between the display magnifications of 47 and the enlarged image 46, the position information in the moving direction of the finger 68 according to the multiplication result of the ratio and the relative movement amount of the finger is output to the display layer image generating unit 58. .
  • the display layer image generation unit 58 cuts out image data of an enlarged image within a predetermined range including a position corresponding to the information output from the image position conversion unit 56 (S8).
  • the subsequent processing is the same as the processing of the first embodiment shown in FIG.
  • the mobile terminal 1 selectively switches the enlarged display magnification of the enlarged image to be enlarged according to the value of the height z of the finger 68 with respect to the touch panel 15. Furthermore, the mobile terminal 1 uses the enlarged image enlarged by the changed enlarged display magnification as a local enlarged image, and the enlarged image enlarged by the next enlarged display magnification closest to the changed enlarged display magnification as a background image. As described above, the locally enlarged image and the background image are displayed on the screen of the display unit 13 in an overlapping manner.
  • the mobile terminal 1 can enlarge and display an image around a specific point corresponding to the fingertip.
  • the image is moved closer to the touch panel 15 while being moved substantially parallel to the touch panel 15, a further enlarged image can be displayed. Therefore, the mobile terminal 1 can easily display a desired specific point by finely adjusting the position of the image displayed by the user.
  • the mobile terminal 1 roughly adjusts the position of a desired specific point in a state where a large scale image (wide area display) is displayed, and the distance between the finger 68 and the touch panel 15 ( By changing the height 68 of the finger 68 with respect to the touch panel 15), it is possible to display the position of a desired specific point gradually while changing the enlarged display magnification little by little. Therefore, the mobile terminal 1 according to the present embodiment can smoothly display a specific point desired by the user without repeating the pinch operation and the slide operation many times as in the prior art.
  • the mobile terminal 1 displays a local enlarged image when a touch operation with a finger is performed on a specific portion (button) of the original image that is not the local enlarged image while the local enlarged image is displayed. You may make it perform the same operation
  • the map was displayed on the screen 45 of the portable terminal 1, and the case where the specific location was expanded and displayed locally was shown, it is applicable also when displaying the following screens. is there.
  • this is also effective when a text image is displayed on a horizontally long screen and the window frame of the locally enlarged image is moved to the position to be read. For example, it is also effective when a local part of a high-resolution image including a picture is confirmed or edited. It is also effective when displaying browser content on the screen 45. For example, it is also effective when efficiently searching for many thumbnail images visually classified by color.
  • the approach of the finger is once released, the original image is changed by the slide operation, and then the enlarged image is displayed again.
  • a display operation may be performed, or when the end of the screen is reached, the display of the locally enlarged image may be stopped and the initial state in which only the original image is displayed may be restored.
  • FIG. 11 is an explanatory diagram for explaining to which position of the original image the content of the local enlarged image displayed after the movement of the finger 68 corresponds when the hover slide operation is performed on the finger 68 after the local enlarged image 46a is displayed.
  • FIG. The position of the reference point 75 when the enlarged image 46 (see FIG. 3) that is the basis of the local enlarged image 46a shown in FIG. 11 is generated is a position around “XX station”.
  • the finger 68 is moved a predetermined distance along the direction of the arrow from the position of the reference point 75 by the hover slide operation.
  • the content of the local enlarged image 46a is based on the display magnification of the enlarged image and the relative movement amount of the finger 68 from the reference point 75 as described in the first embodiment. Can be switched.
  • the image position conversion unit 56 corresponds to the position of the original image 47 where the content of the local enlarged image 46 a corresponding to the movement of the finger 68 corresponds to the movement of the finger 68 along the direction of the arrow from the position of the reference point 75. Calculate. Further, the image position conversion unit 56 displays the calculated position in the original image 47, that is, the corresponding position of the local enlarged image 46a and the predetermined range OR including the corresponding position on the original image 47 so as to be identifiable on the image composition unit 60. (Refer to the predetermined range OR shown in FIG. 11).
  • the image position conversion unit 56 determines which position in the original image 47 the position of the reference point of the local enlarged image 46a after the movement of when the finger 68 is moved by the hover slide operation after the local enlarged image 46a is displayed. It is possible to make the user explicitly recognize whether or not.
  • illustration of the target point 46d (refer FIG. 5) is abbreviate
  • FIG. 12 is an explanatory diagram for explaining the contents of the locally enlarged image when the finger is removed from the screen 45 in the horizontal direction and when the finger is reentered the screen 45 from the horizontal direction.
  • the horizontal direction is a direction in which the finger 68 moves substantially in parallel with the touch panel 15 by a hover slide operation, and the finger 68 is vertically upward from the touch panel 15, that is, the direction in which the finger 68 moves away from the touch panel 15. is not.
  • the finger 68 moves from the position around “XX station” as the reference point 75 along the arrow in the figure (upper left direction in the figure) and deviates laterally from the range of the screen 45. .
  • the image position conversion unit 56 is a part of the window frame 48 in which the content of the local enlarged image 46a is displayed or The position of the original image 47 corresponding to the content of the local enlarged image 46a when all of the images deviate in the horizontal direction is calculated.
  • the calculated position is surrounded by a thick solid circle.
  • the image position conversion unit 56 enlarges the position of the original image 47 corresponding to the local enlarged image 46a when the finger 68 is removed from the range of the screen 45 in the horizontal direction by the enlarged display magnification. 46a is displayed so as to overlap the original image 47 at the position (x, y) in the vertically downward direction of the proximity coordinates (x, y, z) of the finger 68.
  • the present invention provides a display device, a display control method, and a display control method for selectively switching the content displayed on the screen in accordance with a user input operation on the touch panel without performing a complicated operation when displaying the content.
  • a display control method for selectively switching the content displayed on the screen in accordance with a user input operation on the touch panel without performing a complicated operation when displaying the content.

Abstract

 タッチパネル15に指68を近づけると、指68の鉛直下方向における位置に表示されている元画像が所定の拡大表示倍率によって拡大された拡大画像の一部となる局所拡大画像が元画像と重ねるようにして表示される。局所拡大画像における「○○駅」の位置が局所拡大画像の基準点75として設定される。「○○駅」周辺の局所拡大画像46aが元画像47に重なって表示された状態で、指68が「△△交番前」の位置までタッチパネル15に対して略平行に移動すると、基準点75を起点とした指68の相対移動量に応じて、窓枠48内の局所拡大画像46aの内容が切り替えられる。

Description

表示装置、表示制御方法及びプログラム
 本発明は、タッチパネルを介して受け付けた入力操作に応じて、データを表示する表示装置、表示制御方法及びプログラムに関する。
 近年、表示部(例えばLCD(Liquid Crystal Display)又は有機EL(Electroluminescence)ディスプレイ)の上部にタッチパネルが搭載された携帯端末(例えばスマートフォン)が普及している。表示部の画面にコンテンツ(例えば地図)を表示する場合、携帯端末は、ユーザの入力操作に応じて、表示倍率を小さくすることで広域な地図を表示し、又は表示倍率を大きくすることで詳細な地図(例えば特定地点周辺の局所的な地図)を表示する。
 この種の先行技術として、タッチパネルの操作性を向上させた表示装置が知られている(例えば特許文献1参照)。特許文献1の表示装置は、画面上に表示された小さなボタンを正確に選択させるために、指が接触したボタンを拡大表示し、指が画面から離れた後に拡大表示した箇所の選択を確定させる。
 また、ユーザの指の近接を検知するタッチパネルを有する非接触型ユーザ入力装置が知られている(例えば特許文献2参照)。特許文献2の非接触型ユーザ入力装置は、複数の線状の送信電極と、各送信電極に送信用の交流電流を供給する発信器と、各送信電極とは接触しないように配置された複数の線状の受信電極と、受信電極を流れる交流電流を受信する受信器とを含む。送信電極と受信電極との各交差点ではコンデンサが形成され、ユーザの指先の近接に応じてコンデンサが形成されるため、指先の近接程度に応じてコンデンサの静電容量が変化する。非接触型ユーザ入力装置は、静電容量の変化を基に、タッチパネルと指との距離を認識できる。
日本国特開2008-226282号公報 日本国特開2002-342033号公報
 しかし、従来の携帯端末には、次のような問題があった。具体的には、ユーザが地図のようなコンテンツの特定箇所周辺を参照し又は特定箇所周辺に対する操作を行う場合に、従来の携帯端末が地図の特定箇所周辺を局所的に表示すると、ユーザは広域な地図を把握することが難しい。即ち、広域な地図の把握と、特定地点周辺の局所的な地図の参照又は特定地点周辺に対する操作との両立が困難であった。
 また、従来の携帯端末では、特定地点周辺の細かい位置を確認するためには、ユーザは、地図の表示倍率の変更操作(例えばピンチ操作)を行う必要がある。このため、表示倍率の変更操作によって表示された地図上の位置がユーザの所望位置と異なっていた場合には、ユーザは表示倍率の再変更操作を繰り返す必要があり、操作が煩雑であった。
 特許文献1の表示装置は、指が接触した箇所を拡大して表示することはできるが、ユーザの入力操作に応じて、画面に表示されたコンテンツの内容を選択的に切り替えることは想定されていないと考えられる。
 特許文献2では指と非接触型ユーザ入力装置との近接を検知することは記載されているが、ユーザの入力操作に応じて、画面に表示されたコンテンツの内容を選択的に切り替えることは想定されていないと考えられる。
 本発明は、上述した従来の事情に鑑みてなされたものであり、煩雑な操作を行うことなく、タッチパネルに対するユーザの入力操作に応じて、画面に表示されたコンテンツの内容を選択的に切り替える表示装置、表示制御方法及びプログラムを提供することを目的とする。
 本発明は、画像を画面に表示する表示部と、前記画面に対する指の近接を検知する近接検知部と、前記検知された前記指の近接に応じて、前記画面に表示された前記画像が所定の拡大表示倍率により拡大された拡大画像を生成する画像生成部と、前記近接が検知された前記指の鉛直下方向における前記画面の位置に、前記生成された拡大画像の一部の局所拡大画像を前記画像の上に重ねて表示させる表示制御部と、を備える。
 また、本発明は、表示装置における表示制御方法であって、画像を画面に表示するステップと、前記画面に対する指の近接を検知するステップと、前記検知された前記指の近接に応じて、前記画面に表示された前記画像が所定の拡大表示倍率により拡大された拡大画像を生成するステップと、前記近接が検知された前記指の鉛直下方向における前記画面の位置に、前記生成された拡大画像の一部の局所拡大画像を前記画像の上に重ねて表示させるステップと、を有する。
 また、本発明は、表示装置としてのコンピュータに、画像を画面に表示するステップと、前記画面に対する指の近接を検知するステップと、前記検知された前記指の近接に応じて、前記画面に表示された前記画像が所定の拡大表示倍率により拡大された拡大画像を生成するステップと、前記近接が検知された前記指の鉛直下方向における前記画面の位置に、前記生成された拡大画像の一部の局所拡大画像を前記画像の上に重ねて表示させるステップと、を実現させるためのプログラムである。
 この構成によれば、煩雑な操作を行うことなく、タッチパネルに対するユーザの入力操作に応じて、画面に表示されたコンテンツの内容を選択的に切り替えることができる。
 本発明によれば、煩雑な操作を行うことなく、タッチパネルに対するユーザの入力操作に応じて、画面に表示されたコンテンツの内容を選択的に切り替えることができる。
各実施形態における携帯端末のハードウェア構成を示すブロック図 携帯端末の機能的構成を示すブロック図 (a)元画像と拡大画像との各レイヤの概念を示す説明図、(b)元画像に対応する第1のレイヤと指との関係を示す図、(c)拡大画像に対応する第2のレイヤと指との関係を示す図 従来技術において距離a又は距離a’にわたる指の移動によって、「目標地点」周辺の局所拡大画像又は「△△交番前」周辺の局所拡大画像が表示される例を示す説明図 本実施形態において距離a’にわたる指の移動によって、「目標地点」周辺の局所拡大画像が表示される例を示す説明図 第1の実施形態の携帯端末の動作手順を説明するフローチャート 第2の実施形態における指の高さzの値と高さzの値に対応する拡大画像との関係を示す説明図 第2の実施形態における拡大画像と、各々の拡大画像と重ねて表示される背景画像との関係を示す説明図 指の高さzの値と拡大表示倍率との関係を表すテーブルの具体例を示す図 第2の実施形態の携帯端末の動作手順を説明するフローチャート 局所拡大画像の表示後に指をホバースライド操作した場合に、指の移動後に表示された局所拡大画像の内容が元画像のどの位置に対応するかを説明するための説明図 指が画面から横方向に外れた場合と指が画面に横方向から再度進入した場合とにおける局所拡大画像の内容を説明するための説明図
 以下、本発明に係る表示装置、表示制御方法及びプログラムの各実施形態について、図面を参照して説明する。本実施形態の表示装置は、データを画面に表示する表示部を含む電子機器であり、例えば携帯電話機、スマートフォン、タブレット端末、デジタルスチルカメラ、PDA(personal digital assistant)又は電子書籍端末である。以下、各実施形態の表示装置の一例として携帯端末(例えばスマートフォン)を用いて説明するが、各実施形態の携帯端末は上述した各電子機器に限定されない。
 なお、本発明は、装置としての表示装置、又は表示装置をコンピュータとして動作させるためのプログラムとして表現することも可能である。更に、本発明は、表示装置により実行される各動作(ステップ)を含む表示制御方法として表現することも可能である。即ち、本発明は、装置、方法及びプログラムのうちいずれのカテゴリーにおいても表現可能である。
 また、以下の説明において、ユーザからのタッチ操作の受け付けが可能であって、表示装置の画面(例えばLCD又は有機ELディスプレイ)に表示されたアプリケーション毎のコンテンツの一部を選択可能とするための項目、又は選択によってコンテンツに対する所定の処理を起動可能とするための項目を「ボタン」と定義する。所定の処理は、例えばアプリケーションにおいて現在表示されているコンテンツに関連した内容を実行する処理である。
 「ボタン」は、アプリケーションのコンテンツとして、例えばニュースの見出しが表示されている場合、ハイパーリンクされた文字列、即ち、ニュースの見出しでも良いし、ユーザの選択操作を促すための画像(例えばアイコン又はキーボードのソフトウェアキー)でも良いし、又は、文字列と画像との組合せでも良い。表示装置は、ユーザの入力操作に応じて、ボタンに対する操作として、例えばボタンに対応する「ニュースの見出し」の選択を受け付け、選択されたボタンに対応するニュースの詳細を表示することができる。なお、「ボタン」は表示装置において起動しているアプリケーションに応じて定められる。
 また、「ボタン」は、アプリケーションのコンテンツとして、例えば地図が表示されている場合、ユーザが参照を希望する特定地点又は経路の探索を希望する特定地点を示す地図上の場所でも良い。表示装置は、ユーザの入力操作に応じて、ボタンに対する所定の処理の入力操作として、例えばユーザの現在地からボタンに対応する特定地点までの経路探索操作を受け付け、該当する経路を探索して表示することができる。
 また、タッチパネル上の水平面を表す2軸をx軸及びy軸とし、タッチパネルの鉛直方向、即ち、タッチパネルからの鉛直方向(高さ方向)を表す軸をz軸とする。更に、以下の説明において、「座標」は、タッチパネルの水平面上の位置、即ち、x座標及びy座標の組合せにより定まる座標(x、y)と、この座標(x、y)とタッチパネルと指との間の鉛直方向(高さ方向)における距離、即ち、タッチパネルからの指の高さzとを用いた座標(x、y、z)との両方を含むとする。
 なお、以下の説明において、タッチパネルへの指示媒体としては、一例としてユーザの指を用いて説明するが、指に限らず、ユーザの手により把持された導電性のスタイラスを用いても良い。また、指示媒体は、タッチパネルの構造及び検知方式に応じて、タッチパネルへの近接及びタッチが検出可能な媒体であれば特に限定されない。
 更に、以下の説明において、指をタッチパネルの面上から離間した空間上の位置に翳す操作を「ホバー操作」と定義し、ホバー操作によって翳された空間上の位置からタッチパネルの面に対して略平行にスライドする操作を、「ホバースライド操作」と定義する。従って、指がタッチパネルの面上に直接タッチする操作は「ホバー操作」ではなく、「タッチ操作」となる。また、ホバー操作又はホバースライド操作において指とタッチパネルの面上との距離(近接距離)は、タッチパネルが検出する静電容量に反比例するため、タッチパネルが検出可能な静電容量の範囲に対応する。
 更に、以下の説明において、説明を分かり易くするためにコンテンツの一例として地図を用いて説明し、各実施形態の携帯端末のアプリケーションに応じて拡大表示される前の基準となる表示倍率(例えば1倍)によって初期的に表示される画像を、「元画像」と定義する。
(第1の実施形態)
(各実施形態に共通する携帯端末のハードウェア構成)
 図1は、各実施形態における携帯端末1のハードウェア構成を示すブロック図である。携帯端末1は、プロセッサ11、表示部13、タッチパネルドライバ14、タッチパネル15、電源制御部16、アンテナ17aが接続された通信制御部17、ROM(Read Only Memory)21、RAM(Random Access Memory)22及び記憶部23を含む。
 プロセッサ11、表示部13、タッチパネルドライバ14、電源制御部16、通信制御部17、ROM21、RAM22及び記憶部23は、バス19を介して、相互にデータを入出力可能に接続されている。
 プロセッサ11は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成され、携帯端末1の総括的な制御を行い、その他の種々の演算処理又は制御処理を行う。プロセッサ11は、ROM21に格納されたプログラム及びデータを読み込み、後述の各実施形態における種々の処理を行う。
 ROM21は、携帯端末1にインストールされているアプリケーション65(図2参照)、並びに、プロセッサ11が図2に示す各部の処理を実行するためのプログラム及びデータを格納している。また、ROM21には、後述するテーブル21aが格納されている。
 RAM22は、プロセッサ11、タッチパネルドライバ14又は通信制御部17の動作におけるワークメモリとして動作する。
 記憶部23は、携帯端末1に内蔵されるハードディスク又はフラッシュメモリを用いて構成され、携帯端末1が取得したデータ又は生成したデータを格納する。なお、アプリケーション65は、記憶部23に格納される。記憶部23は、ハードディスク又はフラッシュメモリではなく、例えばUSB(Universal Serial Bus)端子を介して接続された外部記憶媒体(例えばUSBメモリ)を用いて構成されても良い。
 表示部13は、例えばLCD又は有機EL(Electroluminescence)ディスプレイを用いて構成され、プロセッサ11又はタッチパネルドライバ14から出力されたデータを画面に表示する。
 タッチパネルドライバ14は、タッチパネル15の動作を制御してタッチパネル15に対するユーザの入力操作を監視する。例えば、タッチパネルドライバ14は、タッチパネル15がユーザの指68(図3参照)のタッチ操作による接触又はホバー操作による近接を検知すると、接触座標(x、y)又は近接座標(x、y、z)を取得し、接触座標(x、y)又は近接座標(x、y、z)の情報をプロセッサ11、RAM22又は記憶部23に出力する。以下、接触座標(x、y)を「タッチ座標(x、y)」という。
 タッチパネル15は、表示部13の画面45(図3参照)の上に搭載され、ユーザの指68がタッチパネル15の水平面上をタッチ操作したことを検知する。また、タッチパネル15は、ユーザの指68がホバー操作によって指68がタッチパネル15に近接したことを検知する。
 なお、タッチパネル15の具体的構成は、例えば上述した特許文献2に詳細に開示されているため説明を省略するが、タッチパネル15は、ホバー操作における指の高さzが所定値zth以下、又は指の高さzに応じて定まる静電容量が所定値以上となる場合に、指68の近接状態を検知する。
 電源制御部16は、携帯端末1の電力供給源(例えばバッテリ)を用いて構成され、タッチパネル15への入力操作に応じて、携帯端末1の電源のオン状態又はオフ状態を切り替える。電源がオン状態の場合、電源制御部16は、電力供給源から図1に示す各部に電力を供給して携帯端末1を動作可能にさせる。
 通信制御部17は、無線通信回路を用いて構成され、送受信用のアンテナ17aを介して、プロセッサ11により処理された処理結果としてのデータを送信し、更に、不図示の基地局又は他の通信端末から送信されたデータを受信する。また、図1に示す携帯端末1は、各実施形態の説明に必要となる構成が図示され、更に、通話音声を制御する音声制御部と、ユーザの声を集音するマイクロフォンと、更に通話相手の音声データを出力するスピーカとを含んでも良い。
(携帯端末1の機能的構成)
 次に、各実施形態に共通する携帯端末1の機能的構成について、図2を参照して説明する。図2は、携帯端末1の機能的構成を示すブロック図である。
 図2に示す携帯端末1は、近接検知部5、タッチ検知部10、画面表示部30、メモリ40、近接座標抽出部51、タッチ座標抽出部52、表示レイヤ切替判定部54、画像位置変換部56、画像ボタン管理部55、表示レイヤ画像生成部58、アプリ画面生成部59、画像合成部60及びアプリケーション65を含む。
 近接検知部5は、ホバー操作によって指68がタッチパネル15に近接した状態を検知する。近接検知部5は、指がタッチパネル15に近接した旨の近接通知を近接座標抽出部51に出力する。
 タッチ検知部10は、タッチ操作によって指68がタッチパネル15にタッチした動作を検知する。タッチ検知部10は、指68がタッチパネル15にタッチした旨の接触通知をタッチ座標抽出部52に出力する。なお、近接検知部5とタッチ検知部10とはタッチパネル15を用いて構成可能であり、図2では近接検知部5とタッチ検知部10とは別々の構成としているが、両者をタッチパネル15として一纏めに構成しても良い。
 画面表示部30は、図1に示す表示部13に対応し、後述する画像合成部60から出力された合成画像データを画面45に表示する。合成画像データは、アプリケーション65における画面(以下、単に「アプリ画面」という)のデータと、表示レイヤ画像生成部58により生成された画像データとが画像合成部60によって合成されたデータである。
 メモリ40は、図1に示すRAM22又は記憶部23に対応し、少なくとも画像ボタンデータベース55aとして構成される。画像ボタンデータベース55aは、例えばアプリケーション65において用いられる画面のデータ及び画像データ、アプリケーション65によって生成された画像データ、拡大画像の画像データが既に生成されていることを示す拡大画像生成済みフラグ、不図示の基地局又は他の通信端末から受信された画像データ、並びにアプリケーション65において用いられるボタンの座標情報及びボタンに割り当てられたアプリケーション65の動作情報を格納する。
 なお、メモリ40には、近接座標抽出部51により抽出された近接座標(x、y、z)又はタッチ座標抽出部52により抽出されたタッチ座標(x、y)の各情報が一時的に格納されても良い。図2では、図面の複雑化を避けるために、近接座標抽出部51及びタッチ座標抽出部52からメモリ40への矢印の図示を省略している。
 近接座標抽出部51は、近接検知部5から出力された近接通知を基に、指68のタッチパネル15に対する近接座標(x、y、z)を算出して抽出し、近接座標(x、y、z)のうち指68の鉛直下方向におけるタッチパネル15上の位置を示す座標(x、y)を基準点75(後述参照)として設定する。近接座標(x、y、z)のうち、x成分及びy成分はタッチパネル15の水平面上における位置を表す座標値であって、z成分は指68とタッチパネル15との間の鉛直方向の距離、即ち、指68のタッチパネル15に対する高さを表す座標値である。近接座標抽出部51は、抽出された近接座標(x、y、z)及び基準点(x、y)の各情報を表示レイヤ切替判定部54及び画像位置変換部56にそれぞれ出力する。
 表示レイヤ切替判定部54は、拡大画像46(図3参照)の画像データが既に生成されているか否かを判定する。表示レイヤ切替判定部54は、例えば拡大画像46の画像データが既に生成されていることを示す拡大画像生成済みフラグがメモリ40に格納されているか否かを画像ボタン管理部55に問い合わせ、画像ボタン管理部55から出力された問い合わせ結果を基に、拡大画像46が既に生成されているか否かを判定する。
 表示レイヤ切替判定部54は、画像ボタン管理部55からの問い合わせ結果を基に、拡大画像46の画像データが既に生成されていないと判定した場合に、近接座標抽出部51から出力された基準点75(x、y)及び近接座標(x、y、z)の各情報を基に、元画像の画像データにおける基準点75を略中心とする拡大画像の画像データを生成すると判定する。
 表示レイヤ切替判定部54は、例えば高さzの値が所定の閾値zthを超えた場合には、元画像の画像データにおける基準点75を略中心とする拡大画像の画像データを生成しないと判定する。所定の閾値zthは、近接検知部5が指68がタッチパネル15に対して近接した状態を検知できるか否かを判定するための閾値であって、更に、表示レイヤ切替判定部54が元画像の画像データにおける基準点75を略中心とする拡大画像の画像データを生成するか否かを判定するための閾値である。
 表示レイヤ切替判定部54は、拡大画像の画像データを生成すると判定した場合には、表示レイヤ切替判定部54の動作において予め設定された拡大表示倍率の情報及び拡大画像の画像データを生成する旨の拡大画像生成指示を、画像位置変換部56及びアプリケーション65にそれぞれ出力する。なお、本実施形態では拡大表示倍率の情報は1つとするが、1つに限定されずに、指68のタッチパネル15に対する高さzの値に応じて、複数の拡大表示倍率の情報が設けられても良い(詳しくは第2の実施形態参照)。
 画像ボタン管理部55は、アプリケーション65において用いられるアプリ画面を構成する各々のボタンの画面45上における表示座標を示す情報を、メモリ40から読み出したり書き込んだりする。
 画像位置変換部56は、近接座標抽出部51から出力された基準点(x、y)の情報を基に、指先、即ち、指68の鉛直下方向におけるタッチパネル15上の位置が元画像のどの位置であるかを特定する。なお、画像位置変換部56により特定された位置は、元画像の表示部13における物理的な大きさに依存して特定される位置、例えば指68の鉛直下方向におけるタッチパネル15上の位置ではなく、元画像の画像データの論理的な座標情報により特定される位置、例えばコンテンツが地図である場合に元画像の経度及び緯度により特定される位置である。
 画像位置変換部56は、表示レイヤ切替判定部54から出力された拡大表示倍率の情報及び拡大画像生成指示、並びに近接座標抽出部51から出力された基準点(x、y)に対応する元画像の特定された位置の情報を表示レイヤ画像生成部58に出力する。
 画像位置変換部56は、拡大画像生成指示を、所定の短い間隔において連続的に表示レイヤ画像生成部58に出力する。例えば、画像位置変換部56は、指68がホバースライド操作によってタッチパネル15の水平面に対して略平行に移動した場合、移動後の指先に対応する拡大画像の拡大画像生成指示を表示レイヤ画像生成部58に出力する。
 また、画像位置変換部56は、タッチ座標抽出部52から出力されたタッチ座標(x、y)の情報を基に、タッチ座標(x、y)にボタンが規定されているか否かを画像ボタン管理部55に問い合わせる。画像位置変換部56は、画像ボタン管理部55から出力された問い合わせ結果を基に、タッチ座標(x、y)にボタンが規定されているか否かを判定する。画像位置変換部56は、タッチ座標(x、y)にボタンが規定されていると判定した場合、タッチ座標(x、y)に対応するボタンが指68のタッチ操作によって選択された旨の選択通知をアプリケーション65に出力する。
 表示レイヤ画像生成部58は、画像位置変換部56から出力された拡大画像生成指示及び基準点(x、y)に対応する元画像の特定された位置の情報を基に、画像ボタン管理部55を介して、基準点の座標(x、y)を含む元画像の画像データ及び元画像の画像データに含まれるボタンの画像データ(例えばアイコン)をメモリ40から取得する。表示レイヤ画像生成部58は、取得された元画像の画像データ及びボタンの画像データを用いて、アプリ画面生成部59から出力された元画像の画像データの表示範囲の情報、拡大表示倍率の情報、拡大画像生成指示及び基準点(x、y)に対応する元画像の特定された位置の情報を基に、指先に対応する元画像の画像データの基準点の位置を含む元画像の画像データが拡大表示倍率によって拡大された拡大画像の画像データを生成する。
 更に、表示レイヤ画像生成部58は、表示レイヤ画像生成部58の動作において予め規定された所定範囲の情報を基に、生成された拡大画像の画像データのうち所定範囲に対応する一部の拡大画像の画像データを切り出す。表示レイヤ画像生成部58は、切り出された一部の拡大画像の画像データ、即ち、局所的に特定地点の周辺が拡大された局所拡大画像の画像データを画像合成部60に出力する。
 また、画像位置変換部56からの拡大画像生成指示は連続的に出力されるため、表示レイヤ画像生成部58は、拡大画像の画像データの切り出しを連続的に行う。例えば指68がホバースライド操作によって移動した場合に、画像位置変換部56は、移動後の指先に対応する基準点と移動前の指先に対応する基準点との距離(指の相対移動量)と、後述する元画像と拡大画像との各表示倍率の比とを基に、比と指の相対移動量との乗算結果に応じた指の移動方向における位置の情報を表示レイヤ画像生成部58に出力する。表示レイヤ画像生成部58は、画像位置変換部56から出力された情報に対応する位置を含む所定範囲の拡大画像の画像データの切り出しを継続する(図5参照)。
 従って、表示レイヤ画像生成部58は、後述するように拡大画像の画像データと元画像の画像データとが重ねて表示されている場合に(図4参照)、指68がホバースライド操作によってタッチパネル15に対して略平行に移動すると、指68の移動前における拡大画像の画像データの基準点75(図4参照)を起点とした指68の相対移動量と表示倍率の比とに応じた拡大画像の画像データを切り出す。
 アプリ画面生成部59は、アプリケーション65からの画面生成指示を基に、画像ボタン管理部55を介してメモリ40から取得した元画像の画像データを用いて、アプリケーション65におけるアプリケーション用画面の画面データを生成する。アプリ画面生成部59は、生成された画面データ、即ち、元画像の画像データの表示範囲の情報を表示レイヤ画像生成部58に出力し、生成された画面データを画像合成部60に出力する。
 なお、図2では、アプリ画面生成部59とアプリケーション65とが別々の構成として示されているが、アプリケーション65がアプリ画面生成部59の機能を有することによって、アプリ画面生成部59とアプリケーション65とを一纏めにしたアプリケーション65として構成しても良い。
 表示制御部としての画像合成部60は、アプリ画面生成部59から出力された画面45(図4参照)の画面データと、表示レイヤ画像生成部58から出力された局所拡大画像46a(図4参照)の拡大画像の画像データとを合成する。画像合成部60は、合成された画像データを画面表示部30に表示させる。
(携帯端末1の動作概要)
 次に、第1の実施形態の携帯端末1の動作概要について、図3から図5を参照して説明する。
 図3(a)は、元画像と拡大画像との各レイヤの概念を示す説明図である。図3(b)は、元画像47に対応する第1のレイヤ71と指68との関係を示す図である。図3(c)は、拡大画像46に対応する第2のレイヤ72と指68との関係を示す図である。本実施形態では、2つのレイヤ、即ち、第1のレイヤ71として元画像47の画像データのレイヤ71が設定され、第2のレイヤとして元画像47の画像データが拡大表示倍率によって拡大された拡大画像46の画像データのレイヤ72が設定される。なお、各レイヤに設定された画像データは、記憶部23(メモリ40)に格納されている。
 従って、図3では、レイヤ71では、元画像47(例えば地図の画像)の元画像の画像データが設定される。画面45の上に搭載されたタッチパネル15に指68が近づくことで指68の近接が検知されると、表示レイヤ切替判定部54は、元画像47の画像データに基準点75を設定する。即ち、表示レイヤ切替判定部54は、指68のタッチパネル15に対する近接が検知されたときのタッチパネル15上における位置(図3の元画像47の「○○駅」の周囲の黒い丸部分)を、レイヤ71における基準点75として初期的に設定する。図3(b)に示すように、第1のレイヤに元画像が設定される場合には、指68とタッチパネル15との間に近接状態は検知されていない。しかし、図3(c)に示すように、第2のレイヤに拡大画像が設定される場合には、指68とタッチパネル15との間に近接状態が検知されている。
 指68の近接が検知されると、表示レイヤ画像生成部58は、基準点75を略中心とする拡大画像46の画像データを生成し、拡大画像46の画像データを生成した旨を表す拡大画像生成済みフラグを表示レイヤ切替判定部54に出力する。表示レイヤ切替判定部54は、表示レイヤ画像生成部58から出力された拡大画像生成済みフラグを基に、拡大画像46の画像データをレイヤ72に設定する。なお、図2では、図面の複雑化を避けるため、表示レイヤ画像生成部58と表示レイヤ切替判定部54との間の矢印の図示を省略している。
 図3に示す拡大画像46は、基準点75を略中心に元画像47が拡大された画像である。図3では、画面45に元画像47の画像データが表示され、ユーザの指68が移動可能な範囲、即ち、画面45の大きさ(物理的なサイズ)に対応する拡大画像46の画像データが生成される。
 表示レイヤ画像生成部58は、拡大画像46を生成した後、表示部13の画面45の大きさ(物理的なサイズ)に合わせた拡大画像46の画像データから、画面45の大きさの一部の拡大画像の拡大画像の画像データを切り出す。なお、表示レイヤ画像生成部58は、元画像47の画像データの大きさのうち、基準点75を略中心として、画像位置変換部56から出力された所定範囲の情報に合わせた一部の元画像を拡大した局所的な拡大画像の画像データを生成しても良い。
 これにより、携帯端末1は、表示部13の画面45に、表示レイヤ画像生成部58の動作において予め規定された所定範囲の情報に対応する大きさの窓枠48(図4参照)内に、拡大画像46の一部である局所拡大画像46aを、元画像47と重ねて表示することができる。更に、従来技術では指68がタッチパネル15にタッチした場合に指68に隠れてユーザが視認することが困難であった指先に対応する地図上の特定地点を、本実施形態の携帯端末1は、ホバー操作によって指68とタッチパネル15とが離間しているため、ユーザに対して明示的に認知させることができる。
 次に、図4及び図5を参照して、局所拡大画像が表示された場合に指68を移動させた場合の従来の携帯端末と本実施形態の携帯端末1との動作概要を説明する。図4は、従来技術においてベクトルAの距離a又はベクトルA‘の距離a’にわたる指68の移動によって、「目標地点46d」周辺の局所拡大画像46c又は「△△交番前」周辺の局所拡大画像46bが表示される例を示す説明図である。図5は、本実施形態においてベクトルA’の距離a’にわたる指68の移動によって、「目標地点46d」周辺の局所拡大画像46cが表示される例を示す説明図である。図4及び図5では、説明を簡単にするために、コンテンツの一例として地図を用いて説明する。
 先ず、タッチパネル15に指68を近接させると、指先、即ち、指68の鉛直下方向におけるタッチパネル15(画面45)の位置(基準点75)を略中心に含む局所拡大画像46aが窓枠48内に拡大表示される。つまり、画面45のうち窓枠48内の表示領域には局所拡大画像46aが表示され、画面45のうち窓枠48以外の表示領域には拡大画像46の元画像47が表示される。図4では、「○○駅」の位置が基準点75として設定されているとする。なお、窓枠48の大きさは任意に変更可能でも良い。
 基準点75として設定された「○○駅」の位置周辺の局所拡大画像46aが窓枠48内に表示された状態において、ユーザは、元画像47の表示倍率では選択が困難な位に小さく表示されている目標地点46dを選択し、基準点75としての「○○駅」から目標地点46dまでの経路を探索するために、目標地点46d周辺の局所拡大画像46cを表示したいとする。局所拡大画像46aが窓枠48内に表示されている状態において、指68が移動すると、指68の移動方向に合わせて、窓枠48内に表示されている局所拡大画像46aの内容が切り替えられる。
 ところが、従来技術では、指68の図4の紙面左上方向への距離aにわたった移動によって、窓枠48内に表示されている局所拡大画像46aの内容は、元画像47の画像データの表示倍率(例えば1倍)に従って切り替えられる。即ち、窓枠48内に表示されている局所拡大画像46aの内容は、指68が図4の紙面左上方向への距離aにわたって移動した場合には、拡大画像46の画像データの表示倍率ではなく元画像47の画像データの表示倍率の影響を受けるため、基準点75から距離a離れた目標地点46d周辺の局所拡大画像46cが表示される。
 従来技術では、指68の移動に応じて切り替えられる局所拡大画像46aの内容は、元画像47の画像データの表示倍率の影響を受けるため、例えば基準点75からあまり離れていない位置(例えば目標地点46d)に指68を移動させること、即ち、指68の移動距離の微調整が困難な場合がある。指68を距離aほど適正に移動させることができれば、局所拡大画像46aの内容は基準点75から距離aほど離れた目標地点46d周辺の局所拡大画像46cが表示されるが、少しでも距離aを超えた距離又は距離aに満たない距離しか移動できないと、目標地点46d周辺の局所拡大画像46cの表示が困難となってしまう。特に、縮尺が大きい地図画像(例えば2万分の1)が表示されている場合では、指68の移動距離の調整が少しでもずれると、表示される地図画像はユーザが希望する地域の地図画像と大きく異なり、快適な操作が困難となってしまう。
 例えば元画像47が縮尺2万分の1の地図であって拡大画像46が縮尺1万分の1の地図である場合に、基準点75からの指68の相対移動量、即ち、基準点75と指68の移動先に対応する基準点75bとの距離a’が3cmであれば、窓枠48内に表示されている局所拡大画像46aの内容は、元画像47の画像データの縮尺(2万分の1)と指68の相対移動量(3cm)とに応じて距離(600m)移動した場所の局所拡大画像46bの内容に切り替えられる。即ち、指68が図4の紙面左上方向への距離a’にわたって移動すると、「△△交番前」の周辺が窓枠48b内の局所拡大画像46bとして表示される。
 本実施形態では、指68が図5の紙面左上方向に距離a’にわたって移動した場合には、窓枠48内に表示されている局所拡大画像46aの内容は、元画像47の画像データの表示倍率(例えば1倍)と拡大画像46の画像データの表示倍率(例えば2倍)との比と基準点75からの指68の相対移動量とに応じて切り替えられる。このため、目標地点46dの周辺(図5の点線円48d参照)が、指68の移動先に対応する局所拡大画像46eとして窓枠48e内に表示される(図5参照)。目標地点46dの周辺が局所拡大画像46eとして窓枠48e内に表示された後、指68が目標地点46dをタッチ操作によって選択することで、携帯端末1は、例えば基準点75としての「○○駅」から目標地点46dまでの経路探索を連続的な操作(一連の操作)として行うことができる。
 従って、例えば元画像47の地図の縮尺が2万分の1であって、拡大画像46の地図の縮尺が1万分の1である場合に、指68が基準点75から目標地点46dのボタンの位置(基準点75からの距離a(図4参照))の約2倍の距離離れた位置(基準点75からの距離a’)まで移動したとする。この場合、本実施形態の携帯端末1は、元画像47の画像データの表示倍率(例えば2万分の1)と拡大画像46の画像データの表示倍率(例えば1万分の1)との比(即ち、1/2)と基準点75からの指68の相対移動量(距離a’)との乗算結果に対応する指68の移動量(図4に示す距離a)だけ基準点75から移動した位置(図5の点線円48d)の内容を、指68の移動先に対応する局所拡大画像46eとして窓枠48eに表示する。なお、指68の距離a’にわたる移動によって拡大表示された局所拡大画像46eにおける基準点は、指68の距離a’にわたる移動後の位置、即ち、局所拡大画像46e(拡大画像46)における目標地点46dの位置となる。
 これにより、本実施形態の携帯端末1は、元画像47の地図の縮尺(表示倍率)と拡大画像46の地図の縮尺(表示倍率)との比と指68の相対移動量とを基に局所拡大画像の切り替えを行うため、ユーザが所望する局所拡大画像の切り替えを簡易に行うことができ、指68を用いた地図の局所拡大画像の移動の微調整を容易に行わせることができる。
(第1の実施形態の携帯端末1の動作)
 図6は、第1の実施形態の携帯端末1の動作手順を説明するフローチャートである。図6に示すフローチャートは、携帯端末1の表示部13の画面45に元画像47の画像データが表示されている場合に、ユーザの指68がタッチパネル15に近接した場合又はタッチ操作した場合の携帯端末1の動作手順を表す。
 なお、図6の説明の前提として、画面45に表示されている元画像47の画像データは、表示レイヤ切替判定部54によって第1のレイヤ(レイヤ71)に設定されている。
 図6において、先ず、近接検知部5は、ホバー操作によってユーザの指68がタッチパネル15に近接したか否かを検知している(S1)。近接検知部5は、ホバー操作によってユーザの指68がタッチパネル15に近接していないことを検知した場合には(S1、NO)、指68がタッチパネル15に近接していないことを近接座標抽出部51に出力する。近接座標抽出部51は、指68がタッチパネル15に近接していないことを表示レイヤ切替判定部54に出力する。
 表示レイヤ切替判定部54は、近接座標抽出部51からの出力を基に、拡大画像の画像データが生成されているか否かを判定し、拡大画像の画像データが生成されていると判定した場合には、拡大画像の画像データを、画像ボタン管理部55にメモリ40から削除させる。これにより、携帯端末1は、拡大画像の画像データの表示を解除する(S2)。なお、拡大画像の画像データが生成されているか否かを判定する表示レイヤ切替判定部54の動作説明は、ステップS5において詳述する。なお、ステップS2の動作は、拡大画像の画像データが生成されていない場合には省略される。
 近接検知部5は、指68がタッチパネル15に近接したことを検知した場合に(S1、YES)、指68がタッチパネル15に近接した旨の近接通知を近接座標抽出部51に出力する。近接座標抽出部51は、近接検知部5から出力された近接通知を基に、指68のタッチパネル15に対する近接座標(x、y、z)を算出して抽出する(S3)。
 更に、近接座標抽出部51は、近接座標(x、y、z)のうち指68の鉛直下方向におけるタッチパネル15上の位置を示す座標(x、y)を元画像の基準点75として設定する(S3)。近接座標抽出部51は、抽出された近接座標(x、y、z)及び基準点(x、y)の各情報を表示レイヤ切替判定部54及び画像位置変換部56にそれぞれ出力する。
 次に、タッチ検知部10は、指68がタッチパネル15にタッチしたか否かを検知している(S4)。タッチ検知部10が指68のタッチパネル15に対するタッチ操作を検知していない場合には(S4、NO)、携帯端末1の動作はステップS5に進む。
 表示レイヤ切替判定部54は、拡大画像46が既に生成されているか否かを判定する(S5)。ステップS5では、表示レイヤ切替判定部54は、例えば拡大画像生成済みフラグがメモリ40に格納されているか否かを画像ボタン管理部55に問い合わせ、画像ボタン管理部55から出力された問い合わせ結果を基に、拡大画像46が既に生成されているか否かを判定する。
 表示レイヤ切替判定部54は、拡大画像46が生成されていないと判定した場合(S5、NO)、近接座標抽出部51から出力された基準点75(x、y)及び近接座標(x、y、z)の各情報を基に、元画像の画像データにおける基準点75を略中心とする拡大画像の画像データを生成すると判定する。
 表示レイヤ切替判定部54は、拡大画像の画像データを生成すると判定した場合には、表示レイヤ切替判定部54の動作において予め設定された拡大表示倍率の情報及び拡大画像の画像データを生成する旨の拡大画像生成指示を画像位置変換部56にそれぞれ出力する。
 画像位置変換部56は、近接座標抽出部51から出力された基準点(x、y)の情報を基に、指先、即ち、指68の鉛直下方向におけるタッチパネル15上の位置が元画像のどの位置であるかを特定する。更に、画像位置変換部56は、表示レイヤ切替判定部54から出力された拡大表示倍率の情報及び拡大画像生成指示、及び近接座標抽出部51から出力された基準点(x、y)に対応する元画像の特定された位置の情報を表示レイヤ画像生成部58に出力する。
 表示レイヤ画像生成部58は、画像位置変換部56から出力された拡大画像生成指示及び基準点(x、y)に対応する元画像の特定された位置の情報を基に、画像ボタン管理部55を介して、基準点75の座標(x、y)を含む元画像の画像データ及び元画像の画像データに含まれるボタンの画像データ(例えばアイコン)をメモリ40から取得する。
 表示レイヤ画像生成部58は、取得された元画像の画像データ及びボタンの画像データを用いて、アプリ画面生成部59から出力された元画像の画像データの表示範囲の情報、拡大画像生成指示及び基準点(x、y)に対応する元画像の特定された位置の情報を基に、指先に対応する元画像の画像データの基準点75の位置を略中心として含む元画像の画像データが拡大表示倍率によって拡大された拡大画像の画像データを生成する(S6)。
 表示レイヤ画像生成部58は、拡大画像生成済みフラグを表示レイヤ切替判定部54に出力する。表示レイヤ切替判定部54は、表示レイヤ画像生成部58から出力された拡大画像生成済みフラグを基に、拡大画像46の画像データをレイヤ72に設定する。
 表示レイヤ画像生成部58は、生成された拡大画像の画像データの基準点(x、y)の情報を保持する(S7)。更に、表示レイヤ画像生成部58は、表示レイヤ画像生成部58の動作において予め規定された所定範囲の情報を基に、生成された拡大画像の画像データのうち所定範囲に対応する一部の拡大画像(局所拡大画像)の画像データを切り出す(S8)。表示レイヤ画像生成部58は、切り出された一部の拡大画像の画像データ、即ち、局所的に特定地点の周辺が拡大された局所拡大画像の画像データを画像合成部60に出力する。
 画像合成部60は、アプリ画面生成部59から出力された画面45の画面データと、表示レイヤ画像生成部58から出力された局所拡大画像46a(図3参照)の画像データとを合成する(S9)。画像合成部60は、合成された画像データを画面表示部30に表示させる。この後、携帯端末1の動作は、ステップS1に戻る。
 一方、ステップS5において、表示レイヤ切替判定部54は、既に拡大画像46が生成されていると判定した場合(S5、YES)、ステップS7において既に生成された拡大画像46の画像データの基準点(x、y)と、現在の指68の鉛直下方向におけるタッチパネル15上の位置を示す座標(x1、y1)とにより定まる指68の相対移動量を算出する(S10)。表示レイヤ切替判定部54は、算出された指68の相対移動量を画像位置変換部56に出力する。
 画像位置変換部56は、移動後の指先に対応する基準点と移動前の指先に対応する基準点との距離(指68の相対移動量、図5に示す距離a’参照)と、元画像47と拡大画像46との各表示倍率の比とを基に、比と指の相対移動量との乗算結果に応じた指68の移動方向における位置の情報を表示レイヤ画像生成部58に出力する。表示レイヤ画像生成部58は、画像位置変換部56から出力された情報に対応する位置を含む所定範囲の拡大画像の画像データを切り出す(S8)。
 次に、ステップS4においてタッチ検知部10が指68のタッチパネル15に対するタッチ操作を検知した場合には(S4、YES)、タッチ座標抽出部52は、タッチ操作を検知したことをタッチ検知部10から取得すると共に、タッチ座標(x、y)の情報を表示レイヤ切替判定部54に出力する。表示レイヤ切替判定部54は、タッチ座標抽出部52から出力されたタッチ座標(x、y)の情報を基に、拡大画像46が既に生成されているか否かを判定する(S11)。ステップS11の判定方法はステップS5と同一のため、具体的な判定方法の説明を省略する。なお、図2では、図面の複雑化を避けるために、タッチ座標抽出部52と表示レイヤ切替判定部54との間の矢印の図示は省略している。
 表示レイヤ切替判定部54は、拡大画像46の画像データが生成されていないと判定した場合には(S11、NO)、拡大画像46の画像データが生成されていないことを画像位置変換部56に出力する。画像位置変換部56は、タッチ座標抽出部52から出力されたタッチ座標(x、y)及び表示レイヤ切替判定部54からの出力を基に、元画像47の画像データの座標情報を基に、タッチ座標(x、y)の位置が元画像47のどの位置であるかを特定する(S12)。ステップS12の後、携帯端末1の動作はステップS13に進む。
 また、ステップS12の動作は、拡大画像46が生成されていると表示レイヤ切替判定部54により判定された場合に(S11、YES)、タッチ座標(x、y)が元画像47と拡大画像46とが重ねて表示されている画面45のうち拡大画像46の範囲内でないと画像位置変換部56により判定された場合においても実行される(S14、NO)。
 一方、画像位置変換部56は、タッチ座標(x、y)が元画像47と拡大画像46とが重ねて表示されている画面45のうち拡大画像46の範囲であると判定した場合には(S14、YES)、拡大画像46の座標情報を基に、タッチ座標(x、y)の位置が拡大画像のどの位置であるかを特定する(S15)。なお、拡大画像46の座標情報は、タッチされた局所拡大画像の論理的な位置に対応する元画像の論理的な位置を示す座標情報である。
 ステップS12又はS15においてタッチ座標(x、y)の位置が特定された後、画像位置変換部56は、画面45において特定された位置にボタンがあるか否かを画像ボタン管理部55に問い合わせる。画像位置変換部56は、画像ボタン管理部55からの問い合わせ結果を基に、画面45において特定された位置にボタンがあるか否かを判定する(S13)。ボタンが無いと判定された場合には(S13、NO)、携帯端末1の動作は、ステップS3に戻る。
 画像位置変換部56は、ボタンがあると判定した場合には(S13、YES)、ステップS4のタッチ操作によってボタンが押下されたことをアプリケーション65に出力する。アプリケーション65は、ボタンに対応した動作を判定し(S16)、判定された動作を実行する(S17)。この後、図6に示す携帯端末1の動作は終了する。
 なお、ステップS1で指68の接近が一旦検知された後、ステップS2以降の処理の途中で指68がタッチパネル15からタッチパネル15に垂直な方向に遠ざかり近接が検知されなくなった場合、携帯端末1は画面45に元画像47だけを表示し、ステップS1の処理に戻るようにしてもよい。これにより、携帯端末1は、元画像だけの画面表示に簡単に戻すことができ、ユーザ操作を簡易化できる。
 以上により、第1の実施形態の携帯端末1は、指68の近接が検知された場合、画面45に表示されている元画像の基準点75を略中心として含む拡大画像を生成し、生成された拡大画像のうち基準点を略中心とした所定範囲の局所拡大画像と元画像とを重ねて表示部13の画面45に表示させる。
 これにより、携帯端末1は、画面45に表示された画像の細部に対する操作を効率的に行うことが可能となり、ユーザの操作性を格段に向上させることができ、煩雑な操作を行うことなく、タッチパネルに対するユーザの入力操作に応じて、画面上に表示されたコンテンツ(地図画像)の内容を選択的に切り替えることができる。
 また、携帯端末1は、局所拡大画像と元画像とが重ねて表示されている場合に、指68のホバースライド操作による指68の相対移動量(距離)と、元画像と拡大画像との各表示倍率の比とを基にして、比と指の相対移動量との乗算結果に応じた指の移動方向における位置を含む所定範囲の局所拡大画像に、局所拡大画像の内容を切り替える。これにより、携帯端末1は、従来技術と比べて、指68のホバースライド操作によって局所拡大画像の内容を簡易に微調整することができ、ユーザに対する操作性を向上させることができる。
 また、携帯端末1は、局所拡大画像を表示部13に表示させることで、目標地点の探索から目標地点に対する選択操作(例えば、基準点としての現在地から目標地点までの経路の探索動作)を簡易な操作(例えばホバースライド操作とタッチ操作との組み合わせ)にて行うことができる。
(第2の実施形態)
 第1の実施形態では、携帯端末1が指68の近接を検知すると、予め規定された拡大表示倍率の情報を用いて、元画像47の基準点75を略中心に含む所定範囲の局所拡大画像46aを、元画像47の上に重ねるように表示する例を説明した。
 第2の実施形態では、指68の近接距離、即ち、指68のタッチパネル15に対する高さzの値に応じて拡大表示倍率を可変し、可変された拡大表示倍率によって拡大された局所拡大画像46aを、元画像47の上に重ねるように表示する例を説明する。
 第2の実施形態の携帯端末1は第1の実施形態の携帯端末1と同一の構成を有するため、第2の実施形態の携帯端末1においても第1の実施形態の携帯端末1と同一の構成要素については同一の符号を用いて説明を省略し、異なる内容について説明する。
 図7は、第2の実施形態における指68の高さzの値と高さzの値に対応する拡大画像46AA,46BB,46CCとの関係を示す説明図である。元画像47が設定される第1のレイヤ71の上位のレイヤとしての第2のレイヤ72Aに、第1の拡大画像46AAが設定される。また、本実施形態においても、第1の実施形態と同様に、レイヤは2つ設定される。
 例えば、第1の拡大画像46AAが更に拡大された第2の拡大画像46BBが第2のレイヤ72Bに設定された場合には、第1の拡大画像46AAが第1のレイヤ71に設定される。
 同様に、第2の拡大画像46BBが更に拡大された第3の拡大画像46CCが第2のレイヤ72Cに設定された場合には、第2の拡大画像46BBが第1のレイヤ71に設定される。以下、図7に図示していないが、第3の拡大画像46CCが更に拡大された第4以降の第nの拡大画像が第2のレイヤに設定され、第(n-1)の拡大画像が第1のレイヤ71に設定される。
 図7では、元画像47が画面45に表示されて第1のレイヤ71が設定された後、指68がタッチパネル15に対して高さzの位置にて近接が検知されると、元画像47が第1の拡大表示倍率によって拡大された第1の拡大画像46AAが生成されて第2のレイヤ72Aに設定される。また、第2のレイヤ72Aにおいて、基準点75(図7の黒い丸参照)は、第1の実施形態と同様に、指68のタッチパネル15に対して略平行に移動することで移動する(第2のレイヤ72Aの太い白抜き矢印参照)。
 第1の拡大画像46AAが生成されて第2のレイヤ72Aに設定された後、指68がタッチパネル15に対して更に近接して高さzの位置にて近接が検知されたとする。この場合、第1の拡大画像46AAが第1のレイヤ71に設定され、元画像が第2の拡大表示倍率によって拡大された第2の拡大画像46BBが生成されて第2のレイヤ72Bに設定される。また、第2のレイヤ72Bにおいて、基準点75は、第1の実施形態と同様に、指68のタッチパネル15に対して略平行に移動することで移動する(第2のレイヤ72Bの太い白抜き矢印参照)。
 同様に、第2の拡大画像46BBが生成されて第2のレイヤ72Bに設定された後、指68がタッチパネル15に対して更に近接して高さzの位置にて近接が検知されたとする。この場合、第2の拡大画像46BBが第1のレイヤ71に設定され、元画像が第3の拡大表示倍率によって拡大された第3の拡大画像46CCが生成されて第2のレイヤ72Cに設定される。
 図8は、第2の実施形態における拡大画像と、各々の拡大画像とを重ねて表示される背景画像との関係を示す説明図である。図8において、拡大画像は携帯端末1の表示部13の画面45の窓枠48内に表示された局所拡大画像46aを示し、背景画像は画面45において表示された局所拡大画像46aを除く画像である。
 本実施形態では、第1の拡大画像46AAの一部である局所拡大画像の内容が拡大画像として表示されている場合には、元画像47の内容が背景画像として表示される。
 また、第2の拡大画像46BBの一部である局所拡大画像の内容が拡大画像として表示されている場合には、第1の拡大画像46AAの内容が背景画像として表示される。
 同様に、第nの拡大画像の一部である局所拡大画像の内容が拡大画像として表示されている場合には、第(n-1)の拡大画像の内容が背景画像として表示される。
 なお、背景画像としては、常に元画像47が表示されていても良い。
 図9は、指68の高さzの値と拡大表示倍率との関係を表すテーブル21aの具体例を示す図である。本実施形態では、指68とタッチパネル15との間の距離、即ち、指68の高さzの値に応じて、局所拡大画像46aの拡大表示倍率が異なる。図1ではテーブル21aはROM21に格納されているが、テーブル21aは記憶部23に格納されても良い。
 テーブル21aでは、指68の高さzが例えば30mm~閾値zth[mm]である場合には、第1のレイヤ71として、元画像47、即ち、拡大表示倍率が1[倍]の元画像47が設定され、第2のレイヤ72は設定されない。この場合には、携帯端末1は、表示部13の画面45の全域に、元画像47を表示する。
 指68の高さzが例えば25~30mmである場合には、第1のレイヤ71として、元画像47、即ち、拡大表示倍率が1[倍]の元画像47が設定され、第2のレイヤ72Aとして、第1の拡大画像46A、即ち、拡大表示倍率が5[倍]の第1の拡大画像46Aが設定される。
 また、指68の高さzが例えば20~25mmである場合には、第1のレイヤ71として、第1の拡大画像46A、即ち、拡大表示倍率が5[倍]の第1の拡大画像46Aが設定され、第2のレイヤ72Aとして、第2の拡大画像46B、即ち、拡大表示倍率が10[倍]の第2の拡大画像46Bが設定される。
 同様に、指68の高さzが例えば0~5mmである場合には、第1のレイヤ71として、第(n-1)の拡大画像、即ち、拡大表示倍率が50[倍]の第(n-1)の拡大画像が設定され、第2のレイヤ72Aとして、第nの拡大画像、即ち、拡大表示倍率が100[倍]の第nの拡大画像が設定される。
 表示レイヤ切替判定部54は、図9に示すテーブル21aを参照し、指68のタッチパネル15に対する高さzの情報(値)に応じて、画像の拡大表示倍率の情報を切り替える。
 なお、表示レイヤ切替判定部54は、ヒステリシスの概念を用いて、図9に示す高さzの境界値の辺りに指68が位置する場合には、拡大画像の表示倍率を頻繁に切り替えないようにしても良い。ヒステリシスの概念を用いない場合には、テーブル21aによると、指68の位置が例えばタッチパネル15から24mmであれば拡大表示倍率として10倍が用いられるが、指68の位置が更に2mm離れて26mmになると拡大表示倍率として5倍が用いられる。
 これにより、本実施形態の携帯端末1は、指68のタッチパネル15からの高さzが25mm付近においてホバー操作の状態で停止していると、わずかな指68の高さのズレで画面の内容が頻繁に切り替わることを防ぐことができる。
(第2の実施形態の携帯端末1の動作)
 図10は、第2の実施形態の携帯端末1の動作手順を説明するフローチャートである。図6に示すフローチャートと同一の処理内容については同一のステップ番号を付すことにより説明を省略し、異なる処理内容について説明する。
 近接検知部5は、指68がタッチパネル15に近接したことを検知した場合に(S1、YES)、指68がタッチパネル15に近接した旨の近接通知を近接座標抽出部51に出力する。近接座標抽出部51は、近接検知部5から出力された近接通知を基に、指68のタッチパネル15に対する近接座標(x、y、z)を算出して抽出する(S3A)。ステップS3Aにおいて抽出された近接座標(x、y、z)のうちz座標の値は、指68とタッチパネル15との間の距離、即ち、指68のタッチパネル15に対する高さzの値である(図9参照)。
 更に、近接座標抽出部51は、近接座標(x、y、z)のうち指68の鉛直下方向におけるタッチパネル15上の位置を示す座標(x、y)を元画像の基準点75として設定する(S3A)。近接座標抽出部51は、抽出された近接座標(x、y、z)及び基準点(x、y)の各情報を表示レイヤ切替判定部54及び画像位置変換部56にそれぞれ出力する。
 次に、タッチ検知部10は、指68がタッチパネル15にタッチしたか否かを検知している(S4)。タッチ検知部10が指68のタッチパネル15に対するタッチ操作を検知していない場合には(S4、NO)、携帯端末1の動作はステップS5Aに進む。
 表示レイヤ切替判定部54は、図9に示すテーブル21aを参照し、指68のタッチパネル15に対する高さzの情報に応じて、画像の拡大表示倍率を切り替える。表示レイヤ切替判定部54は、切り替えられた拡大表示倍率によって拡大された拡大画像が表示部13の画面45において表示されているか否かを判定する(S5A)。
 ステップS5Aにおいて、指68のタッチパネル15に対する高さzの値に応じて切り替えられた拡大表示倍率によって拡大された拡大画像が表示されていないと判定された場合には(S5A、NO)、第1の実施形態と同様に、ステップS6において、切り替えられた拡大表示倍率によって拡大された拡大画像の生成が行われる。
 一方、ステップS5Aにおいて、表示レイヤ切替判定部54は、指68のタッチパネル15に対する高さzの値に応じて切り替えられた拡大表示倍率によって拡大された拡大画像が表示されていると判定した場合には(S5A、YES)、第1の実施形態と同様に、ステップS7において既に生成された拡大画像46の画像データの基準点(x、y)と、現在の指68の鉛直下方向におけるタッチパネル15上の位置を示す座標(x1、y1)とにより定まる指68の相対移動量を算出する(S10)。表示レイヤ切替判定部54は、算出された指68の相対移動量を画像位置変換部56に出力する。
 画像位置変換部56は、移動後の指先に対応する基準点と移動前の指先に対応する基準点との距離(指68の相対移動量、図5に示す距離a’参照)と、元画像47と拡大画像46との各表示倍率の比とを基に、比と指の相対移動量との乗算結果に応じた指68の移動方向における位置の情報を表示レイヤ画像生成部58に出力する。表示レイヤ画像生成部58は、画像位置変換部56から出力された情報に対応する位置を含む所定範囲の拡大画像の画像データを切り出す(S8)。これ以降の処理は、図6に示す第1の実施形態の処理と同様である。
 以上により、第2の実施形態の携帯端末1は、指68のタッチパネル15に対する高さzの値に応じて、拡大表示される拡大画像の拡大表示倍率を選択的に切り替える。更に、携帯端末1は、切り替えられた拡大表示倍率によって拡大された拡大画像を局所拡大画像として、切り替えられた拡大表示倍率に最も近い一つ下の拡大表示倍率によって拡大された拡大画像を背景画像として、局所拡大画像と背景画像とを重複して表示部13の画面に表示させる。
 これにより、携帯端末1は、縮尺の大きい(広域表示)の画像に対し、目標位置におおまかに指68を近づけると、指先に対応する特定地点周辺の画像を拡大して表示でき、指68をタッチパネル15に対して略平行に移動させながら、更にタッチパネル15に近づけると更に拡大された拡大画像を表示できる。従って、携帯端末1は、ユーザが表示された画像の位置を微調整して所望の特定地点の表示を簡易に行うことができる。
 このように、携帯端末1は、縮尺が大きい(広域表示)の画像が表示されている状態でおおまかに所望の特定地点の位置の微調整を行い、指68とタッチパネル15との間の距離(指68のタッチパネル15に対する高さzの値)を変えることで拡大表示倍率を少しずつ変更させながら徐々に所望の特定地点の位置の表示を行うことが可能となる。従って、本実施形態の携帯端末1は、従来技術のようにピンチ操作とスライド操作とを何度も繰り返すことなく、ユーザが所望する特定地点の表示をスムーズに行うことができる。
 以上、図面を参照して各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種実施の形態の変更例または修正例、更に各種実施の形態の組み合わせ例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
 また、前述したように、携帯端末1は、局所拡大画像が表示されている状態で、局所拡大画像でない元画像の特定箇所(ボタン)に指によるタッチ操作が行われた場合、局所拡大画像が表示されていない状態と同じ動作を行うようにしてもよい。これにより、局所拡大画像が表示されていなく元画像だけが表示されている通常時の操作と同様に操作できる。
 また、上記実施形態では、携帯端末1の画面45に地図を表示し、特定の箇所を局所的に拡大表示する場合を示したが、次のような画面を表示する場合にも、適用可能である。
 例えば、横長の画面にテキスト画像を表示し、読みたい位置に局所拡大画像の窓枠を移動させる場合にも有効である。また、例えば絵画を含む高解像度の画像の局所的な箇所を確認又は編集した場合にも有効である。また、画面45にブラウザのコンテンツを表示する場合にも有効である。また、例えば色によって視覚的に分類された多くのサムネイル画像を効率良く探索する場合にも有効である。
 また、視覚的にインデックス表現された情報を効率良く探索する場合にも有効である。また、ビッグデータの解析結果又は項目間において論理的な繋がりを持ち、更に構造化された情報(例えばマインドマップ化された情報)を効率良く探索する場合にも有効である。また、各レイヤに配置された情報の取得又は機能の選択を効率良く行う場合にも有効である。また、2次元若しくは3次元の位置に紐付け整理分類された情報を視覚的に探索する場合にも有効である。
 また、元画像上で、拡大画像を表示したい箇所を示すユーザの指が画面の端に達した場合、一旦、指の接近を解除し、元画像をスライド操作によって変更した後、再び拡大画像の表示動作を行ってもよいし、画面の端に達した時点で、局所拡大画像の表示を中止し、元画像だけを表示する初期状態に復帰するようにしてもよい。
 図11は、局所拡大画像46aの表示後に指68をホバースライド操作した場合に、指68の移動後に表示された局所拡大画像の内容が元画像のどの位置に対応するかを説明するための説明図である。図11に示す局所拡大画像46aの元になる拡大画像46(図3参照)が生成されたときの基準点75の位置は、「○○駅」周辺の位置である。
 図11において、局所拡大画像46aが表示された後、指68がホバースライド操作によって基準点75の位置から矢印の方向に沿って所定距離移動したとする。指68の所定距離の移動によって、局所拡大画像46aの内容は、第1の実施形態で説明したように、拡大画像の表示倍率と指68の基準点75からの相対移動量とを基にして切り替えられる。
 画像位置変換部56は、指68の基準点75の位置から矢印の方向に沿った移動に応じて、指68の移動後に対応する局所拡大画像46aの内容が元画像47のどの位置に対応するかを算出する。更に、画像位置変換部56は、算出された元画像47における位置、即ち、局所拡大画像46aの該当位置及びその該当位置を含む所定範囲ORを元画像47において識別可能に画像合成部60に表示させても良い(図11に示す所定範囲OR参照)。これにより、画像位置変換部56は、局所拡大画像46aが表示された後に指68がホバースライド操作によって移動した場合に、移動後における局所拡大画像46aの基準点の位置が元画像47においてどの位置に対応するかをユーザに対して明示的に認知させることができる。なお、図11に示す局所拡大画像46aでは、目標地点46d(図5参照)の図示を省略しているが、実際には局所拡大画像46aには目標地点46dが表示される。
 図12は、指が画面45から横方向に外れた場合と指が画面45に横方向から再度進入した場合とにおける局所拡大画像の内容を説明するための説明図である。図12において横方向とは、指68がタッチパネル15に対してホバースライド操作によって略平行に移動する方向であり、指68がタッチパネル15から鉛直上方向、即ち指68がタッチパネル15から離れていく方向ではない。
 図12において、指68が基準点75としての「○○駅」周辺の位置から同図の矢印(同図の紙面左上方向)に沿って移動して画面45の範囲から横方向に外れたとする。指68が画面45の範囲から横方向に外れたとき、画像位置変換部56は、図11を参照して説明したように、局所拡大画像46aの内容が表示される窓枠48の一部又は全部が横方向に外れたときの局所拡大画像46aの内容が元画像47のどの位置に対応するかを算出する。図12では、算出された位置は太い実線の丸によって囲まれている。
 更に、図12において画面45の横方向に外れた指68が再び画面45の範囲に進入した場合、即ち、指68のホバースライド操作によってタッチパネル15における近接検知範囲内に指68の近接が検知された場合には、画像位置変換部56は、指68が画面45の範囲から横方向に外れたときの局所拡大画像46aに対応する元画像47の位置が拡大表示倍率によって拡大された局所拡大画像46aを、指68の近接座標(x、y、z)の鉛直下方向の位置(x、y)の位置に元画像47と重ねて表示させる。
 これにより、携帯端末1は、指68が画面45の範囲から横方向に誤って外れた場合又は図12の矢印の方向の局所拡大画像を表示させた場合においても、指68が画面45の範囲から横方向に外れた操作を誤操作として扱うことなく、ユーザの所望となる局所拡大画像を連続的な操作によって、指68が画面45を超えるより広い範囲に対して連続的に閲覧させることができる。
 なお、本出願は、2012年4月23日出願の日本特許出願(特願2012-098146)に基づくものであり、その内容は本出願の中に参照として援用される。
 本発明は、コンテンツを表示する場合に、煩雑な操作を行うことなく、タッチパネルに対するユーザの入力操作に応じて、画面上に表示されたコンテンツの内容を選択的に切り替える表示装置、表示制御方法及びプログラムとして有用である。
 1 携帯端末
 5 近接検知部
 10 タッチ検知部
 11 プロセッサ
 13 表示部
 14 タッチパネルドライバ
 15 タッチパネル
 16 電源制御部
 17 通信制御部
 17a アンテナ
 21a テーブル
 23 記憶部
 30 画像表示部
 51 近接座標抽出部
 52 タッチ座標抽出部
 54 表示レイヤ切替判定部
 55 画像ボタン管理部
 55a 画像操作ボタンデータベース
 56 画像位置変換部
 58 表示レイヤ画像生成部
 59 アプリ画面生成部
 60 画像合成部
 65 アプリケーション

Claims (8)

  1.  画像を画面に表示する表示部と、
     前記画面に対する指の近接を検知する近接検知部と、
     前記検知された前記指の近接に応じて、前記画面に表示された前記画像が所定の拡大表示倍率により拡大された拡大画像を生成する画像生成部と、
     前記近接が検知された前記指の鉛直下方向における前記画面の位置に、前記生成された拡大画像の一部の局所拡大画像を前記画像の上に重ねて表示させる表示制御部と、を備える表示装置。
  2.  請求項1に記載の表示装置であって、
     前記近接検知部は、
     前記指の近接が検知された位置からの前記画面に対する略平行な移動を検知し、
     前記表示制御部は、
     前記指の近接が検知された位置からの前記指の前記画面に対する略平行な移動距離に応じて、前記重ねて表示された前記拡大画像を前記所定の拡大表示倍率と前記指の移動距離とを基に移動させた位置における局所拡大画像を前記画像の上に重ねて表示させる表示装置。
  3.  請求項1又は2に記載の表示装置であって、
     前記画面に対する前記指の接触を検知するタッチ検知部と、
     前記画面に表示された前記画像の特定箇所の項目と所定動作の起動とを割り当てる動作実行部と、を更に備え、
     前記動作実行部は、
     前記検知された前記指の接触位置が前記局所拡大画像の中に表示された前記特定箇所の項目の位置である場合に、前記所定動作を実行する表示装置。
  4.  請求項1~3のうちいずれか一項に記載の表示装置であって、
     前記表示制御部は、
     前記指の近接が検知された後に前記指の近接が検知されなくなった場合に、前記画面に、前記局所拡大画像と前記画像とを重ねた画像から前記画像を表示させる表示装置。
  5.  請求項1~4のうちいずれか一項に記載の表示装置であって、
     前記近接検知部は、
     前記近接が検知された前記指と前記画面との間の距離を検知し、
     前記画像生成部は、
     前記距離に応じて、前記所定の拡大表示倍率を可変した拡大画像を生成する表示装置。
  6.  請求項3に記載の表示装置であって、
     前記動作実行部は、
     前記画面に前記画像と前記局所拡大画像が重ねて表示されている場合に、前記画像に表示されている前記項目に対する前記指の接触の検知に応じて、前記局所拡大画像が表示されていない状態において前記項目に割り当てられた前記所定動作を実行する表示装置。
  7.  表示装置における表示制御方法であって、
     画像を画面に表示するステップと、
     前記画面に対する指の近接を検知するステップと、
     前記検知された前記指の近接に応じて、前記画面に表示された前記画像が所定の拡大表示倍率により拡大された拡大画像を生成するステップと、
     前記近接が検知された前記指の鉛直下方向における前記画面の位置に、前記生成された拡大画像の一部の局所拡大画像を前記画像の上に重ねて表示させるステップと、を有する表示制御方法。
  8.  表示装置としてのコンピュータに、
     画像を画面に表示するステップと、
     前記画面に対する指の近接を検知するステップと、
     前記検知された前記指の近接に応じて、前記画面に表示された前記画像が所定の拡大表示倍率により拡大された拡大画像を生成するステップと、
     前記近接が検知された前記指の鉛直下方向における前記画面の位置に、前記生成された拡大画像の一部の局所拡大画像を前記画像の上に重ねて表示させるステップと、を実現させるためのプログラム。
PCT/JP2013/001798 2012-04-23 2013-03-15 表示装置、表示制御方法及びプログラム WO2013161169A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/394,782 US9772757B2 (en) 2012-04-23 2013-03-15 Enlarging image based on proximity of a pointing object to a display screen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-098146 2012-04-23
JP2012098146A JP5828800B2 (ja) 2012-04-23 2012-04-23 表示装置、表示制御方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2013161169A1 true WO2013161169A1 (ja) 2013-10-31

Family

ID=49482527

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/001798 WO2013161169A1 (ja) 2012-04-23 2013-03-15 表示装置、表示制御方法及びプログラム

Country Status (3)

Country Link
US (1) US9772757B2 (ja)
JP (1) JP5828800B2 (ja)
WO (1) WO2013161169A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073064A (ja) * 2015-10-09 2017-04-13 エヌ・ティ・ティ・コムウェア株式会社 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015046261A (ja) * 2013-08-27 2015-03-12 株式会社東芝 電子機器、プログラムおよび制御システム
JP2015099526A (ja) * 2013-11-20 2015-05-28 富士通株式会社 情報処理装置および情報処理プログラム
JP6096100B2 (ja) * 2013-11-28 2017-03-15 京セラ株式会社 電子機器、制御方法、及び制御プログラム
KR20150129419A (ko) * 2014-05-12 2015-11-20 한국전자통신연구원 사용자 입력 장치 및 그 방법
JP5993072B1 (ja) 2015-08-27 2016-09-14 レノボ・シンガポール・プライベート・リミテッド 電子機器のユーザ・インターフェース、入力の処理方法および電子機器
TW201907285A (zh) 2017-04-28 2019-02-16 日商松下知識產權經營股份有限公司 顯示裝置
GB2571395B (en) 2018-02-23 2020-06-03 Cirrus Logic Int Semiconductor Ltd A method and system for an electronic device
JP7335487B2 (ja) * 2019-04-02 2023-08-30 船井電機株式会社 入力装置
US11687307B2 (en) * 2020-06-08 2023-06-27 Cubic Corporation Synchronization between screens
JP2022119429A (ja) * 2021-02-04 2022-08-17 東芝テック株式会社 情報処理装置
FR3124872A1 (fr) * 2021-07-02 2023-01-06 Faurecia Interieur Industrie Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072233A (ja) * 2005-09-08 2007-03-22 Matsushita Electric Ind Co Ltd 情報表示装置
WO2011027665A1 (ja) * 2009-09-02 2011-03-10 日本電気株式会社 表示装置
JP2011118857A (ja) * 2009-12-02 2011-06-16 Hyundai Motor Co Ltd 車両のマルチメディアシステム操作用ユーザーインターフェース装置

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02153415A (ja) 1988-12-06 1990-06-13 Hitachi Ltd キーボード装置
JPH06274586A (ja) * 1993-03-22 1994-09-30 Mitsubishi Electric Corp 表示方式
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US7503493B2 (en) 1999-10-25 2009-03-17 Silverbrook Research Pty Ltd Method and system for digitizing freehand graphics with user-selected properties
US7009626B2 (en) 2000-04-14 2006-03-07 Picsel Technologies Limited Systems and methods for generating visual representations of graphical data and digital document processing
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
KR100936850B1 (ko) 2001-05-21 2010-01-14 소니 주식회사 사용자 입력 장치, 사용자 입력 장치를 접속한 컴퓨터 및 사용자 입력 장치를 접속한 컴퓨터의 제어 방법
JP3870109B2 (ja) 2002-03-08 2007-01-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像表示装置、画像表示方法、及び画像表示プログラム
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
KR101016981B1 (ko) 2002-11-29 2011-02-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 데이터 처리 시스템, 사용자로 하여금 데이터 처리 시스템과 대화하도록 하는 방법, 및 컴퓨터 프로그램 제품을 저장한 컴퓨터 판독가능 매체
JP4225418B2 (ja) 2004-02-05 2009-02-18 ソニー株式会社 複合装置
JP2005267049A (ja) * 2004-03-17 2005-09-29 Sharp Corp 携帯情報機器、その制御方法、および、その制御プログラム
JP2006031499A (ja) 2004-07-20 2006-02-02 Denso Corp 情報入力表示装置
JP2006059238A (ja) 2004-08-23 2006-03-02 Denso Corp 情報入力表示装置
JP4479962B2 (ja) 2005-02-25 2010-06-09 ソニー エリクソン モバイル コミュニケーションズ, エービー 入力処理プログラム、携帯端末装置、及び入力処理方法
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
KR100830467B1 (ko) 2006-07-13 2008-05-20 엘지전자 주식회사 터치 패널을 갖는 영상기기 및 이 영상기기에서 줌 기능을수행하는 방법
US8484579B2 (en) 2007-03-27 2013-07-09 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP4849412B2 (ja) 2007-05-15 2012-01-11 三菱電機株式会社 情報入力表示装置
JP2009116769A (ja) 2007-11-09 2009-05-28 Sony Corp 入力装置、入力装置の制御方法、及びプログラム
JPWO2009069392A1 (ja) 2007-11-28 2011-04-07 日本電気株式会社 入力装置、サーバ、表示管理方法および記録媒体
US8723811B2 (en) 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
JP2008226282A (ja) 2008-06-26 2008-09-25 Sony Corp 表示装置、電子機器及び表示方法
US9658765B2 (en) * 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
JP5680267B2 (ja) * 2008-08-06 2015-03-04 コンテンツ株式会社 画像出力システム、画像出力装置、画像出力方法、及びプログラム
TWI383659B (zh) 2008-08-06 2013-01-21 Wistron Corp 顯示器畫面局部放大方法及應用該方法之裝置
KR101592296B1 (ko) 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
JP4752887B2 (ja) 2008-09-12 2011-08-17 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
KR20100038688A (ko) 2008-10-06 2010-04-15 엘지전자 주식회사 이동 단말기 및 이동 단말기의 유저 인터페이스
US8677287B2 (en) 2008-12-04 2014-03-18 Mitsubishi Electric Corporation Display input device and navigation device
KR101608673B1 (ko) 2009-10-30 2016-04-05 삼성전자주식회사 터치 락 상태를 가지는 휴대 단말기 및 이의 운용 방법
JP2011134271A (ja) 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5463934B2 (ja) 2010-01-27 2014-04-09 富士通モバイルコミュニケーションズ株式会社 3次元入力装置
KR101708821B1 (ko) 2010-09-30 2017-02-21 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US20140082559A1 (en) * 2011-02-22 2014-03-20 Bradley Neal Suggs Control area for facilitating user input
US20130147702A1 (en) * 2011-12-13 2013-06-13 Nokia Corporation Method, Apparatus, Computer Program and User Interface
TWI456486B (zh) 2012-03-06 2014-10-11 Acer Inc 電子裝置及控制電子裝置的方法
JP5907762B2 (ja) 2012-03-12 2016-04-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 入力装置、入力支援方法及びプログラム
JP5610644B2 (ja) 2012-04-27 2014-10-22 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力装置、入力支援方法及びプログラム
JP5579780B2 (ja) 2012-06-06 2014-08-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 入力装置、入力支援方法及びプログラム
JP5489379B1 (ja) 2013-01-18 2014-05-14 パナソニック株式会社 スクロール装置、スクロール方法及びプログラム
JP5628991B2 (ja) 2013-03-08 2014-11-19 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示装置、表示方法、及び表示プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072233A (ja) * 2005-09-08 2007-03-22 Matsushita Electric Ind Co Ltd 情報表示装置
WO2011027665A1 (ja) * 2009-09-02 2011-03-10 日本電気株式会社 表示装置
JP2011118857A (ja) * 2009-12-02 2011-06-16 Hyundai Motor Co Ltd 車両のマルチメディアシステム操作用ユーザーインターフェース装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073064A (ja) * 2015-10-09 2017-04-13 エヌ・ティ・ティ・コムウェア株式会社 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US9772757B2 (en) 2017-09-26
JP5828800B2 (ja) 2015-12-09
US20150052476A1 (en) 2015-02-19
JP2013225261A (ja) 2013-10-31

Similar Documents

Publication Publication Date Title
JP5828800B2 (ja) 表示装置、表示制御方法及びプログラム
US10216407B2 (en) Display control apparatus, display control method and display control program
JP5977627B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5721662B2 (ja) 入力受付方法、入力受付プログラム、及び入力装置
KR101534282B1 (ko) 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스
US9772762B2 (en) Variable scale scrolling and resizing of displayed images based upon gesture speed
US11257401B2 (en) Electronic apparatus for displaying content associated with application and control method thereof
JP5620440B2 (ja) 表示制御装置、表示制御方法及びプログラム
EP2921947B1 (en) Device and method for controlling a display panel
JP5907762B2 (ja) 入力装置、入力支援方法及びプログラム
US20120062564A1 (en) Mobile electronic device, screen control method, and storage medium storing screen control program
US20100088628A1 (en) Live preview of open windows
JP2010205050A (ja) タッチパネル付きユーザインタフェース装置、ユーザインタフェース制御方法、およびユーザインタフェース制御プログラム
KR20120029898A (ko) 인터넷 페이지 표시 방법 및 이를 이용하는 이동 단말기
US9569099B2 (en) Method and apparatus for displaying keypad in terminal having touch screen
WO2013161170A1 (ja) 入力装置、入力支援方法及びプログラム
JP2011134272A (ja) 情報処理装置、情報処理方法およびプログラム
JP2014182429A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR20110055057A (ko) 이동 단말기 및 그 제어방법
JP2012175486A (ja) 携帯端末装置
KR101786513B1 (ko) 이동 단말기의 화면 조작 방법
JP2013073366A (ja) 情報処理装置
JP2010108245A (ja) 携帯通信端末、携帯通信端末の制御方法、プログラム、及び記録媒体
JP2014044673A (ja) 携帯端末装置
KR20130106002A (ko) 이동 단말기 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13780979

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14394782

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13780979

Country of ref document: EP

Kind code of ref document: A1