WO2011064895A1 - 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体 - Google Patents

地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体 Download PDF

Info

Publication number
WO2011064895A1
WO2011064895A1 PCT/JP2009/070139 JP2009070139W WO2011064895A1 WO 2011064895 A1 WO2011064895 A1 WO 2011064895A1 JP 2009070139 W JP2009070139 W JP 2009070139W WO 2011064895 A1 WO2011064895 A1 WO 2011064895A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
display
angle
touch panel
overhead
Prior art date
Application number
PCT/JP2009/070139
Other languages
English (en)
French (fr)
Inventor
廣瀬 智博
洋三 竹原
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2010534307A priority Critical patent/JP4943543B2/ja
Priority to PCT/JP2009/070139 priority patent/WO2011064895A1/ja
Priority to US13/063,879 priority patent/US8922592B2/en
Publication of WO2011064895A1 publication Critical patent/WO2011064895A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to a map display device that displays map data, a map display method, a map display program, and a recording medium.
  • a map display device that displays map data
  • a map display method that displays map data
  • a map display program that uses map data
  • a map display program that uses map data to display map data
  • a map display program that uses map data to display map data
  • a recording medium that stores map data
  • map display method a map display method
  • map display program a map display program
  • Patent Document 1 when displaying map data in a navigation device or the like, a technique for switching display of map data from a plan view to an overhead view by moving an operation knob of an operation bar up and down is known (for example, Patent Document 1 below). reference).
  • Patent Document 1 when the operation knob is located at the top of the map operation bar, a road map based on a planar map is displayed.
  • the map display format is switched from the planar map to the overhead map, and the overhead map is displayed.
  • the screen is further moved downward, the look-down angle of the overhead map and the height of the viewpoint are changed accordingly, and the earlier map range is displayed.
  • the operation knob is moved to the bottom, an overhead map is displayed.
  • JP 2007-192881 A Japanese Patent Laid-Open No. 06-282378
  • a map display device includes a display unit capable of displaying a map viewed from a predetermined overhead angle with respect to the ground surface, and the display unit.
  • a touch panel that is provided in an overlapping manner, a determination unit that determines contact strength when an object contacts the touch panel, and display control that controls a display mode of the map displayed on the display unit based on a determination result of the determination unit
  • the display control means scrolls the map when the contact strength is lower than a predetermined strength, and changes the overhead angle when the contact strength is higher than a predetermined strength.
  • a map display method is a map display method in a map display device comprising a display means and a touch panel provided on the display means, wherein the display means is applied to the ground surface.
  • a map display program according to the invention of claim 7 causes a computer to execute the map display method of claim 6.
  • a recording medium is characterized in that the map display program according to the seventh aspect is recorded in a computer-readable state.
  • FIG. 1 is a block diagram illustrating a functional configuration of the map display device according to the embodiment.
  • a map display device 100 according to the embodiment includes a display unit 101, a touch panel 102, a determination unit 103, and a display control unit 104.
  • the display unit 101 displays a map viewed from a predetermined overhead angle with respect to the ground surface.
  • the method for obtaining the bird's-eye view angle is arbitrary, in the present embodiment, when the reference point on the ground surface is viewed from the viewpoint position at a predetermined height from the ground surface (that is, the reference point on the ground surface is slanted).
  • an angle formed by a line segment connecting the viewpoint position and the reference point and the ground surface is referred to as an overhead angle.
  • the display unit 101 displays a map in which the ground surface is tilted (the tilt angle is changed) around the reference point on the display unit 101 when displaying a bird's-eye view of the map when the ground surface is viewed obliquely from above. .
  • FIG. 2 is an explanatory diagram illustrating an example of how to obtain an overhead angle in the map display device.
  • features such as buildings, homes, and road signs exist on the ground surface G.
  • the viewpoint position is V 1
  • the angle formed by the line segment L 1 connecting the viewpoint position V 1 and the reference point D and the ground surface G is ⁇ 1 .
  • ⁇ 1 is approximately 90 °.
  • the viewpoint position is V 2
  • the angle between the line segment L 1 connecting the viewpoint position V 2 and the reference point D and the ground surface G is ⁇ 2
  • ⁇ 2 ⁇ 1 the angle between the line segment L 1 connecting the viewpoint position V 2 and the reference point D and the ground surface G.
  • the viewpoint V 3 indicates a viewpoint close to the ground surface, and is, for example, the same height as the viewpoint of a pedestrian or a vehicle driver.
  • a map in which the ground surface (reference point) is viewed from the viewpoint V 1 is referred to as a plan view
  • a map in which the ground surface (reference point) is viewed from the viewpoint V 2 is referred to as an overhead view
  • a map in which the reference point is viewed from the viewpoint V 3 Becomes Driver's View. Therefore, the “map viewed from a predetermined overhead angle with respect to the ground surface” includes a map viewed from any one of the viewpoints V 1 to V 3 .
  • the touch panel 102 is provided so as to overlap the display unit 101.
  • the touch panel 102 is used for receiving an operation input to the map display device 100. Specifically, for example, an operation button or the like is displayed on the display unit 101, and an operation input is received by causing the user to touch (contact) a desired operation position.
  • the discriminating unit 103 discriminates the contact strength when an object contacts the touch panel.
  • the object is, for example, a user's hand or finger.
  • the determination unit 103 determines the contact strength of the object in at least two stages (for example, whether the contact strength of the object is higher than a predetermined strength or lower than a predetermined strength).
  • the display control unit 104 controls the display mode of the map displayed on the display unit 101 based on the determination result of the determination unit 103. Specifically, the display control unit 104 scrolls the map when the contact strength is equal to or lower than a predetermined strength, and changes the overhead angle when the contact strength is higher than the predetermined strength. When scrolling the map, for example, the display control unit 104 scrolls the map data in a direction from the center point of the currently displayed map data to the contact point of the object on the touch panel 102 (display unit 101).
  • the display control unit 104 When changing the bird's-eye view angle, the display control unit 104 reduces the bird's-eye view angle when an object comes in contact with the area of the touch panel 102 that displays a map behind the reference point when the ground surface is inclined. That is, when a touch is made behind the reference point, the displayed map is brought closer to the driver's view. On the other hand, the display control unit 104 increases the bird's-eye angle when an object comes into contact with the area of the touch panel 102 that displays a map in front of the reference point when the ground surface is inclined. That is, when the near side of the reference point is touched, the map is brought closer to the plan view.
  • the display control unit 104 may increase the speed of changing the overhead angle as the distance between the reference point and the point where the object touches the touch panel 102 is longer. In this case, if the user wants to change the bird's-eye view angle greatly, it can be efficient if it touches a point far from the reference point on the touch panel 102, and if it only wants to change a little, it is efficient if the user touches a point close to the reference point on the touch panel 102. You can change the overhead angle.
  • the display control unit 104 may continue scrolling or changing the overhead angle while the contact of the object with the touch panel 102 is continued. In this case, the display control unit 104 increases the scrolling speed instead of changing the overhead angle when the contact strength becomes larger than the predetermined strength while the scrolling of the map is continued. Also good. Further, the display control unit 104 may continue the scrolling without reflecting the change in the contact strength in the process even if the contact strength becomes higher than a predetermined strength while the scrolling of the map is continued.
  • FIG. 3 is a flowchart showing the procedure of map display processing by the map display device.
  • the map display device 100 first displays a map viewed from a predetermined overhead angle with respect to the ground surface on the display unit 101 (step S301).
  • the map displayed at this time is a map viewed from any overhead angle from the viewpoint V 1 to the viewpoint V 3 .
  • the map display apparatus 100 determines whether or not an object has touched the touch panel 102 (step S302). If the object does not contact (step S302: No), the process returns to step S301 and the display of the map is continued as it is.
  • step S302 when the object is in contact (step S302: Yes), the map display device 100 determines the contact strength of the object by the determination unit 103, and determines whether the contact strength is equal to or lower than a predetermined strength (step S303).
  • the map display device 100 scrolls the map displayed on the display unit 101 (step S304), and ends the process according to the flowchart.
  • step S303: No when the contact strength is not less than or equal to the predetermined strength (greater than the predetermined strength) (step S303: No), the map display device 100 changes the bird's-eye view angle of the displayed map (step S305), according to this flowchart. The process ends.
  • the map display device 100 determines the contact strength of an object with respect to the touch panel 102, scrolls the map when the contact strength is equal to or lower than the predetermined strength, and displays the map when the contact strength is higher than the predetermined strength. Change the overhead angle. Thereby, it is not necessary to provide an interface for changing the overhead angle of the overhead view, and the display area of the display unit 101 and other operation devices can be effectively used.
  • the map display device 100 can accept two types of operation inputs only with the strength of contact with the touch panel 102. Changing the strength of the contact strength with respect to the touch panel 102 can be easily performed as compared with other operations (for example, pressing two types of buttons separately). Therefore, even when the map display device 100 is mounted on a moving body such as a vehicle, the operation can be performed without hindering movement.
  • the map display device 100 continues scrolling or changing the overhead angle while the object continues to touch the touch panel 102. Accordingly, it is possible to easily change the map display area and the bird's-eye view angle, or to continuously change the map display area and the bird's-eye view angle. Further, the map display device 100 increases the scrolling speed when the contact strength becomes larger than a predetermined strength while the scrolling of the map is continued. This is because when the user feels that the current scrolling speed is slow, the contact strength of the user with the touch panel 102 tends to increase. By changing the scroll speed based on the contact strength, the scroll operation can be performed more intuitively.
  • the map display device 100 decreases the overhead angle when an object comes in contact with a region deeper than the reference point, and increases the overhead angle when the object comes in contact with a region closer to the reference point. .
  • the overhead angle changing operation can be intuitively performed, and the user can easily change the overhead angle to a desired angle.
  • the map display device 100 increases the speed of changing the overhead angle as the distance between the reference point and the point where the object touches the touch panel is longer. Thereby, a display can be changed efficiently, when changing a bird's-eye view angle largely.
  • FIG. 4 is a block diagram illustrating a hardware configuration of the navigation apparatus.
  • the navigation apparatus 400 includes a CPU 401, a ROM 402, a RAM 403, a recording / reproducing unit 404 for recording / reproducing various data, a recording unit 405 for recording various data, an audio I / F (interface) 406, a microphone 407, and a speaker 408.
  • Each component 401 to 414 is connected by a bus 420.
  • the CPU 401 is responsible for overall control of the navigation device 400.
  • the ROM 402 stores programs such as a boot program, a map data display program, a route search program, and a facility search program.
  • the RAM 403 is used as a work area for the CPU 401. That is, the CPU 401 controls the entire navigation device 400 by executing various programs recorded in the ROM 402 while using the RAM 403 as a work area.
  • the recording / playback unit 404 controls reading / writing of data with respect to the recording unit 405 according to the control of the CPU 401.
  • the recording unit 405 records data written under the control of the recording / reproducing unit 404.
  • the recording / reproducing unit 404 for example, a magnetic disk drive or optical disk drive, and as the recording unit 405, for example, HD (hard disk), FD (flexible disk), flash memory, MO, SSD (Solid State Disk), memory card, etc. Can be used.
  • map data includes background data that represents features (features) such as buildings, rivers, and the ground surface, and road shape data that represents the shape of the road, and is composed of multiple data files divided by district. ing.
  • the road shape data further has traffic condition data.
  • the traffic condition data includes, for example, whether or not there is a signal or a pedestrian crossing, whether or not there is a highway doorway or junction, the length (distance) of each link, road width, direction of travel, road type (highway, Such as toll roads and general roads).
  • the functional data is three-dimensional data representing the shape of the facility on the map, character data representing the description of the facility, and other various data other than the map data.
  • Map data and function data are recorded in blocks divided by district or function. Specifically, for example, the map data is recorded in a state where each block can be divided into blocks such that each represents a predetermined district on the map displayed on the display screen. Further, for example, the function data is recorded in a state where each function can be divided into a plurality of blocks so as to realize one function.
  • the function data is data for realizing functions such as program data for realizing route search, calculation of required time, route guidance, and the like.
  • Each of the map data and the function data is composed of a plurality of data files divided for each district or each function.
  • map data is recorded in the recording unit 405.
  • necessary map data may be received via the communication I / F 413 and used for various processes.
  • the voice I / F 406 is connected to a microphone 407 for voice input and a speaker 408 for voice output.
  • the audio I / F 406 D / A converts audio data instructed to be reproduced, and outputs the audio data from the speaker 408 as audio.
  • the speaker 408 may be detachable from the navigation device 400 or may be located away from the main body of the navigation device 400.
  • the microphone 407 is installed, for example, in the vicinity of the sun visor of the vehicle, collects the user's utterance, and outputs it to the audio I / F 406.
  • the sound collected by the microphone 407 is A / D converted in the sound I / F 406.
  • the input device 409 is configured by a remote controller having a plurality of keys for inputting characters, numerical values, various instructions, a keyboard, and a touch panel.
  • the navigation apparatus 400 includes at least a touch panel using the display 411 as the input device 409. As will be described later, the touch panel of the navigation device 400 can detect that an object such as a user's finger has touched the surface of the display 411 and can also detect that an object has approached the vicinity of the surface of the display 411. .
  • the video I / F 410 is connected to the display 411 and the camera 412. Specifically, the video I / F 410 is output from, for example, a graphic controller that controls the display 411, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. And a control IC for controlling the display 411 based on the image data.
  • a graphic controller that controls the display 411
  • a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately
  • VRAM Video RAM
  • a control IC for controlling the display 411 based on the image data.
  • the display 411 displays map data, icons, cursors, menus, windows, or various data such as characters and images.
  • a sensor is provided on the surface of the display 411 and is used as an input device 409 (touch panel) by detecting the approach and contact of an object.
  • the display unit 101 and the touch panel 102 according to the embodiment will be described as a touch panel using the display 411.
  • the camera 412 captures images inside or outside the vehicle on which the navigation device 400 is mounted.
  • the image captured by the camera 412 may be either a still image or a moving image.
  • the video imaged by the camera 412 is recorded in the recording unit 405 or the like via the video I / F 410.
  • the communication I / F 413 is connected to a network via wireless, and can transmit and receive data via the network.
  • the navigation apparatus 400 can also acquire map data (including update data of map data) via the network. That is, even if map data is not recorded in the recording unit 305, map data necessary for display on the display 311 can be acquired from an external server.
  • Examples of the communication network include a LAN, a WAN, a public line network, and a mobile phone network.
  • the GPS unit 414 receives radio waves from GPS satellites and outputs information indicating the current location of the vehicle on which the navigation device 400 is mounted.
  • the GPS unit 414 includes various sensors such as a speed sensor, an acceleration sensor, and an angular velocity sensor.
  • the output information of the GPS unit 414 is used when the current position of the navigation device 400 is calculated by the CPU 401.
  • the information indicating the current location is information for specifying one point on the map data, such as latitude / longitude and altitude.
  • Each component of the map display device 100 shown in FIG. 1 uses the programs and data recorded in the ROM 402, RAM 403, recording unit 405, etc. in FIG. 4 to execute a predetermined program and control each unit. The function is realized.
  • map display processing by the navigation device 400 displays map data around the current position of the vehicle on the display 411 when performing route guidance.
  • the navigation device 400 can also read map data around an arbitrary point designated by the user from the recording unit 405 and display it on the display 411.
  • map data in the navigation device 400 there are various types of display modes of map data in the navigation device 400, and an example thereof is a map obtained by viewing the ground surface from a predetermined overhead angle.
  • the map changes from a close-up plan view (90 ° bird's-eye view) to the ground surface from a top view to a driver's view that looks at other points on the ground surface.
  • the display mode can be changed to a close one (an angle close to an overhead angle of 0 °).
  • the interface that accepts a change in the overhead angle from the user can take various forms. However, various information such as route guidance information, a distance to the destination, and a map scale change button are displayed on the display 411 of the traveling navigation device 400. For this reason, if the interface for accepting the change of the overhead angle is always displayed on the display 411, there is a possibility that the information required by the user cannot be obtained immediately, for example, the map data display area becomes narrow.
  • the contact strength of the user's hand with respect to the display 411 is detected using a pressure-sensitive detection type touch panel that can detect the contact strength of the object. Then, when there is a contact with the display 411 displaying the map, the navigation device 400 processes it as an operation input for scrolling the displayed map when the contact strength is less than or equal to a predetermined strength. On the other hand, when the contact strength is higher than the predetermined strength, it is processed as an operation input for changing the overhead angle of the map. Thereby, even if it does not always display the interface which receives the change of an overhead angle, the operation input for changing an overhead angle can be received easily. Note that when the contact strength is less than or equal to the predetermined strength, the operation input for scrolling the map is handled as the operation input for scrolling the displayed map for the contact with the display 411 displaying the map. This is because it is common.
  • FIG. 5 and 6 are explanatory diagrams showing an outline of a pressure-sensitive detection type touch panel.
  • FIG. 5 is a view of the pressure-sensitive detection type touch panel 500 viewed from the lateral direction
  • FIG. 5 is a view of the touch panel 500 viewed from the front.
  • the touch panel 500 includes a touch sensor 501 that detects the contact strength of an object on the surface of the display 411.
  • the touch sensor 501 can detect the contact strength of an object in at least two stages (whether it is less than a predetermined strength or greater than a predetermined strength).
  • the touch sensor 501 detects the position on the touch panel 500 where the user's finger F touches.
  • the touch sensor 501 takes the X coordinate in the horizontal direction and the Y coordinate in the vertical direction of the touch panel 500, for example, and the position P touched by the user's finger F is set to the coordinates (X, Y).
  • FIG. 7 is a flowchart showing the procedure of map display processing by the navigation device.
  • the navigation apparatus 400 displays a map with a predetermined point as a reference point on the display 411 (step S701).
  • the predetermined point is, for example, a current position of the vehicle or a point designated by the user.
  • the reference point may be the center of the map to be displayed, or may be another position (for example, slightly below the center of the display 411).
  • the overhead angle of the overhead view displayed in step S701 is set to an angle specified by default, an angle specified by the user, an angle specified when the previous map was displayed, or the like.
  • the navigation apparatus 400 determines whether or not an object (such as a user's hand) has touched the display 411 (step S702). Until there is an object contact (step S702: No), the process returns to step S701 and the map display is continued. On the other hand, when there is an object contact (step S702: Yes), it is determined whether or not the contact strength is equal to or lower than a predetermined strength (step S703).
  • the contact strength of the object is determined using the detection result by the touch sensor described with reference to FIGS.
  • the navigation device 400 scrolls the map in the contacted direction (step S704).
  • the contacted direction is, for example, a direction from the reference point of the map data toward the contacted point on the display 411.
  • the navigation device 400 changes the overhead angle of the overhead view displayed (step S705).
  • the overhead angle is reduced.
  • the position in contact with the object is an area for displaying a map in front of the reference point
  • the overhead angle is increased.
  • the bird's-eye view angle decreases, the bird's-eye view displayed on the display 411 approaches a view (driver's view) obtained by viewing the reference point from another point (viewpoint position) on the ground surface.
  • the bird's-eye view angle is increased, the bird's-eye view displayed on the display 411 approaches a view (plan view) of the reference point viewed from directly above.
  • step S706: No Until the display on the display 411 is changed to a display other than the overhead view (step S706: No), the navigation device 400 returns to step S701 and continues the subsequent processing. Then, when the display on the display 411 is changed to a display other than the overhead view (step S706: Yes), the processing according to this flowchart ends.
  • FIG. 8 shows an overhead view 800 in which the reference point D on the ground surface is viewed at a predetermined overhead angle.
  • the reference point D is the current position of the vehicle, and an icon indicating the current position of the vehicle is displayed.
  • the user may press the surface of the display 411 strongly (with a strength greater than a predetermined strength).
  • the overhead angle is reduced, and the overhead view displayed on the display 411 is as shown in the overhead view 900 of FIG.
  • FIG. 10 is a view in which the viewpoint is farther from the ground surface than the overhead view 800 in FIG.
  • the current position of the vehicle is the reference point D, but the position of the reference point D is not limited to this.
  • the center of the display screen of the display may be set as the reference point D, and an icon (cross icon) in FIGS.
  • the navigation device 400 may provide the reference point D at the center of the region indicating the ground surface when displaying an overhead view viewed obliquely from above. In this case, every time the overhead angle is changed, the ratio of the area indicating the ground surface in the entire screen changes (the area indicating the sky increases and the area indicating the ground surface decreases as the overhead angle decreases). Accordingly, the position of the reference point D also changes.
  • the navigation device 400 may not change the overhead angle even if the area indicating the sky is strongly pressed. By doing so, the user can more clearly feel that the surface is tilted when the user presses the ground surface, and can intuitively perform an operation of changing the overhead angle.
  • the bird's-eye view angle has a minimum value and a maximum value, and even when the bird's-eye view angle is the minimum value (for example, an angle close to 0 °), even if the area A1 on the back side from the reference point D is pressed strongly, the bird's-eye view angle further increases Since the angle cannot be reduced, the operation is invalidated. Similarly, even if the area A2 closer to the front side than the reference point D is strongly pressed when the overhead angle is the maximum value (for example, 90 °), the overhead angle cannot be increased any more, so the operation is invalidated.
  • the minimum value for example, an angle close to 0 °
  • the user may press the surface of the display 411 weakly (with a predetermined intensity or less).
  • the display scrolls to a map of the area on the back side of the reference point D as shown in the overhead view 1100 of FIG.
  • the reference point D is no longer the current position of the vehicle, and an icon indicating the reference point is displayed.
  • the display scrolls to a map of the area on the near side of the reference point D as shown in the overhead view 1200 of FIG.
  • the reference point D is not the current position of the vehicle, and an icon indicating the reference point is displayed at a position away from the icon indicating the current position of the vehicle.
  • the navigation device 400 continuously performs processing based on the contact strength (changing the overhead angle or scrolling). .
  • the display 411 is displayed so that the overhead angle is gradually decreased until the pressing is stopped or the overhead angle becomes the minimum value. Change.
  • the map is continuously scrolled in the direction closer to the reference position D until the pressing is stopped.
  • the navigation device 400 continues the process that has been started. For example, even when the contact strength changes and becomes larger than a predetermined strength while the display 411 is weakly pressed for a long time (that is, while scrolling), the navigation device 400 scrolls the map. Continue. Further, when the contact strength becomes strong during scrolling in this way, the navigation device 400 may increase the scroll speed of the map. This is because when the user feels that the current scrolling speed is slow, the contact strength of the user to the display 411 tends to increase. By changing the scroll speed based on the contact strength, the scroll operation can be performed more intuitively.
  • the changing speed of the overhead angle or the scrolling speed may be changed. For example, as the distance between the touched point on the display 411 and the reference point of the map is longer, the overhead angle change speed or scroll speed is increased. Thereby, when it is desired to change the bird's-eye view angle greatly or to view a map of a point away from the currently displayed area, the display can be changed efficiently.
  • the navigation device 400 determines the contact strength of the object with respect to the display 411, scrolls the map when the contact strength is equal to or lower than the predetermined strength, and looks down the map when the contact strength is higher than the predetermined strength. Change the angle. Thereby, it is not necessary to provide an interface for changing the overhead angle of the overhead view, and the display area of the display 411 and other operation devices can be used effectively.
  • the navigation device 400 can accept two types of operation inputs only with the strength of contact with the display 411. Changing the strength of the contact strength with respect to the display 411 can be easily performed as compared with other operations (for example, pressing two types of buttons separately). For this reason, even in a device such as a navigation device 400 that is mounted on a moving body such as a vehicle, the operation can be performed without hindering movement.
  • the navigation device 400 continues scrolling or changing the overhead angle while the contact of the object with the display 411 continues. Accordingly, it is possible to easily change the map display area and the bird's-eye view angle, or to continuously change the map display area and the bird's-eye view angle.
  • the navigation device 400 increases the scrolling speed when the contact strength becomes higher than a predetermined strength while the scrolling of the map is continued. This is because when the user feels that the current scrolling speed is slow, the contact strength of the user to the display 411 tends to increase. By changing the scroll speed based on the contact strength, the scroll operation can be performed more intuitively.
  • the navigation device 400 when changing the overhead angle, reduces the overhead angle when an object comes into contact with a region deeper than the reference point, and increases the overhead angle when the object comes into contact with a region in front of the reference point.
  • the overhead angle changing operation can be intuitively performed, and the user can easily change the overhead angle to a desired angle.
  • the navigation device 400 increases the speed of changing the overhead angle as the distance between the reference point and the point where the object touches the touch panel is longer. Thereby, a display can be changed efficiently, when changing a bird's-eye view angle largely.
  • the map display method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer.
  • the program may be a transmission medium that can be distributed via a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

 地図表示装置(100)は、表示部(101)に地表面に対して所定の俯瞰角度から眺めた地図を表示する。表示部(101)にはタッチパネル(102)が重ねて設けられる。判別部(103)は、タッチパネル(102)に物体が接触する際の接触強度を判別する。表示制御部(104)は、判別部(103)の判別結果に基づいて表示部(101)に表示する地図の表示態様を制御する。表示制御部(104)は、接触強度が所定の強度以下の場合は地図をスクロールし、接触強度が所定の強度より大きい場合は俯瞰角度を変更する。

Description

地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
 この発明は、地図データを表示する地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体に関する。ただし、この発明の利用は、上述した地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体に限られない。
 従来、ナビゲーション装置などにおいて地図データを表示する際に、操作バーの操作つまみを上下することによって平面図から俯瞰図へと地図データの表示を切り替える技術が知られている(たとえば、下記特許文献1参照)。下記特許文献1では、地図操作バーにおいて操作つまみが一番上に位置している場合は、平面地図による道路地図を表示する。地図操作バーの操作つまみが画面下方向に移動されると、地図の表示形式を平面地図から俯瞰地図へと切り替え、俯瞰地図を表示する。さらに画面下方向に移動されると、それに応じて俯瞰地図の見下ろし角度や視点の高さを変化させ、先の方の地図範囲を表示する。操作つまみが一番下まで移動されると、俯瞰地図を表示する。
 また、タッチパネル式の入力デバイスを備える情報処理装置において、タッチ強度を2段階に判別し、それぞれの強度によるタッチを異なる操作入力として処理する技術が知られている(たとえば、下記特許文献2参照)。
特開2007-192881号公報 特開平06-282378号公報
 しかしながら、上述した特許文献1では、操作バーを用いて地図データの表示態様を変更している。このため、操作バーを表示画面上に表示する必要があり、地図データの表示領域が狭くなってしまうという問題点が一例として挙げられる。たとえば、移動体に搭載されたナビゲーション装置や可搬性の情報処理端末などは、表示画面の大きさが限られていることが多い。操作バーの表示によって地図データを表示できる領域の大きさがさらに狭まると、必要な情報を得ることができず、ユーザに不都合を生じさせる可能性が大きくなる。
 上述した課題を解決し、目的を達成するため、請求項1の発明にかかる地図表示装置は、地表面に対して所定の俯瞰角度から眺めた地図を表示可能な表示手段と、前記表示手段に重ねて設けられるタッチパネルと、前記タッチパネルに物体が接触する際の接触強度を判別する判別手段と、前記判別手段の判別結果に基づいて前記表示手段に表示する前記地図の表示態様を制御する表示制御手段と、を備え、前記表示制御手段は、前記接触強度が所定の強度以下の場合は前記地図をスクロールし、前記接触強度が所定の強度より大きい場合は前記俯瞰角度を変更することを特徴とする。
 また、請求項6の発明にかかる地図表示方法は、表示手段と、前記表示手段に重ねて設けられるタッチパネルと、を備える地図表示装置における地図表示方法であって、前記表示手段に地表面に対して所定の俯瞰角度から眺めた地図を表示する表示工程と、前記タッチパネルに物体が接触する際の接触強度を判別する判別工程と、前記判別工程の判別結果に基づいて前記表示手段に表示する前記地図の表示態様を制御する表示制御工程と、を含み、前記表示制御工程では、前記接触強度が所定の強度以下の場合は前記地図をスクロールし、前記接触強度が所定の強度より大きい場合は前記俯瞰角度を変更することを特徴とする。
 また、請求項7の発明にかかる地図表示プログラムは、請求項6に記載の地図表示方法をコンピュータに実行させることを特徴とする。
 また、請求項8の発明にかかる記録媒体は、請求項7に記載の地図表示プログラムをコンピュータに読み取り可能な状態で記録したことを特徴とする。
実施の形態にかかる地図表示装置の機能的構成を示すブロック図である。 地図表示装置における俯瞰角度の取り方の一例を示す説明図である。 地図表示装置による地図表示処理の手順を示すフローチャートである。 ナビゲーション装置のハードウェア構成を示すブロック図である。 感圧検知型のタッチパネルの概要を示す説明図である。 感圧検知型のタッチパネルの概要を示す説明図である。 ナビゲーション装置による地図表示処理の手順を示すフローチャートである。 ディスプレイに表示される地図の一例を示す説明図である。 ディスプレイに表示される地図の一例を示す説明図である。 ディスプレイに表示される地図の一例を示す説明図である。 ディスプレイに表示される地図の一例を示す説明図である。 ディスプレイに表示される地図の一例を示す説明図である。
 以下に添付図面を参照して、この発明に係る地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体の好適な実施の形態を詳細に説明する。
(実施の形態)
 図1は、実施の形態にかかる地図表示装置の機能的構成を示すブロック図である。実施の形態にかかる地図表示装置100は、表示部101、タッチパネル102、判別部103、表示制御部104によって構成される。
 表示部101は、地表面に対して所定の俯瞰角度から眺めた地図を表示する。俯瞰角度の取り方は任意であるが、本実施の形態では、地表面から所定の高さにある視点位置から地表面上の基準点を眺めた場合(すなわち、地表面上の基準点を斜め上方から眺めた場合)において、視点位置と基準点とを結ぶ線分と、地表面とのなす角度を俯瞰角度という。表示部101は、地表面を斜め上方から眺めた地図の俯瞰図を表示する際に、表示部101上の基準点を中心として地表面を傾斜させた(傾斜角度を変更した)地図を表示する。
 図2は、地図表示装置における俯瞰角度の取り方の一例を示す説明図である。図2において、地表面Gにはビルや居宅、道路標識などの地物が存在している。たとえば、視点位置がV1にある場合、視点位置V1と基準点Dとを結ぶ線分L1と、地表面Gとのなす角度をθ1とする。θ1はおよそ90°である。同様に、視点位置がV2にある場合、視点位置V2と基準点Dとを結ぶ線分L1と、地表面Gとのなす角度はθ2であり、θ2<θ1である。また、視点位置がV3にある場合、視点位置V3と基準点Dとを結ぶ線分L3と、地表面Gとのなす角度は0°に近い角度になる。なお、視点V3は、地表面に近い位置の視点を示しており、たとえば歩行者や車両の運転者の視点と同じ高さである。一般に、視点V1から地表面(基準点)を眺めた地図を平面図、視点V2から地表面(基準点)を眺めた地図を俯瞰図といい、視点V3から基準点を眺めた地図はドライバーズビューとなる。よって、「地表面に対して所定の俯瞰角度から眺めた地図」には、視点V1から視点V3までのいずれかの視点から眺めた地図が含まれる。
 図1の説明に戻り、タッチパネル102は、表示部101に重ねて設けられる。タッチパネル102は、地図表示装置100に対する操作入力の受け付けなどに用いられる。具体的には、たとえば、表示部101に操作ボタンなどを表示し、ユーザに所望の操作位置をタッチ(接触)させることによって操作入力を受け付ける。
 判別部103は、タッチパネルに物体が接触する際の接触強度を判別する。物体とは、たとえばユーザの手や指である。判別部103は、物体の接触強度を少なくとも2段階(たとえば、物体の接触強度が所定強度より大きいか、所定強度以下であるか)で判別する。
 表示制御部104は、判別部103の判別結果に基づいて表示部101に表示する地図の表示態様を制御する。具体的には、表示制御部104は、接触強度が所定の強度以下の場合は地図をスクロールし、接触強度が所定の強度より大きい場合は俯瞰角度を変更する。地図をスクロールする場合、表示制御部104は、たとえば、現在表示している地図データの中心点からタッチパネル102(表示部101)上における物体の接触点に向かう方向に地図データをスクロールする。
 俯瞰角度を変更する場合、表示制御部104は、地表面が傾斜したときに基準点より奥側の地図を表示するタッチパネル102の領域に物体が接触した場合には、俯瞰角度を小さくする。すなわち、基準点より奥側にタッチされた場合は、表示する地図をドライバーズビューに近づける。一方、表示制御部104は、地表面が傾斜したときに基準点より手前側の地図を表示するタッチパネル102の領域に物体が接触した場合には、俯瞰角度を大きくする。すなわち、基準点より手前側がタッチされた場合は、地図を平面図に近づける。
 また、俯瞰角度を変更する際、表示制御部104は、基準点とタッチパネル102に物体が接触した点との距離が遠いほど俯瞰角度を変更する速度を速くするようにしてもよい。この場合、ユーザは、俯瞰角度を大きく変更したい場合はタッチパネル102上の基準点から遠い点に接触し、多少変更したいのみの場合はタッチパネル102上の基準点から近い点に接触すれば、効率的に俯瞰角度を変更することができる。
 また、表示制御部104は、タッチパネル102に対する物体の接触が継続している間、スクロールまたは俯瞰角度の変更を継続するようにしてもよい。この場合、表示制御部104は、地図のスクロールが継続されている間に接触強度が所定の強度より大きくなった場合は、俯瞰角度を変更するのではなく、スクロールする速度を速くするようにしてもよい。また、表示制御部104は、地図のスクロールが継続されている間に接触強度が所定の強度より大きくなっても、接触強度の変化を処理に反映せずに引き続きスクロールを継続してもよい。
 図3は、地図表示装置による地図表示処理の手順を示すフローチャートである。図2のフローチャートにおいて、地図表示装置100は、まず、表示部101に地表面に対して所定の俯瞰角度から眺めた地図を表示する(ステップS301)。このとき表示される地図は、上記の視点V1から視点V3までのいずれかの俯瞰角度から眺めた地図である。つぎに、地図表示装置100は、タッチパネル102に物体が接触したか否かを判断する(ステップS302)。物体が接触しない場合は(ステップS302:No)、ステップS301に戻り、そのまま地図の表示を継続する。
 一方、物体が接触した場合(ステップS302:Yes)、地図表示装置100は、判別部103によって物体の接触強度を判別して、接触強度が所定強度以下か否かを判断する(ステップS303)。所定強度以下の場合(ステップS303:Yes)、地図表示装置100は、表示部101に表示している地図をスクロールして(ステップS304)、本フローチャートによる処理を終了する。一方、接触強度が所定強度以下ではない(所定強度より大きい)場合(ステップS303:No)、地図表示装置100は、表示している地図の俯瞰角度を変更して(ステップS305)、本フローチャートによる処理を終了する。
 以上説明したように、地図表示装置100は、タッチパネル102に対する物体の接触強度を判別し、接触強度が所定の強度以下の場合は地図をスクロールし、接触強度が所定の強度より大きい場合は地図の俯瞰角度を変更する。これにより、俯瞰図の俯瞰角度を変更するためのインターフェースを設ける必要がなく、表示部101の表示領域やその他の操作デバイスを有効に活用することができる。
 また、地図表示装置100は、タッチパネル102への接触強度の強弱のみで2種類の操作入力を受け付けることができる。タッチパネル102への接触強度の強弱を変更することは、他の操作(たとえば2種類のボタンを押し分けるなど)と比較して容易におこなうことができる。このため、地図表示装置100が車両などの移動体に搭載されている場合などであっても、移動に支障をきたすことなく操作をおこなうことができる。
 また、地図表示装置100は、タッチパネル102に対する物体の接触が継続している間、スクロールまたは俯瞰角度の変更を継続する。これにより、地図の表示領域や俯瞰角度を大きく変更したり、地図の表示領域や俯瞰角度を連続的に変更したりする操作を容易におこなうことができる。また、地図表示装置100は、地図のスクロールが継続されている間に接触強度が所定の強度より大きくなった場合はスクロールする速度を速くする。これは、現在のスクロール速度が遅いと感じている場合、ユーザのタッチパネル102への接触強度が強くなる傾向があるためである。接触強度に基づいてスクロール速度を変更することによって、より直感的にスクロール操作をおこなうことができる。
 また、地図表示装置100は、俯瞰角度を変更する際、基準点より奥側の領域に物体が接触すると俯瞰角度を小さくし、基準点より手前側の領域に物体が接触すると俯瞰角度を大きくする。これにより、俯瞰角度の変更操作を直感的におこなうことができ、ユーザは容易に俯瞰角度を所望の角度に変更することができる。
 また、地図表示装置100は、俯瞰角度を変更する際、基準点とタッチパネルに前記物体が接触した点との距離が遠いほど俯瞰角度を変更する速度を速くする。これにより、俯瞰角度を大きく変更したい場合などに効率的に表示を変更することができる。
 以下に、本発明の実施例について説明する。本実施例では、実施の形態にかかる地図表示装置100を、車両に搭載されたナビゲーション装置400として本発明を適用した場合の一例について説明する。
(ナビゲーション装置400のハードウェア構成)
 図4は、ナビゲーション装置のハードウェア構成を示すブロック図である。実施例にかかるナビゲーション装置400は、CPU401、ROM402、RAM403、各種データを記録/再生する記録再生部404、各種データを記録する記録部405、音声I/F(インターフェース)406、マイク407、スピーカ408、入力デバイス409、映像I/F410、ディスプレイ411、カメラ412、通信I/F413、GPSユニット414を備えている。各構成部401~414は、バス420によってそれぞれ接続されている。
 CPU401は、ナビゲーション装置400の全体の制御を司る。ROM402は、ブートプログラム、地図データ表示プログラム、経路探索プログラム、施設検索プログラムなどのプログラムを記録している。RAM403は、CPU401のワークエリアとして使用される。すなわち、CPU401は、RAM403をワークエリアとして使用しながら、ROM402に記録された各種プログラムを実行することによって、ナビゲーション装置400の全体の制御を司る。
 記録再生部404は、CPU401の制御に従って記録部405に対するデータの読み取り/書き込みを制御する。記録部405は、記録再生部404の制御で書き込まれたデータを記録する。記録再生部404としては、たとえば、磁気ディスクドライブや光ディスクドライブ、記録部405としては、たとえば、HD(ハードディスク)、FD(フレキシブルディスク)、フラッシュメモリ、MO、SSD(Solid State Disk)、メモリカードなどを用いることができる。
 記録部405に記録される情報の一例としては、たとえば地図データが挙げられる。地図データは、建物、河川、地表面などの地物(フィーチャ)をあらわす背景データと、道路の形状をあらわす道路形状データとを含んでおり、地区ごとに分けられた複数のデータファイルによって構成されている。
 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンクションの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道路、有料道路、一般道路など)などの情報が含まれている。
 機能データは、地図上の施設の形状をあらわす3次元データ、当該施設の説明をあらわす文字データ、その他地図データ以外の各種のデータである。地図データや機能データは、地区ごとあるいは機能ごとにブロック分けされた状態で記録されている。具体的には、たとえば、地図データは、各々が、表示画面に表示された地図において所定の地区をあらわすように、地区ごとにブロック分けすることができる状態で記録されている。また、たとえば、機能データは、各々が、1つの機能を実現するように、機能ごとに複数にブロック分けすることができる状態で記録されている。
 また、機能データは、上述した3次元データや文字データに加えて、経路探索、所要時間の算出、経路誘導などを実現するプログラムデータなどの機能を実現するためのデータである。地図データおよび機能データは、それぞれ、地区ごとあるいは機能ごとに分けられた複数のデータファイルによって構成されている。なお、本実施例では地図データが記録部405に記録されているものとするが、通信I/F413などを介して必要な地図データを受信して各種処理に用いるようにしてもよい。
 音声I/F406は、音声入力用のマイク407および音声出力用のスピーカ408に接続される。音声I/F406は、再生が指示された音声データをD/A変換して、スピーカ408から音声として出力させる。なお、スピーカ408は、ナビゲーション装置400から着脱可能であってもよいし、ナビゲーション装置400の本体から離れた場所にあってもよい。マイク407は、たとえば、車両のサンバイザー付近に設置され、ユーザの発話などを集音し、音声I/F406に出力する。マイク407に集音された音声は、音声I/F406内でA/D変換される。
 入力デバイス409は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、およびタッチパネルなどによって構成される。本実施例にかかるナビゲーション装置400は、入力デバイス409として、少なくともディスプレイ411を利用したタッチパネルを備える。後述するように、ナビゲーション装置400のタッチパネルは、ユーザの指などの物体がディスプレイ411の表面に接触したことを検知する他、ディスプレイ411の表面の近傍に物体が接近したことも検知することができる。
 映像I/F410は、ディスプレイ411およびカメラ412に接続される。映像I/F410は、具体的には、たとえば、ディスプレイ411を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ411を制御する制御ICなどによって構成される。
 ディスプレイ411には、地図データやアイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画像などの各種データが表示される。また、ディスプレイ411の表面にはセンサが設けられており、物体の接近および接触を検知することによって入力デバイス409(タッチパネル)として利用される。本実施例では、実施の形態にかかる表示部101およびタッチパネル102(図1参照)を、ディスプレイ411を利用したタッチパネルとして説明する。
 カメラ412は、ナビゲーション装置400が搭載された車両の内部あるいは外部の映像を撮影する。カメラ412で撮影する映像は静止画あるいは動画のどちらでもよい。カメラ412によって撮影された映像は、映像I/F410を介して記録部405などに記録される。
 通信I/F413は、無線を介してネットワークに接続され、ネットワークを介したデータの送受信を可能とする。通信I/F413を用いることにより、ナビゲーション装置400は、ネットワークを介して地図データ(地図データの更新データなどを含む)を取得することも可能となる。すなわち、記録部305に地図データが記録されていなくても、ディスプレイ311の表示に必要な地図データを外部のサーバから取得することが可能である。通信網には、たとえばLAN、WAN、公衆回線網や携帯電話網などがある。
 GPSユニット414は、GPS衛星からの電波を受信し、ナビゲーション装置400が搭載された車両の現在地点を示す情報を出力する。また、GPSユニット414は、速度センサ、加速度センサ、角速度センサなどの各種センサを備える。GPSユニット414の出力情報は、CPU401によるナビゲーション装置400の現在地点の算出に際して利用される。現在地点を示す情報は、たとえば緯度・経度、高度などの、地図データ上の1点を特定する情報である。
 図1に示した地図表示装置100の各構成部は、図4におけるROM402、RAM403、記録部405などに記録されたプログラムやデータを用いて、CPU401が所定のプログラムを実行し、各部を制御することによってその機能を実現する。
(ナビゲーション装置400による地図表示処理)
 つぎに、ナビゲーション装置400による地図表示処理について説明する。ナビゲーション装置400は、経路誘導をおこなう際、車両の現在位置周辺の地図データをディスプレイ411に表示する。また、ナビゲーション装置400は、ユーザから指定された任意の地点周辺の地図データを記録部405から読み出してディスプレイ411に表示することも可能である。
 ナビゲーション装置400における地図データの表示態様には様々な種類があるが、その一例として、地表面を所定の俯瞰角度から眺めた地図が挙げられる。地図は、俯瞰角度を変更することによって、地表面を真上から見た平面図に近いもの(俯瞰角度90°)から、地表面上から地表面上の他の点を見たドライバーズビューに近いもの(俯瞰角度0°に近い角度)まで、表示態様を変更することが可能である。
 ユーザから俯瞰角度の変更を受け付けるインターフェースは各種の形態が考えられる。しかし、走行中のナビゲーション装置400のディスプレイ411には、経路案内情報や目的地点までの距離、地図の縮尺変更ボタンなど各種の情報が表示されている。このため、俯瞰角度の変更を受け付けるインターフェースを常時ディスプレイ411に表示していると、地図データの表示領域が狭くなるなど、ユーザが必要とする情報が即座に得られなくなってしまう可能性がある。
 このため、本実施例にかかるナビゲーション装置400では、物体の接触強度を検知することができる感圧検知型のタッチパネルを用いて、ディスプレイ411に対するユーザの手の接触強度を検知する。そして、ナビゲーション装置400は、地図を表示中のディスプレイ411に対して接触があった場合、接触強度が所定強度以下の場合は表示中の地図をスクロールするための操作入力として処理する。一方、接触強度が所定強度より大きい場合には地図の俯瞰角度を変更するための操作入力として処理する。これにより、俯瞰角度の変更を受け付けるインターフェースを常時表示しなくても、容易に俯瞰角度を変更するための操作入力を受け付けることができる。なお、接触強度が所定強度以下の場合に、地図をスクロールする操作入力とするのは、地図を表示しているディスプレイ411への接触は、表示中の地図をスクロールするための操作入力として扱うのが一般的なためである。
 図5および図6は、感圧検知型のタッチパネルの概要を示す説明図である。図5は、感圧検知型のタッチパネル500を横方向から見た図であり、図5は、タッチパネル500を正面から見た図である。図5に示すように、タッチパネル500は、ディスプレイ411の表面に、物体の接触強度を検出するタッチセンサ501を備えている。タッチセンサ501は、少なくとも2段階(所定強度以下か、所定強度より大きいか)で物体の接触強度を検出することができる。
 また、図6に示すように、タッチセンサ501は、ユーザの指Fが接触したタッチパネル500上の位置を検出する。ユーザの指Fが接触した位置を検出する場合、タッチセンサ501は、たとえばタッチパネル500の横方向にX座標、縦方向にY座標を取り、ユーザの指Fが接触した位置Pを座標(X,Y)のように検出する。
 つぎに、ナビゲーション装置400による地図表示処理の手順について説明する。図7は、ナビゲーション装置による地図表示処理の手順を示すフローチャートである。図7のフローチャートにおいて、ナビゲーション装置400は、ディスプレイ411に所定地点を基準点とした地図を表示する(ステップS701)。所定地点とは、たとえば、車両の現在位置やユーザから指定された地点である。基準点は表示する地図の中心としてもよいし、その他の位置(たとえば、ディスプレイ411の中心よりもやや下側)としてもよい。また、ステップS701で表示する俯瞰図の俯瞰角度は、デフォルトで指定されている角度やユーザから指定された角度、前回地図を表示した際に指定された角度などにする。
 つぎに、ナビゲーション装置400は、ディスプレイ411に物体(ユーザの手など)の接触があったか否かを判断する(ステップS702)。物体の接触があるまでは(ステップS702:No)、ステップS701に戻り、地図の表示を継続する。一方、物体の接触があった場合は(ステップS702:Yes)、接触強度が所定強度以下であるか否かを判断する(ステップS703)。物体の接触強度は、図5および図6で説明したタッチセンサによる検知結果などを用いて判断する。
 接触強度が所定強度以下の場合(ステップS703:Yes)、ナビゲーション装置400は、接触された方向に地図をスクロールする(ステップS704)。接触された方向とは、たとえば地図データの基準点からディスプレイ411上の接触された点に向かう方向である。
 一方、接触強度が所定強度より大きい場合(ステップS703:No)、ナビゲーション装置400は、表示している俯瞰図の俯瞰角度を変更する(ステップS705)。このとき、たとえば、物体が接触した位置が基準点より奥側の地図を表示する領域である場合は俯瞰角度を小さくする。一方、物体が接触した位置が基準点より手前側の地図を表示する領域である場合は俯瞰角度を大きくする。なお、俯瞰角度が小さくなると、ディスプレイ411に表示される俯瞰図は、基準点を地表面上の他の点(視点位置)から見た図(ドライバーズビュー)に近づく。また、俯瞰角度が大きくなると、ディスプレイ411に表示される俯瞰図は、基準点を真上から見た図(平面図)に近づく。
 ディスプレイ411の表示が俯瞰図以外の表示に変更されるまで(ステップS706:No)、ナビゲーション装置400は、ステップS701に戻り、以降の処理を継続する。そして、ディスプレイ411の表示が俯瞰図以外の表示に変更されると(ステップS706:Yes)、本フローチャートによる処理を終了する。
 図8~図12は、ディスプレイに表示される地図の一例を示す説明図である。図8には、所定の俯瞰角度で地表面上の基準点Dを見た俯瞰図800が示されている、基準点Dは、車両の現在位置であり、車両の現在位置を示すアイコンが表示されている。俯瞰図800の俯瞰角度を変更したい場合、ユーザはディスプレイ411の表面を強く(所定強度よりも大きい強度で)押下すればよい。このとき、基準点Dよりも奥側の領域A1を押下した場合は、俯瞰角度が小さくなり、ディスプレイ411に表示される俯瞰図は、図9の俯瞰図900のようになる。図9の俯瞰図900は、図8の俯瞰図800と比較して視点が地表面に近づいている。一方、図8において、基準点Dよりも手前側の領域A2を押下した場合は、俯瞰角度が大きくなり、ディスプレイ411に表示される俯瞰図は、図10の俯瞰図1000のようになる。図10の俯瞰図1000は、図8の俯瞰図800と比較して視点が地表面から離れ、より上空から見下ろした図になっている。
 なお、上記の例では、車両の現在位置を基準点Dとしているが、基準点Dの位置はこれに限らない。たとえば、ディスプレイの表示画面の中央を基準点Dとしてもよいし、後述する図11、図12におけるアイコン(十字アイコン)を基準点Dとしてもよい。また、ナビゲーション装置400は、斜め上方から眺めた俯瞰図を表示する際に、地表面を示す領域の中央に基準点Dを設けてもよい。この場合、俯瞰角度を変更するたびに画面全体における地表面を示す領域の割合が変化する(俯瞰角度が小さいほど空を示す領域が増大し、地表面を示す領域が減少する)ので、これに伴い基準点Dの位置も変化する。さらに、この場合、ナビゲーション装置400は、空を示す領域を強く押圧しても俯瞰角度を変更しないようにしてもよい。このようにすることで、ユーザは、地表面を押下するとその面が傾くという感覚がより明確になり、俯瞰角度を変更する操作が直感的に行える。
 なお、俯瞰角度には最小値および最大値があり、俯瞰角度が最小値(たとえば0°に近い角度)のときに基準点Dよりも奥側の領域A1を強く押下しても、それ以上俯瞰角度を小さくすることができないため、操作は無効とされる。同様に、俯瞰角度が最大値(たとえば90°)のときに基準点Dよりも手前側の領域A2を強く押下しても、それ以上俯瞰角度を大きくすることができないため、操作は無効とされる。
 また、図8において、俯瞰図800の表示範囲を変更(スクロール)したい場合、ユーザはディスプレイ411の表面を弱めに(所定強度以下で)押下すればよい。このとき、基準点Dよりも奥側の領域A1を押下した場合は、図11の俯瞰図1100に示すように、基準点Dよりも奥側の領域の地図へと表示がスクロールする。図11では、基準点Dが車両の現在位置ではなくなり、基準点を示すアイコンが表示されている。一方、図8において、基準点Dよりも手前側の領域A2を押下した場合は、図12の俯瞰図1200に示すように、基準点Dよりも手前側の領域の地図へと表示がスクロールする。図12においても、基準点Dは車両の現在位置ではなくなり、車両の現在位置を示すアイコンから離れた位置に基準点を示すアイコンが表示されている。
 また、ユーザが、ディスプレイ411に対する接触を継続しておこなった場合、すなわち、ディスプレイ411を長押しした場合、ナビゲーション装置400は、接触強度に基づく処理(俯瞰角度の変更またはスクロール)を継続しておこなう。たとえば、図8において俯瞰図800の領域A1が強く長押しされた場合は、押下が中止されるか、俯瞰角度が最小値になるまで、俯瞰角度を徐々に小さくするようにディスプレイ411の表示を変化させる。また、図8において俯瞰図800の領域A1が弱く長押しされた場合は、押下が中止されるまで、基準位置Dより手前側の方向に地図をスクロールさせ続ける。
 このようにディスプレイ411が長押しされている間に、接触強度が変化した場合であっても、ナビゲーション装置400は開始した処理を継続しておこなう。たとえば、ディスプレイ411が弱く長押しされている間(すなわち、スクロールをおこなっている間)に、接触強度が変化して所定強度より大きくなった場合であっても、ナビゲーション装置400は、地図のスクロールを継続する。また、このようにスクロール中に接触強度が強くなった場合、ナビゲーション装置400は、地図のスクロール速度を速めるようにしてもよい。これは、現在のスクロール速度が遅いと感じている場合、ユーザのディスプレイ411への接触強度が強くなる傾向があるためである。接触強度に基づいてスクロール速度を変更することによって、より直感的にスクロール操作をおこなうことができる。
 また、ディスプレイ411上の接触された点と地図の基準点との距離に応じて、俯瞰角度の変更速度またはスクロール速度を変更してもよい。たとえば、ディスプレイ411上の接触された点と地図の基準点と距離が長いほど、俯瞰角度の変更速度またはスクロール速度を早めるようにする。これにより、俯瞰角度を大きく変更したい場合や現在表示している領域から離れた地点の地図を見たい場合に、効率的に表示を変更することができる。
 以上説明したように、ナビゲーション装置400は、ディスプレイ411に対する物体の接触強度を判別し、接触強度が所定の強度以下の場合は地図をスクロールし、接触強度が所定の強度より大きい場合は地図の俯瞰角度を変更する。これにより、俯瞰図の俯瞰角度を変更するためのインターフェースを設ける必要がなく、ディスプレイ411の表示領域やその他の操作デバイスを有効に活用することができる。
 また、ナビゲーション装置400は、ディスプレイ411への接触強度の強弱のみで2種類の操作入力を受け付けることができる。ディスプレイ411への接触強度の強弱を変更することは、他の操作(たとえば2種類のボタンを押し分けるなど)と比較して容易におこなうことができる。このため、ナビゲーション装置400のように車両などの移動体に搭載されている機器においても、移動に支障をきたすことなく操作をおこなうことができる。
 また、ナビゲーション装置400は、ディスプレイ411に対する物体の接触が継続している間、スクロールまたは俯瞰角度の変更を継続する。これにより、地図の表示領域や俯瞰角度を大きく変更したり、地図の表示領域や俯瞰角度を連続的に変更したりする操作を容易におこなうことができる。また、ナビゲーション装置400は、地図のスクロールが継続されている間に接触強度が所定の強度より大きくなった場合はスクロールする速度を速くする。これは、現在のスクロール速度が遅いと感じている場合、ユーザのディスプレイ411への接触強度が強くなる傾向があるためである。接触強度に基づいてスクロール速度を変更することによって、より直感的にスクロール操作をおこなうことができる。
 また、ナビゲーション装置400は、俯瞰角度を変更する際、基準点より奥側の領域に物体が接触すると俯瞰角度を小さくし、基準点より手前側の領域に物体が接触すると俯瞰角度を大きくする。これにより、俯瞰角度の変更操作を直感的におこなうことができ、ユーザは容易に俯瞰角度を所望の角度に変更することができる。
 また、ナビゲーション装置400は、俯瞰角度を変更する際、基準点とタッチパネルに前記物体が接触した点との距離が遠いほど俯瞰角度を変更する速度を速くする。これにより、俯瞰角度を大きく変更したい場合などに効率的に表示を変更することができる。
 なお、本実施の形態で説明した地図表示方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。
 100 地図表示装置
 101 表示部
 102 タッチパネル
 103 判別部
 104 表示制御部

Claims (8)

  1.  地表面に対して所定の俯瞰角度から眺めた地図を表示可能な表示手段と、
     前記表示手段に重ねて設けられるタッチパネルと、
     前記タッチパネルに物体が接触する際の接触強度を判別する判別手段と、
     前記判別手段の判別結果に基づいて前記表示手段に表示する前記地図の表示態様を制御する表示制御手段と、を備え、
     前記表示制御手段は、前記接触強度が所定の強度以下の場合は前記地図をスクロールし、前記接触強度が所定の強度より大きい場合は前記俯瞰角度を変更することを特徴とする地図表示装置。
  2.  前記表示制御手段は、前記タッチパネルに対する前記物体の接触が継続している間、前記スクロールまたは前記俯瞰角度の変更を継続することを特徴とする請求項1に記載の地図表示装置。
  3.  前記表示制御手段は、前記地図のスクロールが継続されている間に前記接触強度が所定の強度より大きくなった場合は前記スクロールする速度を速くすることを特徴とする請求項2に記載の地図表示装置。
  4.  前記表示手段は、前記地表面を斜め上方から眺めた地図の俯瞰図を表示する際に、前記表示手段上の基準点を中心として前記地表面を傾斜させた前記地図を表示し、
     前記表示制御手段は、前記俯瞰角度を変更する際、前記地表面が傾斜したときに前記基準点より奥側の地図を表示する前記タッチパネルの領域に前記物体が接触すると前記俯瞰角度を小さくし、前記地表面が傾斜したときに前記基準点より手前側の地図を表示する前記タッチパネルの領域に前記物体が接触すると前記俯瞰角度を大きくすることを特徴とする請求項1~3のいずれか一つに記載の地図表示装置。
  5.  前記表示制御手段は、前記俯瞰角度を変更する際、前記基準点と前記タッチパネルに前記物体が接触した点との距離が遠いほど前記俯瞰角度を変更する速度を速くすることを特徴とする請求項4に記載の地図表示装置。
  6.  表示手段と、前記表示手段に重ねて設けられるタッチパネルと、を備える地図表示装置における地図表示方法であって、
     前記表示手段に地表面に対して所定の俯瞰角度から眺めた地図を表示する表示工程と、
     前記タッチパネルに物体が接触する際の接触強度を判別する判別工程と、
     前記判別工程の判別結果に基づいて前記表示手段に表示する前記地図の表示態様を制御する表示制御工程と、を含み、
     前記表示制御工程では、前記接触強度が所定の強度以下の場合は前記地図をスクロールし、前記接触強度が所定の強度より大きい場合は前記俯瞰角度を変更することを特徴とする地図表示方法。
  7.  請求項6に記載の地図表示方法をコンピュータに実行させることを特徴とする地図表示プログラム。
  8.  請求項7に記載の地図表示プログラムを記録したことを特徴とするコンピュータに読み取り可能な記録媒体。
PCT/JP2009/070139 2009-11-30 2009-11-30 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体 WO2011064895A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010534307A JP4943543B2 (ja) 2009-11-30 2009-11-30 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
PCT/JP2009/070139 WO2011064895A1 (ja) 2009-11-30 2009-11-30 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
US13/063,879 US8922592B2 (en) 2009-11-30 2009-11-30 Map display device, map display method, map display program, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/070139 WO2011064895A1 (ja) 2009-11-30 2009-11-30 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体

Publications (1)

Publication Number Publication Date
WO2011064895A1 true WO2011064895A1 (ja) 2011-06-03

Family

ID=44066014

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/070139 WO2011064895A1 (ja) 2009-11-30 2009-11-30 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体

Country Status (3)

Country Link
US (1) US8922592B2 (ja)
JP (1) JP4943543B2 (ja)
WO (1) WO2011064895A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037521A (ja) * 2011-08-08 2013-02-21 Toshiba Alpine Automotive Technology Corp 入力装置
WO2013046596A1 (ja) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 携帯型情報処理端末
WO2013046426A1 (ja) * 2011-09-30 2013-04-04 パイオニア株式会社 ヘッドアップディスプレイ、画像表示方法、画像表示プログラム、及び表示装置
JP2013206354A (ja) * 2012-03-29 2013-10-07 Aisin Aw Co Ltd 画像表示装置、画像表示方法及びコンピュータプログラム
JP2014228702A (ja) * 2013-05-22 2014-12-08 トヨタ自動車株式会社 地図表示制御装置
WO2015053040A1 (ja) * 2013-10-11 2015-04-16 富士通テン株式会社 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
JP2019032886A (ja) * 2018-10-24 2019-02-28 パイオニア株式会社 表示制御装置、表示制御方法、および、表示制御装置用プログラム
JP2019079152A (ja) * 2017-10-20 2019-05-23 ヤフー株式会社 情報制御プログラム、情報制御方法および端末装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10191641B2 (en) 2011-12-29 2019-01-29 Apple Inc. Device, method, and graphical user interface for navigation of information in a map-based interface
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US8880336B2 (en) 2012-06-05 2014-11-04 Apple Inc. 3D navigation
US9367959B2 (en) * 2012-06-05 2016-06-14 Apple Inc. Mapping application with 3D presentation
US8965696B2 (en) 2012-06-05 2015-02-24 Apple Inc. Providing navigation instructions while operating navigation application in background
US9111380B2 (en) 2012-06-05 2015-08-18 Apple Inc. Rendering maps
US9135751B2 (en) 2012-06-05 2015-09-15 Apple Inc. Displaying location preview
US9311750B2 (en) 2012-06-05 2016-04-12 Apple Inc. Rotation operations in a mapping application
US9159153B2 (en) 2012-06-05 2015-10-13 Apple Inc. Method, system and apparatus for providing visual feedback of a map view change
US9541417B2 (en) 2012-06-05 2017-01-10 Apple Inc. Panning for three-dimensional maps
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US9269178B2 (en) 2012-06-05 2016-02-23 Apple Inc. Virtual camera for 3D maps
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
EP2926317B1 (en) * 2012-12-03 2020-02-12 Harman International Industries, Incorporated System and method for detecting pedestrians using a single normal camera
US9418485B2 (en) 2013-05-31 2016-08-16 Apple Inc. Adjusting heights for road path indicators
US9678651B2 (en) 2013-06-08 2017-06-13 Apple Inc. Mapping application with interactive compass
US9903735B2 (en) 2015-03-30 2018-02-27 International Business Machines Corporation Route stabilization scrolling mode
US10740972B2 (en) * 2017-04-28 2020-08-11 Harman International Industries, Incorporated System and method for presentation and control of augmented vehicle surround views

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282378A (ja) * 1993-03-30 1994-10-07 Toshiba Corp 表示監視装置
JP2006330428A (ja) * 2005-05-27 2006-12-07 Xanavi Informatics Corp 地図表示装置
JP2007034101A (ja) * 2005-07-29 2007-02-08 Matsushita Electric Ind Co Ltd データ処理装置
JP2007094708A (ja) * 2005-09-28 2007-04-12 Kddi Corp 情報端末装置
JP2007192881A (ja) * 2006-01-17 2007-08-02 Xanavi Informatics Corp 車載地図表示装置
JP2007328570A (ja) * 2006-06-08 2007-12-20 Xanavi Informatics Corp 地図表示装置
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
JP2009157908A (ja) * 2007-12-07 2009-07-16 Sony Corp 情報表示端末、情報表示方法、およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4790028A (en) * 1986-09-12 1988-12-06 Westinghouse Electric Corp. Method and apparatus for generating variably scaled displays
US6654014B2 (en) * 1995-04-20 2003-11-25 Yoshinori Endo Bird's-eye view forming method, map display apparatus and navigation system
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9513765B2 (en) 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
JP4605214B2 (ja) * 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20100309228A1 (en) * 2009-06-04 2010-12-09 Camilo Mattos Displaying Multi-Dimensional Data Using a Rotatable Object
US8363020B2 (en) * 2009-08-27 2013-01-29 Symbol Technologies, Inc. Methods and apparatus for pressure-based manipulation of content on a touch screen

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282378A (ja) * 1993-03-30 1994-10-07 Toshiba Corp 表示監視装置
JP2006330428A (ja) * 2005-05-27 2006-12-07 Xanavi Informatics Corp 地図表示装置
JP2007034101A (ja) * 2005-07-29 2007-02-08 Matsushita Electric Ind Co Ltd データ処理装置
JP2007094708A (ja) * 2005-09-28 2007-04-12 Kddi Corp 情報端末装置
JP2007192881A (ja) * 2006-01-17 2007-08-02 Xanavi Informatics Corp 車載地図表示装置
JP2007328570A (ja) * 2006-06-08 2007-12-20 Xanavi Informatics Corp 地図表示装置
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
JP2009157908A (ja) * 2007-12-07 2009-07-16 Sony Corp 情報表示端末、情報表示方法、およびプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037521A (ja) * 2011-08-08 2013-02-21 Toshiba Alpine Automotive Technology Corp 入力装置
WO2013046596A1 (ja) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 携帯型情報処理端末
WO2013046426A1 (ja) * 2011-09-30 2013-04-04 パイオニア株式会社 ヘッドアップディスプレイ、画像表示方法、画像表示プログラム、及び表示装置
JP2013206354A (ja) * 2012-03-29 2013-10-07 Aisin Aw Co Ltd 画像表示装置、画像表示方法及びコンピュータプログラム
JP2014228702A (ja) * 2013-05-22 2014-12-08 トヨタ自動車株式会社 地図表示制御装置
WO2015053040A1 (ja) * 2013-10-11 2015-04-16 富士通テン株式会社 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
JP2015076062A (ja) * 2013-10-11 2015-04-20 富士通テン株式会社 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
US10857974B2 (en) 2013-10-11 2020-12-08 Fujitsu Ten Limited Image display device, image display system, image display method and program
US11643047B2 (en) 2013-10-11 2023-05-09 Fujitsu Ten Limited Image display device, image display system, image display method and program
JP2019079152A (ja) * 2017-10-20 2019-05-23 ヤフー株式会社 情報制御プログラム、情報制御方法および端末装置
JP2019032886A (ja) * 2018-10-24 2019-02-28 パイオニア株式会社 表示制御装置、表示制御方法、および、表示制御装置用プログラム

Also Published As

Publication number Publication date
JPWO2011064895A1 (ja) 2013-04-11
US20110249030A1 (en) 2011-10-13
US8922592B2 (en) 2014-12-30
JP4943543B2 (ja) 2012-05-30

Similar Documents

Publication Publication Date Title
JP4943543B2 (ja) 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
CN110618800B (zh) 一种界面显示的方法、装置、设备和存储介质
JP4111885B2 (ja) 地図検索表示方法及び装置
JP5174704B2 (ja) 画像処理装置および画像処理方法
EP2360557A1 (en) Input device, apparatus for monitoring area around vehicle, method for selecting icon switch, and program
JP6429886B2 (ja) 触感制御システムおよび触感制御方法
JP5754410B2 (ja) 表示装置
JP4067374B2 (ja) 画像処理装置
JP5358215B2 (ja) 地図表示装置
KR20150005386A (ko) 멀티 터치 입력을 지원하는 터치스크린을 구비한 모바일 단말기 및 그의 제어 방법
JP5453069B2 (ja) 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
JP2019096026A (ja) 操作受付システムおよび操作受付プログラム
JPWO2009028085A1 (ja) 地図表示装置、地図表示方法、及び地図表示プログラム
JP2011080851A (ja) ナビゲーション装置および地図画像表示方法
JP5389624B2 (ja) 情報処理装置、入力制御方法、入力制御プログラムおよび記録媒体
JP3337144B2 (ja) ナビゲーション装置
JP5933468B2 (ja) 情報表示制御装置、情報表示装置および情報表示制御方法
JP5665838B2 (ja) 画像処理装置、画像表示方法、および、プログラム
JP5453070B2 (ja) 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
JP2005128791A (ja) 表示装置
WO2015151154A1 (ja) 表示装置、表示方法および表示プログラム
WO2007123104A1 (ja) 経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体
WO2007105500A1 (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラムおよびコンピュータに読み取り可能な記録媒体
JP2019036325A (ja) 表示装置、表示方法および表示プログラム
JP2011117742A (ja) 情報処理装置、入力方法、入力プログラムおよび記録媒体

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2010534307

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13063879

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09851684

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: COMMUNICATION NOT DELIVERED. NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112 EPC (EPO FORM 1205A DATED 12.09.2012)

122 Ep: pct application non-entry in european phase

Ref document number: 09851684

Country of ref document: EP

Kind code of ref document: A1