WO2010030010A1 - 情報処理装置および画像処理装置 - Google Patents

情報処理装置および画像処理装置 Download PDF

Info

Publication number
WO2010030010A1
WO2010030010A1 PCT/JP2009/065960 JP2009065960W WO2010030010A1 WO 2010030010 A1 WO2010030010 A1 WO 2010030010A1 JP 2009065960 W JP2009065960 W JP 2009065960W WO 2010030010 A1 WO2010030010 A1 WO 2010030010A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
navigation
screen
displayed
display area
Prior art date
Application number
PCT/JP2009/065960
Other languages
English (en)
French (fr)
Inventor
文武 中村
上川 則幸
貴洋 中川
覚 永元
太田 崇史
貴穂 岡田
秀樹 川口
Original Assignee
富士通テン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008234527A external-priority patent/JP5280778B2/ja
Priority claimed from JP2008234598A external-priority patent/JP5280779B2/ja
Priority claimed from JP2008235298A external-priority patent/JP5280780B2/ja
Application filed by 富士通テン株式会社 filed Critical 富士通テン株式会社
Priority to EP09813156.8A priority Critical patent/EP2336720B1/en
Priority to US13/063,339 priority patent/US8819581B2/en
Publication of WO2010030010A1 publication Critical patent/WO2010030010A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an information processing apparatus and an image processing apparatus.
  • Patent Document 1 discloses a navigation device that facilitates understanding of a map by displaying only necessary information.
  • Patent Document 2 discloses a technology that makes it easy to recognize the correspondence before and after displaying the menu screen by displaying the menu screen by pushing out the navigation map screen.
  • GUI Graphic User Interface
  • touch panel As one of means for reducing the burden of user operations that increase with the enhancement of the functionality of such electronic devices, there is a GUI (Graphical User Interface) using a touch panel or the like.
  • GUI Graphic User Interface
  • various images may be displayed side by side on the display screen of the touch panel, and operation buttons may be arranged on the images displayed side by side.
  • One of the objects of the present invention is to provide an information processing apparatus and an image processing apparatus that facilitate button operation on a touch panel.
  • Another object of the present invention is to provide an information processing apparatus and an image processing apparatus that can change the position of the boundary between images displayed side by side without reducing the operability of operation buttons displayed on the touch panel. Is to provide.
  • the present invention separates a region related to the navigation function and a region related to a function other than the navigation function with a movable boundary on the display screen of the touch panel.
  • an information processing apparatus capable of processing navigation information
  • a touch panel capable of displaying an image and accepting a touch operation by a user, an image displayed on the touch panel, a navigation image including a map image, and a plurality of operation button images for accepting the touch operation
  • An image generation unit wherein the plurality of operation button images include a first operation button image related to a navigation function and a second operation button image related to a plurality of functions other than the navigation function, and the image generation
  • the unit generates a first image obtained by combining the navigation image and the first operation button image, and a second image including the second operation button, and the first image and the second operation button are generated. Images are displayed in a first display area and a second display area, respectively, and the first display area and the second display area are movable boundaries. Terra is to have the information processing apparatus is provided.
  • the touch panel of the information processing apparatus can accept a touch operation by a user, and realizes an operation related to a plurality of functions realized by various electronic devices and functional units by the touch operation by the user.
  • the information processing apparatus displays navigation images and operation button images related to a plurality of functions on the touch panel.
  • the plurality of functions are specific functions implemented in response to a user request by an electronic device externally connected to the information processing apparatus or a function unit included in the information processing apparatus.
  • the electronic device and the function unit execute a specific function by cooperating with the touch panel. Examples of such specific functions include a television broadcast receiving function, a playback function of a portable music player, and a navigation function for guiding a route.
  • the image generation unit generates a first image that combines the operation button image and the navigation image including the map image based on the graphic data.
  • the graphic data that is referred to when the image generation unit generates such an image is data that has been artificially created in advance and stored in the storage unit.
  • the image generation unit refers to the graphic data by accessing the storage unit.
  • the navigation image is generated by the image generation unit based on graphic data generated by a navigation device externally connected to the information processing device or a navigation function realized inside the information processing device.
  • the navigation image is, for example, an image including an icon and a map indicating the position of the information processing apparatus, an enlarged view of an intersection, and the like.
  • the operation button image is arranged in a desirable region from the viewpoint of improving the operability of the touch operation.
  • the navigation device when configured to be mounted on a vehicle, the navigation device is disposed on the driver's seat side or the lower side of the touch panel that can be easily operated from the driver's seat of the vehicle.
  • the image generation unit performs a process of generating an image by dividing the display surface of the touch panel into a plurality of regions. That is, any one of the plurality of display areas is set as the first display area, and information related to the navigation function is displayed in the first display area. Further, any one of the plurality of display areas other than the first display area is set as a second display area, and information related to a plurality of functions other than the navigation function is displayed in the second area.
  • Each of these display areas is not fixed in position, shape, and size on the display surface of the touch panel, and can be freely adjusted according to a touch operation by the user.
  • the image generation unit generates an image so that operation button images related to the functions assigned to the respective display areas are displayed in the display areas thus defined, and the display areas are separated by movable boundaries. To do.
  • the display area of the screen related to both functions is partitioned by the boundary. Makes it difficult to get lost in the touch operation on the operation button image. Accordingly, button operations on the touch panel can be facilitated.
  • the function other than the navigation function refers to a function that is realized by an electronic device externally connected to the information processing apparatus or a function unit included in the information processing apparatus, and is not related to the navigation function.
  • an audio reproduction function and a broadcast wave reception function can be exemplified.
  • the second image includes a function selection area in which a plurality of function selection button images for selecting one of the plurality of functions is displayed, and a plurality of functions for operating the function selected by the function selection button images. And a function operation area where the function-specific operation button images are displayed.
  • the function selection button image for accepting the function selection and the function-specific operation button image for operating the selected function are displayed in the second display area. Even if the first operation button image related to the navigation function and the second operation button image related to other functions are displayed at the same time, the user is less likely to get lost in the touch operation on the operation button image.
  • the second image includes a function selection area in which the function selection button image is arranged and a function operation area in which the function-specific operation button image is arranged, the function selection operation is performed in the second display area.
  • the function selection operation is performed in the second display area.
  • the position of the first operation button image before the size of the first display area is enlarged is The position of the first operation button image after the size of the first display area is enlarged may be the same. Further, it is possible to enlarge the size of the second display area, and on the touch panel, the position of the second operation button image before the size of the second display area is enlarged, The size of the second display area is the same as the position of the second operation button image after being enlarged, and the second operation button image is related to one basic operation of the plurality of functions. When the size of the second display area is enlarged, an extended operation button image related to one extended operation of the plurality of functions may be displayed in the enlarged second display area.
  • the size of the display area of the first image and the size of the display area of the second image should be adjustable according to user requirements. In other words, when there is little need for information related to the navigation function, a lot of information related to functions other than the navigation function should be displayed, and when information related to the navigation function is important, much information related to the navigation function should be displayed. Should be displayed. However, when changing the size of the display area, the position of the operation button image related to each function may change, and it is difficult to intuitively understand which function the displayed image relates to. .
  • the size of the display area can be changed by an operation of an operation button image displayed on the touch panel or an operation button provided on a housing surrounding the touch panel.
  • the image generation unit when changing the size of the display area, there may be a part that is within the same display area before and after the change and a part that is not.
  • operation button images related to each function are displayed in the corresponding display areas. Therefore, the image generation unit generates an image so that the operation button image continues to be displayed at the same position on the display surface without changing the position of each display area. This makes it possible to provide a display area having a size according to the necessity of each function without impairing operability.
  • the first display area is arranged on one of the left side and the right side of the touch panel, and the second display area is arranged on the other side of the left side and the right side of the touch panel, and the first display area Is arranged on the driver's seat side of the vehicle on which the information processing apparatus is mounted.
  • the navigation function is a function that guides the route of the vehicle to the driver, so that an operation button image related to the navigation function is displayed on the side closer to the driver.
  • an operation button image related to the navigation function is displayed on the side closer to the driver.
  • operation button images related to functions other than the navigation function may be displayed on the side far from the driver.
  • the first image including the navigation image and the first operation button image related to the navigation function is displayed on the driver's seat side, and the second image including the second operation button image related to the function other than the navigation function is displayed on the passenger seat side.
  • the first display area is reduced, and at the same time, the second display area is enlarged, or the second display area is reduced, and the first display area is reduced.
  • the display area may be enlarged.
  • the information processing apparatus further includes receiving means capable of receiving position data of the information processing apparatus, and storage means for storing map data, and the navigation function is based on the position data and the map data.
  • Graphic data for drawing the navigation image is generated, the image generation unit generates the navigation image based on the graphic data, and the first operation button image is a screen for setting the navigation function May include at least one of a button image for displaying, a button image for displaying a screen for setting a vehicle destination, and a button image for enlarging and reducing the map image.
  • the plurality of functions include an audio function for outputting sound through a speaker, and the predetermined second operation button image includes at least one of a music selection button image and a radio broadcast selection button image. May be included.
  • an image that realizes the touch operation related to the navigation function is arranged in the first display area, and the touch operation related to the audio function is realized.
  • An image (second operation button image) is arranged in the second display area, and an image capable of realizing operations related to both functions is displayed. Therefore, regardless of the button operation related to any function, the user can easily perform the button operation related to both functions without hesitation of the touch operation on the operation button image.
  • the image generation unit may generate the image displayed on the touch panel so that the second operation button image is highlighted according to the history of the touch operation.
  • the image generation unit may generate an image in which only the first image is displayed on the touch panel by moving the boundary to enlarge the first display area.
  • the image generation unit reduces the first display area by moving the boundary, and the first image An image in which the second image is displayed on the touch panel may be generated.
  • the image generation unit may generate an image in which only the second image is displayed on the touch panel by moving the boundary to enlarge the second display area.
  • the image generation unit moves the boundary to reduce the second display area, and the first image An image in which the second image is displayed on the touch panel may be generated.
  • the image generation unit may generate an animation image in which the boundary is gradually slid when moving the boundary.
  • the image generation unit may generate an animation image so that the position of the information processing device is positioned at the center of the first display area in the navigation image while the boundary is gradually slid. .
  • the navigation image and information around the position of the information processing apparatus are the information that is most needed by the user, and information about the location away from this position is not so much needed by the user.
  • the information necessary for the user can be appropriately displayed by centering the information processing apparatus position in the first display area where the navigation image is displayed.
  • the present invention can also be realized as an image processing apparatus capable of generating an image. That is, according to the present invention, an image processing apparatus capable of generating an image displayed on a touch panel that can accept a touch operation by a user, the image displayed on the touch panel, and a navigation image including a map image; An image generation unit configured to generate a plurality of operation button images for receiving the touch operation, wherein the plurality of operation button images are related to a first operation button image related to a navigation function and a plurality of functions other than the navigation function; A second operation button image is included, and the image generation unit generates a first screen that combines the navigation image and the first operation button image, and a second image that includes the second operation button image.
  • the first image and the second image are displayed in a first display area and a second display area, respectively, It said second display region and the display region of the image processing apparatus is provided which are separated by a movable boundary.
  • the present invention can also be realized as a computer program that generates an image to be displayed on a touch panel.
  • the external view of a navigation apparatus The block diagram of a navigation apparatus.
  • the flowchart of the change process of the display position of an operation button The figure of the screen displayed when receiving the change of the display position of an operation button.
  • FIG. 1 is an external view of a navigation device 1 (an example of an information processing device) according to an embodiment of the present invention.
  • the navigation device include an in-vehicle navigation device such as AVN (registered trademark: Audio Visual Navigation) of Fujitsu Ten Limited.
  • AVN registered trademark: Audio Visual Navigation
  • the present invention can also be applied to, for example, an electronic device having a portable navigation function.
  • the present invention can be applied to a navigation device and an image processing device that generates a navigation image by being externally connected to or incorporated in an electronic device having a portable navigation function.
  • the navigation apparatus 1 is a 2DIN (Deutsch Industry Normen) main body / monitor integrated car navigation apparatus, which provides a car navigation function for guiding a route to the current location of a vehicle or a destination, various audio / It has a function of reproducing visual (hereinafter referred to as AV) content, a function of receiving broadcast waves, and the like.
  • the navigation device 1 is used in a state where it is installed near the center of a dashboard that can be easily reached by passengers in the driver's seat and passenger seat, and is composed of a main unit 2 and a display unit 3.
  • FIG. 2 is a configuration diagram of the navigation device 1.
  • the main unit 2 is composed of electronic components, such as a brake detection unit 4, a reverse detection unit 5, a portable player interface 6, a broadcast wave reception unit 7, an external audio / video input unit 8, and a GPS information reception unit 9 ( An example of receiving means), vehicle speed detection unit 10, camera image input unit 11, amplifier 12, opening / closing control unit 13A, angle control unit 13B, angle sensor 14, motor 15, CD drive 16, card memory interface 17, reset button 18, A gyro sensor 19 and a control unit 20 (an example of an image processing apparatus) are incorporated.
  • the display unit 3 is mainly composed of devices that display various kinds of information as images to the vehicle occupant and receive a user operation.
  • the display unit 3 includes a touch panel 21, a display processing unit 22, and an operation receiving unit. 23, an operation button 24, and an infrared receiving / emitting unit 25 are incorporated.
  • the brake detection unit 4 detects whether or not the vehicle parking brake is applied, and notifies the control unit 20 of this.
  • the brake detector 4 detects the state of the brake based on the energized state of a switch that is turned on / off in conjunction with the movement of the parking brake lever (or pedal).
  • the brake detection unit 4 electrically detects the energization state of this switch via the terminal 26A.
  • the reverse detection unit 5 detects whether or not the shift lever of the vehicle is reverse (reverse), and notifies the control unit 20 of this.
  • the reverse detector 5 detects the state of the shift lever by turning on and off a switch that moves in conjunction with the shift lever.
  • the reverse detection unit 5 electrically detects the energization state of this switch via the terminal 26B.
  • the portable player interface 6 is an interface for bidirectional communication with a portable player (for example, iPod (registered trademark)) that reproduces music or the like.
  • the portable player interface 6 starts bi-directional communication when such a portable player is externally connected, sends an audio signal sent from the player to the control unit 20, and starts playback or music playback sent from the control unit 20.
  • a control signal such as feed is sent to the player.
  • the portable player interface 6 communicates with the player via a cord connected to the terminal 26C.
  • the broadcast wave receiving unit 7 is a circuit including a one-segment tuner (“One-segment” is pending trademark registration), an AM tuner (AM: Amplitude Modulation), and an FM tuner (FM: Frequency Modulation).
  • the broadcast wave receiving unit 7 controls the reception state of the tuner according to the control signal from the control unit 20, and sends the radio wave signal received by the antenna connected to the terminal 26 ⁇ / b> D to the control unit 20.
  • the external audio / video input unit 8 is a circuit that receives a composite video signal or audio signal from a video / audio device connected to the terminal 26E and sends it to the control unit 20.
  • the GPS information receiving unit 9 receives a radio wave signal from a GPS satellite received by a GPS antenna connected to the terminal 26F, and sends the received signal to the control unit 20.
  • GPS Global Positioning System
  • GPS is a system that measures the position of a vehicle based on radio waves from at least three or more of the many GPS satellites that orbit the earth.
  • the GPS information receiving unit 9 processes radio wave signals of these GPS satellites that orbit the earth.
  • the signal from the GPS satellite received by the GPS information receiving unit 9 is used for car navigation.
  • the vehicle speed detection unit 10 is a circuit that detects a vehicle speed pulse signal generated according to the rotation angle of the axle and sends the signal to the control unit 20.
  • the vehicle speed pulse signal detected by the vehicle speed detection unit 10 is a stepped vehicle speed pulse signal output from a vehicle speed sensor or an electronic control unit that controls the engine and brake of the vehicle, and calculates the vehicle speed from the number of pulses per unit time. Used when. If the number of pulses per unit time increases, the vehicle is accelerating, and if it decreases, the vehicle is decelerating.
  • the correlation between the vehicle speed and the vehicle speed pulse varies depending on the manufacturer of the vehicle, the vehicle type, the size of the wheel to be mounted, the air pressure, and the like.
  • the correlation between the vehicle speed and the vehicle speed pulse is obtained from the correlation between the moving distance of the vehicle calculated based on the positioning result by GPS and the number of pulses detected while traveling between them. Updated as appropriate.
  • the vehicle speed detector 10 electrically detects a vehicle speed pulse signal output from the electronic control unit via a terminal 26G.
  • the camera video input unit 11 is a circuit that receives a video signal from a back eye camera that is a video camera that captures the rear of the vehicle and sends the video signal to the control unit 20. That is, the camera video input unit 11 sends a video signal from the video camera connected to the terminal 26H to the control unit 20 when the reverse detection unit 5 detects the reverse of the vehicle.
  • the amplifier 12 is a circuit that amplifies an audio signal sent from the control unit 20 to a speaker installed in the vehicle interior and connected to the terminal 26I.
  • the amplifier 12 can arbitrarily change the amplification factor according to a control signal from the control unit 20.
  • the opening / closing control unit 13A is a circuit that performs an opening / closing operation of the display unit 3.
  • the open / close control unit 13A opens and closes the display unit 3 by controlling the motor 15 according to a control signal from the control unit 20 or processing a signal from the angle sensor 14.
  • FIG. 3 shows an opening / closing operation of the display unit 3 realized by the opening / closing control unit 13 ⁇ / b> A receiving the control signal from the control unit 20 by controlling the motor 15.
  • the opening / closing control unit 13 ⁇ / b> A can adjust the posture of the display unit 3 in three stages, and closes the CD insertion slot 27 of the CD drive 16 (CD: Compact Disc).
  • the angle control unit 13B is a circuit that adjusts the angle of the display unit 3.
  • the angle control unit 13B controls the angle of the display unit 3 by controlling the motor 15 according to the control signal from the control unit 20 or processing the signal from the angle sensor 14 in the same manner as the opening / closing control unit 13A. adjust.
  • the angle of the display unit 3 is a relative angle between the front surface of the main unit 2 and the front surface of the display unit 3 (that is, the surface of the touch panel 21) with the axis extending in the left-right direction of the navigation device 1 as the center. is there.
  • FIG. 4 shows an angle adjustment state of the display unit 3 realized by the angle control unit 13B. As shown in FIG. 4, the angle control unit 13 ⁇ / b> B can tilt up by adjusting the elevation angle of the display unit 3 in multiple stages.
  • the angle sensor 14 is a sensor that detects the angle of the display unit 3, and notifies the opening / closing control unit 13A and the angle control unit 13B of the detected angle with an electrical signal.
  • the motor 15 is a motor that adjusts the angle of the display unit 3 and moves the upper end of the display unit 3 up and down and moves the lower end of the display unit 3 back and forth.
  • the opening / closing control unit 13A and the angle control unit 13B receive the control signal from the control unit 20, the difference between the angle of the display unit 3 detected by the angle sensor 14 and the target value of the angle determined based on the control signal.
  • the motor 15 is feedback controlled so that the angle of the display unit 3 detected by the angle sensor 14 matches the target value.
  • the CD drive 16 is an optical disk reading device that reads and reproduces a CD on which audio contents such as music are recorded, and includes an optical pickup lens, a light emitting element, a disk drive motor, and the like.
  • the card memory interface 17 is a memory card reader / writer that reads and writes a nonvolatile semiconductor memory card that does not require a memory holding operation.
  • the memory card inserted into the card memory interface 17 has a storage capacity of about 4 GB, and includes road information on expressways and general roads, point information on various facilities such as theme parks and gas stations (hereinafter referred to as POI (Point) Map data including notation (Of Interest) data) and data such as telephone numbers and facility names are recorded.
  • POI Point Map data including notation (Of Interest) data
  • the control unit 20 implements various functions such as car navigation route search by accessing the map data recorded in the memory card.
  • the gyro sensor 19 is a two-axis gyro sensor built in the main unit 2.
  • the gyro sensor 19 is for enabling positioning of the vehicle even when the GPS information receiver 9 cannot receive radio waves from GPS satellites. Note that the position of the vehicle when the radio wave from the GPS satellite cannot be received is calculated by the control unit 20 based on the vehicle speed detected by the vehicle speed detection unit 10 and the traveling direction of the vehicle detected by the gyro sensor 19.
  • FIG. 5A is a configuration diagram of the control unit 20.
  • the control unit 20 includes a CPU (Central Processing Unit) 20A, a ROM (Read Only Memory) 20B (an example of a storage unit), a RAM (Random Access Memory) 20C, and an input / output interface (I / O). 20D and the like.
  • the ROM 20B stores graphic data such as operation buttons and icons to be drawn on the touch panel 21 described later.
  • the control unit 20 executes a computer program recorded in the ROM 20B, and uses the memory card data inserted into the card memory interface 17, data stored in the RAM 20C, and the like. Realize the function. Details of various functions realized by the control unit 20 will be described later.
  • the touch panel 21 is a GUI (Graphical User Interface) combining a color liquid crystal display and a touch sensor.
  • the touch panel 21 displays a screen on a 7.0-inch EGA (Enhanced Graphics Adapter) type liquid crystal display and an icon displayed on the screen.
  • EGA Enhanced Graphics Adapter
  • the display processing unit 22 is a circuit that draws a screen to be displayed on the liquid crystal display of the touch panel 21.
  • the display processing unit 22 draws the screen of the touch panel 21 by driving thin film transistors that are evenly arranged in a lattice pattern on the liquid crystal display based on the video signal sent from the control unit 20.
  • the operation reception unit 23 specifies the touched position on the screen and sends information on the specified position to the control unit 20.
  • the operation button 24 is not a button (button image) displayed as an icon on the touch panel 21 but a mechanical button. As shown in FIG. 1, the operation button 24 is a push button switch for operation arranged below the touch panel 21. is there.
  • the operation buttons 24 include an open / close button, a current location button, and a volume adjustment button in order from the left side of the display unit 3.
  • the volume adjustment button is set to increase the volume when the right side is pressed and to decrease the volume when the left side is pressed. When these buttons are pressed, a signal of the pressed button is sent to the control unit 20.
  • these push buttons prepared by mechanical hardware instead of buttons displayed on the touch panel 21 by software are prepared as the minimum necessary buttons from the viewpoint of improving the operability of the navigation device 1. Is.
  • the open / close button is required when attempting to operate the reset button 18 when the touch panel 21 is malfunctioning, or when removing the CD from the CD drive 16, and is thus provided separately from the button displayed by software.
  • the current location button is a basic function for navigating to display the current position, but it is a button for returning to the initial navigation screen when the operation method related to the navigation function is lost. Because it is provided separately from the button displayed by software, it gives the user a sense of security that if they press this button at any time, they can return to the initial navigation screen, that is, the screen that displays the vehicle position on the map at any time. Has an additional meaning.
  • the volume adjustment button is operated when it is desired to immediately decrease the speaker volume for some reason.
  • the volume adjustment button is provided separately from the button displayed by software, thereby enabling the operation of the bag.
  • the buttons considered to be the most important are separately prepared as hardware buttons around the touch panel 21 and the other buttons are displayed on the touch panel 21 by software, thereby ensuring a sufficient display space on the touch panel 21.
  • the operability of the navigation device 1 can be improved and the user can be prevented from getting lost in the operation of the navigation device 1.
  • the infrared receiving / emitting unit 25 is an interface for two-way communication between the navigation device 1 and the mobile phone using infrared rays, and includes a light emitting element that emits infrared light by electricity and a light receiving element that converts received infrared light into electricity. Has been.
  • the infrared receiving / emitting unit 25 sends the control signal and data sent from the control unit 20 to the mobile phone and sends the control signal and data sent from the mobile phone to the control unit 20.
  • the infrared receiving / emitting unit 25 is disposed under the touch panel 21 as shown in FIG.
  • FIG. 5B is a functional block diagram illustrating various functional units realized by the control unit 20.
  • the control unit 20 includes an operation processing function unit 51, a positioning function unit 52, a route guidance function unit 53, a map data processing function unit 54 (an example of a navigation function), as shown in FIG.
  • a computer program that implements a user data processing function unit 55, an audio processing function unit 56, and a video processing function unit 57 (an example of an image generation unit) is executed.
  • the operation processing function unit 51 displays an operation screen for controlling the operation of various function units on the touch panel 21 via the video processing function unit 57, or from the operation reception unit 23, the operation button 24, or the reset button 18. It processes the operation signals and controls the operation of various functional units.
  • the positioning function unit 52 is transmitted from the radio wave information transmitted from the GPS information receiving unit 9, the vehicle speed information notified from the vehicle speed detecting unit 10, and the gyro sensor 19.
  • the position (latitude and longitude) of the vehicle is measured based on the angular velocity information.
  • the route guidance function unit 53 is a function unit that searches for a route from the current location of the vehicle to the destination set by the user and performs route guidance.
  • the route guidance function unit 53 retrieves a travel route from the position of the vehicle positioned by the positioning function unit 52 to the destination from the map data of the memory card inserted into the card memory interface 17. Then, the route of the vehicle is guided by voice and video from the relationship between the searched driving route and the position of the vehicle.
  • the map data processing function unit 54 is acquired from the FM broadcast wave via the map data of the memory card inserted into the card memory interface 17, the data of the travel route searched by the route guidance function unit 53, and the broadcast wave receiving unit 7.
  • the graphic data of the map displayed on the touch panel 21 is generated based on the VICS (registered trademark) road traffic information data, the position data of the vehicle measured by the positioning function unit 52, and the like.
  • the user data processing function unit 55 writes in the RAM 20C or reads out the setting information such as location information (for example, home location information), route search history information, icon display / non-display, etc. that the user intends to register to the RAM 20C. Or, location information (for example, home location information), route search history information, icon display / non-display, etc. that the user intends to register to the RAM 20C. Or, location information (for example, home location information), route search history information, icon display / non-display, etc. that the user intends to register to the RAM 20C. Or
  • the audio processing function unit 56 is a function unit that processes an audio signal output from the speaker via the amplifier 12. That is, the audio processing function unit 56 sends the radio broadcast received by the broadcast wave receiving unit 7, the audio signal acquired by the portable player interface 6 from the player, and the audio signal reproduced by the CD drive 16 to the amplifier 12, or the like. The audio signal of the route guidance from the route guidance function unit 53 is superimposed on the audio signal and sent to the amplifier 12.
  • the video processing function unit 57 is a function unit that generates video data to be displayed on the touch panel 21. That is, the video processing function unit 57 superimposes the operation screen data generated by the operation processing function unit 51 and the display map screen data generated by the map data processing function unit 54 and sends them to the display processing unit 22. Or the video signal of the television broadcast received by the broadcast wave receiving unit 7 is sent to the display processing unit 22, or the video signal from the camera video input unit 11 is displayed in conjunction with the detection of the reverse of the vehicle by the reverse detection unit 5. Or sent to the processing unit 22.
  • the video processing function unit 57 stops the notification of the video data when the brake detection unit 4 detects the release of the parking brake while the video data of the television broadcast is being sent to the display processing unit 22.
  • FIG. 6 is a screen transition diagram of the main screen of the navigation device 1
  • FIG. 7 is a screen transition diagram regarding navigation.
  • FIG. 8 is a diagram showing an AV screen display mode.
  • the operation of the navigation device 1 will be described with reference to FIGS.
  • the opening screen (D101) will be described.
  • the control unit 20 executes the computer program stored in the ROM 20B to initialize the navigation device 1, and various functions shown in FIG. 5B. Realize the part.
  • the video processing function unit 57 refers to the data of the opening screen stored in the ROM 20 ⁇ / b> B, and displays the opening screen on the touch panel 21.
  • the operation processing function unit 51 scans signals from the operation receiving unit 23, the operation button 24, and the reset button 18 to receive a user operation.
  • the positioning function unit 52 processes the positioning information acquired by the GPS information receiving unit 9 and signals from the vehicle speed detection unit 10 and the gyro sensor 19, and measures the position of the vehicle. Further, the map data processing function unit 54 accesses the card memory inserted in the card memory interface 17 and reads out map data around the vehicle position measured by the positioning function unit 52.
  • the video processing function unit 57 operates the AV based on the image data of the operation buttons stored in the ROM 20B and the map data read by the map data processing function unit 54.
  • a multi-screen (D102) in which the screen (an example of the second image) and the navigation operation screen (an example of the first image) are arranged is generated and displayed on the touch panel 21.
  • FIG. 9 is a diagram of a multi-screen.
  • the video processing function unit 57 includes operation buttons (second example) of AV (an example of a plurality of functions other than the navigation function.
  • a function related to radio, CD, and iPod is an example of an audio function).
  • An image including an operation button image is displayed in an AV area (an example of a second display area) arranged on the left side of the touch panel 21, and a map image and operation buttons (an example of a navigation function) are displayed.
  • Image data is generated so that an image combining an example of one operation button is displayed in a navigation area (an example of a first display area) arranged on the right side of the touch panel 21.
  • the navigation area is arranged on the right side of the touch panel 21, that is, on the driver's seat side.
  • the navigation area may be arranged on the left side of the touch panel 21.
  • the navigation device 1 groups operations related to AV and operations related to navigation, and divides the display area. As shown in FIG. 9, the navigation area and the AV area are separated by a boundary. As will be described later, this boundary is movable.
  • the AV area further includes a source selection area (an example of a function selection area) that collectively displays operation buttons for selecting a source, and a source operation area (function) that displays buttons and information related to the selected source. An example of the operation area).
  • the video processing function unit 57 includes “radio”, “CD”, “one segment”, “iPod”, “external input”, “OFF”, and a source selection area in the AV area.
  • An “AV” button (an example of a function selection button) is displayed. When any source button is touched, that source is selected.
  • These buttons are arranged in a predetermined second area that defines a part of the display surface of the touch panel 21.
  • the predetermined second area is an area where operation buttons related to the AV function are arranged.
  • the predetermined second area is arranged on the left side portion of the touch panel 21 so as to be easily operated from the passenger seat. In the example of FIG.
  • the audio processing function unit 56 outputs the audio signal of AM broadcast received by the broadcast wave receiving unit 7 from the speaker via the amplifier 12.
  • the video processing function unit 57 “menu”, “destination”, “periphery”, “home” , “Navi”, “map enlargement”, and “map reduction” buttons are displayed.
  • buttons are arranged in a predetermined first area that defines a part of the display surface of the touch panel 21.
  • the predetermined first area is an area where operation buttons related to the navigation function are arranged.
  • the predetermined first area is arranged in the lower part and the right part of the touch panel 21 so that the driver can easily operate.
  • the AV area and the navigation area exist at the same time, so the AV area is narrower than that of the AV full-screen (D104). Therefore, only the basic operation buttons and information related to the source are displayed in the source operation area of the multi-screen (D102).
  • the operation processing function unit 51 detects that the “navi” button has been pressed on the multi-screen (D102), the video processing function unit 57 transitions to the screen display state of the entire navigation screen (D103).
  • the operation processing function unit 51 detects that the “AV” button has been pressed on the multi-screen (D102)
  • the video processing function unit 57 transitions to the screen display state of the AV full screen (D104).
  • the case where other buttons are pressed will be described in detail after explanation of the navigation full screen (D103) and the AV full screen (D104).
  • FIG. 10 is a diagram of a full navigation screen. As shown in FIG. 10, the video processing function unit 57 deletes the AV area and displays the navigation area on the touch panel 21 in full screen.
  • a map and operation buttons such as “menu” and “destination” are displayed in the navigation area as in the multi-screen (D102).
  • the video processing function unit 57 displays the screen so that the icon of the vehicle position displayed on the entire navigation screen is positioned (centered) in the center of the navigation area. For this reason, when the display screen of the touch panel 21 transitions from the multi-screen (D102) to the full navigation screen (D103), the display of the vehicle position icon and map slightly scrolls (slides) within the screen.
  • the video processing function unit 57 displays a screen so that operation buttons such as “menu” and “destination” have the same position and size on the display screen of the touch panel 21.
  • the navigation operation buttons do not scroll (slide) on the screen of the touch panel 21, and the same position and size. Will continue to be displayed.
  • the “navigation” button is switched to the “AV + navigation” button.
  • the video processing function unit 57 switches the display from the full navigation screen (D103) to the multi-screen (D102).
  • FIG. 11 is a diagram of an AV full screen. As shown in FIG. 11, the video processing function unit 57 erases the navigation area and displays the AV area on the touch panel 21 in full screen.
  • the AV area has “radio”, “CD”, “one-segment”, “iPod”, “external input”, and “OFF” buttons as in the multi-screen (D102). Is displayed.
  • the source operation area is enlarged, and the names of broadcast stations, preset channel selection buttons, channel setting buttons, sound setting buttons (extended operation button images of the extended operation button image) that have not been displayed on the multi-screen (D102) are displayed. (Example) is displayed.
  • “CDIN” indicating that a CD is inserted in the CD drive 16 is displayed.
  • buttons displayed on the multi-screen (D102) are displayed at the same position in the AV area. ing. That is, the size of the source selection area does not change between the multi screen (D102) and the AV full screen (D104). However, only the “navigation” button is switched to the “AV + navigation” button.
  • an area displayed on both the multi-screen and the AV full screen is referred to as an “AV normal area”, and an area displayed only on the AV full screen is referred to as an “AV extension area”.
  • the video processing function unit 57 switches the display from the AV full screen (D104) to the multi-screen (D102).
  • the AV full screen (D104) since there is no navigation area, the AV area is wider than that in the multi-screen (D102). Therefore, all operation buttons and information related to the source are displayed in the source operation area of the AV full screen (D104).
  • the source operation button and information display area displayed only in the case of the AV full screen (D104) is the “AV extension area”, and constitutes a part of the source operation area.
  • the source operation button and information display area displayed on both the multi-screen (D102) and the AV full-screen (D104) are “AV normal area”, and a part of the source operation area and the source selection area And make up.
  • FIG. 6 is a diagram showing how the navigation area and the AV area move on the screen when the screen changes from the multi-screen (D102) to the navigation full screen (D103) or the AV full screen (D104) will be described in detail.
  • FIG. 12 is a diagram showing how the AV area disappears when transitioning from the multi-screen (D102) to the full navigation screen (D103).
  • FIG. 13 is a diagram showing how the navigation area disappears when transitioning from the multi-screen (D103) to the AV full-screen (D104).
  • the video processing function unit 57 gradually slides the boundary between the navigation area and the AV area so that the navigation area and the AV area appear to scroll (slide) when switching the display from the multi-screen to the navigation or the full AV screen. Generate an animated image. That is, when switching the display from the multi-screen to the entire navigation screen, the video processing function unit 57 slides the boundary between the AV area and the navigation area and gradually exits the AV area to the left. The screen is animated so that the display area of the AV area is gradually decreased and the display area of the navigation area is gradually increased. Similarly, when switching the display from the full navigation screen to the multi-screen, the boundary slides so that the AV area gradually enters from the left side, in other words, the display area of the AV area gradually increases.
  • the screen is animated so that the display area of the navigation area is gradually reduced.
  • the boundary slides and the AV area gradually enters the right side, in other words, the display area of the AV area is increased.
  • the screen is animated so that it scrolls so as to gradually increase and so that the display area of the navigation area gradually decreases.
  • the boundary slides so that the AV area gradually enters from the right side, in other words, the display area of the AV area gradually decreases.
  • the screen is animated so that the display area of the navigation area is gradually increased.
  • FIG. 14 is a conceptual diagram showing a state of screen transition of the main screen. As shown in FIG.
  • the user can operate the main screen of the navigation device 1 with an image in which the left side is inserted and removed from the left side on the right side that can be seen through the display window. Therefore, it is easy to understand whether the main screen is in the navigation state, the multi state, or the AV state, and the operation can be performed with peace of mind. Note that the scroll expression processing shown in FIGS. 12 to 14 may constitute the invention alone.
  • the position of the boundary between the AV operation screen and the navigation operation screen is changed within a range that does not enter the predetermined first area.
  • the display is switched between the multi-screen and the AV full screen, the position of the boundary between the AV operation screen and the navigation operation screen is changed within a range that enters the predetermined first area. This is because the display switching between the multi-screen and the entire navigation screen changes the display range occupied by the navigation operation screen on the touch panel 21, whereas the multi-screen and the AV full-screen are switched.
  • the vehicle position icon and the map image are moved to the center of the navigation area after the screen transition has been performed in advance, and then the boundary between the AV operation screen and the navigation operation screen is moved.
  • the vehicle position icon and the map image may be moved in accordance with the center of the navigation area.
  • the centering process may be performed gradually in accordance with an animation image in which the boundary between the navigation area and the AV area is slid gradually.
  • the icon of the vehicle position and the map image are moved in accordance with the center of the navigation area. That is, the centering process is performed immediately after the screen transition.
  • the vehicle position icon and the map image are moved in accordance with the center of the navigation area before the boundary is moved. That is, the centering process is performed immediately before the screen transition.
  • FIG. 15 is a diagram of the menu screen (D201). As shown in FIG. 15, the video processing function unit 57 displays a menu pop-up so as to start up from the “menu” button in the navigation area.
  • the video processing function unit 57 displays an animation so that the menu pop-up gradually rises from the “menu” button, and further allows the multi-screen (D102) to be seen below the pop-up.
  • a pop-up is an area displayed so as to rise from the button when a button displayed on the screen is pressed, for example, an area where menu items and the like are displayed.
  • FIG. 16 is a diagram showing an animation when transitioning from the multi-screen (D102) to the menu screen (D201). When the “Menu” button on the multi-screen (D102) is pressed, a menu pop-up is displayed so as to start up from the “Menu” button.
  • the menu screen (D201) displays user setting buttons such as icons and facility display, and favorite point editing buttons.
  • the point information registered by the user is stored in the RAM 20 ⁇ / b> C in the control unit 20 by the user data processing function unit 55.
  • the destination setting screen (D202) Next, the destination setting screen (D202) will be described.
  • the operation processing function unit 51 detects that the “destination” button displayed in the navigation area of the multi-screen (D102) or the entire navigation screen (D103) is pressed, the video processing function unit 57 sets the destination.
  • the screen (D202) is displayed on the touch panel 21. That is, as shown in FIG. 17, the video processing function unit 57 displays a pop-up in which a destination setting button is arranged so as to stand up from the “destination” button in the navigation area.
  • the video processing function unit 57 displays a screen corresponding thereto.
  • the video processing function unit 57 displays a screen for inputting characters when the “Search by 50 sounds” button is pressed, and displays a screen for selecting a prefecture or the like when the “Search by address” button is pressed. If the “Search by mobile phone link” button is pressed, a screen prompting the user to bring the mobile phone closer to the infrared receiver / light emitting unit 25 is displayed. If the “Search by history” button is pressed, the user has searched in the past. Display destinations with The communication data provided from the mobile phone by the infrared receiving / emitting unit 25 includes position information such as the latitude and longitude of the destination, or an address and a telephone number.
  • the route guidance function unit 53 When the destination is set by the screen displayed when the “50-sound search”, “search by address”, “search by mobile link”, or “search by history” button is pressed, the route guidance function unit 53 performs positioning.
  • the function unit 52 searches for the shortest route to the vehicle position and destination measured by the function unit 52, and starts route guidance.
  • the peripheral facility search screen (D203) Next, the peripheral facility search screen (D203) will be described.
  • the operation processing function unit 51 detects that the “periphery” button displayed in the navigation area of the multi-screen (D102) or the entire navigation screen (D103) is pressed, the video processing function unit 57 (D203) is displayed on the touch panel 21. That is, as shown in FIG. 18, the video processing function unit 57 displays an animation of a popup in which buttons for searching for nearby facilities are arranged so as to rise from the “periphery” button in the navigation area. Then, as in D203 described above, if any button is pressed, a corresponding screen is displayed.
  • the video processing function unit 57 displays a button that allows the user to select a category of the facility to be searched, and when the search target category is specified,
  • the facilities corresponding to the specified category such as a gas station and a convenience store in the area, are searched and displayed in order of proximity to the vehicle.
  • the destination is set on the destination setting screen (D202) or the peripheral search screen (D203) described above, or the “Home” button displayed on the multi-screen (D102) or the entire navigation screen (D103) is displayed.
  • route guidance by the route guidance function unit 53 is started.
  • the route guidance function unit 53 performs route guidance based on the vehicle position measured by the positioning function unit 52 and the map data read from the card memory by the map data processing function unit 54.
  • the route guidance function unit 53 displays an enlarged intersection screen (D204) and passes voice data for route guidance to the voice processing function unit 56 when the vehicle approaches an intersection that makes a right turn or a left turn.
  • FIG. 19 is a diagram showing an intersection enlarged screen (D204). As shown in FIG. 19, an enlarged view of an intersection is displayed in the navigation area, and the route that the vehicle should travel is indicated by an arrow. At this time, audio / visual operation buttons are displayed in the AV area.
  • the operation buttons (first operation button image) related to the navigation function displayed in the predetermined first area that defines a part of the display surface of the touch panel 21 disappear on the intersection enlarged screen (D204). This is because the display of the intersection enlarged screen (D204) does not change the display range occupied by the navigation operation screen on the touch panel 21, and the intersection enlarged screen (D204) is temporarily displayed. This is because it is not necessary to display operation buttons related to the navigation function.
  • the AV screen display mode of the navigation device 1 is prepared with six screens of a radio mode, a CD mode, a one-segment mode, an iPod mode, an external input mode, and an off mode.
  • the video processing function unit 57 displays an AV operation screen of a mode corresponding to the button.
  • the video processing function unit 57 displays a radio frequency and a channel selection button as shown in FIG. The same applies to the CD and iPod buttons.
  • the video processing function unit 57 displays a channel selection button or the like in the AV area and displays the navigation area from the video from the broadcast wave receiving unit 7. And switching to the video of the external audio / video input unit 8.
  • the video processing function unit 57 stops the video display from the broadcast wave receiving unit 7 and the external audio / video input unit 8.
  • the AV screen display mode will be described in detail below.
  • FIG. 20 is a diagram showing a display screen when the radio is selected.
  • the AV area is divided into a source selection area in which buttons for switching sources are arranged and a source operation area in which the selected source is operated.
  • Each source selection button displayed in the source selection area is always displayed on the touch panel 21 on the multi-screen (D102) and the AV full-screen (D104) regardless of which source is selected.
  • the video processing function unit 57 generates an image so that when the “radio” of the source selection buttons is pressed, the “radio” button appears and the color looks different from the other buttons.
  • information specific to the selected source such as the frequency of the received radio wave is displayed in addition to operation buttons such as an AM / FM switching button and a channel selection button. Similar to the source selection button, the AM / FM switching button is displayed so that the currently selected button appears and looks different in color from the other buttons.
  • the operation processing function unit 51 When the operation processing function unit 51 detects a touch operation on the “radio” button by the user, the operation processing function unit 51 controls the broadcast wave receiving unit 7 and the amplifier 12 to be in an operation state, and transmits an audio signal from the broadcast wave receiving unit 7 to the amplifier 12. Then, the voice processing function unit 56 is operated.
  • the source operation area may be popped up from an operation button in the source selection area. According to this, it becomes easier to recognize which source the operation buttons displayed in the source operation area relate to.
  • FIG. 21 is a diagram showing a display screen when a CD is selected.
  • the video processing function unit 57 When “CD” is pressed out of the source selection buttons, the video processing function unit 57 generates an image so that the “CD” button is raised and the color looks different from other buttons as shown in FIG. .
  • the source operation area displays information specific to the selected source such as the track number and playback time of the music being played.
  • the operation processing function unit 51 detects a touch operation on the “CD” button, the operation processing function unit 51 controls the CD drive 16 and the amplifier 12 to be in an operating state so that the audio signal reproduced by the CD drive 16 is sent to the amplifier 12.
  • the voice processing function unit 56 is operated.
  • FIG. 22 is a diagram showing a display screen when one seg is selected.
  • the video processing function unit 57 When “One Seg” among the source selection buttons is pressed, the video processing function unit 57 generates an image so that the “One Seg” button appears and the color looks different from other buttons as shown in FIG. . Note that, as with the “One Seg” button, the selected channel is displayed so that the button is raised.
  • the source operation area in addition to operation buttons such as a channel selection button, information specific to the selected source such as the channel of the received frequency and the intensity of the received radio wave is displayed.
  • the video processing function unit 57 displays a television broadcast screen in the navigation area.
  • the operation processing function unit 51 When the operation processing function unit 51 detects a touch operation on the “One Seg” button, the operation processing function unit 51 controls the broadcast wave reception unit 7, the amplifier 12, the display processing unit 22, the audio processing function unit 56, and the video processing function unit 57, and the touch panel 21. Video display and audio output by the amplifier 12 are performed.
  • FIG. 23 is a diagram showing a display screen when iPod is selected.
  • the video processing function unit 57 When “iPod” of the source selection buttons is pressed, the video processing function unit 57 generates an image so that the “iPod” button appears and the color looks different from other buttons as shown in FIG. .
  • the source operation area in addition to operation buttons such as a music selection button and a menu button, source-specific information such as the title and playback time of the music being played back is displayed.
  • the operation processing function unit 51 Upon detecting a touch operation on the “iPod” button, the operation processing function unit 51 communicates with an external portable music player via the portable player interface 6 so that the acquired audio signal is sent to the amplifier 12.
  • the voice processing function unit 56 is operated.
  • FIG. 24 is a diagram showing a display screen when the external input is selected.
  • the video processing function unit 57 displays an image so that the “external input” button appears and the color looks different from other buttons as shown in FIG. Generate.
  • the source operation area in addition to operation buttons such as a full video button pressed when displaying an external input video on the entire screen, the fact that the input is external input is displayed as information specific to the source.
  • the video processing function unit 57 displays the screen of the external input video in the navigation area.
  • the operation processing function unit 51 detects a touch operation on the “external input” button, the amplifier 12, the display processing function unit so that the video signal and the audio signal from the external audio / video input unit 8 are displayed or output. 22, the audio processing function unit 56 and the video processing function unit 57 are controlled.
  • FIG. 25 is a diagram showing a display screen when the external input is selected.
  • the video processing function unit 57 When “OFF” among the source selection buttons is pressed, the video processing function unit 57 generates an image so that the “OFF” button appears and the color looks different from other buttons as shown in FIG. .
  • the source operation area In the source operation area, it is displayed that the audio is off.
  • the operation processing function unit 51 detects a touch operation on the “OFF” button, the operation processing function unit 51 stops devices such as the amplifier 12 and the broadcast wave reception unit 7 that were operating before the touch operation.
  • the source operation area may be erased from the screen in the off mode. In other words, in the off mode, an animation may be displayed so that the popup is retracted into the source selection area.
  • the operation description of the navigation device 1 is as described above.
  • the navigation device 1 divides the display area of the screen into two for the AV function and one for the navigation function in order to improve the operability of both the AV function and the navigation function. Even if the range of each area in the screen changes (ie, the boundary moves, the size of the AV area where the AV operation screen is displayed and the size of the navigation area where the navigation operation screen is displayed are respectively Even when enlarged or reduced, the operation buttons for performing the AV and navigation operations are displayed at the same position on the screen, thereby facilitating the screen operation by the touch panel 21.
  • the navigation device 1 displays both the AV operation screen and the navigation operation screen side by side and displays them separated by a movable boundary in order to improve the operability of both AV and navigation. . Then, before and after changing the position of the boundary of each screen, the operation buttons related to the navigation function are displayed on the touch panel 21 by being displayed at the same position and size on the screen. The position of the boundary of each screen can be changed without degrading the operability of the operation buttons. Furthermore, when the navigation apparatus 1 according to the present embodiment moves the boundary between the AV area and the navigation area, the navigation apparatus 1 generates an animation image in which the boundary is gradually slid. Therefore, it is possible to easily recognize the correspondence between the screen related to the navigation function and the screen related to the AV function by the slide display.
  • the navigation device 1 may be modified as follows. 26, 27, and 28 are diagrams showing display examples of a multi-screen according to this modification. In this modification, the operation buttons displayed on the touch panel 21 are highlighted according to the operation history.
  • the navigation device 1 according to the present modification displays buttons that are frequently operated with shadows on the buttons as shown by the “radio” button and the “peripheral” button in FIG. As shown by the “Destination” button, the button is displayed in three dimensions, or as shown by the “Destination” button in FIG. 28, the frame (the frame of the button) is displayed in broken lines, blinking, or moving broken lines. .
  • the process performed with the navigation apparatus 1 which concerns on this modification is demonstrated.
  • the processing content shown below shows a modification of a part of the drawing processing that is executed each time the above-described screens are displayed. That is, since the device configuration and the processing flow other than those described below are the same as those in the above-described embodiment, detailed description thereof is omitted.
  • FIG. 29 is a processing flowchart of graphic processing executed by the navigation device 1 according to the present modification when highlighting a button that has been operated a certain number of times or more.
  • the video processing function unit 57 first refers to the table as shown in FIG. 29 (S101). This table is stored in the RAM 20C provided in the control unit 20, and includes a history of the number of times each button is operated as shown in FIG. This table is managed by the operation processing function unit 51, and each time the operation button is pressed, the number of operations is incremented by one.
  • the video processing function unit 57 refers to the table when displaying each screen such as a multi-screen, and determines for each operation button whether or not it is a predetermined number of times (S102). If the button is less than the predetermined number of times, a normal drawing process like the “CD” button in FIG. 26 is performed (S103). On the other hand, if the button is a predetermined number of times or more, special buttons such as the “peripheral” button and “radio” button in FIG. 26, the “destination” button in FIG. 27, and the “destination” button in FIG. Drawing process. Note that graphic data of such specially shaped operation buttons is stored in advance in the ROM 20B.
  • buttons that have been operated more than a certain number of times are highlighted, so that buttons frequently used by the user can be easily visually identified and easily recognized.
  • FIG. 31 is a processing flow diagram of graphic processing executed by the navigation device 1 according to the present modification when highlighting is performed according to the number of operations.
  • the video processing function unit 57 first refers to the table as shown in FIG. 31 (S201). This table is the same as that shown in FIG. 30, and is managed by the operation processing function unit 51.
  • the video processing function unit 57 determines the height of the button for stereoscopic display from the number of table operations (S202). The height of the button for stereoscopic display is determined linearly according to the history of the number of operations shown in the table. Then, the video processing function unit 57 performs drawing processing of each button so that the button looks high according to the number of operations (S203). At this time, for example, a three-dimensional display like the “Destination” button in FIG.
  • buttons are highlighted according to the operation frequency, so that buttons that are frequently used by the user can be easily visually identified and easily recognized.
  • FIG. 32 is a processing flowchart of graphic processing executed by the navigation device 1 according to the present modification when the previously operated button is highlighted.
  • the video processing function unit 57 first refers to the table as shown in FIG. 32 (S301).
  • a flag indicating whether or not an operation has been performed in the previous operation on the navigation device 1 is displayed for each button, and the operation processing function unit 51 manages the table.
  • the operation processing function unit 51 clears (unsets) the flag of each operation button and turns on (sets) the flag of the button operated by the user.
  • the video processing function unit 57 refers to this table when displaying each screen such as a multi-screen, and determines for each button whether or not it has been operated last time (S302). If the button has not been operated last time, normal drawing processing like the “CD” button in FIG. 26 is performed (S303). On the other hand, if the button has been operated last time, a special button such as “peripheral” button or “radio” button in FIG. 26, “destination” button in FIG. 27, or “destination” button in FIG. Drawing process.
  • buttons are highlighted, so that it can be easily recognized compared to other buttons.
  • the description has been given for in-vehicle use.
  • the present invention can be applied to any apparatus that can be used for in-vehicle use.
  • the present invention can be applied to an electronic device having a portable navigation function.
  • FIG. 34 is a flowchart of processing for changing the display position of the operation button executed in the navigation device 1 according to the present modification.
  • the navigation device 1 according to this modification can change the display position of an operation button (first operation button image) related to the navigation function. Since the device configuration and processing flow other than those described below are the same as those in the above-described embodiment, detailed description thereof will be omitted.
  • a change acceptance screen is displayed (S401).
  • This screen is based on graphic data stored in the ROM 20B provided in the control unit 20, and as shown in FIG. 35, it is possible to arrange a message for prompting an operation button drag and drop operation and an operation button.
  • a frame line indicating an appropriate range is displayed overlapping the navigation screen.
  • the change acceptance screen is a screen that is called from the “setting” button displayed on the menu screen (D201), and is a screen that the video processing function unit 57 displays.
  • the frame line shown on the change acceptance screen indicates the predetermined area described above, and indicates the range in which the operation buttons that can be arbitrarily arranged by the user can be arranged.
  • the operation processing function unit 51 determines whether or not the position of the operation button dropped by the user is within the range of the predetermined area illustrated on the change acceptance screen (S402). If the position of the operation button dropped by the user is outside the predetermined area, the operation processing function unit 51 displays an alert screen that prompts the user to drop the operation button within the frame range. (S403).
  • the operation processing function unit 51 causes the user data processing function unit 55 to write the data of the display position of the operation button to the RAM 20C. (S404).
  • the video processing function unit 57 generates an image of the multi-screen D102 and the full navigation screen D103 based on the display position data of the operation buttons written in the RAM 20C. Note that the operation processing function unit 51 when the processing flow is executed plays a role corresponding to the change request receiving unit in the present invention.
  • the user can arbitrarily change the arrangement of the operation buttons by restricting the display position that can be set within a predetermined area. However, it is possible to change the position of the boundary of each screen without deteriorating the operability of the operation buttons displayed on the touch panel 21.
  • the navigation graphic screen is arranged on the right side and the AV graphic screen is arranged on the left side.
  • the two may be arranged oppositely. That is, the navigation graphic screen may be arranged on the left side and the AV graphic screen may be arranged on the right side.
  • the predetermined area defines the lower part and the left part of the display surface of the touch panel as other parts.
  • FIG. 36 is a diagram showing a screen change realized by the navigation device 1 according to the present modification.
  • the screen of the AV area and the navigation area is moved by sliding the boundary between the AV area and the navigation area.
  • the screen displayed in the AV area and the screen displayed in the navigation area are slid.
  • the video processing function unit 57 displays an animation so that the navigation area and AV area appear to slide as shown in FIG. That is, when switching the display from the multi-screen to the entire navigation screen, the video processing function unit 57 slides not only the boundary between the AV area and the navigation area but also the AV area screen and the navigation area screen. Animate the screen so that it gradually exits to the left. The navigation area slides while being centered so that the vehicle position is at the center of the navigation area. Similarly, when switching the display from the entire navigation screen to the multi-screen, the AV area screen and the navigation area screen slide together with the boundary, and the screen is animated so that the AV area gradually enters from the left side.
  • the centering process is performed in the navigation area so that the vehicle position is located at the center of the navigation area.
  • the centering process is gradually performed in accordance with the animation image in which the boundary between the navigation area and the AV area is slid gradually.
  • the slide display is similarly performed when switching from the full navigation screen to the multi-screen.
  • the AV area is arranged on the left side and the navigation area is arranged on the right side in the multi-screen, but the AV area may be arranged on the right side and the navigation area on the left side in the multi-screen.
  • a navigation area is arranged on the driver's seat side of the vehicle on which the navigation device is to be mounted, and an AV area is arranged on the passenger seat side.
  • the present invention is applied to an in-vehicle navigation device, but is not limited to this.
  • the present invention may be applied to a portable electronic device having a navigation function such as a portable navigation device or a cellular phone.
  • the present invention is applied to a navigation device as an information processing device capable of processing navigation information, but is not limited to this.
  • the present invention may be applied to an image processing device that generates a navigation image by being externally connected to or incorporated in a navigation device having a touch panel or a portable electronic device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)

Abstract

 ナビゲーション情報を処理可能な情報処理装置が提供される。タッチパネルは、画像を表示可能、且つユーザによるタッチ操作を受け付け可能である。画像生成部は、前記タッチパネルに表示される画像であって、地図画像を含むナビゲーション画像と前記タッチ操作を受け付けるための複数の操作ボタン画像を生成する。前記複数の操作ボタン画像は、ナビゲーション機能に関わる第一の操作ボタン画像と、前記ナビゲーション機能以外の複数の機能に関わる第二の操作ボタン画像を含む。前記画像生成部は、前記ナビゲーション画像と前記第一の操作ボタン画像とを組み合わせた第一の画像と、前記第二の操作ボタンを含む第二の画像を生成する。前記第一の画像と前記第二の画像は、第一の表示領域と第二の表示領域にそれぞれ表示される。前記第一の表示領域と前記第二の表示領域は、可動な境界で隔てられている。

Description

情報処理装置および画像処理装置
 本発明は、情報処理装置および画像処理装置に関する。
 近年、情報技術の発達に伴い、ナビゲーション装置のように画面表示を使った電子機器が急速に発展している。例えば、特許文献1には、必要な情報のみを表示することにより地図の理解が容易になるナビゲーション装置が開示されている。また例えば、特許文献2には、ナビゲーション用地図画面を押し出すようにしてメニュー画面を表示することで、メニュー画面の表示前後の対応関係を認識しやすくする技術が開示されている。
日本国特開平11-304504号公報 日本国特開2002-340600号公報
 このような電子機器の高機能化に伴って増大するユーザ操作の負担を軽減する手段の一つとして、タッチパネル等を使ったGUI(Graphical User Interface)がある。しかし、電子機器類の設置スペースが制限される環境では、タッチパネルの表示画面を十分広く確保することが難しいため、電子機器に備わる多種多様な機能に関わる操作ボタンをユーザが迷わないで操作できるように表示しつつ、必要な情報を適切に表示することは難しい。また、タッチパネルの表示画面に様々な画像を並べて表示する場合があり、更に、並べて表示された各画像に操作ボタン類が配置される場合がある。ここで、各画像を拡大・縮小するために、タッチパネルの表示画面に並べて表示される各画像の境界の位置が変更されると、各画像に配置されている操作ボタンの位置も不可避的に変更せざるを得ない場合があり、操作性を低下させる虞がある。
 本発明の課題の一つは、タッチパネルにおけるボタン操作を容易にする情報処理装置および画像処理装置を提供することである。本発明の課題の別の一つは、タッチパネルに表示される操作ボタンの操作性を低下させることなく、並べて表示された各画像の境界の位置を変更可能にする情報処理装置および画像処理装置を提供することである。
 本発明は、上記課題を解決するため、タッチパネルの表示画面において、ナビゲーション機能に関わる領域と、ナビゲーション機能以外の機能に関わる領域とを可動な境界で隔てる。
 すなわち、本発明によると、ナビゲーション情報を処理可能な情報処理装置であって、
 画像を表示可能、且つユーザによるタッチ操作を受け付け可能なタッチパネルと、前記タッチパネルに表示される画像であって、地図画像を含むナビゲーション画像と前記タッチ操作を受け付けるための複数の操作ボタン画像を生成する画像生成部と、を備え、前記複数の操作ボタン画像は、ナビゲーション機能に関わる第一の操作ボタン画像と、前記ナビゲーション機能以外の複数の機能に関わる第二の操作ボタン画像を含み、前記画像生成部は、前記ナビゲーション画像と前記第一の操作ボタン画像とを組み合わせた第一の画像と、前記第二の操作ボタンを含む第二の画像を生成し、前記第一の画像と前記第二の画像は、第一の表示領域と第二の表示領域にそれぞれ表示され、前記第一の表示領域と前記第二の表示領域は、可動な境界で隔てられている情報処理装置が提供される。
 上記情報処理装置のタッチパネルは、ユーザによるタッチ操作を受付可能なものであり、各種電子機器や機能部等によって実現される複数の機能に関わる操作をユーザによるタッチ操作で実現する。
 上記情報処理装置は、ナビゲーション画像や複数の機能に関わる操作ボタン画像をタッチパネルに表示する。ここで、複数の機能とは、上記情報処理装置に外部接続されている電子機器、或いは該情報処理装置内に含まれる機能部によってユーザの要求に応じて実現される特定の機能である。電子機器や機能部は、タッチパネルと協働することで特定の機能を実行する。このような特定の機能としては、例えば、テレビジョン放送受信機能や携帯式音楽プレーヤの再生機能、経路を案内するナビゲーション機能等を例示できる。
 画像生成部は、グラフィックデータに基づいて、操作ボタン画像と、地図画像を含むナビゲーション画像とを組み合わせた第一の画像を生成する。画像生成部がこのような画像を生成する際に参照するグラフィックデータは、予め人為的に作成されて記憶手段に記憶されたデータである。画像生成部は、この記憶手段にアクセスすることでグラフィックデータを参照する。ここで、ナビゲーション画像は、情報処理装置に外部接続されるナビゲーション装置あるいは該情報処理装置の内部で実現されるナビゲーション機能で生成されたグラフィックデータに基づいて、画像生成部によって生成される。ナビゲーション画像は例えば、情報処理装置の位置を示すアイコンや地図、或いは交差点の拡大図等を含む画像である。また、操作ボタン画像は、タッチ操作の操作性向上を図る観点から、望ましい領域に配置される。例えば、ナビゲーション装置が車両に搭載されるように構成されている場合は、車両の運転席から操作しやすいタッチパネルの運転席側や下側に配置される。
 ここで、上記画像生成部は、前記タッチパネルの表示面を複数の領域に区切って画像を生成する処理を行う。つまり、複数の表示領域の何れかを第一の表示領域として、この第一の表示領域に、ナビゲーション機能に関わる情報を表示する。また、複数の表示領域のうち該第一の表示領域以外の何れかを第二の表示領域として、この第二の領域に、ナビゲーション機能以外の複数の機能に関わる情報を表示する。これらの各表示領域は、タッチパネルの表示面における位置や形状、大きさが固定されるようなものではなく、ユーザによるタッチ操作等に応じて自在に調整可能である。そして、画像生成部は、このように画定される各表示領域に、それぞれに割り当てられた機能に関わる操作ボタン画像が表示され、各表示領域の間が可動な境界で隔てられるように画像を生成する。これにより、ナビゲーション機能に関わる操作ボタン画像とナビゲーション機能以外の機能に関わる操作ボタン画像とをタッチパネル上で同時に表示しても、両機能に関わる画面の表示領域が境界によって仕切られているため、ユーザは、操作ボタン画像に対するタッチ操作を迷いにくくなる。従って、タッチパネルにおけるボタン操作を容易にすることができる。
 なお、ナビゲーション機能以外の機能とは、情報処理装置に外部接続されている電子機器、或いは情報処理装置内に含まれる機能部によって実現される機能であって、ナビゲーション機能に関わらない機能を指し、例えば、オーディオ再生機能や放送波受信機能等を例示できる。
 前記第二の画像は、前記複数の機能の一つを選択するための複数の機能選択ボタン画像が表示される機能選択領域と、該機能選択ボタン画像によって選択された機能を操作するための複数の機能別操作ボタン画像が表示される機能操作領域とを含んでもよい。このように構成される情報処理装置によれば、機能の選択を受け付ける機能選択ボタン画像と、選択された機能を操作するための機能別操作ボタン画像が第二の表示領域内に表示されるため、ナビゲーション機能に関わる第一の操作ボタン画像とこれ以外の機能に関わる第二の操作ボタン画像とが同時に表示されていてもユーザは、操作ボタン画像に対するタッチ操作を迷いにくくなる。更に、第二の画像は、機能選択ボタン画像が配置される機能選択領域と機能別操作ボタン画像が配置される機能操作領域とを含むため、第二の表示領域内において、機能の選択操作と各機能に関わる操作に際し、ユーザがボタン操作を迷いにくくなる。
 ここで、前記第一の表示領域の大きさを拡大することが可能であり、前記タッチパネルにおいて、前記第一の表示領域の大きさが拡大される前の前記第一の操作ボタン画像の位置は、前記第一の表示領域の大きさが拡大された後の前記第一の操作ボタン画像の位置と同一であってもよい。また、前記第二の表示領域の大きさを拡大することが可能であり、前記タッチパネルにおいて、前記第二の表示領域の大きさが拡大される前の前記第二の操作ボタン画像の位置は、前記第二の表示領域の大きさが拡大された後の前記第二の操作ボタン画像の位置と同一であり、前記第二の操作ボタン画像は前記複数の機能の一つの基本的な操作に関わり、前記第二の表示領域の大きさが拡大されたとき、前記複数の機能の一つの拡張的な操作に関わる拡張操作ボタン画像が拡大された前記第二の表示領域に表示されてもよい。
 第一の画像の表示領域の大きさと第二の画像の表示領域の大きさは、ユーザの要求等に応じて調整可能とすべきである。すなわち、ナビゲーション機能に関わる情報の必要性が乏しい場合は、ナビゲーション機能以外の機能に関わる情報を多く表示すべきであるし、ナビゲーション機能に関わる情報が重要な場合は、ナビゲーション機能に関わる情報を多く表示すべきである。しかしながら、表示領域の大きさを変える際、各機能に関わる操作ボタン画像の位置が変わってしまう虞があり、また、表示されている画像がどの機能に関わるのかを直感的に把握することが難しい。
 ここで、各機能に対応する画像の表示領域がタッチパネルで画定されている場合、各機能に対する必要性に応じて、各表示領域の大きさを変更するようにすれば、必要性に応じた大きさの表示領域が提供可能になる。更に、各機能に関わる操作ボタン画像の位置が維持されるため、表示されている操作ボタン画像が何れの機能に関わるのかを把握することが容易になる。従って、操作性が向上する。なお、表示領域の大きさの変更は、タッチパネルに表示される操作ボタン画像、或いはタッチパネルを取り囲む筐体に設けられる操作ボタン等の操作によって実現できる。
 ところで、表示領域の大きさを変更する場合、変更前後で同一の表示領域の範囲内になる部分とそうでない部分とが生じ得る。上記画像処理装置で生成される画像では、各機能に関わる操作ボタン画像が、対応する各表示領域に表示されている。そこで、上記画像生成部は、各表示領域が拡縮されても、表示面で操作ボタン画像の位置が変わらずに同じ位置に表示され続けるように、画像を生成する。これにより、操作性を損なうことなく、各機能の必要性に応じた大きさの表示領域が提供可能となる。
 前記第一の表示領域は、前記タッチパネルの左側と右側との一方に配置され、前記第二の表示領域は、前記タッチパネルの左側と右側との別の一方に配置され、前記第一の表示領域は、前記情報処理装置が搭載される車両の運転席側に配置されている。
 情報処理装置が車両に搭載されるように構成されている場合は、ナビゲーション機能は、運転者に車両の経路を案内する機能であるため、運転者に近い側にナビゲーション機能に関わる操作ボタン画像が表示されていると、運転者が操作しやすい。このため、第一の表示領域が運転席側に位置していれば、運転者のボタン操作が容易になる。他方、ナビゲーション機能以外の機能に関わる操作ボタン画像は、運転者から遠い側に表示されていてもよい。ナビゲーション画像およびナビゲーション機能に関わる第一の操作ボタン画像を含む第一の画像が運転席側に、ナビゲーション機能以外の機能に関わる第二の操作ボタン画像を含む第二の画像が助手席側に表示されるようにすることで、タッチパネルの視認性を向上させることが可能になる。
 前記可動な境界が移動することによって、前記第一の表示領域が縮小されると同時に、前記第二の表示領域が拡大され、若しくは前記第二の表示領域が縮小されると同時に前記第一の表示領域が拡大されてもよい。
 前述したように、電子機器類の設置スペースが制限される環境では、タッチパネルの表示画面を十分広く確保することが難しい。このため、各表示領域の大きさを変更する際、他の表示領域の大きさを変える必要が生じる。そこで、第一の表示領域の拡縮のみならず、第二の表示領域の拡縮も同時に行う。これにより、タッチパネルの表示画面を有効に活用し、結果的に、タッチパネルにおけるボタン操作の操作性向上に寄与する。
 上記の情報処理装置は、情報処理装置の位置データを受信可能な受信手段と、地図データを記憶する記憶手段と、をさらに備え、前記ナビゲーション機能は、前記位置データおよび前記地図データに基づいて、前記ナビゲーション画像を描画するためのグラフィックデータを生成し、前記画像生成部は、前記グラフィックデータに基づいて前記ナビゲーション画像を生成し、前記第一の操作ボタン画像は、前記ナビゲーション機能の設定を行う画面を表示させるためのボタン画像、車両の目的地を設定する画面を表示させるためのボタン画像、前記地図画像の拡大および縮小を行うためのボタン画像の少なくとも何れかを含んでもよい。また、前記複数の機能は、スピーカで音声を出力するためのオーディオ機能を含み、前記所定第二の操作ボタン画像は、音楽の選曲ボタン画像、及びラジオ放送の選局ボタン画像の少なくとも何れかを含んでもよい。
 このように構成される情報処理装置によれば、ナビゲーション機能に関わるタッチ操作を実現する画像(第一の操作ボタン画像)が第一の表示領域に配置され、オーディオ機能に関わるタッチ操作を実現する画像(第二の操作ボタン画像)が第二の表示領域に配置された、両方の機能に関わる操作を実現可能な画像が表示される。従って、何れの機能に関わるボタン操作を行う場合であっても、ユーザは、操作ボタン画像に対するタッチ操作を迷うことなく、容易に両機能に関わるボタン操作を行うことが可能になる。
 前記画像生成部は、前記タッチ操作の履歴に応じて、前記第二の操作ボタン画像が、強調表示されるように、前記タッチパネルに表示される前記画像を生成してもよい。このように構成される情報処理装置であれば、タッチパネルに表示される操作ボタン画像のうち特に頻繁に操作するボタン画像や前回操作したボタン画像が目立つため、ナビゲーション画像の地図画像等と共に表示されていても、ユーザは頻繁に操作するボタン画像を容易に認識できる。従って、ユーザにボタン操作を迷わなくさせることが可能である。
 前記画像生成部は、前記境界を移動して前記第一の表示領域を拡大し、前記第一の画像のみが前記タッチパネルに表示される画像を生成してもよい。
 ここで、前記第一の画像のみが前記タッチパネルに表示される画像が生成されたとき、前記画像生成部は、前記境界を移動して前記第一の表示領域を縮小し、前記第一の画像と前記第二の画像が前記タッチパネルに表示される画像を生成してもよい。
 また、前記画像生成部は、前記境界を移動して前記第二の表示領域を拡大し、前記第二の画像のみが前記タッチパネルに表示される画像を生成してもよい。
 ここで、前記第二の画像のみが前記タッチパネルに表示される画像が生成されたとき、前記画像生成部は、前記境界を移動して前記第二の表示領域を縮小し、前記第一の画像と前記第二の画像が前記タッチパネルに表示される画像を生成してもよい。
 前記画像生成部は、前記境界を移動するとき、前記境界が徐々にスライドされるアニメーション画像を生成してもよい。
 境界が徐々にスライドして見えるアニメーション画像を表示することにより、第一の画像と第二の画像との相対的な位置関係が判りやすくなるため、ユーザがナビゲーション画像の表示範囲を変更する際の操作性を向上させることが可能になる。
 さらに前記画像生成部は、前記境界が徐々にスライドされる間、前記ナビゲーション画像において、前記情報処理装置の位置が前記第一の表示領域の中央に位置するようにアニメーション画像を生成してもよい。
 ナビゲーション画像、情報処理装置の位置の周辺の情報がユーザに最も必要とされる情報であり、この位置から離れた場所の情報はユーザにさほど必要とされない。そこで、ナビゲーション画像が表示される第一の表示領域において情報処理装置位置をセンタリング表示することにより、ユーザに必要な情報を適切に表示することを可能にしている。
 また、本発明は、画像を生成可能な画像処理装置としても実現することができる。すなわち、本発明によると、ユーザによるタッチ操作を受け付け可能なタッチパネルに表示される画像を生成可能な画像処理装置であって、前記タッチパネルに表示される画像であって、地図画像を含むナビゲーション画像と前記タッチ操作を受け付けるための複数操作ボタン画像を生成する画像生成部を備え、前記複数の操作ボタン画像は、ナビゲーション機能に関わる第一の操作ボタン画像と、前記ナビゲーション機能以外の複数の機能に関わる第二の操作ボタン画像を含み、前記画像生成部は、前記ナビゲーション画像と前記第一の操作ボタン画像とを組み合わせた第一の画面と、前記第二の操作ボタン画像を含む第二画像を生成し、前記第一の画像と前記第二の画像は、第一の表示領域と第二の表示領域にそれぞれ表示され、前記第一の表示領域と前記第二の表示領域は、可動な境界で隔てられている画像処理装置が提供される。
 また、本発明は、タッチパネルで表示する画像を生成するコンピュータプログラムとしても実現することが可能である。
ナビゲーション装置の外観図。 ナビゲーション装置の構成図。 ディスプレイの動作を示す図。 ディスプレイの動作を示す図。 制御部の構成図。 制御部の機能ブロック図。 ナビゲーション装置のメイン画面の画面遷移図。 ナビの画面遷移図。 AV画面の表示モードを示す図。 マルチ画面の図。 ナビ全画面の図。 AV全画面の図。 AV領域の消え方を示す図。 ナビ領域の消え方を示す図。 メイン画面の画面遷移を示す概念図。 メニュー画面の図。 マルチ画面からメニュー画面へ遷移する際のアニメーションを示した図。 目的地設定画面の図。 周辺施設検索画面の図。 交差点拡大画面を示す図。 AV画面(ラジオ)。 AV画面(CD)。 AV画面(ワンセグ)。 AV画面(iPod)。 AV画面(外部入力)。 AV画面(OFF)。 変形例に係るマルチ画面の図。 変形例に係るマルチ画面の図。 変形例に係るマルチ画面の図。 変形例に係るナビゲーション装置のグラフィック処理の処理フロー図。 変形例に係るナビゲーション装置が有するテーブル。 変形例に係るナビゲーション装置のグラフィック処理の処理フロー図。 変形例に係るナビゲーション装置のグラフィック処理の処理フロー図。 変形例に係るナビゲーション装置が有するテーブル。 操作ボタンの表示位置の変更処理のフロー図。 操作ボタンの表示位置の変更を受け付ける際に表示される画面の図。 変形例に係る画面変化を示す図。 AV領域の消え方を示す図。
 以下、この発明を実施するための最良の形態を例示的に説明する。以下に示す実施形態は例示であり、本発明はこれらに限定されるものではない。
<構成>
 図1は、本発明の一実施形態に係るナビゲーション装置1(情報処理装置の一例)の外観図である。なお、ナビゲーション装置としては、例えば富士通テン株式会社のAVN(登録商標。Audio Visual Navigation)等の車載用ナビゲーション装置がある。但し、本発明は、例えば携帯型のナビゲーション機能を有する電子機器等にも適用可能である。また、ナビゲーション装置や、携帯型のナビゲーション機能を有する電子機器に外部接続されて、或いは内蔵されて、ナビゲーション画像を生成する画像処理装置にも適用可能である。本実施形態に係るナビゲーション装置1は、2DIN(Deutsche Industrie Normen)の本体・モニタ一体型カーナビゲーション装置であり、車両の現在地や目的地までの経路の案内等を行うカーナビゲーション機能や、各種オーディオ/ビジュアル(以下、AVという)コンテンツの再生機能、放送波を受信する機能等を有している。ナビゲーション装置1は、運転席や助手席の乗員の手が届きやすいダッシュボードの中央付近に設置された状態で使用されるものであり、メインユニット2とディスプレイユニット3とで構成されている。
 図2は、ナビゲーション装置1の構成図である。メインユニット2は、電子部品類で構成されており、ブレーキ検知部4、リバース検知部5、携帯式プレーヤインターフェース6、放送波受信部7、外部音声/映像入力部8、GPS情報受信部9(受信手段の一例)、車速検知部10、カメラ映像入力部11、アンプ12、開閉制御部13A、角度制御部13B、角度センサ14、モータ15、CDドライブ16、カードメモリインターフェース17、リセットボタン18、ジャイロセンサ19、制御部20(画像処理装置の一例)が内蔵されている。ディスプレイユニット3は、主に、車両の乗員に対して各種の情報を映像で表示するとともに、ユーザ操作を受け付ける役割を司るデバイス類で構成されており、タッチパネル21、表示処理部22、操作受付部23、操作ボタン24、赤外線受/発光部25を内蔵している。
 以下、メインユニット2の構成について説明する。ブレーキ検知部4は、車両のパーキングブレーキがかけられているか否かを検知し、これを制御部20に通知する。ブレーキ検知部4は、パーキングブレーキレバー(あるいはペダル)の動きと連動してオンオフするスイッチの通電状態により、ブレーキの状態を検知する。ブレーキ検知部4は、このスイッチの通電状態を、端子26Aを介して電気的に検知する。
 リバース検知部5は、車両の変速レバーがリバース(後進)になっているか否かを検知し、これを制御部20に通知する。リバース検知部5は、変速レバーと連動して動くスイッチのオンオフにより、変速レバーの状態を検知する。リバース検知部5は、このスイッチの通電状態を、端子26Bを介して電気的に検知する。
 携帯式プレーヤインターフェース6は、音楽等を再生する携帯式のプレーヤ(例えば、iPod(登録商標))と双方向通信を行うためのインターフェースである。携帯式プレーヤインターフェース6は、このような携帯式のプレーヤが外部接続されると双方向通信を開始し、プレーヤから送られるオーディオ信号を制御部20へ送り、制御部20から送られる再生開始や曲送り等の制御信号をプレーヤへ送る。携帯式プレーヤインターフェース6は、端子26Cに接続されるコードを介してプレーヤと通信を行う。
 放送波受信部7は、ワンセグチューナ(「ワンセグ」は商標登録出願中)、AMチューナ(AM:Amplitude Modulation)、及びFMチューナ(FM:Frequency Modulation)で構成される回路である。放送波受信部7は、制御部20からの制御信号に応じてチューナの受信状態を制御し、端子26Dに接続されるアンテナが受信した電波の信号を制御部20へ送る。
 外部音声/映像入力部8は、端子26Eに接続されるビデオ/オーディオ機器からのコンポジット映像信号や音声信号を受け付け、これを制御部20へ送る回路である。
 GPS情報受信部9(GPS:Global Positioning System)は、端子26Fに接続されるGPSアンテナが受信したGPS衛星からの電波の信号を受信し、受信した信号を制御部20へ送る。周知のように、GPSは、地球を周回する多数のGPS衛星のうち少なくとも3つ以上の衛星からの電波に基づいて車両の位置を測位するシステムである。GPS情報受信部9は、地球を周回するこれらGPS衛星の電波の信号を処理する。GPS情報受信部9によって受信されたGPS衛星からの信号は、カーナビゲーションに用いられる。
 車速検知部10は、車軸の回転角に応じて発生する車速パルス信号を検知し、これを制御部20へ送る回路である。車速検知部10が検知する車速パルス信号は、車速センサまたは車両のエンジンやブレーキを制御する電子制御ユニットから出力されるステップ状の車速パルス信号であり、単位時間当たりのパルス数から車両速度を割り出す際に用いられる。単位時間当たりのパルス数が増えていれば車両が加速しており、減っていれば車両が減速していることになる。車両の速度と車速パルスとの相関関係は、車両を製造するメーカや車種、装着される車輪の大きさや空気圧等に応じて変化する。このため、制御部20では、GPSによる測位結果に基づいて算出される車両の移動距離とその間を走行する間に検知されたパルス数との相関から、車両の速度と車速パルスとの相関関係が適宜更新される。車速検知部10は、電子制御ユニットから出力される車速パルス信号を、端子26Gを介して電気的に検知する。
 カメラ映像入力部11は、車両の後方を撮影するビデオカメラであるバックアイカメラからの映像信号を受け付け、制御部20へ送る回路である。すなわち、カメラ映像入力部11は、リバース検知部5が車両のリバースを検知した際、端子26Hに接続されているビデオカメラからの映像信号を制御部20へ送る。
 アンプ12は、制御部20から車室内に設置され端子26Iに接続されているスピーカへ送られる音声信号を増幅する回路である。アンプ12は、制御部20からの制御信号に応じて増幅率を任意に変更可能である。
 開閉制御部13Aは、ディスプレイユニット3の開閉動作を行う回路である。開閉制御部13Aは、制御部20からの制御信号に応じてモータ15を制御したり、角度センサ14からの信号を処理したりすることにより、ディスプレイユニット3を開閉する。図3は、制御部20からの制御信号を受けた開閉制御部13Aがモータ15を制御することにより実現するディスプレイユニット3の開閉動作を示したものである。開閉制御部13Aは、図3に示すように、ディスプレイユニット3の姿勢を三段階に調整することが可能であり、CDドライブ16(CD:Compact Disc)のCDの挿入口27を閉じた「クローズ」状態、CDドライブ16のCD挿入口27を開いた「セミオープン」状態、及びカードメモリインターフェース17のカード挿入口28やリセットボタン18を開いた「フルオープン」状態を実現する。ディスプレイユニット3の姿勢が「クローズ」状態の場合、CD挿入口27やカード挿入口28、リセットボタン18はディスプレイユニット3に隠れた状態である。また、ディスプレイユニット3の姿勢が「セミオープン」状態の場合、カード挿入口28やリセットボタン18がディスプレイユニット3に隠れ、CD挿入口27がナビゲーション装置1の正面からアクセス可能な状態になる。また、ディスプレイユニット3の姿勢が「フルオープン」状態の場合、CD挿入口27、カード挿入口28、及びリセットボタン18がナビゲーション装置1の正面からアクセス可能な状態になる。
 角度制御部13Bは、ディスプレイユニット3の角度調整を行う回路である。角度制御部13Bは、開閉制御部13Aと同様、制御部20からの制御信号に応じてモータ15を制御したり、角度センサ14からの信号を処理したりすることにより、ディスプレイユニット3の角度を調整する。なお、ディスプレイユニット3の角度とは、ナビゲーション装置1の左右方向に伸びる軸を中心とする、メインユニット2の正面とディスプレイユニット3の正面(すなわち、タッチパネル21の表面)との相対的な角度である。図4は、角度制御部13Bが実現するディスプレイユニット3の角度調整状態を示したものである。角度制御部13Bは、図4に示すように、ディスプレイユニット3の仰角を多段階に調整してチルトアップすることが可能である。
 角度センサ14は、ディスプレイユニット3の角度を検知するセンサであり、検知した角度を電気信号で開閉制御部13Aおよび角度制御部13Bへ通知する。モータ15は、ディスプレイユニット3の角度を調整するモータであり、ディスプレイユニット3の上端を上下に動かしたり、ディスプレイユニット3の下端を前後に動かしたりする。開閉制御部13Aおよび角度制御部13Bは、制御部20からの制御信号を受けると、角度センサ14で検知されるディスプレイユニット3の角度と制御信号に基づいて決定される角度の目標値との差を割り出し、角度センサ14で検知されるディスプレイユニット3の角度が目標値と一致するようにモータ15をフィードバック制御する。
 CDドライブ16は、音楽等のオーディオコンテンツが記録されたCDを読み取って再生する光ディスク読取装置であり、光ピックアップレンズや発光素子、ディスク駆動モータ等で構成されている。
 カードメモリインターフェース17は、記憶保持動作が不要な不揮発性の半導体メモリカードを読み書きするメモリカードリーダライタである。カードメモリインターフェース17に挿入されるメモリカードは、4GB程度の記憶容量を有しており、高速道路や一般道等の道路情報、テーマパーク、ガソリンスタンドといった各種施設に関する地点情報(以降、POI(Point Of Interest)データとも表記)等を含む地図データ、並びに電話番号や施設名称等のデータが記録されている。制御部20は、メモリカードに記録されている地図データにアクセスすることでカーナビゲーションのルート検索等の諸機能を実現する。
 ジャイロセンサ19は、メインユニット2に内蔵される2軸ジャイロセンサである。ジャイロセンサ19は、GPS衛星からの電波をGPS情報受信部9が受信できない時でも車両の測位を可能にするためのものである。なお、GPS衛星からの電波を受信できない時の車両の位置は、制御部20により、車速検知部10が検知する車両速度とジャイロセンサ19が検知する車両の進行方向とに基づいて算出される。
 図5Aは、制御部20の構成図である。図5Aに示すように、制御部20は、CPU(Central Processing Unit)20AやROM(Read Only Memory)20B(記憶手段の一例)、RAM(Random Access Memory)20C、入出力インターフェース(I/O)20D等で構成されている。ROM20Bには、後述するタッチパネル21に描画する操作ボタンやアイコン等のグラフィックデータが格納されている。制御部20は、車両のアクセサリー電源がオンになると、ROM20Bに記録されたコンピュータプログラムを実行し、カードメモリインターフェース17に挿入されたメモリカードのデータやRAM20Cに格納されているデータ等を使って各種機能を実現する。制御部20が実現する各種機能の詳細については後述する。
 次に、ディスプレイユニット3を構成する各構成要素について説明する。タッチパネル21は、カラー液晶ディスプレイとタッチセンサとを組み合わせたGUI(Graphical User Interface)であり、7.0インチのEGA(Enhanced Graphics Adapter)型液晶ディスプレイで画面を表示すると共に、画面に表示されたアイコン等が押されるとタッチセンサがこれを検知する。
 表示処理部22は、タッチパネル21の液晶ディスプレイに表示する画面を描画処理する回路である。表示処理部22は、制御部20から送られる映像信号に基づき、液晶ディスプレイに格子状に均等配列された薄膜トランジスタを駆動することで、タッチパネル21の画面を描画する。
 操作受付部23は、タッチパネル21へのタッチ操作をタッチセンサが感知すると、タッチされた画面上の位置を特定し、特定された位置の情報を制御部20へ送る。
 操作ボタン24は、タッチパネル21にアイコン表示されるボタン(ボタン画像)ではなく、機械的なボタンであり、図1に示すように、タッチパネル21の下に配置される操作用の押しボタン式スイッチである。操作ボタン24は、ディスプレイユニット3の左側から順に、開閉ボタン、現在地ボタン、音量調整ボタンで構成されている。音量調整ボタンは、右側が押されると音量アップ、左側が押されると音量ダウンになるように設定されている。これらのボタンが押されると、押されたボタンの信号が制御部20へ送られる。なお、タッチパネル21にソフトウェアで表示されるボタンではなく、機械的なハードウェアで用意されているこれらの押しボタンは、ナビゲーション装置1の操作性を高める観点から、必要最低限のボタンとして用意されたものである。すなわち、開閉ボタンは、タッチパネル21の不調時に、リセットボタン18への操作を試みたり、或いはCDドライブ16内のCDを取り出す際に必要とされるため、ソフトウェアで表示するボタンとは別途に設けられたものである。また、現在地ボタンは、現在の位置を表示するというナビとしてはベーシックな機能であるが、ナビゲーション機能に関わる操作の方法が判らなくなってしまったような場合に、最初のナビゲーション画面に戻るためのボタンであり、ソフトウェアで表示するボタンとは別途に設けられることで、このボタンさえ押せばいつでも最初のナビゲーション画面、即ち、地図上に自車位置を表示する画面に戻れるという安心感をユーザへ与えるという付加的な意味を持つ。また、音量調整ボタンは、何らかの理由によりスピーカ音量を直ちに下げたい場合に操作されるものであるため、ソフトウェアで表示するボタンとは別途に設けられることで咄嗟の操作を可能にしている。このように、最も重要と思われるボタン類のみをハードウェアボタンとしてタッチパネル21の周囲に別途用意し、その他のボタンをタッチパネル21にソフトウェア表示させることにより、タッチパネル21の表示スペースを十分に確保しつつもナビゲーション装置1の操作性を向上させ、更にユーザにナビゲーション装置1の操作を迷わせなくすることができる。
 赤外線受/発光部25は、ナビゲーション装置1と携帯電話とが赤外線で双方向通信を行うためのインターフェースであり、電気で赤外線を発光する発光素子と、受光した赤外線を電気にする受光素子で構成されている。赤外線受/発光部25は、制御部20から送られる制御信号やデータを携帯電話へ送るとともに、携帯電話から送られる制御信号やデータを制御部20へ送る。赤外線受/発光部25は、図1に示すように、タッチパネル21の下に配置される。
 次に、メインユニット2の制御部20が実現する各種諸機能について詳述する。図5Bは、制御部20が実現する各種機能部を図示した機能ブロック図である。車両のアクセサリー電源がオンになると、制御部20は、図5Bに示すように操作処理機能部51、測位機能部52、ルート案内機能部53、地図データ処理機能部54(ナビゲーション機能の一例)、ユーザデータ処理機能部55、音声処理機能部56、及び映像処理機能部57(画像生成部の一例)を実現するコンピュータプログラムを実行する。
 操作処理機能部51は、各種機能部の動作を制御するための操作画面を、映像処理機能部57を介してタッチパネル21に表示したり、操作受付部23や操作ボタン24、リセットボタン18からの操作信号を処理し、各種機能部の動作を制御したりする。
 測位機能部52は、車両のアクセサリー電源がオンになると、GPS情報受信部9から送られる衛星からの電波の情報、車速検知部10から通知される車両速度の情報、及びジャイロセンサ19から送られる角速度の情報に基づいて車両の位置(緯度と経度)を測位する。
 ルート案内機能部53は、車両の現在地からユーザが設定した目的地までのルートを索出し、ルート案内を行う機能部である。ルート案内機能部53は、測位機能部52が測位した車両の位置から目的地までの走行ルートを、カードメモリインターフェース17に挿入されるメモリカードの地図データから索出する。そして、索出した走行ルートと車両の位置との関係から車両の進路を音声、及び映像で案内する。
 地図データ処理機能部54は、カードメモリインターフェース17に挿入されたメモリカードの地図データやルート案内機能部53が索出した走行ルートのデータ、放送波受信部7を介してFM放送波から取得されるVICS(登録商標)の道路交通情報のデータ、測位機能部52が測位した車両の位置データ等に基づき、タッチパネル21に表示する地図のグラフィックデータを生成する。
 ユーザデータ処理機能部55は、ユーザが登録しようとする地点情報(例えば、自宅の位置情報等)やルート検索の履歴情報、アイコンの表示非表示等の設定情報をRAM20Cに書き込んだり、RAM20Cから読み出したりする。
 音声処理機能部56は、アンプ12を介してスピーカから出力する音声の信号を処理する機能部である。すなわち、音声処理機能部56は、放送波受信部7が受信したラジオ放送、携帯式プレーヤインターフェース6がプレーヤから取得するオーディオ信号、CDドライブ16が再生するオーディオ信号をアンプ12へ送ったり、これらのオーディオ信号にルート案内機能部53からのルートガイダンスの音声信号を重畳し、アンプ12へ送ったりする。
 映像処理機能部57は、タッチパネル21に表示させる映像データを生成する機能部である。すなわち、映像処理機能部57は、操作処理機能部51が生成する操作画面のデータと、地図データ処理機能部54が生成する表示用地図の画面のデータとを重畳して表示処理部22へ送ったり、放送波受信部7が受信したテレビジョン放送の映像データを表示処理部22へ送ったり、或いはリバース検知部5による車両後退の検知に連動してカメラ映像入力部11からの映像信号を表示処理部22へ送ったりする。なお、映像処理機能部57は、テレビジョン放送の映像データを表示処理部22へ送っている際にブレーキ検知部4がパーキングブレーキの解除を検知すると、映像データの通知を止める。
<動作>
 以下、ナビゲーション装置1の動作について説明する。図6はナビゲーション装置1のメイン画面の画面遷移図であり、図7はナビに関する画面遷移図である。また、図8は、AV画面の表示モードを示した図である。以下、図6~8に基づいてナビゲーション装置1の動作について説明する。
 (D101)オープニング画面(D101)について説明する。車両のアクセサリー電源がオンになり、ナビゲーション装置1に電力が供給されると、制御部20は、ROM20Bに格納されているコンピュータプログラムを実行してナビゲーション装置1を初期化し、図5Bに示す各種機能部を実現する。ここで、映像処理機能部57は、ROM20Bに格納されているオープニング画面のデータを参照し、タッチパネル21にオープニング画面を表示させる。なお、オープニング画面が表示されている間、制御部20の各機能部では、次のような処理が実行される。すなわち、操作処理機能部51は、操作受付部23や操作ボタン24、リセットボタン18からの信号を走査してユーザ操作を受け付ける。また、測位機能部52は、GPS情報受信部9で取得される測位情報や車速検知部10、ジャイロセンサ19の信号を処理し、車両の位置を測定する。また、地図データ処理機能部54は、カードメモリインターフェース17に挿入されているカードメモリへアクセスし、測位機能部52が測位した自車位置の周辺の地図データを読み出す。
 (D102)次に、マルチ画面(D102)について説明する。オープニング画面が表示されてから4秒経つと、映像処理機能部57は、ROM20Bに格納されている操作ボタン類の画像データや地図データ処理機能部54が読み出した地図データを基に、AVの操作画面(第二の画像の一例)とナビの操作画面(第一の画像の一例)とを並べたマルチ画面(D102)を生成し、タッチパネル21に表示する。図9は、マルチ画面の図である。映像処理機能部57は、図9に示すように、AV(ナビゲーション機能以外の複数の機能の一例。特に、ラジオやCD、iPodに関わる機能は、オーディオ機能の一例)の操作ボタン類(第二の操作ボタン画像の一例)を含む画像がタッチパネル21の左側に配置されたAV領域(第二の表示領域の一例)に表示され、ナビ(ナビゲーション機能の一例)の地図画像や操作ボタン類(第一の操作ボタンの一例)を組み合わせた画像がタッチパネル21の右側に配置されたナビ領域(第一の表示領域の一例)に表示されるように画像データを生成する。本実施形態では、ナビゲーション装置1が右ハンドルの車両に搭載されるように構成されているため、ナビ領域は、タッチパネル21の右側、すなわち運転席側に配置されている。ナビゲーション装置1が左ハンドルの車両に搭載されるように構成されている場合は、ナビ領域は、タッチパネル21の左側に配置されていてもよい。ナビゲーション装置1は、AVに関わる操作とナビに関わる操作とをグルーピングし、表示領域を分けている。図9に示すように、ナビ領域とAV領域とは、境界で隔てられている。後述する通り、この境界は可動である。AV領域は、更に、ソースを選択するための操作ボタン類をまとめて表示するソース選択領域(機能選択領域の一例)と、選択されたソースに関連するボタンや情報を表示するソース操作領域(機能操作領域の一例)とに区分されている。
 図9に示すように、映像処理機能部57は、AV領域の内のソース選択領域に、「ラジオ」、「CD」、「ワンセグ」、「iPod」、「外部入力」、「OFF」、及び「AV」ボタン(機能選択ボタンの一例)を表示する。何れかのソースボタンがタッチされると、そのソースが選択される。これらのボタンは、タッチパネル21の表示面の一部を画定する所定第二領域に配置されている。この所定第二領域は、AV機能に関わる操作ボタンが配置される領域であり、本実施形態では、助手席から操作がしやすいように、タッチパネル21の左側部分に配置されている。図9の例では、「ラジオ」が選択されており、受信周波数やAM/FMの切り替えボタン、選局ボタン等の選択されたソースに関連する操作ボタン(機能別操作ボタンの一例)や情報がソース操作領域に表示されている状態を図示している。従って、このとき、音声処理機能部56は、放送波受信部7が受信したAM放送の音声信号を、アンプ12を介してスピーカから出力している。他方、映像処理機能部57は、ナビ領域に、地図データ処理機能部54が読み出した地図データに基づいて描画される地図の他、「メニュー」、「目的地」、「周辺」、「自宅」、「ナビ」、「地図拡大」、及び「地図縮小」ボタンを表示する。これらのボタンは、タッチパネル21の表示面の一部を画定する所定第一領域に配置されている。この所定第一領域は、ナビゲーション機能に関わる操作ボタンが配置される領域であり、本実施形態では運転者にとって操作がしやすいように、タッチパネル21の下側部分や右側部分に配置されている。なお、マルチ画面(D102)では、AV領域とナビ領域の2つが同時に存在するため、AV領域がAV全画面(D104)の時よりも狭い。そこで、マルチ画面(D102)のソース操作領域には、そのソースに関わる操作ボタンや情報のうち基本的なものだけが表示されるようになっている。
 マルチ画面(D102)において、「ナビ」ボタンが押されたことを操作処理機能部51が検知すると、映像処理機能部57は、ナビ全画面(D103)の画面表示状態に遷移する。また、マルチ画面(D102)において、「AV」ボタンが押されたことを操作処理機能部51が検知すると、映像処理機能部57は、AV全画面(D104)の画面表示状態に遷移する。なお、その他のボタンが押された場合についてはナビ全画面(D103)、及びAV全画面(D104)の説明の後に詳述する。
 (D103)次に、ナビ全画面(D103)について説明する。映像処理機能部57は、マルチ画面(D102)に表示されている「ナビ」ボタンが押されたことを操作処理機能部51が検知すると、境界を移動して、ナビ領域の大きさを拡大し、AV領域の大きさを縮小する。そして、AV領域を隠し、タッチパネル21においてナビの操作画面のみが表示されるように、ナビ領域を全画面に拡大表示する。図10は、ナビ全画面の図である。映像処理機能部57は、図10に示すように、AV領域を消し、ナビ領域をタッチパネル21に全画面表示する。
 図10に示すように、ナビ領域には、マルチ画面(D102)と同様、地図や、「メニュー」、「目的地」等の操作ボタン(第一の操作ボタン画像)が表示されている。ここで、映像処理機能部57は、ナビ全画面に表示される自車位置のアイコンが、ナビ領域の中心に位置(センタリング)するように画面を表示している。このため、タッチパネル21の表示画面がマルチ画面(D102)からナビ全画面(D103)に遷移するとき、自車位置のアイコンや地図の表示が、画面内で若干スクロール(スライド)する。一方、映像処理機能部57は、「メニュー」や「目的地」等の操作ボタン類がタッチパネル21の表示画面上で同じ位置および大きさになるように画面を表示する。このため、タッチパネル21の表示画面がマルチ画面(D102)からナビ全画面(D103)に遷移しても、ナビの操作ボタン類はタッチパネル21の画面上でスクロール(スライド)せず、同じ位置および大きさに表示され続ける。但し、「ナビ」ボタンのみ「AV+ナビ」ボタンに表示が切換わる。ここで、「AV+ナビ」ボタンが押されると、映像処理機能部57は、ナビ全画面(D103)からマルチ画面(D102)へ表示を切り替える。
 (D104)次に、AV全画面(D104)について説明する。映像処理機能部57は、マルチ画面(D102)に表示されている「AV」ボタンが押されたことを操作処理機能部51が検知すると、境界を移動して、ナビ領域の大きさを縮小し、AV領域の大きさを拡大する。そして、ナビ領域を隠し、タッチパネル21においてAVの操作画面のみが表示されるように、AV領域を全画面に拡大表示する。図11は、AV全画面の図である。映像処理機能部57は、図11に示すように、ナビ領域を消し、AV領域をタッチパネル21に全画面表示する。
 図11に示すように、AV領域には、マルチ画面(D102)と同様、「ラジオ」、「CD」、「ワンセグ」、「iPod」、「外部入力」、及び「OFF」ボタンがソース選択領域に表示されている。また、AV領域には、ソース操作領域が拡大されて、マルチ画面(D102)で表示されていなかった放送局の名称やプリセットの選局ボタン、チャンネル設定ボタンや音設定ボタン(拡張操作ボタン画像の一例)が表示されている。また、CDドライブ16にCDが挿入されていることを示す「CDIN」が表示されている。ここで、AV領域には、マルチ画面(D102)で表示されていた「ラジオ」、「CD」、「ワンセグ」、「iPod」、「外部入力」、及び「OFF」ボタンが同じ位置に表示されている。すなわち、ソース選択領域の広さはマルチ画面(D102)とAV全画面(D104)とで変わらない。但し、「ナビ」ボタンのみ「AV+ナビ」ボタンに表示が切換わる。以下、マルチ画面とAV全画面の両方で表示される領域を「AV通常領域」といい、AV全画面でのみ表示される領域を「AV拡張領域」という。なお、「AV+ナビ」ボタンが押されると、映像処理機能部57は、AV全画面(D104)からマルチ画面(D102)へ表示を切り替える。なお、AV全画面(D104)では、ナビ領域が存在しないので、AV領域がマルチ画面(D102)の時よりも広い。そこで、AV全画面(D104)のソース操作領域には、そのソースに関わる全ての操作ボタンや情報が表示されるようになっている。このように、AV全画面(D104)の場合にのみ表示されるソースの操作ボタンや情報類の表示領域が「AV拡張領域」であり、ソース操作領域の一部を構成している。一方、マルチ画面(D102)とAV全画面(D104)の何れにも表示されるソースの操作ボタンや情報類の表示領域が「AV通常領域」であり、ソース操作領域の一部とソース選択領域とを構成している。
 ナビゲーション装置1のメイン画面の画面遷移(図6)については以上の通りである。以下、マルチ画面(D102)からナビ全画面(D103)、或いはAV全画面(D104)へ画面が遷移する際の、ナビ領域、及びAV領域の画面上の動き方について詳述する。図12は、マルチ画面(D102)からナビ全画面(D103)へ遷移する際の、AV領域の消え方を示す図である。また、図13は、マルチ画面(D103)からAV全画面(D104)へ遷移する際の、ナビ領域の消え方を示す図である。映像処理機能部57は、マルチ画面からナビ、或いはAV全画面へ表示を切り替えるに際し、ナビ領域やAV領域がスクロール(スライド)して見えるように、ナビ領域とAV領域との境界が徐々にスライドされるアニメーション画像を生成する。すなわち、映像処理機能部57は、マルチ画面からナビ全画面へ表示を切り替える際、AV領域とナビ領域との境界がスライドしてAV領域が徐々に左側に退出していくように、換言すれば、AV領域の表示面積が徐々に減少するようにスクロールすると共に、ナビ領域の表示面積が徐々に増加するようにスクロールしていくように、画面をアニメーション表示する。同様に、ナビ全画面からマルチ画面へ表示を切り替える際、境界がスライドしてAV領域が左側から徐々に進入してくるように、換言すれば、AV領域の表示面積が徐々に増加するようにスクロールすると共に、ナビ領域の表示面積が徐々に減少するようにスクロールしていくように、画面をアニメーション表示する。また、映像処理機能部57は、マルチ画面からAV全画面へ表示を切り替える際、境界がスライドしてAV領域が徐々に右側に進入してくるように、換言すれば、AV領域の表示面積が徐々に増加するようにスクロールすると共に、ナビ領域の表示面積が徐々に減少するようにスクロールしていくように、画面をアニメーション表示する。同様に、AV全画面からマルチ画面へ表示を切り替える際、境界がスライドしてAV領域が右側から徐々に進入してくるように、換言すれば、AV領域の表示面積が徐々に減少するようにスクロールすると共に、ナビ領域の表示面積が徐々に増加するようにスクロールしていくように、画面をアニメーション表示する。これにより、ユーザは、ナビ画面上にAV画面が抜き差しされるように感じ取ることができる。従って、ナビの画面を見たければ、マルチ画面(D102)の右側に表示されている「ナビ」ボタンを押すことにより、ナビ全画面(D103)に遷移することを視覚的に容易に理解することができる。また、AVの画面を見たければ、マルチ画面(D102)の左側に表示されている「AV」ボタンを押すことにより、AV画面が抜き差しされることを容易に理解することができる。図14は、メイン画面の画面遷移の様子を示した概念図である。ユーザは、図14に示すように、表示窓から覗き込むと見える右側の面の上に、左側の面が左側から抜き差しされるようなイメージで、ナビゲーション装置1のメイン画面を操作できる。よって、メイン画面がナビ状態、マルチ状態、AV状態の何れの状態にあるのかが判りやすく、安心して操作することができる。尚、図12~図14に示すスクロール表現処理は、これ単独で発明を構成してもよい。
 なお、マルチ画面とナビ全画面との間で表示を切り替える際は、AVの操作画面とナビの操作画面との境界の位置が、所定第一領域に侵入しない範囲で変更されている。一方、マルチ画面とAV全画面との間で表示を切り替える際は、AVの操作画面とナビの操作画面との境界の位置が、所定第一領域に侵入する範囲で変更されている。これは、マルチ画面とナビ全画面との間での表示の切り替えが、タッチパネル21でナビの操作画面が占める表示範囲を変更するものであるのに対し、マルチ画面とAV全画面との間での表示の切り替えが、タッチパネル21でナビの操作画面が占める表示範囲を消去するものであり、所定第一領域に表示されているナビゲーション機能に関わる操作ボタンの表示を継続する必要が無いものだからである。
 また、マルチ画面とAV全画面との間で表示を切り替える際は、境界の位置が、所定第二領域を含む「AV通常領域」に侵入しない範囲で変更されている。一方、マルチ画面とナビ全画面との間で表示を切り替える際は、境界の位置が、「AV通常領域」に侵入する範囲で変更されている。これは、マルチ画面とAV全画面との間での表示の切り替えが、タッチパネル21でAVの操作画面が占める表示範囲を変更するものであるのに対し、マルチ画面とナビ全画面との間での表示の切り替えが、タッチパネル21でAVの操作画面が占める表示範囲を消去するものであり、所定第二領域に表示されているAV機能に関わる操作ボタンの表示を継続する必要が無いものだからである。
 マルチ画面とナビ全画面との間で表示を切り替える際は、ナビ領域の大きさが変更されるに従って、ナビ領域の中心も移動する。従って、マルチ画面からナビ全画面への遷移、あるいはナビ全画面からマルチ画面への遷移において、ナビ領域の中心に合わせて、自車位置のアイコンを、変更する処理(センタリング処理)を行う。このセンタリング処理は、画面遷移の直前に行ってもよいし、直後に行ってもよい。すなわち、予め画面遷移が行われた後のナビ領域の中心に合わせて自車位置のアイコンおよび地図画像を移動して、然る後に、AVの操作画面とナビの操作画面との境界を移動させてもよいし、最初にAVの操作画面とナビの操作画面との境界を移動させた後に、ナビ領域の中心に合わせて自車位置のアイコンおよび地図画像を移動してもよい。さらにこのセンタリング処理は、ナビ領域とAV領域との間の境界が徐々にスライドされるアニメーション画像に合わせて、徐々に行われてもよい。図12に示す例では、境界を移動させた後に、ナビ領域の中心に合わせて自車位置のアイコンおよび地図画像が移動されている。つまり、センタリング処理を画面遷移の直後に行っている。また、図37に示す例では、境界を移動させる前に、ナビ領域の中心に合わせて自車位置のアイコンおよび地図画像が移動されている。つまり、センタリング処理を画面遷移の直前に行っている。
 (D201)次に、ナビゲーション装置1のナビに関する画面について説明する。まず始めに、メニュー画面(D201)について説明する。マルチ画面(D102)またはナビ全画面(D103)のナビ領域に表示されている「メニュー」ボタンが押されたことを操作処理機能部51が検知すると、映像処理機能部57は、メニュー画面(D201)をタッチパネル21に表示する。図15は、メニュー画面(D201)の図である。映像処理機能部57は、図15に示すように、ナビ領域の「メニュー」ボタンから立ち上がるようにメニューのポップアップを表示する。ここで、映像処理機能部57は、メニューのポップアップが「メニュー」ボタンから徐々に立ち上がるようにアニメーション表示し、更に、マルチ画面(D102)がポップアップの下側に見えるようにしている。なお、ポップアップとは、画面に表示されるボタンを押すと、そのボタンから立ち上がるように表示される領域であり、例えば、メニューの項目等が表示される領域である。図16は、マルチ画面(D102)からメニュー画面(D201)へ遷移する際のアニメーションを示した図である。マルチ画面(D102)の「メニュー」ボタンが押されると、「メニュー」ボタンから立ち上がるようにメニューのポップアップが表示される。従って、ユーザは、メニュー画面がマルチ画面から遷移して表示されていることを視覚で容易に理解することが可能であり、安心して操作することができる。なお、メニュー画面(D201)には、アイコンや施設表示等のユーザ設定用ボタンや、お気に入り地点の編集用ボタンが表示される。ユーザが登録した地点情報等は、ユーザデータ処理機能部55により、制御部20内のRAM20Cに記憶される。
 (D202)次に、目的地設定画面(D202)について説明する。映像処理機能部57は、マルチ画面(D102)またはナビ全画面(D103)のナビ領域に表示されている「目的地」ボタンが押されたことを操作処理機能部51が検知すると、目的地設定画面(D202)をタッチパネル21に表示する。すなわち、映像処理機能部57は、図17に示すように、ナビ領域の「目的地」ボタンから立ち上がるように目的地設定用のボタンが配置されたポップアップをアニメーション表示する。映像処理機能部57は、操作処理機能部51が目的地設定用の何れかのボタンが押されたことを検知すると、これに対応する画面を表示する。映像処理機能部57は、例えば、「50音で探す」ボタンが押されれば文字入力用の画面を表示し、「住所で探す」ボタンが押されれば都道府県等を選択する画面を表示し、「携帯連携で探す」ボタンが押されれば赤外線受/発光部25に携帯電話を近づけるようユーザに促す画面を表示し、「履歴で探す」ボタンが押されれば過去に検索したことのある目的地を表示する。赤外線受/発光部25によって携帯電話から供される通信データには、目的地の緯度や経度、或いは住所や電話番号といった位置情報が含まれている。「50音検索」、「住所で探す」、「携帯連携で探す」、或いは「履歴で探す」ボタンを押すと表示される画面により目的地が設定されると、ルート案内機能部53は、測位機能部52が計測する自車位置と目的地までの最短ルートを索出し、ルートガイドを開始する。
 (D203)次に、周辺施設検索画面(D203)について説明する。映像処理機能部57は、マルチ画面(D102)またはナビ全画面(D103)のナビ領域に表示されている「周辺」ボタンが押されたことを操作処理機能部51が検知すると、周辺施設検索画面(D203)をタッチパネル21に表示する。すなわち、映像処理機能部57は、図18に示すように、ナビ領域の「周辺」ボタンから立ち上がるように周辺施設検索用のボタン類を配置したポップアップをアニメーション表示する。そして、上述したD203と同様、何れかのボタンが押されればこれに対応する画面を表示する。すなわち、映像処理機能部57は、「周辺」ボタンが押されると、検索対象とする施設のカテゴリをユーザに選択させるボタンを表示し、検索対象のカテゴリが指定されると、自車位置の周辺にあるガソリンスタンドやコンビニエンスストア等、指定されたカテゴリに対応する施設類を、自車に近い順に索出して表示する。
 (D204)次に、交差点拡大画面(D204)について説明する。上述した目的地設定画面(D202)、或いは周辺検索画面(D203)で目的地が設定されるか、または、マルチ画面(D102)やナビ全画面(D103)に表示されている「自宅」ボタンが押されて目的地が設定されると、ルート案内機能部53によるルートガイドが開始される。ルート案内機能部53は、測位機能部52が計測する自車位置と、地図データ処理機能部54がカードメモリから読み出す地図データとに基づいてルートの案内を行う。ルート案内機能部53は、右折あるいは左折等を行う交差点に車両が接近したら、交差点拡大画面(D204)を表示すると共に、音声処理機能部56に経路案内用の音声データを渡す。図19は、交差点拡大画面(D204)を示す図である。図19に示すように、ナビ領域には交差点の拡大図が表示され、車両の進むべき進路が矢印で図示される。なお、このとき、AV領域には、オーディオ/ビジュアル用の操作ボタン類が表示されている。
 ところで、タッチパネル21の表示面の一部を画定する所定第一領域に表示されていたナビゲーション機能に関わる操作ボタン(第一の操作ボタン画像)は、交差点拡大画面(D204)では消えている。これは、交差点拡大画面(D204)の表示が、タッチパネル21でナビの操作画面が占める表示範囲を変更するものでなく、また、該交差点拡大画面(D204)が一時的に表示される画面であって、ナビゲーション機能に関わる操作ボタンを表示する必要が無いものだからである。
 次に、ナビゲーション装置1のAV画面の表示モードについて説明する。図8で示したように、ナビゲーション装置1のAV画面には、ラジオモード、CDモード、ワンセグモード、iPodモード、外部入力モード、及びオフモードの6つの画面が用意されている。映像処理機能部57は、AV領域の左側に用意されている何れかのソース選択ボタン或いは「OFF」ボタンが押されると、これに対応するモードのAV操作画面を表示する。映像処理機能部57は、例えば、「ラジオ」ボタンが押されれば、図9に示すようなラジオの周波数や選局ボタンを表示する。CDやiPodボタンについても同様である。また、映像処理機能部57は、「ワンセグ」ボタンや「外部入力」ボタンが押されれば、AV領域に選局ボタン等を表示すると共に、ナビ領域の表示を放送波受信部7からの映像や外部音声/映像入力部8の映像に切り替える。但し、映像処理機能部57は、ブレーキ検知部4がパーキングブレーキ信号の解除を検知した場合、放送波受信部7や外部音声/映像入力部8からの映像表示を止める。以下、AV画面の表示モードについて詳述する。
 (ラジオモード)図20は、ラジオが選択されている場合の表示画面を示した図である。図20に示すように、AV領域は、ソースを切り替えるためのボタンが配置されたソース選択領域と、選択されたソースを操作するソース操作領域とに分けられている。ソース選択領域に表示されている各ソース選択ボタンは、何れのソースが選択されているか否かに関わらず、マルチ画面(D102)及びAV全画面(D104)でタッチパネル21に常に表示される。映像処理機能部57は、ソース選択ボタンのうち「ラジオ」が押されると、「ラジオ」ボタンが浮かび上がり、他のボタンと色も異なって見えるように画像を生成する。また、ソース操作領域には、AM/FMの切り替えボタン、選局ボタンなどの操作ボタンの他、受信している電波の周波数などの選択されたソース特有の情報が表示される。AM/FMの切り替えボタンは、ソース選択ボタンと同様、選択中のボタンが浮かび上がり、他のボタンと色が異なって見えるように表示される。
 操作処理機能部51は、ユーザによる「ラジオ」ボタンへのタッチ操作を検知すると、放送波受信部7とアンプ12を制御して動作状態にし、放送波受信部7からアンプ12へ音声信号が送られるように音声処理機能部56を動作させる。なお、ソース操作領域は、ソース選択領域の操作ボタンから立ち上がってポップアップ表示されるようにしてもよい。これによれば、ソース操作領域に表示されている操作ボタンが、何れのソースに関わるものであるのかを更に認識しやすくなる。
 (CDモード)図21は、CDが選択されている場合の表示画面を示した図である。映像処理機能部57は、ソース選択ボタンのうち「CD」が押されると、図21に示すように、「CD」ボタンが浮かび上がり、他のボタンと色も異なって見えるように画像を生成する。また、ソース操作領域には、選曲ボタンなどの操作ボタンの他、再生している曲のトラック番号や再生時間などの選択されたソース特有の情報が表示される。操作処理機能部51は、「CD」ボタンへのタッチ操作を検知すると、CDドライブ16とアンプ12を制御して動作状態にし、CDドライブ16で再生された音声信号がアンプ12へ送られるように音声処理機能部56を動作させる。
 (ワンセグモード)図22は、ワンセグが選択されている場合の表示画面を示した図である。映像処理機能部57は、ソース選択ボタンのうち「ワンセグ」が押されると、図22に示すように、「ワンセグ」ボタンが浮かび上がり、他のボタンと色も異なって見えるように画像を生成する。なお、選局されているボタンについても「ワンセグ」ボタンと同様、ボタンが浮かび上がるように表示する。また、ソース操作領域には、選局ボタンなどの操作ボタンの他、受信している周波数のチャンネルや受信電波の強度などの選択されたソース特有の情報が表示される。なお、ワンセグモードが選択されている場合、映像処理機能部57は、ナビ領域にテレビ放送の画面を表示する。操作処理機能部51は、「ワンセグ」ボタンへのタッチ操作を検知すると、放送波受信部7やアンプ12、表示処理部22、音声処理機能部56、映像処理機能部57を制御し、タッチパネル21への映像表示やアンプ12による音声出力が行われるようにする。
 (iPodモード)図23は、iPodが選択されている場合の表示画面を示した図である。映像処理機能部57は、ソース選択ボタンのうち「iPod」が押されると、図23に示すように、「iPod」ボタンが浮かび上がり、他のボタンと色も異なって見えるように画像を生成する。また、ソース操作領域には、選曲ボタンやメニューボタンなどの操作ボタンの他、再生している曲のタイトルや再生時間などのソース特有の情報が表示される。操作処理機能部51は、「iPod」ボタンへのタッチ操作を検知すると、携帯式プレーヤインターフェース6を介して外部の携帯式音楽プレーヤと通信を行い、取得した音声信号がアンプ12へ送られるように音声処理機能部56を動作させる。
 (外部入力モード)図24は、外部入力が選択されている場合の表示画面を示した図である。映像処理機能部57は、ソース選択ボタンのうち「外部入力」が押されると、図24に示すように、「外部入力」ボタンが浮かび上がり、他のボタンと色も異なって見えるように画像を生成する。また、ソース操作領域には、外部入力映像を全画面に表示させる際に押されるフル映像ボタンなどの操作ボタンの他、ソース特有の情報として外部入力である旨が表示される。また、外部入力が選択されている場合、映像処理機能部57は、ナビ領域に外部入力映像の画面を表示する。操作処理機能部51は、「外部入力」ボタンへのタッチ操作を検知すると、外部音声/映像入力部8からの映像信号および音声信号が表示あるいは出力されるように、アンプ12、表示処理機能部22、音声処理機能部56、映像処理機能部57を制御する。
 (オフモード)図25は、外部入力が選択されている場合の表示画面を示した図である。映像処理機能部57は、ソース選択ボタンのうち「OFF」が押されると、図25に示すように、「OFF」ボタンが浮かび上がり、他のボタンと色も異なって見えるように画像を生成する。また、ソース操作領域には、オーディオがオフである旨が表示される。なお、操作処理機能部51は、「OFF」ボタンへのタッチ操作を検知すると、タッチ操作前に作動していたアンプ12や放送波受信部7等の機器を停止する。なお、既述の様に、ソース操作領域をソース選択ボタンから立ち上がるように表示する場合、オフモードではソース操作領域を画面から消しても良い。換言すると、オフモードではポップアップがソース選択領域に引っ込むようにアニメーション表示してもよい。
 ナビゲーション装置1の動作説明について、以上の通りである。本実施形態に係るナビゲーション装置1は、AV機能とナビゲーション機能の両方の操作性を高めるため、画面の表示領域をAV機能用とナビゲーション機能用の2つに分けている。そして、画面内における各領域の範囲が変わっても(すなわち、境界が移動して、AVの操作画面が表示されるAV領域の大きさとナビの操作画面が表示されるナビ領域の大きさがそれぞれ拡縮されても)、AVとナビゲーションの操作を行うための操作ボタンが画面上で同じ位置に表示されるようにすることで、タッチパネル21による画面操作を容易にしている。また、本実施形態に係るナビゲーション装置1は、AVとナビゲーションの両方の操作性を高めるため、AVの操作画面とナビゲーションの操作画面の両方を並べて、これらを可動な境界で隔てて表示している。そして、各画面の境界の位置を変更する前と変更した後とで、ナビゲーション機能に関わる操作ボタンが画面上で同じ位置および大きさに表示されるようにすることで、タッチパネル21に表示される操作ボタンの操作性を低下させることなく、各画面の境界の位置変更を可能にしている。さらに、本実施形態に係るナビゲーション装置1は、AV領域とナビ領域の境界を移動するとき、この境界が徐々にスライドされるアニメーション画像を生成する。このため、ナビゲーション機能に関わる画面とAV機能に関わる画面との対応関係をスライド表示で容易に認識させることが可能になる。
<変形例1>
 上記ナビゲーション装置1は、次のように変形してもよい。図26、図27、図28は、本変形例に係るマルチ画面の表示例を示した図である。本変形例では、タッチパネル21に表示する操作ボタンについて、操作履歴に応じた強調表示を行う。本変形例に係るナビゲーション装置1は、頻繁に操作するボタンについて、例えば、図26の「ラジオ」ボタンや「周辺」ボタンで示されるようにボタンに影を付けて表示したり、図27の「目的地」ボタンで示されるようにボタンを立体表示したり、図28の「目的地」ボタンで示されるようにフレーム(ボタンの枠)を破線表示や点滅表示、或いは動く破線で表示したりする。以下、本変形例に係るナビゲーション装置1で実行される処理について説明する。なお、以下に示す処理内容は、前述した各画面を表示する際にその都度実行される描画処理の一部を変形したものを示したものである。すなわち、以下に示す内容以外の機器構成や処理フローについては、上述した実施形態と同様であるため、その詳細な説明を省略する。
<処理例1>
 図29は、一定回数以上操作されたボタンについて強調表示する場合の、本変形例に係るナビゲーション装置1で実行されるグラフィック処理の処理フロー図である。映像処理機能部57は、グラフィック表示を行うに際し、図29に示すように、まず、テーブルを参照する(S101)。このテーブルは、制御部20に設けられるRAM20Cに格納されたものであり、図30に示すように各ボタンの操作回数の履歴で構成されている。このテーブルは、操作処理機能部51が管理しており、操作ボタンが押される毎に操作回数が1ずつ加算されていく。映像処理機能部57は、マルチ画面等の各画面を表示するに際してテーブルを参照し、所定回数以上であるか否かを操作ボタン毎に判別する(S102)。所定回数未満のボタンであれば、図26の「CD」ボタンのような通常の描画処理を行う(S103)。一方、所定回数以上のボタンであれば、図26の「周辺」ボタンや「ラジオ」ボタン、図27の「目的地」ボタン、図28の「目的地」ボタンのように特殊な形のボタンを描画処理する。なお、このような特殊な形の操作ボタンのグラフィックデータは、ROM20Bに予め格納しておく。
 このようにグラフィック処理を行えば、一定回数以上操作されたボタンについて強調表示されるようになるため、ユーザがよく使うボタンが視覚的に容易に判別でき、簡単に認識することが可能になる。
<処理例2>
 図31は、操作回数に応じて強調表示する場合の、本変形例に係るナビゲーション装置1で実行されるグラフィック処理の処理フロー図である。映像処理機能部57は、グラフィック表示を行うに際し、図31に示すように、まず、テーブルを参照する(S201)。このテーブルは、図30で示したものと同様であり、操作処理機能部51が管理している。映像処理機能部57は、テーブルの操作回数から、立体表示するボタンの高さを決定する(S202)。立体表示するボタンの高さは、テーブルに示される操作回数の履歴に応じて線形的に決定する。そして、映像処理機能部57は、操作回数に応じてボタンが高く見えるように、各ボタンの描画処理を行う(S203)。このとき、例えば、図27の「目的地」ボタンのように立体表示する。
 このようにグラフィック処理を行えば、ボタンが操作頻度に応じて強調表示されるようになるため、ユーザがよく使うボタンが視覚的に容易に判別でき、簡単に認識することが可能になる。
<処理例3>
 図32は、前回操作したボタンを強調表示する場合の、本変形例に係るナビゲーション装置1で実行されるグラフィック処理の処理フロー図である。映像処理機能部57は、グラフィック表示を行うに際し、図32に示すように、まず、テーブルを参照する(S301)。このテーブルは、図33に示すように、ナビゲーション装置1に対する前回の操作において、操作されたか否かのフラグがボタン毎に示されたものであり、操作処理機能部51が管理している。操作処理機能部51は、ユーザ操作を受け付けると、各操作ボタンのフラグをクリアする(なしにする)と共に、ユーザが操作したボタンのフラグをオンする(ありにする)。映像処理機能部57は、マルチ画面等の各画面を表示するに際してこのテーブルを参照し、前回操作されたものであるか否かを各ボタン毎に判別する(S302)。そして、前回操作されたボタンでなければ、図26の「CD」ボタンのような通常の描画処理を行う(S303)。一方、前回操作されたボタンであれば、図26の「周辺」ボタンや「ラジオ」ボタン、図27の「目的地」ボタン、図28の「目的地」ボタンのように特殊な形のボタンを描画処理する。
 このようにグラフィック処理を行えば、前回操作されたボタンについて強調表示されるようになるため、他のボタンと比較して容易に認識することが可能になる。なお、以上の実施形態では車載用として説明したが、本発明は、車載用に利用できるものであれば如何なるものにも適用可能である。例えば、携帯型のナビゲーション機能を有する電子機器にも適用できる。
<変形例2>
 上記ナビゲーション装置1は、次のように変形してもよい。図34は、本変形例に係るナビゲーション装置1で実行される操作ボタンの表示位置の変更処理のフロー図である。本変形例に係るナビゲーション装置1は、ナビゲーション機能に関わる操作ボタン(第一の操作ボタン画像)の表示位置を変更可能にするものである。なお、以下に示す内容以外の機器構成や処理フローについては、上述した実施形態と同様であるため、その詳細な説明を省略する。
 操作ボタンの表示位置の変更処理を行う場合は、図34に示すように、まず、変更受付画面を表示する(S401)。この画面は、制御部20に設けられるROM20Bに格納されているグラフィックデータに基づくものであり、図35に示すように操作ボタンのドラッグ&ドロップ操作を促すメッセージと、操作ボタンを配置することが可能な範囲を示す枠線が、ナビゲーション画面に重ねて表示されたものである。変更受付画面は、メニュー画面(D201)に表示されている「設定」ボタンから呼び出される画面であり、映像処理機能部57が表示する画面である。変更受付画面に示されている枠線は、上述した所定領域を示すものであり、ユーザが任意に配置することが可能な操作ボタンの配置可能な範囲を示すものである。なお、本変形例では、操作ボタンをなるべく自由な位置に配置可能にするため、上記実施形態で示した所定領域が画定する表示面の範囲よりもやや広い範囲を所定領域として画定している。ここで、操作処理機能部51は、ユーザがドロップした操作ボタンの位置が、変更受付画面で図示された所定領域の範囲内であるか否かを判定する(S402)。操作処理機能部51は、ユーザがドロップした操作ボタンの位置が所定領域の範囲外である場合、ユーザに対して枠線の範囲内に操作ボタンをドロップするよう促すアラート画面を映像処理機能部57に表示させる(S403)。一方、操作処理機能部51は、ユーザがドロップした操作ボタンの位置が所定領域の範囲内である場合、操作ボタンの表示位置のデータのRAM20Cへの書き込み処理をユーザデータ処理機能部55に実行させる(S404)。映像処理機能部57は、RAM20Cに書き込まれた操作ボタンの表示位置データに基づいてマルチ画面D102やナビ全画面D103の画像生成を行う。なお、本処理フローが実行されているときの操作処理機能部51は、本発明でいう変更要求受付部に相当する役割を司る。
 ナビゲーション機能に関わる操作ボタンの表示位置を任意に変更可能にする場合に、設定可能な表示位置を所定領域の範囲内に規制することにより、ユーザが任意に操作ボタンの配置を変更した場合であっても、タッチパネル21に表示される操作ボタンの操作性を低下させることなく、各画面の境界の位置変更を可能にすることが可能になる。
 なお、上記実施形態や変形例では、ナビゲーションのグラフィック画面を右側に配置し、AVのグラフィック画面を左側に配置していたが、両者は反対に配置されていてもよい。すなわち、ナビゲーションのグラフィック画面を左側に配置し、AVのグラフィック画面を右側に配置してもよい。この場合、上記所定領域は、タッチパネルの表示面のうち下側部分や左側部分を他の部分と画定するようにする。
<変形例3>
 上記ナビゲーション装置1は、次のように変形してもよい。図36は、本変形例に係るナビゲーション装置1で実現される画面変化を示す図である。上述した実施形態では、図12に示したように、AV領域とナビ領域との境界をスライドすることで、AV領域やナビ領域の画面が動くように見せていた。しかし、本変形例では、AV領域に表示されている画面とナビ領域に表示されている画面をスライドさせる。
 映像処理機能部57は、マルチ画面からナビ全画面へ表示を切り替えるに際し、図36に示すように、ナビ領域やAV領域がスライドして見えるようにアニメーション表示する。すなわち、映像処理機能部57は、マルチ画面からナビ全画面へ表示を切り替える際、AV領域とナビ領域との境界のみならず、AV領域の画面とナビ領域の画面とがスライドしてAV領域が徐々に左側に退出していくように画面をアニメーション表示する。なお、ナビ領域は、自車位置がナビ領域の中心に位置するようにセンタリングしながらスライドする。ナビ全画面からマルチ画面へ表示を切り替える際も同様、境界と共にAV領域の画面とナビ領域の画面とがスライドし、AV領域が左側から徐々に進入してくるように画面をアニメーション表示する。このときも、ナビ領域では、自車位置がナビ領域の中心に位置するようにセンタリング処理が行われる。図36に示す例では、ナビ領域とAV領域との間の境界が徐々にスライドされるアニメーション画像に合わせて、センタリング処理が徐々に行われている。これにより、ユーザは、ナビ画面上にAV画面が抜き差しされるように感じ取ることができ、各画面の対応関係を容易に認識することが可能になる。なお、ナビ全画面からマルチ画面への切り替えに際しても同様にスライド表示される。
 上述した実施形態では、マルチ画面においてAV領域が左側に、ナビ領域が右側に配置されているが、マルチ画面においてAV領域が右側に、ナビ領域が左側に配置されてもよい。好ましくは、ナビゲーション装置が搭載されるべき車両の運転席側にナビ領域を、助手席側にAV領域を配置する。
 上述した実施形態では、本発明を、車載用ナビゲーション装置に適用しているが、これに限られるものではない。例えば、携帯用ナビゲーション装置や、携帯電話など、ナビゲーション機能を有する携帯型の電子機器に本発明を適用してもよい。
 上述した実施形態では、本発明を、ナビゲーション情報を処理可能な情報処理装置としてのナビゲーション装置に適用しているが、これに限られるものではない。例えば、タッチパネルを有するナビゲーション装置或いは携帯型の電子機器に外部接続されて、或いは内蔵されて、ナビゲーション画像を生成する画像処理装置に本発明を適用してもよい。
 本出願は、2008年9月12日出願の日本特許出願・出願番号2008-234527、2008年9月12日出願の日本特許出願・出願番号2008-234598、2008年9月12日出願の日本特許出願・出願番号2008-235298に基づくものであり、その内容はここに参照として取り込まれる。
1・・・ナビゲーション装置
2・・・メインユニット
3・・・ディスプレイユニット
51・・操作処理機能部
52・・測位機能部
53・・ルート案内機能部
54・・地図データ処理機能部
55・・ユーザデータ処理機能部
56・・音声処理機能部
57・・映像処理機能部

Claims (16)

  1.  ナビゲーション情報を処理可能な情報処理装置であって、
     画像を表示可能、且つユーザによるタッチ操作を受け付け可能なタッチパネルと、
     前記タッチパネルに表示される画像であって、地図画像を含むナビゲーション画像と前記タッチ操作を受け付けるための複数の操作ボタン画像を生成する画像生成部と、を備え、
     前記複数の操作ボタン画像は、ナビゲーション機能に関わる第一の操作ボタン画像と、前記ナビゲーション機能以外の複数の機能に関わる第二の操作ボタン画像を含み、
     前記画像生成部は、前記ナビゲーション画像と前記第一の操作ボタン画像とを組み合わせた第一の画像と、前記第二の操作ボタンを含む第二の画像を生成し、
     前記第一の画像と前記第二の画像は、第一の表示領域と第二の表示領域にそれぞれ表示され、
     前記第一の表示領域と前記第二の表示領域は、可動な境界で隔てられている。
  2.  請求項1に記載の情報処理装置であって、
     前記第二の画像は、前記複数の機能の一つを選択するための複数の機能選択ボタン画像が表示される機能選択領域と、該機能選択ボタン画像によって選択された機能を操作するための複数の機能別操作ボタン画像が表示される機能操作領域とを含む。
  3.  請求項1に記載の情報処理装置であって、
     前記第一の表示領域の大きさを拡大することが可能であり、
     前記タッチパネルにおいて、前記第一の表示領域の大きさが拡大される前の前記第一の操作ボタン画像の位置は、前記第一の表示領域の大きさが拡大された後の前記第一の操作ボタン画像の位置と同一である。
  4.  請求項1に記載の情報処理装置であって、
     前記第二の表示領域の大きさを拡大することが可能であり、
     前記タッチパネルにおいて、前記第二の表示領域の大きさが拡大される前の前記第二の操作ボタン画像の位置は、前記第二の表示領域の大きさが拡大された後の前記第二の操作ボタン画像の位置と同一であり、
     前記第二の操作ボタン画像は前記複数の機能の一つの基本的な操作に関わり、
     前記第二の表示領域の大きさが拡大されたとき、前記複数の機能の一つの拡張的な操作に関わる拡張操作ボタン画像が拡大された前記第二の表示領域に表示される。
  5.  請求項1に記載の情報処理装置であって、
     前記第一の表示領域は、前記タッチパネルの左側と右側との一方に配置され、前記第二の表示領域は、前記タッチパネルの左側と右側との別の一方に配置され、
     前記第一の表示領域は、前記情報処理装置が搭載される車両の運転席側に配置されている。
  6.  請求項1に記載の情報処理装置であって、
     前記可動な境界が移動することによって、前記第一の表示領域が縮小されると同時に、前記第二の表示領域が拡大され、若しくは前記第二の表示領域が縮小されると同時に前記第一の表示領域が拡大される。
  7.  請求項1に記載の情報処理装置であって、
     情報処理装置の位置データを受信可能な受信手段と、
     地図データを記憶する記憶手段と、をさらに備え、
     前記ナビゲーション機能は、前記位置データおよび前記地図データに基づいて、前記ナビゲーション画像を描画するためのグラフィックデータを生成し、
     前記画像生成部は、前記グラフィックデータに基づいて前記ナビゲーション画像を生成し、
     前記第一の操作ボタン画像は、前記ナビゲーション機能の設定を行う画面を表示させるためのボタン画像、車両の目的地を設定する画面を表示させるためのボタン画像、前記地図画像の拡大および縮小を行うためのボタン画像の少なくとも何れかを含む。
  8.  請求項1に記載の情報処理装置であって、
     前記複数の機能は、スピーカで音声を出力するためのオーディオ機能を含み、
     前記所定第二の操作ボタン画像は、音楽の選曲ボタン画像、及びラジオ放送の選局ボタン画像の少なくとも何れかを含む。
  9.  請求項1に記載の情報処理装置であって、
     前記画像生成部は、前記タッチ操作の履歴に応じて、前記第二の操作ボタン画像が、強調表示されるように、前記タッチパネルに表示される前記画像を生成する。
  10.  請求項1に記載の情報処理装置であって、
     前記画像生成部は、前記境界を移動して前記第一の表示領域を拡大し、前記第一の画像のみが前記タッチパネルに表示される画像を生成する。
  11.  請求項10に記載の情報処理装置であって、
     前記第一の画像のみが前記タッチパネルに表示される画像が生成されたとき、前記画像生成部は、前記境界を移動して前記第一の表示領域を縮小し、前記第一の画像と前記第二の画像が前記タッチパネルに表示される画像を生成する。
  12.  請求項1に記載の情報処理装置であって、
     前記画像生成部は、前記境界を移動して前記第二の表示領域を拡大し、前記第二の画像のみが前記タッチパネルに表示される画像を生成する。
  13.  請求項12に記載の情報処理装置であって、
     前記第二の画像のみが前記タッチパネルに表示される画像が生成されたとき、前記画像生成部は、前記境界を移動して前記第二の表示領域を縮小し、前記第一の画像と前記第二の画像が前記タッチパネルに表示される画像を生成する。
  14.  請求項10から13の何れか一項に記載の情報処理装置であって、
     前記画像生成部は、前記境界を移動するとき、前記境界が徐々にスライドされるアニメーション画像を生成する。
  15.  請求項10または11に記載の情報処理装置であって、
     前記画像生成部は、前記境界を移動するとき、前記境界が徐々にスライドされるアニメーション画像を生成し、
     前記画像生成部は、前記境界が徐々にスライドされる間、前記ナビゲーション画像において、前記情報処理装置の位置が前記第一の表示領域の中央に位置するようにアニメーション画像を生成する。
  16.  ユーザによるタッチ操作を受け付け可能なタッチパネルに表示される画像を生成可能な画像処理装置であって、
     前記タッチパネルに表示される画像であって、地図画像を含むナビゲーション画像と前記タッチ操作を受け付けるための複数操作ボタン画像を生成する画像生成部を備え、
     前記複数の操作ボタン画像は、ナビゲーション機能に関わる第一の操作ボタン画像と、前記ナビゲーション機能以外の複数の機能に関わる第二の操作ボタン画像を含み、
     前記画像生成部は、前記ナビゲーション画像と前記第一の操作ボタン画像とを組み合わせた第一の画面と、前記第二の操作ボタン画像を含む第二画像を生成し、
     前記第一の画像と前記第二の画像は、第一の表示領域と第二の表示領域にそれぞれ表示され、
     前記第一の表示領域と前記第二の表示領域は、可動な境界で隔てられている。
PCT/JP2009/065960 2008-09-12 2009-09-11 情報処理装置および画像処理装置 WO2010030010A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP09813156.8A EP2336720B1 (en) 2008-09-12 2009-09-11 Information processing device and image processing device
US13/063,339 US8819581B2 (en) 2008-09-12 2009-09-11 Information processing device and image processing device

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2008-235298 2008-09-12
JP2008-234598 2008-09-12
JP2008234527A JP5280778B2 (ja) 2008-09-12 2008-09-12 情報処理装置、画像処理装置、及び情報処理方法
JP2008-234527 2008-09-12
JP2008234598A JP5280779B2 (ja) 2008-09-12 2008-09-12 情報処理装置及び情報処理方法
JP2008235298A JP5280780B2 (ja) 2008-09-12 2008-09-12 情報処理装置、情報処理方法および情報処理プログラム

Publications (1)

Publication Number Publication Date
WO2010030010A1 true WO2010030010A1 (ja) 2010-03-18

Family

ID=42005260

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/065960 WO2010030010A1 (ja) 2008-09-12 2009-09-11 情報処理装置および画像処理装置

Country Status (4)

Country Link
US (1) US8819581B2 (ja)
EP (1) EP2336720B1 (ja)
CN (1) CN101672648A (ja)
WO (1) WO2010030010A1 (ja)

Families Citing this family (161)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5358474B2 (ja) * 2010-02-12 2013-12-04 トヨタ自動車株式会社 入力装置
EP2393000B1 (en) * 2010-06-04 2019-08-07 Lg Electronics Inc. Mobile terminal capable of providing multiplayer game and method of controlling operation of the mobile terminal
DE102010045974A1 (de) * 2010-09-18 2012-03-22 Volkswagen Ag Anzeige- und Bedienvorrichtung in einem Kraftfahrzeug
WO2012050561A1 (en) 2010-10-11 2012-04-19 Hewlett-Packard Development Company, L.P. A first image and a second image on a display
KR101283210B1 (ko) * 2010-11-09 2013-07-05 기아자동차주식회사 카오디오 장치를 이용한 주행 경로 안내 시스템 및 그 카오디오 장치, 이를 이용한 경로 안내 방법
KR101769818B1 (ko) * 2010-12-23 2017-08-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2012142825A (ja) * 2011-01-05 2012-07-26 Sony Corp 情報処理装置、情報表示方法及びコンピュータプログラム
EP2530577A3 (en) * 2011-05-30 2017-08-02 Samsung Electronics Co., Ltd. Display apparatus and method
CN107272995A (zh) 2011-06-21 2017-10-20 谷歌技术控股有限责任公司 具有基于姿势的任务管理的电子设备
US10133439B1 (en) 2011-08-29 2018-11-20 Twitter, Inc. User interface based on viewable area of a display
CN103180812A (zh) * 2011-08-31 2013-06-26 观致汽车有限公司 车辆交互系统
DE102011084345A1 (de) * 2011-10-12 2013-04-18 Robert Bosch Gmbh Bediensystem und Verfahren zur Darstellung einer Bedienfläche
JP6016365B2 (ja) * 2012-01-10 2016-10-26 富士通テン株式会社 情報処理装置
US9761205B2 (en) * 2012-01-12 2017-09-12 Mistubishi Electric Corporation Map display device and map display method
JP5774133B2 (ja) * 2012-01-12 2015-09-02 三菱電機株式会社 地図表示装置および地図表示方法
JP5726333B2 (ja) * 2012-01-12 2015-05-27 三菱電機株式会社 地図表示装置および地図表示方法
WO2013105249A1 (ja) * 2012-01-12 2013-07-18 三菱電機株式会社 地図表示装置および地図表示方法
JP5704408B2 (ja) * 2012-01-20 2015-04-22 アイシン・エィ・ダブリュ株式会社 操作入力システム
JP5790578B2 (ja) 2012-04-10 2015-10-07 株式会社デンソー 表示システム、表示装置、及び操作装置
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
JP5849018B2 (ja) * 2012-05-31 2016-01-27 京セラドキュメントソリューションズ株式会社 画像形成装置
KR101952702B1 (ko) 2012-06-01 2019-02-28 삼성전자주식회사 개인 정보에 기초한 서비스를 제공하는 사용자 단말 장치 및 그 서비스 제공 방법
WO2014038050A1 (ja) * 2012-09-06 2014-03-13 トヨタ自動車株式会社 携帯端末装置、車載装置、及び車載システム
JP5811987B2 (ja) * 2012-10-19 2015-11-11 株式会社デンソー 情報処理端末
DE102013007329A1 (de) * 2013-01-04 2014-07-10 Volkswagen Aktiengesellschaft Verfahren zum Betreiben einer Bedienvorrichtung in einem Fahrzeug
JP6303314B2 (ja) 2013-07-31 2018-04-04 ブラザー工業株式会社 プログラムおよび情報処理装置
KR101611205B1 (ko) * 2013-11-11 2016-04-11 현대자동차주식회사 디스플레이 장치, 디스플레이 장치가 설치된 차량 및 디스플레이 장치의 제어 방법
USD731338S1 (en) * 2013-12-11 2015-06-09 Pioneer Corporation Car navigation
JP6457492B2 (ja) * 2014-03-25 2019-01-23 クラリオン株式会社 車両用機器
KR20150141827A (ko) * 2014-06-10 2015-12-21 주식회사 티노스 Avn 시스템의 화면 및 오디오 변경 제어장치
KR102264220B1 (ko) * 2014-09-02 2021-06-14 삼성전자주식회사 전자 장치 및 전자 장치의 디스플레이 방법
KR101637682B1 (ko) * 2014-09-23 2016-07-07 현대자동차주식회사 에이브이엔의 카메라 영상 표시 시스템
US11504192B2 (en) 2014-10-30 2022-11-22 Cilag Gmbh International Method of hub communication with surgical instrument systems
CN104777937A (zh) * 2015-04-23 2015-07-15 重庆长安汽车股份有限公司 汽车dvd显示屏
USD808421S1 (en) * 2015-07-07 2018-01-23 Google Llc Display screen or portion thereof with a transitional graphical user interface component for identifying current location
KR101736990B1 (ko) * 2015-10-26 2017-05-17 현대자동차주식회사 차량과 연동하는 휴대용 단말기의 제어 방법 및 장치
US10197408B1 (en) * 2016-01-05 2019-02-05 Open Invention Network Llc Transport parking space availability detection
CN106250044A (zh) * 2016-07-29 2016-12-21 北京车和家信息技术有限责任公司 界面显示方法、装置、设备和车辆
WO2018026155A1 (en) * 2016-08-01 2018-02-08 Samsung Electronics Co., Ltd. Method and electronic device for recognizing touch
KR20180014644A (ko) 2016-08-01 2018-02-09 삼성전자주식회사 터치 인식 방법 및 이를 수행하는 전자 장치
JP6816402B2 (ja) * 2016-08-12 2021-01-20 セイコーエプソン株式会社 表示装置および表示装置の制御方法
CN107239251B (zh) * 2017-05-18 2021-01-15 宇龙计算机通信科技(深圳)有限公司 一种显示方法、装置、用户终端及计算机可读存储介质
CN107463328B (zh) * 2017-07-25 2020-03-31 Oppo广东移动通信有限公司 终端设备、虚拟按键控制方法、装置以及存储介质
JP6960792B2 (ja) * 2017-07-26 2021-11-05 株式会社デンソーテン 情報出力装置および情報出力方法
CN110019590B (zh) * 2017-09-13 2021-10-12 北京嘀嘀无限科技发展有限公司 页面中展示地图的方法、装置、电子设备及存储介质
WO2019033865A1 (en) * 2017-08-14 2019-02-21 Beijing Didi Infinity Technology And Development Co., Ltd. SYSTEMS AND METHODS FOR DISPLAYING MAPPING INFORMATION
US11317919B2 (en) 2017-10-30 2022-05-03 Cilag Gmbh International Clip applier comprising a clip crimping system
US11819231B2 (en) 2017-10-30 2023-11-21 Cilag Gmbh International Adaptive control programs for a surgical system comprising more than one type of cartridge
US11564756B2 (en) 2017-10-30 2023-01-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11291510B2 (en) 2017-10-30 2022-04-05 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11510741B2 (en) 2017-10-30 2022-11-29 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US11311342B2 (en) 2017-10-30 2022-04-26 Cilag Gmbh International Method for communicating with surgical instrument systems
US11413042B2 (en) 2017-10-30 2022-08-16 Cilag Gmbh International Clip applier comprising a reciprocating clip advancing member
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11446052B2 (en) 2017-12-28 2022-09-20 Cilag Gmbh International Variation of radio frequency and ultrasonic power level in cooperation with varying clamp arm pressure to achieve predefined heat flux or power applied to tissue
US11419667B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location
US11424027B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Method for operating surgical instrument systems
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11559307B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method of robotic hub communication, detection, and control
US11612444B2 (en) 2017-12-28 2023-03-28 Cilag Gmbh International Adjustment of a surgical device function based on situational awareness
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11324557B2 (en) 2017-12-28 2022-05-10 Cilag Gmbh International Surgical instrument with a sensing array
US11284936B2 (en) 2017-12-28 2022-03-29 Cilag Gmbh International Surgical instrument having a flexible electrode
US11202570B2 (en) 2017-12-28 2021-12-21 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US10892995B2 (en) 2017-12-28 2021-01-12 Ethicon Llc Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US11419630B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Surgical system distributed processing
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11589888B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Method for controlling smart energy devices
US20190201113A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Controls for robot-assisted surgical platforms
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11364075B2 (en) 2017-12-28 2022-06-21 Cilag Gmbh International Radio frequency energy device for delivering combined electrical signals
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11234756B2 (en) 2017-12-28 2022-02-01 Cilag Gmbh International Powered surgical tool with predefined adjustable control algorithm for controlling end effector parameter
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11464559B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US11308075B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Surgical network, instrument, and cloud responses based on validation of received dataset and authentication of its source and integrity
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11278281B2 (en) 2017-12-28 2022-03-22 Cilag Gmbh International Interactive surgical system
US10595887B2 (en) 2017-12-28 2020-03-24 Ethicon Llc Systems for adjusting end effector parameters based on perioperative information
US20190201042A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Determining the state of an ultrasonic electromechanical system according to frequency shift
US11304763B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use
US11304745B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Surgical evacuation sensing and display
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11540855B2 (en) 2017-12-28 2023-01-03 Cilag Gmbh International Controlling activation of an ultrasonic surgical instrument according to the presence of tissue
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11529187B2 (en) 2017-12-28 2022-12-20 Cilag Gmbh International Surgical evacuation sensor arrangements
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11602393B2 (en) 2017-12-28 2023-03-14 Cilag Gmbh International Surgical evacuation sensing and generator control
US11559308B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method for smart energy device infrastructure
US11304699B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11633237B2 (en) 2017-12-28 2023-04-25 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11317937B2 (en) 2018-03-08 2022-05-03 Cilag Gmbh International Determining the state of an ultrasonic end effector
US11311306B2 (en) 2017-12-28 2022-04-26 Cilag Gmbh International Surgical systems for detecting end effector tissue distribution irregularities
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US11291495B2 (en) 2017-12-28 2022-04-05 Cilag Gmbh International Interruption of energy due to inadvertent capacitive coupling
US11423007B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Adjustment of device control programs based on stratified contextual data in addition to the data
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11410259B2 (en) 2017-12-28 2022-08-09 Cilag Gmbh International Adaptive control program updates for surgical devices
US11832840B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical instrument having a flexible circuit
US11464535B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Detection of end effector emersion in liquid
US11571234B2 (en) 2017-12-28 2023-02-07 Cilag Gmbh International Temperature control of ultrasonic end effector and control system therefor
US11253315B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Increasing radio frequency to create pad-less monopolar loop
US11432885B2 (en) 2017-12-28 2022-09-06 Cilag Gmbh International Sensing arrangements for robot-assisted surgical platforms
US11257589B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US11304720B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Activation of energy devices
US10758310B2 (en) 2017-12-28 2020-09-01 Ethicon Llc Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11576677B2 (en) 2017-12-28 2023-02-14 Cilag Gmbh International Method of hub communication, processing, display, and cloud analytics
US20190201039A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Situational awareness of electrosurgical systems
US11266468B2 (en) 2017-12-28 2022-03-08 Cilag Gmbh International Cooperative utilization of data derived from secondary sources by intelligent surgical hubs
US11259830B2 (en) 2018-03-08 2022-03-01 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11707293B2 (en) 2018-03-08 2023-07-25 Cilag Gmbh International Ultrasonic sealing algorithm with temperature control
US11986233B2 (en) 2018-03-08 2024-05-21 Cilag Gmbh International Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device
US11406382B2 (en) 2018-03-28 2022-08-09 Cilag Gmbh International Staple cartridge comprising a lockout key configured to lift a firing member
US11471156B2 (en) 2018-03-28 2022-10-18 Cilag Gmbh International Surgical stapling devices with improved rotary driven closure systems
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US11278280B2 (en) 2018-03-28 2022-03-22 Cilag Gmbh International Surgical instrument comprising a jaw closure lockout
US11259806B2 (en) 2018-03-28 2022-03-01 Cilag Gmbh International Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein
US11696790B2 (en) 2018-09-07 2023-07-11 Cilag Gmbh International Adaptably connectable and reassignable system accessories for modular energy system
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11696789B2 (en) 2018-09-07 2023-07-11 Cilag Gmbh International Consolidated user interface for modular energy system
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
JP7022041B2 (ja) * 2018-09-27 2022-02-17 本田技研工業株式会社 画像選択装置
US11317915B2 (en) 2019-02-19 2022-05-03 Cilag Gmbh International Universal cartridge based key feature that unlocks multiple lockout arrangements in different surgical staplers
US11751872B2 (en) 2019-02-19 2023-09-12 Cilag Gmbh International Insertable deactivator element for surgical stapler lockouts
US11369377B2 (en) 2019-02-19 2022-06-28 Cilag Gmbh International Surgical stapling assembly with cartridge based retainer configured to unlock a firing lockout
US11357503B2 (en) 2019-02-19 2022-06-14 Cilag Gmbh International Staple cartridge retainers with frangible retention features and methods of using same
US11331101B2 (en) 2019-02-19 2022-05-17 Cilag Gmbh International Deactivator element for defeating surgical stapling device lockouts
CN109947382A (zh) * 2019-03-06 2019-06-28 百度在线网络技术(北京)有限公司 数据显示方法及设备
CN109798913A (zh) * 2019-03-12 2019-05-24 深圳市天之眼高新科技有限公司 导航界面的显示方法、装置及存储介质
US11218822B2 (en) 2019-03-29 2022-01-04 Cilag Gmbh International Audio tone construction for an energy module of a modular energy system
RU2767965C2 (ru) 2019-06-19 2022-03-22 Общество С Ограниченной Ответственностью «Яндекс» Способ и система для перевода исходной фразы на первом языке целевой фразой на втором языке
USD917549S1 (en) 2019-06-20 2021-04-27 Yandex Europe Ag Display screen or portion thereof with graphical user interface
USD950728S1 (en) 2019-06-25 2022-05-03 Cilag Gmbh International Surgical staple cartridge
USD964564S1 (en) 2019-06-25 2022-09-20 Cilag Gmbh International Surgical staple cartridge retainer with a closure system authentication key
USD952144S1 (en) 2019-06-25 2022-05-17 Cilag Gmbh International Surgical staple cartridge retainer with firing system authentication key
USD928726S1 (en) 2019-09-05 2021-08-24 Cilag Gmbh International Energy module monopolar port
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
USD928725S1 (en) 2019-09-05 2021-08-24 Cilag Gmbh International Energy module
USD924139S1 (en) 2019-09-05 2021-07-06 Ethicon Llc Energy module with a backplane connector
JP7247851B2 (ja) * 2019-10-11 2023-03-29 トヨタ自動車株式会社 運転者支援装置
JP7373443B2 (ja) * 2020-03-25 2023-11-02 本田技研工業株式会社 情報提供装置、車両及び情報提供方法
JP2021189987A (ja) * 2020-06-04 2021-12-13 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
US12004824B2 (en) 2021-03-30 2024-06-11 Cilag Gmbh International Architecture for modular energy system
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
CN115503476B (zh) * 2022-11-09 2024-05-21 阿维塔科技(重庆)有限公司 一种用于车辆的控制方法及车辆

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11304504A (ja) 1998-04-22 1999-11-05 Matsushita Electric Ind Co Ltd カーナビゲーション装置およびその地図表示方法
JP2001174271A (ja) * 1999-12-21 2001-06-29 Kenwood Corp ナビゲーション装置
JP2002215278A (ja) * 2001-01-16 2002-07-31 Mitsubishi Electric Corp ユーザインタフェース生成装置及びユーザインタフェース生成方法
JP2002340600A (ja) 2001-05-18 2002-11-27 Nissan Motor Co Ltd 車両用表示装置
JP2004355055A (ja) * 2003-05-26 2004-12-16 Alpine Electronics Inc 車載用電子機器及びナビゲーション方法
JP2005024918A (ja) * 2003-07-02 2005-01-27 Mitsubishi Electric Corp 表示制御装置
JP2006053018A (ja) * 2004-08-11 2006-02-23 Alpine Electronics Inc ナビゲーション装置及び地点登録表示方法
JP2006078360A (ja) * 2004-09-10 2006-03-23 Clarion Co Ltd ナビゲーション装置
JP2007102442A (ja) * 2005-10-04 2007-04-19 Xanavi Informatics Corp タッチパネル表示装置およびタッチパネル表示装置を備えたナビゲーション装置
JP2008211559A (ja) * 2007-02-27 2008-09-11 Seiko Epson Corp 電子機器機
JP2008235298A (ja) 2007-03-16 2008-10-02 Toshiba Corp 回路基板及び電子機器
JP2008234598A (ja) 2007-03-23 2008-10-02 Fujitsu General Ltd Posシステムの処理方法
JP2008234527A (ja) 2007-03-23 2008-10-02 Mitsubishi Cable Ind Ltd Rfidゲート構造

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415224B1 (en) * 2001-02-06 2002-07-02 Alpine Electronics, Inc. Display method and apparatus for navigation system
JP4182769B2 (ja) * 2002-06-21 2008-11-19 アイシン・エィ・ダブリュ株式会社 画像表示装置及びナビゲーション装置
EP1741064A4 (en) * 2004-03-23 2010-10-06 Google Inc DIGITAL CARTOGRAPHIC SYSTEM
US7694233B1 (en) * 2004-04-30 2010-04-06 Apple Inc. User interface presentation of information in reconfigured or overlapping containers
WO2006036303A2 (en) * 2004-08-05 2006-04-06 Disney Enterprises, Inc. Common user interface for accessing media
JP4645179B2 (ja) * 2004-12-02 2011-03-09 株式会社デンソー 車両用ナビゲーション装置
US8037421B2 (en) * 2005-10-11 2011-10-11 Research In Motion Limited System and method for organizing application indicators on an electronic device
JP4933129B2 (ja) 2006-04-04 2012-05-16 クラリオン株式会社 情報端末および簡略−詳細情報の表示方法
JP5184832B2 (ja) * 2007-07-17 2013-04-17 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11304504A (ja) 1998-04-22 1999-11-05 Matsushita Electric Ind Co Ltd カーナビゲーション装置およびその地図表示方法
JP2001174271A (ja) * 1999-12-21 2001-06-29 Kenwood Corp ナビゲーション装置
JP2002215278A (ja) * 2001-01-16 2002-07-31 Mitsubishi Electric Corp ユーザインタフェース生成装置及びユーザインタフェース生成方法
JP2002340600A (ja) 2001-05-18 2002-11-27 Nissan Motor Co Ltd 車両用表示装置
JP2004355055A (ja) * 2003-05-26 2004-12-16 Alpine Electronics Inc 車載用電子機器及びナビゲーション方法
JP2005024918A (ja) * 2003-07-02 2005-01-27 Mitsubishi Electric Corp 表示制御装置
JP2006053018A (ja) * 2004-08-11 2006-02-23 Alpine Electronics Inc ナビゲーション装置及び地点登録表示方法
JP2006078360A (ja) * 2004-09-10 2006-03-23 Clarion Co Ltd ナビゲーション装置
JP2007102442A (ja) * 2005-10-04 2007-04-19 Xanavi Informatics Corp タッチパネル表示装置およびタッチパネル表示装置を備えたナビゲーション装置
JP2008211559A (ja) * 2007-02-27 2008-09-11 Seiko Epson Corp 電子機器機
JP2008235298A (ja) 2007-03-16 2008-10-02 Toshiba Corp 回路基板及び電子機器
JP2008234598A (ja) 2007-03-23 2008-10-02 Fujitsu General Ltd Posシステムの処理方法
JP2008234527A (ja) 2007-03-23 2008-10-02 Mitsubishi Cable Ind Ltd Rfidゲート構造

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2336720A4

Also Published As

Publication number Publication date
US8819581B2 (en) 2014-08-26
EP2336720A1 (en) 2011-06-22
US20110164062A1 (en) 2011-07-07
EP2336720B1 (en) 2017-04-12
CN101672648A (zh) 2010-03-17
EP2336720A4 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
WO2010030010A1 (ja) 情報処理装置および画像処理装置
JP5219705B2 (ja) 情報処理装置および情報処理方法
JP5280780B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP5280778B2 (ja) 情報処理装置、画像処理装置、及び情報処理方法
JP5280779B2 (ja) 情報処理装置及び情報処理方法
JP4973809B2 (ja) ナビゲーション装置
CN105526945B (zh) 影音导航装置、车辆、及影音导航装置的控制方法
JP5355015B2 (ja) ナビゲーション装置
JP2009216888A (ja) 画面表示装置
WO2016084360A1 (ja) 車両用表示制御装置
JP4314927B2 (ja) ナビゲーション装置
JP5224998B2 (ja) 情報処理装置
JP2010066198A (ja) 車載情報処理装置、情報処理方法およびプログラム
JP2010086093A (ja) 記憶媒体、情報処理装置、方法及びプログラム
JP2010066193A (ja) 情報処理装置、及びナビゲーション情報処理のための制御装置
JP4100190B2 (ja) 表示装置付き車載装置
JP5610680B2 (ja) ナビゲーション装置及び表示方法
JP2011191968A (ja) 表示装置、表示方法、および、記憶媒体
JP5135153B2 (ja) データ管理プログラム、データ管理方法及びデータ管理装置
JP2010085157A (ja) 情報処理装置、情報処理方法およびプログラム
JP2010085156A (ja) 情報処理装置、情報処理方法およびプログラム
KR100802175B1 (ko) 조사장치를 구비한 단말장치 및 그 동작방법
JP2010066207A (ja) ナビゲーション装置及びその制御プログラム
JP2010066206A (ja) ナビゲーション装置及びその制御プログラム
JP2011196792A (ja) ナビゲーション装置、および、ナビゲーション方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09813156

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2009813156

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13063339

Country of ref document: US

Ref document number: 2009813156

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE