WO2015083266A1 - 表示制御装置及び表示制御方法 - Google Patents

表示制御装置及び表示制御方法 Download PDF

Info

Publication number
WO2015083266A1
WO2015083266A1 PCT/JP2013/082687 JP2013082687W WO2015083266A1 WO 2015083266 A1 WO2015083266 A1 WO 2015083266A1 JP 2013082687 W JP2013082687 W JP 2013082687W WO 2015083266 A1 WO2015083266 A1 WO 2015083266A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display control
mode
control device
satisfied
Prior art date
Application number
PCT/JP2013/082687
Other languages
English (en)
French (fr)
Inventor
卓馬 岡本
清水 直樹
下谷 光生
武 川上
昌行 桐村
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2013/082687 priority Critical patent/WO2015083266A1/ja
Priority to JP2015551342A priority patent/JP6120988B2/ja
Publication of WO2015083266A1 publication Critical patent/WO2015083266A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/403Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being monoscopic

Definitions

  • the present invention relates to a display control device and a display control method for controlling a display unit.
  • split-view (also referred to as multi-view or dual-view (registered trademark)) type display devices are known as multi-image display devices capable of displaying different images on one screen depending on the viewing direction.
  • a split view display device For example, it has been proposed to apply a split view display device and a touch panel disposed on the screen to an in-vehicle navigation device. According to such a navigation device, an image having different contents in the direction of the driver's seat and the direction of the passenger's seat is displayed on the screen, and an operation for the icon displayed in the image is received on the touch panel. Is possible.
  • the position of the icon in the image displayed in the direction of the driver's seat and the position of the icon in the image displayed in the direction of the passenger's seat are determined by the split view display device. May overlap on the screen. In such a case, even if an operation on the icon is accepted on the touch panel, whether the operation is performed on the icon in the image displayed in the direction of the driver's seat is displayed in the direction of the passenger's seat There has been a problem that it is impossible to determine whether an operation has been performed on an icon in the displayed image.
  • Patent Document 1 the positions of the icons in the image displayed in the direction of the driver's seat and the positions of the icons in the image displayed in the direction of the passenger's seat are not overlapped with each other. Techniques for arranging at different positions have been proposed.
  • the present invention has been made in view of the above-described problems, and is executed without knowing the function of the application on the second image side (for example, the passenger seat side) when operated by the user. It aims at providing the technology which can suppress this.
  • the display control device includes a first image that is visible in the first direction but not visible in the second direction, and a second image that is visible in the second direction but not visible in the first direction.
  • a display control device that controls a display unit capable of displaying an image on a single screen, and when it is determined that a predetermined first condition is satisfied, an application is based on the satisfied first condition
  • a control unit for setting any one of the restriction modes is provided.
  • the mode when it is determined that the predetermined first condition is satisfied, the mode is set to one of the second constraint mode and the normal mode based on the satisfied first condition. Therefore, it is possible to prevent the user in the first direction from executing the operation without knowing the function of the application on the second image side.
  • FIG. 1 is a block diagram illustrating an example of a configuration of a navigation device according to Embodiment 1.
  • FIG. 3 is a cross-sectional view illustrating an example of a configuration of a split view display unit according to Embodiment 1.
  • FIG. 6 is a diagram illustrating a display example of a split view display unit according to Embodiment 1.
  • FIG. 3 is a cross-sectional view illustrating an example of a configuration of a split view display unit according to Embodiment 1.
  • FIG. 6 is a diagram illustrating a display example of a split view display unit according to Embodiment 1.
  • FIG. It is a figure which shows an example of the detection of the indicator by a touch panel.
  • FIG. 6 is a diagram illustrating a display example of a left image and a right image of the navigation device according to Embodiment 1.
  • FIG. 6 is a diagram illustrating a display example of a left image and a right image of the navigation device according to Embodiment 1.
  • FIG. 10 is a diagram illustrating a display example of a left image and a right image of the navigation device according to the first modification of the first embodiment.
  • 10 is a diagram illustrating a display example of a left image and a right image of the navigation device according to the first modification of the first embodiment.
  • 10 is a flowchart showing the operation of the navigation device according to the second embodiment.
  • 10 is a flowchart showing the operation of the navigation device according to the second embodiment.
  • 10 is a flowchart showing the operation of the navigation device according to the second embodiment.
  • 10 is a diagram illustrating a display example of a left image and a right image of the navigation device according to Embodiment 2.
  • FIG. 10 is a diagram illustrating a display example of a left image and a right image of the navigation device according to Embodiment 2.
  • FIG. 10 is a diagram illustrating a display example of a left image and a right image of the navigation device according to Embodiment 2.
  • FIG. 10 is a diagram illustrating a display example of a left image and a right image of the navigation device according to Embodiment 2.
  • FIG. 10 is a diagram illustrating
  • FIG. 1 is a block diagram showing an example of the configuration of the navigation device.
  • the vehicle equipped with the navigation device 1 shown in FIG. 1 will be described as “own vehicle”.
  • the navigation device 1 includes a split view display unit 2, a touch panel 3, an operation input processing unit 9, an interface unit 10, a storage unit 11, a left image generation unit 12, a right image generation unit 13, and the like. And a control unit 14 that performs overall control.
  • the interface unit 10 is connected between the wireless communication unit 4, the speaker 5, the DVD (Digital Versatile Disk) player 6, the air conditioner 7, the in-vehicle LAN (Local Area Network) 8, and the control unit 14.
  • Various information and various signals are bi-directionally output via the interface unit 10 between the wireless communication unit 4, the speaker 5, the DVD player 6, the air conditioner 7, the in-vehicle LAN 8, and the control unit 14.
  • the control unit 14 can control the control information by outputting the control information to the wireless communication unit 4, the speaker 5, the DVD player 6, the air conditioner 7, and the in-vehicle LAN 8.
  • the split view display unit 2 is arranged, for example, on the dashboard of the own vehicle.
  • the split view display unit 2 includes a first image that can be viewed in the direction of the left seat (first direction) but cannot be viewed from the direction of the right seat (hereinafter referred to as “left image”), and the direction of the right seat (first A second image (hereinafter referred to as “right image”) that can be viewed in two directions but not from the direction of the left seat can be displayed on one screen.
  • the split view display unit 2 displays an icon in the left image (first icon), an icon in the right image (second icon), a gesture operation described later, and a map or the like. To display the gesture area.
  • the icon (first icon) in the left image is referred to as “left icon”
  • the icon (second icon) in the right image is referred to as “right icon”.
  • the left seat is the driver's seat and the right seat is the front passenger seat as an example, but the left seat is the passenger seat and the right seat is the driver seat. Is the same as left and right interchangeably.
  • FIG. 2 is a schematic cross-sectional view of the display device.
  • a display device 200 illustrated in FIG. 2 includes a display screen 201 and a parallax barrier 202.
  • the first pixels 201a for displaying the left image and the second pixels 201b for displaying the right image are alternately arranged along the horizontal direction (left-right direction).
  • the parallax barrier 202 allows the light of the first pixel 201a to pass in the direction of the left seat but blocks the light of the second pixel 201b, and allows the light of the second pixel 201b to pass in the direction of the right seat. Blocks the light of the first pixel 201a.
  • the user 101a in the left seat cannot visually recognize the image for the right but can visually recognize the image for left
  • the user 101b in the right seat cannot visually recognize the image for the left but visually recognizes the image for right. be able to.
  • the parallax barrier 202 allows the light from the plurality of first pixels 201a to pass through in the direction of the left seat, so that the left icon is displayed in a visible manner.
  • the parallax barrier 202 allows light from the plurality of second pixels 201b to pass in the direction of the right seat, the right icon is displayed so as to be visible.
  • the outer edge of the left icon display area corresponds to the first pixel 201a located at the outer edge of the plurality of first pixels 201a used for displaying the left icon
  • the right icon display area The outer edge portion corresponds to the second pixel 201b located at the outer edge portion among the plurality of second pixels 201b used for displaying the right icon.
  • FIG. 3 is a diagram showing a display example of the split view display unit 2 of the space division method, and shows a left image and a right image of one frame.
  • a display device of WVGA Wide
  • VGA Wide
  • the split-view display device of the space division type as shown in FIG. 3 corresponding to the display device of WVGA differs depending on the performance of the display device.
  • the horizontal pixels in the display device of WVGA whose total number is horizontally arranged
  • the first and second pixels 201a and 201b are double the number, that is, the total number of pixels is 1600 dots horizontally and 480 dots vertically.
  • the split view display device is composed of a first pixel 201a having 13 dots horizontally and 4 dots vertically and the same number of second pixels 201b.
  • the description will be made assuming that dots are displayed by the first pixel 201a or the second pixel 201b of one dot vertically.
  • the 1-dot x-axis (left-right direction) shift of the icon as shown in FIG. 3 is not visible to the human eye from the normal viewing position, and appears to be displayed at the same position.
  • the outer edge portion (outer frame) of the left icon is indicated by a broken line, and four first pixels 201 a arranged in the horizontal direction are used to display the left icon. It is shown.
  • the outer edge portion (outer frame) of the right icon is indicated by a one-dot chain line, and four second pixels 201 b arranged in the horizontal direction are used to display the right icon. It is shown that. Note that the number of first pixels 201a used for displaying the left icon and the number of second pixels 201b used for displaying the right icon are not limited to four.
  • the display of the gesture area is the same as the display of the left icon and the right icon.
  • the space division display device 200 is applied to the split view display unit 2
  • at least one of the plurality of (four in FIG. 3) first pixels 201a used for displaying the left icon is used.
  • the second pixel 201b (second pixel 201b corresponding to the alternate long and short dash line in FIG. 3) located at the outer edge is sandwiched.
  • at least a part of the display area of the left icon and at least a part of the display area of the right icon overlap each other on the screen of the split view display unit 2.
  • first pixels 201a first pixels 201a corresponding to broken lines in FIG. 3 located on the outer edge of the first pixels 201a, at least a part of the display area of the left icon, It is noted that at least a part of the display area of the right icon overlaps with each other on the screen of the split view display unit 2.
  • the left icon when one of the second pixel 201b used for displaying the right icon and the first pixel 201a used for displaying the left icon is not sandwiched between the other, the left icon
  • the display area of the right icon and the display area of the right icon are separated from each other on the screen of the split view display unit 2. This description applies not only to the left icon and the right icon, but also to the gesture region and the left icon or the right icon.
  • FIG. 4 is a schematic cross-sectional view of the display device.
  • the display device 250 illustrated in FIG. 4 includes a display screen 251 and a parallax barrier 252.
  • the display screen 251 displays the left image by the pixel 251c in the first period, and displays the right image by the pixel 251c in the second period.
  • the parallax barrier 252 allows the light of the pixel 251c to pass in the direction of the left seat in the first period, but blocks the light of the pixel 251c in the direction of the right seat, and in the direction of the right seat in the second period.
  • the light of the pixel 251c is allowed to pass but the light of the pixel 251c is blocked with respect to the direction of the left seat.
  • FIG. 4 shows the state of the first period.
  • the left seat user 101a cannot visually recognize the right image but can visually recognize the left image
  • the right seat user 101b cannot visually recognize the left image but visually recognize the right image. can do.
  • the eyes of the user 101b in the right seat do not receive the light of the pixel 251c from the split view display unit 2 in the first period.
  • the first period is set to be very short
  • the right seat user 101b does not recognize that the eyes are not receiving light in the first period.
  • the user 101b in the right seat recognizes that the image of the second period is also displayed in the first period.
  • the fact that the eyes are not receiving light in the second period is not recognized by the user 101a in the left seat, and the image of the first period is also displayed in the second period due to the afterimage effect of the light received in the first period. Is recognized by the user 101a in the left seat.
  • the parallax barrier 252 allows the light from the plurality of pixels 251c to pass in the direction of the left seat in the first period so that the left icon can be visually recognized.
  • the right icon is displayed so as to be visible by allowing light from the plurality of pixels 251c to pass in the direction of the right seat in the second period. Therefore, the outer edge of the left icon display area corresponds to the pixel 251c located at the outer edge of the plurality of pixels 251c used for displaying the left icon, and the outer edge of the right icon display area is This corresponds to the pixel 251c located at the outer edge among the plurality of pixels 251c used for displaying the right icon.
  • FIGS. 5A and 5 (b) are diagrams showing a display example of the time-division split view display unit 2, and a left image and a right image of one frame are shown.
  • a WVGA display device has pixels of 800 dots on the horizontal (x axis) and 480 dots on the vertical (y axis) as a whole.
  • the time-division split-view display device corresponding to the WVGA display device as shown in FIGS. 5A and 5B differs depending on the performance of the display device, for example, 800 dots horizontally and vertically.
  • the pixel 251c is composed of 480 dots.
  • the split view display device is configured with pixels 251c having 13 dots horizontally and 4 dots vertically, and icons are displayed by pixels 251c having 3 dots horizontally and 1 dot vertically. It will be described as a thing.
  • the outer edge (outer frame) of the left icon displayed in the first period is indicated by a broken line, and three pixels arranged in the horizontal direction to display the left icon. It is shown that 251c is used.
  • the outer edge portion (outer frame) of the right icon displayed in the second period is indicated by a broken line, and 3 arranged in the horizontal direction to display the right icon. It is shown that a part of one pixel 251c is used. Note that the number of pixels 251c used for displaying the left icon and the number of pixels 251c used for displaying the right icon are not limited to three.
  • the display of the gesture area is similar to the display of the left icon and the right icon.
  • the split view display unit 2 may be applied with a display device that combines a space division method and a time division method. For example, at least a part of the pixels used for displaying the left icon in the first period is sandwiched between pixels located on the outer edge among the plurality of pixels used for displaying the right icon in the second period. Or at least some of the pixels used for displaying the right icon in the second period are pixels located at the outer edge of the plurality of pixels used for displaying the left icon in the first period. When sandwiched, at least a part of the display area for the left icon and at least a part of the display area for the right icon overlap each other on the screen of the split view display unit 2.
  • the display of the left icon is displayed. It is noted that the area and the display area for the right icon are separated on the screen of the split view display unit 2. This description applies not only to the left icon and the right icon, but also to the gesture region and the left icon or the right icon.
  • the touch panel 3 (input unit) includes a first operation (hereinafter, “left operation”) for the left image for executing the application function and a second operation (hereinafter “right” for executing the application function). Operation)).
  • the touch panel 3 according to the first embodiment has a position of a point on the detection surface where the distance from the indicator such as a finger of the user (driver and passenger in the passenger seat) is shortest ( A three-dimensional position (X, Y, Z) including X and Y) and a distance Z between the indicator and the detection surface (the point) is detected as the position of the indicator.
  • the distance Z between the indicator (finger 21 in FIG. 6) and the detection surface of the touch panel 3 is shown.
  • the distance Z 0, it means that the indicator (finger 21 in FIG. 6) is touching (touching) the detection surface of the touch panel 3.
  • Such a touch panel 3 includes, for example, a three-dimensional position of the indicator based on a capacitance formed between the detection surface and the indicator (a three-dimensional position of the indicator with respect to a reference point on the detection surface). ) Is applied.
  • the touch panel 3 periodically detects the three-dimensional position of the indicator as described above, and outputs a signal indicating the three-dimensional position to the operation input processing unit 9.
  • the wireless communication unit 4 communicates with the server via, for example, DSRC (Dedicate Short Range Communication) and a mobile phone.
  • the wireless communication unit 4 outputs information received from the server (for example, downloaded information) to the control unit 14 or transmits information output from the control unit 14 to the server.
  • the wireless communication unit 4 receives radio broadcasts and television broadcasts and outputs information acquired from the broadcasts to the control unit 14.
  • Speaker 5 (audio output unit) outputs audio based on the audio signal output from the control unit 14.
  • the DVD player 6 reproduces AV (Audio-video) information recorded on the DVD, and outputs the AV information to the control unit 14.
  • AV Audio-video
  • the air conditioner 7 adjusts the temperature and humidity in the vehicle interior under the control of the control unit 14.
  • the in-vehicle LAN 8 communicates with the own vehicle ECU (Electronic Control Unit), GPS (Global Positioning System) device, and the like.
  • the in-vehicle LAN 8 outputs the speed of the own vehicle acquired from the ECU and the current position (for example, latitude and longitude) of the own vehicle acquired from the GPS device to the control unit 14.
  • the icon position information indicating the position of the icon displayed on the split view display unit 2 is input from the control unit 14 to the operation input processing unit 9.
  • the operation input processing unit 9 Based on the icon position information and an output signal of the touch panel 3 (a signal indicating the three-dimensional position of the indicator), the operation input processing unit 9 displays the icon displayed on the touch panel 3 and eventually the split view display unit 2. It is determined whether or not an operation has been performed on the above.
  • the operation input processing unit 9 determines a predetermined gesture operation other than a pointing operation such as a touch operation on the detection surface of the touch panel 3 based on an output signal of the touch panel 3 (a signal indicating a three-dimensional position of the indicator). It is determined whether or not (hereinafter abbreviated as “gesture operation”) has been performed.
  • Gesture operations include, for example, a flick operation in which the indicator rubs the detection surface in a shorter time than a predetermined time, a drag operation in which the indicator rubs the detection surface in a longer time than a predetermined time, and two This includes a pinch operation for changing the distance between the indicators in contact with the detection surface, and is applied as a predetermined first gesture operation and a predetermined second gesture operation described later.
  • the drag operation is not limited to the above-described operation, and may be applied as an operation of rubbing the detection surface while the indicator is touching the touch panel.
  • the flick operation is not limited to the above-described operation, and may be applied as an operation of touching the detection surface from a state where the indicator touches the touch panel.
  • the gesture operation may include a gesture operation in which two points of the two-point touch are continuously used after the two-point touch, or one point out of the two points of the two-point touch after the two-point touch is released and the remaining points are left.
  • a gesture operation that uses one point continuously may be included.
  • the operation input processing unit 9 performs the process of determining whether or not an operation on an icon or the like displayed on the split view display unit 2 has been performed.
  • the determination process may be performed by the control unit 14.
  • the operation input processing unit 9 is provided separately from the touch panel 3 and the control unit 14, but is not limited thereto, and may be provided in the touch panel 3 as a function of the touch panel 3.
  • the control unit 14 may be provided as a function of the control unit 14.
  • the storage unit 11 includes, for example, a hard disk drive, a DVD and its drive device, a Blu-ray disc and its drive device, or a storage device such as a semiconductor memory.
  • the storage unit 11 stores information used for the control unit 14 in addition to a program necessary for the control unit 14 to operate.
  • the information used for the control unit 14 includes, for example, an application (application software), an image in which icons operated when executing the function of the application, map information, and the like.
  • an image for example, an image corresponding to FIGS. 10A and 10B
  • the “icon arrangement image” includes an image in which an icon is displayed on the map information.
  • the left image generation unit 12 generates a display signal for displaying the left image based on the display information output from the control unit 14, and outputs the display signal to the split view display unit 2.
  • the split view display unit 2 displays the left image based on the display signal.
  • the right image generation unit 13 generates a display signal for displaying the right image based on the display information output from the control unit 14, and outputs the display signal to the split view display unit 2.
  • the split view display unit 2 displays the right image based on the display signal.
  • the display signal generated by the left image generation unit 12 includes, for example, (1, 1), (2, 1),..., (800, 1), (1) for each of a plurality of pixels used in the left image. , 2),... (800, 2),..., (800, 480).
  • the display signal generated by the right image generation unit 13 is also referred to as (1, 1), (1, 2),..., (800, 480) for each of a plurality of pixels used in the right image. Contains pixel numbers assigned in order. Therefore, when the pixel number of at least one pixel used for displaying the left icon matches the pixel number of at least one pixel used for displaying the right icon, at least the display area of the left icon is displayed.
  • (x, y) indicates a pixel position corresponding to an xy coordinate in which the upper left on the screen is (1, 1), the x axis is positive in the right direction, and the y axis is positive in the downward direction.
  • the control unit 14 includes, for example, a CPU (Central Processing Unit), and when the CPU executes a program stored in the storage unit 11, the navigation device 1 executes various applications, and thus The speaker 5 and the like can be controlled according to the executed application.
  • a CPU Central Processing Unit
  • the control unit 14 determines a route from the current position to the destination based on the current position of the host vehicle, the destination based on the output signal of the touch panel 3, and the map information. Search is performed, and display information for displaying guidance along the route and a voice signal for outputting the guidance by voice are generated. As a result, the above guidance is displayed as a left image or a right image, and the above guidance voice is output from the speaker 5.
  • the control unit 14 when a DVD playback application is executed, the control unit 14 generates display information for displaying AV information from the DVD player 6 and an audio signal for outputting the AV information as audio. .
  • the video stored in the DVD is displayed as the left image or the right image, and the audio stored in the DVD is output from the speaker 5.
  • control unit 14 acquires one icon arrangement image corresponding to one or more applications that can be executed on the left image side (executable from the left image side) from the storage unit 11, and the acquired icon arrangement image Is displayed as a left image.
  • an icon that is an operation target for executing the function of the application on the left image side is displayed on the split view display unit 2 (left image).
  • an icon arrangement image (for example, an image corresponding to FIG. 8A) that can be displayed as the left image is referred to as a “left icon arrangement image”.
  • the icon in the left icon arrangement image displayed as the left image is the above-described left icon.
  • the control unit 14 acquires, from the storage unit 11, one icon arrangement image corresponding to one or more applications that can be executed on the right image side (executable from the right image side).
  • the icon arrangement image is displayed as the right image.
  • an icon that is an operation target for executing the function of the application on the right image side is displayed on the split view display unit 2 (right image).
  • an icon arrangement image that can be displayed as a right image (for example, an image corresponding to FIG. 8B) will be referred to as a “right icon arrangement image”.
  • the icon in the right icon arrangement image displayed as the right image is the right icon described above.
  • the navigation device 1 includes a normal mode in which both the above-described right operation and the above-mentioned left operation are not restricted, and the above-described right-side operation described above. And a right constraint mode that constrains.
  • control unit 14 determines that the predetermined first condition is satisfied, the control unit 14 selects either the normal mode or the right constraint mode (second constraint mode) based on the satisfied first condition. Set to one mode.
  • a navigation device (hereinafter referred to as “related navigation device”) related to the navigation device 1 according to the first embodiment will be described.
  • related navigation device the same or similar components as those described in FIG.
  • FIG. 7 (a) and 7 (b) are diagrams illustrating display examples of the left image and the right image of the related navigation device (split view display unit 2).
  • left icons L1, L2, and L3 hereinafter, these icons may be collectively referred to as “left icons L1 to L3” and the above-described gesture region GL are arranged.
  • the left icon arrangement image is displayed.
  • right icons R1, R2, R3, R4, and R5 hereinafter, these icons may be collectively referred to as “right icons R1 to R5”.
  • the icon arrangement image for the right is displayed.
  • At least a part of the gesture area GL of the left image and at least a part of the display area of the right icons R1 to R5 are split view display. They overlap each other on the screen of part 2. For this reason, in the related navigation device, when the user (driver) in the left seat performs a gesture operation in the gesture area GL, the user performs the operation on the right icons R1 to R5 without knowing. There was a problem that there was something. Therefore, as will be described below, according to the navigation device 1 according to the first embodiment, the user (driver) in the left seat does not know the function of the application on the right image side as a result of the operation. It is possible to suppress execution.
  • Embodiment 1 ⁇ Operation of Navigation Device According to Embodiment 1> 8 and 9 are flowcharts showing the operation of the navigation device 1 according to the first embodiment. Note that the operations shown in FIGS. 8 and 9 are performed by the CPU executing a program stored in the storage unit 11. Hereinafter, the operation of the navigation device 1 will be described with reference to FIGS. 8 and 9.
  • the control unit 14 executes the initial operation.
  • the control unit 14 acquires from the storage unit 11 an application to be initially executed on the left image side and the right image side, and executes the application.
  • step S2 the control unit 14 acquires the left icon arrangement image corresponding to the application executed on the left image side from the storage unit 11, and also corresponds to the application executed on the right image side.
  • a right icon arrangement image is acquired from the storage unit 11.
  • step S3 the control unit 14 displays the acquired left icon arrangement image as the left image of the split view display unit 2, and displays the acquired right icon arrangement image as the right image of the split view display unit 2. Further, the control unit 14 sets the normal mode.
  • FIG. 10 (a) and 10 (b) are diagrams showing display examples of the left image and the right image in step S3 of the navigation device 1 (split view display unit 2) according to the first embodiment.
  • a left priority button LP (a predetermined first button) is added to the left image in FIG. 7B.
  • the display area of the left priority button LP is arranged on the screen of the split view display unit 2 away from the display area of the right icons R1 to R5, an operation on the left priority button LP is performed.
  • operations on the right icons R1 to R5 are suppressed.
  • the right image in FIG. 10B is the same as the right image in FIG.
  • the operation input processing unit 9 determines whether or not an operation for the left priority button LP in the left image is performed based on an output signal from the touch panel 3. If it is determined that the operation on the left priority button LP has not been performed, the process proceeds to step S5. If it is determined that the operation has been performed, the process proceeds to step S7 in FIG.
  • step S5 the operation input processing unit 9 determines whether an effective operation is performed in the normal mode.
  • the operation input processing unit 9 determines whether an operation on the left icons L1 to L3 or the right icons R1 to R5 or a gesture operation on the gesture region GL has been performed. If it is determined that it has been performed, the process proceeds to step S6. If it is determined that it has not been performed, the process returns to step S4.
  • step S4 if the map is displayed as a left image or a right image and the position of the vehicle has changed, the control unit 14 responds to the change with the map. May be scrolled. This is the same when returning from step S5 to step S4.
  • step S6 the control unit 14 executes a function corresponding to the performed operation.
  • the control unit 14 executes the function of the application corresponding to the operated icon or gesture area.
  • the process returns to step S4. If an icon arrangement image is associated with the operated icon or gesture region in advance and stored in the storage unit 11, the process returns from step S6 to step S3, and the icon arrangement image is displayed in the split view. It may be displayed on the display unit 2.
  • step S7 the control unit 14 satisfies the first condition by determining in step S4 that the operation on the left priority button LP has been performed. It is determined that the right restriction mode is set to restrict the right operation.
  • the control unit 14 enables the first gesture operation performed as the left operation (for example, a gesture operation that can be accepted in the gesture region GL), and disables the second gesture operation performed as the right operation. This restricts the right operation.
  • the first gesture operation performed as the left operation is referred to as “left gesture operation”
  • the second gesture operation performed as the right operation is referred to as “right gesture operation”.
  • the same gesture operation may be applied to the left gesture operation validated here and the right gesture operation invalidated, and different gesture operations may be applied.
  • FIGS. 11A and 11B are diagrams showing display examples of the left image and the right image in step S7 of the navigation device 1 according to the first embodiment.
  • the control unit 14 displays the left priority button LP in a brighter color than the left priority button LP (FIG. 10A) in step S3 (hereinafter, hatching is performed).
  • step S3 hereinafter, hatching is performed. The higher the density of dots, the darker the image).
  • the control unit 14 displays the right icons R1 to R5 in a darker color than the right icons R1 to R5 (FIG. 10B) in step S3.
  • the background image of the right image is displayed in a darker color than the background image (FIG. 10B) of the right image in step S3 so that the right operation is constrained.
  • the right image displayed in step S7 is not limited to this, and may be, for example, an image obtained by blurring the background image, or an image in which the right icons R1 to R5 are not displayed. Also good.
  • step S8 in FIG. 9 the operation input processing unit 9 performs the determination in step S4 again. That is, the operation input processing unit 9 re-determines whether or not an operation for the left priority button LP in the left image has been performed based on an output signal from the touch panel 3. If it is determined that the operation on the left priority button LP has been performed, the process proceeds to step S9. If it is determined that the operation has not been performed, the process proceeds to step S10.
  • step S9 the control unit 14 determines that the first condition is satisfied by determining in step S8 that the operation on the left priority button LP has been performed again, and sets the normal mode. That is, the control unit 14 releases the restriction on the right operation.
  • the control unit 14 displays the original left image (FIG. 10A) and the original image in step S3 from the display of the left image (FIG. 11A) and the right image (FIG. 11B) in step S8.
  • the display returns to the right image (FIG. 10B). Then, it returns to step S4.
  • step S10 the operation input processing unit 9 performs an operation that is effective in the right constraint mode (in this case, an operation on the left icons L1 to L3, a left gesture operation on the gesture region GL, etc. It is determined whether or not the left operation) has been performed. If it is determined that an effective operation has been performed in the right constraint mode, the process proceeds to step S11. If it is determined that an effective operation has not been performed, the process proceeds to step S12.
  • the right constraint mode in this case, an operation on the left icons L1 to L3, a left gesture operation on the gesture region GL, etc. It is determined whether or not the left operation
  • step S11 the control unit 14 executes a function corresponding to the performed operation.
  • the control unit 14 executes the function of the application corresponding to the operated icon or gesture area.
  • the process returns to step S8. If an icon arrangement image is associated with the operated icon or gesture region in advance and stored in the storage unit 11, the process returns from step S11 to step S3, and the icon arrangement image is split view. It may be displayed on the display unit 2.
  • step S12 the control unit 14 does not execute the function of the application corresponding to the left operation from the time when the right restriction mode is set until a predetermined time. And whether or not the normal mode has been set. If it is determined that neither execution nor setting has been performed until a predetermined time, the process proceeds to step S9, and if not, the process returns to step S8.
  • step S9 the control unit 14 sets the function of the application in accordance with the left operation from the time when the right restriction mode is set until a predetermined time. Is not executed and it is determined in step S12 that the normal mode has not been set, it is determined that the first condition is satisfied, and the normal mode is set.
  • the normal mode and the right constraint mode are based on the satisfied first condition. Is set to one of these modes. Therefore, it can be suppressed that the user (driver) of the left seat executes the function without knowing the function of the application on the right image side due to the operation.
  • the operation on the left priority button LP in the left image is performed based on the output signal from the touch panel 3, it is determined that the first condition is satisfied and the right is satisfied.
  • the above-described effect is effective when the left gesture operation or the right gesture operation over a relatively wide range is assumed.
  • the function of the application corresponding to the left operation is not executed and the normal mode is not set between the time set in the right constraint mode and the predetermined time. Then, it is determined that the first condition is satisfied, and the normal mode is set. Therefore, the restriction on the right operation can be minimized.
  • the configuration using the touch panel capable of detecting the three-dimensional position (X, Y, Z) of the indicator as shown in FIG. 6 has been described for the convenience of modifications and embodiments described later.
  • the present invention is not limited to this, and a touch panel that can detect the two-dimensional position (X, Y) of the touched indicator may be used.
  • the control unit 14 determines that the first condition is satisfied when the function of the application corresponding to the left operation is not executed and the normal mode is not set until the predetermined time.
  • the present invention is not limited to this, and for example, a modification described below can be applied.
  • the touch panel 3 when the touch panel 3 is touched at a plurality of points simultaneously by a plurality of indicators, the touch panel 3 outputs a signal indicating the position of each of the plurality of points. Based on the output signal from the touch panel 3, the operation input processing unit 9 determines whether or not an operation in which a plurality of indicators simultaneously touch the touch panel 3 at a plurality of points (hereinafter referred to as “multi-point touch operation” or the like) has been performed. Determine.
  • the control unit 14 determines that the first condition is satisfied and sets the right constraint mode.
  • the right constraint mode can be set.
  • a touch panel capable of detecting the three-dimensional position (X, Y, Z) of the indicator as shown in FIG. 6 may be used, or the two-dimensional position (X , Y) may be used.
  • the touch panel 3 outputs a signal indicating the three-dimensional position of the indicator as in the first embodiment.
  • the operation input processing unit 9 determines whether or not an operation having a predetermined trajectory (hereinafter referred to as “trajectory operation”) is performed by an indicator separated from the touch panel 3. To do.
  • trajectory operation for example, an operation in which the change in the distance Z in FIG.
  • touch panel 3 For example, an operation of moving in parallel or substantially parallel to the detection surface, an operation of drawing a circle with a finger at a position away from the detection surface of the touch panel 3 is applied.
  • control part 14 judges that the 1st condition was satisfy
  • the right constraint mode can be set when the trajectory operation is performed.
  • the touch panel 3 detects the amount of pressing of the detection surface by the indicator (the amount of pressing) instead of the distance Z described above, and outputs a signal indicating the detection result.
  • the operation input processing unit 9 determines that the touch operation has been performed when the push amount indicated by the output signal from the touch panel 3 is equal to or smaller than a predetermined value, and the push amount is larger than the predetermined value. In the case, it is determined that the pushing operation has been performed.
  • the control unit 14 determines that the first condition is satisfied and sets the right constraint mode.
  • the right constraint mode can be set.
  • the touch operation and the push-in operation may be replaced with each other. That is, the control unit 14 may determine that the first condition is satisfied and set the right constraint mode when it is determined that the touch operation by the indicator is performed.
  • the touch panel 3 outputs a signal indicating the three-dimensional position of the indicator as in the first embodiment.
  • the operation input processing unit 9 Based on the output signal from the touch panel 3, the operation input processing unit 9 performs or is performing an action (predetermined action) immediately before the operation (icon operation and gesture operation) by the indicator is performed. Determine if there is. For example, when the above-mentioned distance Z (FIG. 6) is equal to or less than a predetermined threshold value Z1 (for example, about 3 to 10 cm), the operation input processing unit 9 performs or implements the predetermined action. It is determined that it is in the middle. Note that the action determined to be in progress may be an action that continues from the above-described action that has been determined to be performed, or may be an action that does not continue.
  • the control unit 14 When the operation input processing unit 9 determines that the action immediately before the operation is performed is being performed or is being performed, that is, when the distance Z is equal to or less than the threshold value Z1, the control unit 14 performs FIG.
  • the display shown in FIG. 13A and FIG. 13B is displayed on the split view display unit 2. Specifically, the control unit 14 displays the regions RA1 to RA5 corresponding to the right icons R1 to R5 in the left image so as to be distinguishable, and corresponds to the left icons L1 to L3 and the gesture region GL in the right image.
  • the areas LA1 to LA3 and the area GLA are displayed in an identifiable manner.
  • the operation input processing unit 9 selects a background image (an image other than the left icons L 1 to L 3, the gesture region GL and the right icons R 1 to R 5, in other words, the regions LA 1 to LA 3, GLA, It is determined whether an operation (for example, a touch operation) on an image other than RA1 to RA5 has been performed.
  • the control unit 14 determines that the first condition is satisfied. Determine and set to right constraint mode.
  • the right constraint mode can be set.
  • the normal mode and the right constraint mode may be switched each time a touch is made.
  • a display indicating the current mode may be performed.
  • the left priority button LP can be omitted from the left image (left icon arrangement image).
  • control unit 14 causes the operation input processing unit 9 to recognize that a plurality of touch operations have been performed with an indicator to the same point within a predetermined time. If it is determined, it may be determined that the first condition is satisfied, and the right constraint mode may be set. Further, for example, when the operation input processing unit 9 determines that the control unit 14 has been touched by the indicator continuously for a predetermined time or longer, the control unit 14 determines that the first condition is satisfied and determines the right constraint mode. May be set.
  • control unit 14 according to the second modification when the control unit 14 according to the second modification is set to the right constraint mode, the type of the left gesture operation and the right type based on the type of application being executed on the left image side. It is configured to change the type of gesture operation.
  • control unit 14 applies the drag operation to the effective left gesture operation when the right constraint mode is set when the application executed on the left image side is an application of the navigation function, and The drag operation may be applied to the invalid right gesture operation.
  • control unit 14 applies the flick operation to the effective left gesture operation when the right constraint mode is set when the application executed on the left image side is an application of the DVD playback function, In addition, the flick operation may be applied to the invalid right gesture operation.
  • control unit 14 may change the number of left gesture operations that are valid and the number of right gesture operations that are invalid based on the type of application being executed on the left image side.
  • the control unit 14 performs two gesture operations (for example, dragging) for the effective left gesture operation.
  • the two gesture operations are applied to the right gesture operation which is invalid.
  • one control operation for example, one effective left gesture operation
  • the one gesture operation may be applied to a right gesture operation which is invalidated by applying a flick operation). Further, the gesture operation required by the right application may be disabled (prohibited) by the right application.
  • control unit 14 is configured to change the left gesture operation and the right gesture operation based on the type of application being executed on the left image side.
  • the left gesture operation to be enabled and the right gesture operation to be disabled can be optimized.
  • a touch panel capable of detecting the three-dimensional position (X, Y, Z) of the indicator as shown in FIG. 6 may be used, or the two-dimensional position of the touched indicator ( A touch panel capable of detecting X, Y) may be used.
  • the normal mode and the right constraint mode are defined.
  • a left constraint mode first constraint mode
  • the configuration of the navigation device 1 according to the second embodiment will be described.
  • the block configuration of the navigation device 1 according to the second embodiment is the same as the block configuration of the first embodiment, and therefore illustration thereof is omitted.
  • symbol is attached
  • control unit 14 determines that a predetermined second condition is satisfied, the control unit 14 performs the right constraint mode, the left constraint mode, and the normal mode based on the satisfied second condition. Is set to one of these modes.
  • the control unit 14 Assume that the aforementioned predetermined second condition is satisfied. That is, the second condition according to the second embodiment partially overlaps with the first condition according to the first embodiment, but is not limited to this, and the second condition and the first condition are The second condition and the first condition may not overlap at all.
  • FIG. 14, FIG. 15 and FIG. 16 are flowcharts showing the operation of the navigation device 1 according to the second embodiment. Note that, in steps S1 and S2 in FIG. 14, operations similar to those in steps S1 and S2 in the first embodiment are performed, and thus the description thereof is omitted.
  • step S3 after step S2, the control unit 14 displays the acquired left icon arrangement image as the left image of the split view display unit 2, and the acquired right icon arrangement image of the split view display unit 2 Display as. Further, the control unit 14 sets the normal mode.
  • FIG. 17 (a) and 17 (b) are diagrams showing display examples of the left image and the right image in step S3 of the navigation device 1 according to the second embodiment.
  • the left image in FIG. 17A is the same as the left image in FIG.
  • the right image in FIG. 17B includes right icons R1, R2, and R3 (hereinafter, these icons may be collectively referred to as “right icons R1 to R3”), and the gesture region GR described above.
  • a right icon arrangement image in which a right priority button RP (a predetermined second button) is arranged is displayed.
  • At least a part of the display area of the left icons L1 to L3 and at least a part of the gesture area GR of the right image overlap each other on the screen of the split view display unit 2. Further, at least a part of the display area of the right icons R1 to R3 and at least a part of the gesture area GL of the left image overlap each other on the screen of the split view display unit 2. Further, since the right priority button RP is spaced apart from the left icons L1 to L3 on the screen of the split view display unit 2, even if an operation on the right priority button RP is performed, the left icons L1 to L3, etc. It is suppressed that operation with respect to is implemented.
  • the right seat user (passenger in the passenger seat here) is prevented from operating the right priority button RP, and the left seat user (here, the driver) is prevented from being adversely affected. .
  • the operation input processing unit 9 determines whether or not an operation on the left priority button LP in the left image is performed based on an output signal from the touch panel 3. If it is determined that the operation on the left priority button LP has not been performed, the process proceeds to step S4b. If it is determined that the operation has been performed, the process proceeds to step S7a in FIG.
  • step S4b the operation input processing unit 9 determines whether or not an operation on the right priority button RP in the right image is performed based on an output signal from the touch panel 3. If it is determined that the operation on the right priority button RP has not been performed, the process proceeds to step S5. If it is determined that the operation has been performed, the process proceeds to step S7b in FIG.
  • steps S5 and S6 in FIG. 14 operations similar to those in steps S5 and S6 of the first embodiment are performed, and thus description thereof is omitted.
  • step S7a the control unit 14 determines that the second condition is satisfied by determining in step S4a that the operation on the left priority button LP has been performed. Then, the right restriction mode for restricting the right operation is set.
  • the control unit 14 restricts the right operation by enabling the left gesture operation (for example, the gesture operation that can be accepted in the gesture region GL) and disabling the right gesture operation.
  • the same gesture operation may be applied to the left gesture operation validated here and the right gesture operation invalidated, and different gesture operations may be applied.
  • control unit 14 causes the split view display unit 2 to display that the right operation is restricted.
  • 18 (a) and 18 (b) are diagrams showing display examples of the left image and the right image in step S7a of the navigation device 1 according to the second embodiment.
  • control unit 14 displays the left priority button LP in a brighter color than the left priority button LP (FIG. 17 (a)) in step S3.
  • the control unit 14 displays the right icons R1 to R3 and the gesture region GR, and the right icons R1 to R3 and the gesture region GR in step S3 (FIG. 17B).
  • the background image of the right image is displayed in a darker color than the background image of the right image (FIG. 17B) in step S3.
  • the control unit 14 displays the right priority button RP in a darker color than the right priority button RP (FIG. 17B) in step S3.
  • the control unit 14 displays that the right operation is constrained.
  • the right image displayed in step S7a is not limited to this, and may be, for example, an image in which the background image is blurred, or an image in which the right icons R1 to R3 are not displayed. Also good.
  • the gesture operation is disabled (prohibited)
  • the gesture area or the background may be displayed darkly
  • the touch operation is disabled (prohibited)
  • the operation icon may be displayed darkly. According to the structure displayed in this way, there is an effect that the user can recognize which operation is invalid (prohibited).
  • step S8a in FIG. 15 the operation input processing unit 9 performs the determination in step S4a again. That is, the operation input processing unit 9 re-determines whether or not an operation for the left priority button LP in the left image has been performed based on an output signal from the touch panel 3. If it is determined that the operation on the left priority button LP has been performed, the process proceeds to step S9a. If it is determined that the operation has not been performed, the process proceeds to step S10a.
  • step S9a the control unit 14 determines that the second condition is satisfied by determining in step S8a that the operation on the left priority button LP has been performed again, and sets the normal mode. That is, the control unit 14 releases the restriction on the right operation. Then, the control unit 14 displays the original left image (FIG. 17A) and the original image in step S3 from the display of the left image (FIG. 18A) and the right image (FIG. 18B) in step S7a. The display is returned to the right image (FIG. 17B). Thereafter, the process returns to step S4a.
  • step S10a the operation input processing unit 9 performs an operation effective in the right constraint mode (in this case, an operation on the left icons L1 to L3, a left gesture operation on the gesture region GL, etc. It is determined whether or not the left operation) has been performed. If it is determined that an effective operation has been performed in the right constraint mode, the process proceeds to step S11a. If it is determined that an effective operation has not been performed, the process proceeds to step S12a.
  • the right constraint mode in this case, an operation on the left icons L1 to L3, a left gesture operation on the gesture region GL, etc. It is determined whether or not the left operation
  • step S11a the control unit 14 executes a function corresponding to the performed operation.
  • the control unit 14 executes the function of the application corresponding to the operated icon or gesture area.
  • the process returns to step S8a.
  • an icon arrangement image is associated with the operated icon or gesture area in advance and stored in the storage unit 11, the process returns from step S11a to step S3, and the icon arrangement image is split view. It may be displayed on the display unit 2.
  • step S12a the control unit 14 does not execute the function of the application corresponding to the left operation from the time when the right restriction mode is set until a predetermined time. In addition, it is determined whether the normal mode or the left constraint mode has not been set. If it is determined that neither execution nor setting has been performed until a predetermined time, the process proceeds to step S9a, and if not, the process returns to step S8a.
  • step S9a the control unit 14 sets the function of the application in accordance with the left operation between the time set in the right constraint mode and the predetermined time. Is not executed, and it is determined in step S12a that neither the normal mode nor the left constraint mode has been set, and it is determined that the second condition is satisfied, and the normal mode is set.
  • step S7b the control unit 14 determines that the second condition is satisfied by determining in step S4b that the operation on the right priority button RP has been performed. Then, the left restriction mode for restricting the left operation is set.
  • the control unit 14 restricts the left operation by enabling the right gesture operation (for example, the gesture operation that can be accepted in the gesture region GR) and disabling the left gesture operation. Note that the same gesture operation may be applied to the right gesture operation that is enabled here and the left gesture operation that is disabled, or different gesture operations may be applied.
  • FIGS. 19A and 19B are diagrams showing display examples of the left image and the right image in step S7b of the navigation device 1 according to the second embodiment.
  • control unit 14 displays the right priority button RP in a lighter color than the right priority button RP (FIG. 17 (b)) in step S3.
  • the control unit 14 displays the left icons L1 to L3 and the gesture area GL more than the left icons L1 to L3 and the gesture area GL (FIG. 17 (a)) in step S3.
  • the background image of the left image is displayed in a darker color than the background image of the left image (FIG. 17A) in step S3.
  • the control unit 14 displays the left priority button LP in a darker color than the left priority button LP (FIG. 17A) in step S3. Thereby, the control part 14 is displayed so that it can identify that the operation for left is constrained.
  • the left image displayed in step S7b is not limited to this, and may be, for example, an image in which the background image is blurred or an image in which the left icons L1 to L3 are not displayed.
  • the gesture operation is disabled (prohibited)
  • the gesture area or the background may be displayed darkly.
  • the touch operation is disabled (prohibited)
  • the operation icon may be displayed darkly. According to the structure displayed in this way, there is an effect that the user can recognize which operation is invalidated (prohibited).
  • step S8b in FIG. 16 the operation input processing unit 9 performs the determination in step S4b again. That is, the operation input processing unit 9 re-determines whether or not an operation on the right priority button RP in the right image has been performed based on an output signal from the touch panel 3. If it is determined that the operation on the right priority button RP has been performed, the process proceeds to step S9b. If it is determined that the operation has not been performed, the process proceeds to step S10b.
  • step S9b the control unit 14 determines that the second condition is satisfied by determining in step S8b that the operation on the right priority button RP has been performed again, and sets the normal mode. That is, the control unit 14 releases the restriction on the left operation. Then, the control unit 14 displays the original left image (FIG. 17A) and the original image in step S3 from the display of the left image (FIG. 19A) and the right image (FIG. 19B) in step S7b. The display is returned to the right image (FIG. 17B). Thereafter, the process returns to step S4a.
  • step S10b the operation input processing unit 9 performs an operation that is effective in the left constraint mode (in this case, an operation on the right icons R1 to R3 and a right gesture operation on the gesture region GR). It is determined whether or not a right operation) has been performed. If it is determined that an effective operation has been performed in the left constraint mode, the process proceeds to step S11b. If it is determined that an effective operation has not been performed, the process proceeds to step S12b.
  • the left constraint mode in this case, an operation on the right icons R1 to R3 and a right gesture operation on the gesture region GR. It is determined whether or not a right operation
  • step S11b the control unit 14 executes a function corresponding to the performed operation.
  • the control unit 14 executes the function of the application corresponding to the operated icon or gesture area. Thereafter, the process returns to step S8b. If an icon arrangement image is associated with the operated icon or gesture region in advance and stored in the storage unit 11, the process returns from step S11b to step S3, and the icon arrangement image is split view. It may be displayed on the display unit 2.
  • step S12b the control unit 14 executes the function of the application according to the right operation during a predetermined time after setting the left constraint mode. And whether the normal mode or the right constraint mode is not set. If it is determined that neither execution nor setting has been performed until a predetermined time, the process proceeds to step S9b, and if not, the process returns to step S8b.
  • step S9b the control unit 14 sets the application corresponding to the right operation during the predetermined time after setting the left constraint mode. It is determined that the second condition is satisfied by determining in step S12b that the function is not executed and that neither the normal mode nor the right constraint mode is set, and the normal mode is set.
  • the right constraint mode and the left constraint are determined based on the satisfied second condition.
  • One of the mode and the normal mode is set. Therefore, it is possible to suppress the execution of the function of the application on the right image side without knowing that it has been operated by the user (driver) of the left seat, and the right seat user (passenger in the passenger seat) It is possible to prevent the user from executing the function without knowing the function of the application on the left image side.
  • the right restriction mode for restricting the right operation when it is determined that the operation on the left priority button LP has been performed, it is determined that the second condition is satisfied, and the right restriction mode for restricting the right operation is set.
  • the left restriction mode is set to restrict the left operation. Therefore, after operating the left priority button LP, the user (driver) in the left seat operates without worrying about executing the function of the application on the right image side until the normal mode is set. be able to.
  • the user in the right seat passesenger in the passenger seat
  • the above-described effects are effective when the left gesture operation or the right gesture operation over a relatively wide range is assumed.
  • the function of the application corresponding to the left operation is not executed between the time set in the right constraint mode and the predetermined time, and the normal mode or the left constraint mode is not executed. If the second condition is not set, it is determined that the second condition is satisfied, and the normal mode is set. Therefore, the restriction on the right operation can be minimized.
  • the application function corresponding to the right operation is not executed between the time set in the left restricted mode and the predetermined time, and neither the normal mode nor the right restricted mode is set. In addition, it is determined that the second condition is satisfied, and the normal mode is set. Therefore, the restriction on the left operation can be minimized.
  • a touch panel capable of detecting the three-dimensional position (X, Y, Z) of the indicator as shown in FIG. 6 may be used, or the two-dimensional position of the touched indicator.
  • a touch panel capable of detecting (X, Y) may be used.
  • control unit 14 determines that the second condition is satisfied when the operation input processing unit 9 determines that a multi-point touch operation with a plurality of indicators has been performed.
  • the constraint mode or the left constraint mode is set.
  • the control unit 14 determines the right constraint mode and the left constraint based on the number of the plurality of points touched by the plurality of indicators simultaneously.
  • One of the modes to be set may be selected.
  • the right constraint mode is set, and a three-point touch operation with three fingers is performed.
  • the left constraint mode can be set. Therefore, the right constraint mode and the left constraint mode can be selected according to the user's intention.
  • the control unit 14 when it is determined that a multipoint touch operation with a plurality of indicators has been performed, the control unit 14 performs a drag operation or the like following the multipoint touch operation.
  • One of the right constraint mode and the left constraint mode may be selected based on whether or not a gesture operation has been performed.
  • the right constraint mode is set, and a gesture operation such as a drag operation is also performed following the two-point touch operation. If left, it can be set to the left constraint mode. Therefore, the right constraint mode and the left constraint mode can be selected according to the user's intention.
  • a touch panel capable of detecting the three-dimensional position (X, Y, Z) of the indicator as shown in FIG. 6 may be used, or the two-dimensional position (X , Y) may be used.
  • control unit 14 determines that the second condition is satisfied when the operation input processing unit 9 determines that the trajectory operation by the indicator has been performed.
  • the right constraint mode or the left constraint mode is set.
  • the control unit 14 sets one of the right constraint mode and the left constraint mode based on the direction of movement of the indicator in the trajectory operation. May be selected.
  • the right constraint mode is set, and the indicator is set to the side of the touch panel 3.
  • the left constraint mode can be set. Therefore, the right constraint mode and the left constraint mode can be selected according to the user's intention.
  • the moving direction of the indicator in the orbital operation is not limited to the combination of the vertical direction (Y-axis direction) and the horizontal direction (X-axis direction), and the X-axis direction, Y-axis direction, and Z-axis direction can be arbitrarily set.
  • a combined direction may be applied.
  • three different directions may be applied, and the right constraint mode, the left constraint mode, and the normal mode may be associated with the three directions.
  • the control unit 14 may select the normal mode when detecting that the indicator has moved in the Z-axis direction (the vertical direction of the detection surface of the touch panel 3), the control unit 14 may select the normal mode.
  • control unit 14 determines that the second condition is satisfied when the operation input processing unit 9 determines that the pushing operation by the indicator has been performed. It is determined that the condition is satisfied, and the right constraint mode or the left constraint mode is set.
  • the control unit 14 sets the right constraint mode and the left constraint mode based on the type of gesture operation performed simultaneously with the push operation.
  • One of the powers may be selected.
  • the right constraint mode is set when a drag operation with a push-in operation is performed
  • the left constraint mode is performed when a pinch operation with a push-in operation is performed. It becomes possible to set to. Therefore, the right constraint mode and the left constraint mode can be selected according to the user's intention.
  • control unit 14 determines that the operation input processing unit 9 has performed an operation (for example, a touch operation) on the background image by the indicator. In this case, it is determined that the second condition is satisfied, and the right constraint mode or the left constraint mode is set.
  • an operation for example, a touch operation
  • the control unit 14 when it is determined that an operation on the background image by the indicator has been performed, the control unit 14 performs an operation on any of the two divided images obtained by dividing the background image.
  • One of the right constraint mode and the left constraint mode to be set may be selected based on whether it has been implemented.
  • the control unit 14 may display the two segment images in different colors in advance so that the user can identify the two segment images.
  • the right constraint mode when an operation is performed on the left segmented image of the background image, the right constraint mode is set, and an operation on the right segmented image of the background image is performed. In such a case, the left constraint mode can be set. Therefore, the right constraint mode and the left constraint mode can be selected according to the user's intention.
  • the left priority button LP can be omitted from the left image (left icon arrangement image)
  • the right priority button RP can be omitted from the right image (right icon arrangement image).
  • control unit 14 causes the operation input processing unit 9 to recognize that a plurality of touch operations have been performed with an indicator to the same point within a predetermined time. If it is determined, it may be determined that the second condition is satisfied, and the right constraint mode or the left constraint mode may be set. In addition, for example, the control unit 14 determines that the second condition is satisfied and determines that the second condition is satisfied when the operation input processing unit 9 determines that it has been touched by the indicator continuously for a predetermined time or longer. Alternatively, the left constraint mode may be set.
  • ⁇ Modification 2 of Embodiment 2> When setting the right constraint mode, the control unit 14 according to the second embodiment enables the left gesture operation and disables the right gesture operation (step S7a in FIG. 15). Then, the control unit 14 according to the second embodiment enables the right gesture operation and disables the left gesture operation when setting the left constraint mode (step S7b in FIG. 16).
  • the control unit 14 performs the left gesture operation based on the type of application being executed on the left image side and the type of application being executed on the right image side. And the right gesture operation is changed.
  • the control unit 14 activates the left gesture based on the type of application being executed on the left image side, as in the second modification of the first embodiment. Change the operation and the invalid right gesture operation.
  • the control unit 14 changes the valid right gesture operation and the invalid left gesture operation based on the type of application being executed on the right image side. To do.
  • the left gesture operation and the right gesture operation can be optimized.
  • a touch panel capable of detecting the three-dimensional position (X, Y, Z) of the indicator as shown in FIG. 6 may be used, or the two-dimensional position of the touched indicator ( A touch panel capable of detecting X, Y) may be used.
  • Embodiment 1 and Embodiment 2 ⁇ Other Modifications Related to Embodiment 1 and Embodiment 2>
  • the function of the application on the right image side is executed without knowing that the user (driver) of the left seat has operated. It is considered that a major factor is that at least a part of the gesture area of the left image and at least a part of the display area of the right icon overlap each other on the screen of the split view display unit 2.
  • the control unit 14 performs split view display of at least a part of one gesture area of the left image and the right image and at least a part of the display area of the other icon of the left image and the right image.
  • the screen of the unit 2 may be configured to display that in the left image and the right image, or may be configured to output the sound from the speaker 5. Good. According to such a configuration, it can be expected that the user performs the operation carefully, and as a result, the possibility of operating the other party's icon or the like is reduced.
  • the gesture area displayed on one of the right image and the left image and all icons displayed on the other of the right image and the left image may be separated on the screen of the split view display unit 2.
  • the control unit 14 separates one gesture area of the left image and the right image from all the other icons of the left image and the right image on the screen of the split view display unit 2. If the first condition (or the second condition) is satisfied, the normal mode may be set.
  • control unit 14 displays the gesture area in one of the right image and the left image (preferably the passenger seat side image) with priority over the other. You may be comprised so that it may make.
  • the input unit is not limited to the touch panel 3 as long as it can uniformly accept an operation on the left image for executing the function of the application and an operation on the right image for executing the function of the application. is not.
  • a touch pad provided apart from the split view display unit 2 may be applied to the input unit.
  • the touch pad has a function of obtaining the three-dimensional position of the indicator, the position of the indicator on the operation area of the touch pad is associated with the display area of the split view display unit 2, and the indicator You may perform by the point and icon display which show the position of.
  • the display control device described above includes not only the navigation device 1 provided in the vehicle but also a PND (Portable Navigation Device) and a mobile terminal (for example, a mobile phone, a smartphone, and a tablet) that can be mounted on the vehicle,
  • the present invention can also be applied to a display control apparatus constructed as a system by appropriately combining servers and the like. In this case, each function or each component of the navigation device 1 described above is distributed and arranged in each device constituting the system.
  • the present invention is not limited to this.
  • the present invention may be applied to any one of a stationary display device and a server.
  • the configuration in which the split view display unit 2 included in the navigation device 1 is applied to the split view type display unit has been described above, but the configuration is not limited thereto.
  • a split-view display unit included in the smartphone may be applied.
  • the present invention can be freely combined with each embodiment and each modification within the scope of the invention, or can be appropriately modified and omitted with each embodiment and each modification.
  • 1 navigation device 2 split view display section, 3 touch panel, 14 control section, 21 fingers, LP left priority button, RP right priority button.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 ユーザが操作したことによって例えば助手席側のアプリケーションの機能を知らないうちに実行してしまうことを抑制可能な技術を提供することを目的とする。ナビゲーション装置1は、左座席の方向にて視認可能な左用画像と、右座席の方向にて視認可能な右用画像とを一つの画面上に表示可能なスプリットビュー表示部2を制御する。ナビゲーション装置1は、予め定められた第1条件が満たされたと判断した場合に当該満たされた第1条件に基づいて、通常モード及び右制約モードのうちいずれか一つのモードに設定する制御部14を備える。

Description

表示制御装置及び表示制御方法
 本発明は、表示部を制御する表示制御装置及び表示制御方法に関するものである。
 画面を見る方向によって異なる画像を一画面に表示可能な多重画像表示装置として、スプリットビュー(マルチビュー、デュアルビュー(登録商標)とも言う)方式の表示装置が知られており、近年、様々な分野においてスプリットビュー表示装置を適用することが提案されている。例えば、スプリットビュー表示装置と、その画面に配設されたタッチパネルとを、車載のナビゲーション装置に適用することが提案されている。このようなナビゲーション装置によれば、運転席側の方向と助手席側の方向とで異なる内容の画像を画面に表示するとともに、当該画像内に表示されているアイコンに対する操作をタッチパネルにて受け付けることが可能となる。
 しかしながら、上述のようなナビゲーション装置においては、運転席側の方向に表示される画像内のアイコンの位置と、助手席側の方向に表示される画像内のアイコンの位置とがスプリットビュー表示装置の画面上において重なっている場合がある。このような場合には、アイコンに対する操作をタッチパネルにて受け付けたとしても、運転席側の方向に表示されている画像内のアイコンに対して操作が実施されたのか、助手席側の方向に表示されている画像内のアイコンに対して操作が実施されたのかを判別できないという問題があった。
 そこで、特許文献1には、運転席側の方向に表示される画像内のアイコンの位置と、助手席側の方向に表示される画像内のアイコンの位置とが重ならないように、それらを互いに異なる位置に配置する技術が提案されている。
国際公開第2006/100904号
 しかしながら、例えば、運転者が、ドラッグ操作などの比較的広い範囲にわたる操作を実施した場合には、助手席側の方向に表示されている画像内のアイコンに対して知らないうちに操作を実施してしまうことがあるという問題があった。
 そこで、本発明は、上記のような問題点を鑑みてなされたものであり、ユーザが操作したことによって第2画像側(例えば助手席側)のアプリケーションの機能を知らないうちに実行してしまうことを抑制可能な技術を提供することを目的とする。
 本発明に係る表示制御装置は、第1方向にて視認可能であるが第2方向にて視認できない第1画像と、第2方向にて視認可能であるが第1方向にて視認できない第2画像とを一つの画面上に表示可能な表示部を制御する表示制御装置であって、予め定められた第1条件が満たされたと判断した場合に当該満たされた第1条件に基づいて、アプリケーションの機能を実行するための第1画像に対する第1操作と、アプリケーションの機能を実行するための第2画像に対する第2操作とを有効にする通常モード、及び、前記第2操作を制約する第2制約モードのうち、いずれか一つのモードに設定する制御部を備える。
 本発明によれば、予め定められた第1条件が満たされたと判断した場合に当該満たされた第1条件に基づいて、第2制約モード及び通常モードのうちいずれか一つのモードに設定する。したがって、第1方向のユーザが、操作したことによって第2画像側のアプリケーションの機能を知らないうちに実行してしまうことを抑制することができる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係るナビゲーション装置の構成の一例を示すブロック図である。 実施の形態1に係るスプリットビュー表示部の構成の一例を示す断面図である。 実施の形態1に係るスプリットビュー表示部の表示例を示す図である。 実施の形態1に係るスプリットビュー表示部の構成の一例を示す断面図である。 実施の形態1に係るスプリットビュー表示部の表示例を示す図である。 タッチパネルによる指示体の検出の一例を示す図である。 関連ナビゲーション装置の左用画像及び右用画像の表示例を示す図である。 実施の形態1に係るナビゲーション装置の動作を示すフローチャートである。 実施の形態1に係るナビゲーション装置の動作を示すフローチャートである。 実施の形態1に係るナビゲーション装置の左用画像及び右用画像の表示例を示す図である。 実施の形態1に係るナビゲーション装置の左用画像及び右用画像の表示例を示す図である。 実施の形態1の変形例1に係るナビゲーション装置の左用画像及び右用画像の表示例を示す図である。 実施の形態1の変形例1に係るナビゲーション装置の左用画像及び右用画像の表示例を示す図である。 実施の形態2に係るナビゲーション装置の動作を示すフローチャートである。 実施の形態2に係るナビゲーション装置の動作を示すフローチャートである。 実施の形態2に係るナビゲーション装置の動作を示すフローチャートである。 実施の形態2に係るナビゲーション装置の左用画像及び右用画像の表示例を示す図である。 実施の形態2に係るナビゲーション装置の左用画像及び右用画像の表示例を示す図である。 実施の形態2に係るナビゲーション装置の左用画像及び右用画像の表示例を示す図である。
 <実施の形態1>
 本発明の実施の形態1として、本発明に係る表示制御装置を、車両に搭載可能なナビゲーション装置に適用した場合を例にして説明する。図1は、当該ナビゲーション装置の構成の一例を示すブロック図である。以下、図1に示されるナビゲーション装置1が搭載された車両を「自車」と記載して説明する。
 ナビゲーション装置1は、スプリットビュー表示部2と、タッチパネル3と、操作入力処理部9と、インタフェース部10と、記憶部11と、左用画像生成部12と、右用画像生成部13と、これらを統括的に制御する制御部14とを備えて構成されている。
 インタフェース部10は、無線通信部4、スピーカ5、DVD(Digital Versatile Disk)プレーヤ6、エアコン7及び車内LAN(Local Area Network)8と、制御部14との間に接続されている。無線通信部4、スピーカ5、DVDプレーヤ6、エアコン7及び車内LAN8と、制御部14との間では、インタフェース部10を介して各種情報や各種信号が双方向に出力される。以下、説明を簡単にするため、一方がインタフェース部10を介して他方に情報を出力すると記載する代わりに、一方が他方に情報を出力すると記載する。制御部14は、制御情報を、無線通信部4、スピーカ5、DVDプレーヤ6、エアコン7及び車内LAN8に出力することにより、これらを制御することが可能となっている。
 スプリットビュー表示部2は、例えば自車のダッシュボードなどに配設される。スプリットビュー表示部2は、左座席の方向(第1方向)にて視認可能であるが右座席の方向から視認できない第1画像(以下「左用画像」と記す)と、右座席の方向(第2方向)にて視認可能であるが左座席の方向から視認できない第2画像(以下「右用画像」と記す)とを一つの画面上に表示することが可能となっている。
 後述するように、スプリットビュー表示部2は、左用画像内のアイコン(第1アイコン)と、右用画像内のアイコン(第2アイコン)と、後述するジェスチャー操作が実施され、地図などが表示されるジェスチャー領域とを表示する。以下、左用画像内のアイコン(第1アイコン)を「左用アイコン」と記し、右用画像内のアイコン(第2アイコン)を「右用アイコン」と記す。また、以下では、左座席が運転席であり、右座席が助手席である構成を例にして説明するが、左座席が助手席であり、右座席が運転席である構成では、以下の説明において左と右とを互いに読み替えたものと同様である。
 スプリットビュー表示部2には、例えば、空間分割方式の表示装置が適用される。図2に当該表示装置の模式断面図を示す。図2に示す表示装置200は、表示画面201と、視差バリア202とを備えている。表示画面201には、左用画像を表示するための第1画素201aと、右用画像を表示するための第2画素201bとが水平方向(左右方向)に沿って交互に配置されている。視差バリア202は、左座席の方向に対しては第1画素201aの光を通過させるが第2画素201bの光を遮断し、右座席の方向に対しては第2画素201bの光を通過させるが第1画素201aの光を遮断する。このような構成によれば、左座席のユーザ101aは、右用画像を視認できないが左用画像を視認することができ、右座席のユーザ101bは、左用画像を視認できないが右用画像を視認することができる。
 スプリットビュー表示部2に空間分割方式の表示装置200を適用した構成では、視差バリア202が左座席の方向に複数の第1画素201aからの光を通過させることによって左用アイコンが視認可能に表示され、視差バリア202が右座席の方向に複数の第2画素201bからの光を通過させることによって右用アイコンが視認可能に表示される。このため、左用アイコンの表示領域の外縁部は、当該左用アイコンの表示に用いられた複数の第1画素201aのうち外縁部に位置する第1画素201aに対応し、右用アイコンの表示領域の外縁部は、当該右用アイコンの表示に用いられた複数の第2画素201bのうち外縁部に位置する第2画素201bに対応する。
 図3は、空間分割方式のスプリットビュー表示部2の表示例を示す図であり、1フレームの左用画像及び右用画像が示されている。例えば、WVGA(Wide VGA)の表示装置においては、全体で横(x軸)に800ドット、縦(y軸)に480ドットの画素を持つ。WVGAの表示装置に対応する、図3のような空間分割方式のスプリットビュー表示装置は、表示装置の性能によっても異なるが、例えば、横に並べられた総数がWVGAの表示装置における横方向の画素数の2倍、つまり合計の画素数が横に1600ドット、縦に480ドットの第1及び第2画素201a,201bで構成される。しかし、ここでは説明を容易にするため、スプリットビュー表示装置は、横に13ドット、縦に4ドットの第1画素201aと、それと同数の第2画素201bとで構成され、アイコンは横に4ドット、縦に1ドットの第1画素201aまたは第2画素201bで表示されるものとして説明を行う。また、図3に示されるようなアイコンの1ドットのx軸(左右方向)のずれは、通常の視認位置からでは人の目では見分けがつかず、同一位置に表示されているように見える。
 図3では、左用アイコンの外縁部(外枠)が破線で示されており、当該左用アイコンを表示するために、水平方向に配設された4つの第1画素201aが用いられていることが示されている。また、図3では、右用アイコンの外縁部(外枠)が一点鎖線で示されており、当該右用アイコンを表示するために、水平方向に配設された4つの第2画素201bが用いられていることが示されている。なお、左用アイコンの表示に用いられる第1画素201aの数、及び、右用アイコンの表示に用いられる第2画素201bの数は、4つに限ったものではない。また、図3には示されていないが、ジェスチャー領域の表示も、左用アイコン及び右用アイコンの表示と同様である。
 以下の説明では、スプリットビュー表示部2に空間分割方式の表示装置200が適用された構成において、左用アイコンの表示に用いられた複数(図3では4つ)の第1画素201aの少なくとも1つが、右用アイコンの表示に用いられた複数(図3では4つ)の第2画素201bのうち外縁部に位置する第2画素201b(図3では一点鎖線に対応する第2画素201b)に挟まれている場合に、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なると記す。また、当該構成において、右用アイコンの表示に用いられた複数(図3では4つ)の第2画素201bの少なくとも1つが、左用アイコンの表示に用いられた複数(図3では4つ)の第1画素201aのうち外縁部に位置する第1画素201a(図3では破線に対応する第1画素201a)に挟まれている場合にも、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なると記す。一方、当該構成において、右用アイコンの表示に用いられた第2画素201b、及び、左用アイコンの表示に用いられた第1画素201aの一方が、他方に挟まれていない場合に、当該左用アイコンの表示領域と、当該右用アイコンの表示領域とがスプリットビュー表示部2の画面上において離間すると記す。また、この記述は、左用アイコンと右用アイコンについてだけでなく、ジェスチャー領域と左用アイコンまたは右用アイコンとについても同様に記す。
 以上、スプリットビュー表示部2に、空間分割方式の表示装置200が適用された構成について説明した。しかしこれに限ったものではなく、スプリットビュー表示部2には、例えば、時分割方式の表示装置が適用されてもよい。図4に当該表示装置の模式断面図を示す。図4に示す表示装置250は、表示画面251と、視差バリア252とを備えている。表示画面251は、第1期間では左用画像を画素251cによって表示し、第2期間では右用画像を画素251cによって表示する。視差バリア252は、第1期間では左座席の方向に対して画素251cの光を通過させるが右座席の方向に対して画素251cの光を遮断し、第2期間では右座席の方向に対して画素251cの光を通過させるが左座席の方向に対して画素251cの光を遮断する。なお、図4には、第1期間の状態が示されている。
 上述のような構成によれば、左座席のユーザ101aは、右用画像を視認できないが左用画像を視認することができ、右座席のユーザ101bは、左用画像を視認できないが右用画像を視認することができる。なお、右座席のユーザ101bの目は、第1期間において、スプリットビュー表示部2から画素251cの光を受けていない。しかし、この第1期間は非常に短く設定されていることから、第1期間に目が光を受けていないことは右座席のユーザ101bに認識されない。一方、第2期間に目が受けた光の残像効果によって、第1期間においても第2期間の画像が表示されているように右座席のユーザ101bに認識される。同様に、第2期間に目が光を受けていないことは左座席のユーザ101aに認識されず、第1期間に目が受けた光の残像効果によって、第2期間においても第1期間の画像が表示されているように左座席のユーザ101aに認識される。
 スプリットビュー表示部2に時分割方式の表示装置250を適用した構成では、視差バリア252が、第1期間に左座席の方向に複数の画素251cからの光を通過させることによって左用アイコンが視認可能に表示され、第2期間に右座席の方向に複数の画素251cからの光を通過させることによって右用アイコンが視認可能に表示される。このため、左用アイコンの表示領域の外縁部は、当該左用アイコンの表示に用いられた複数の画素251cのうち外縁部に位置する画素251cに対応し、右用アイコンの表示領域の外縁部は、当該右用アイコンの表示に用いられた複数の画素251cのうち外縁部に位置する画素251cに対応する。
 図5(a)及び図5(b)は、時分割方式のスプリットビュー表示部2の表示例を示す図であり、1フレームの左用画像及び右用画像が示されている。例えば、WVGAの表示装置においては、上述したように、全体で横(x軸)に800ドット、縦(y軸)に480ドットの画素を持つ。WVGAの表示装置に対応する、図5(a)及び図5(b)のような時分割方式のスプリットビュー表示装置は、表示装置の性能によっても異なるが、例えば、横に800ドット、縦に480ドットの画素251cで構成される。しかし、ここでは説明を容易にするため、スプリットビュー表示装置は、横に13ドット、縦に4ドットの画素251cで構成され、アイコンは横に3ドット、縦に1ドットの画素251cで表示されるものとして説明を行う。
 図5(a)では、第1期間に表示される左用アイコンの外縁部(外枠)が破線で示されており、当該左用アイコンを表示するために、水平方向に配設された3つの画素251cが用いられていることが示されている。図5(b)では、第2期間に表示される右用アイコンの外縁部(外枠)が破線で示されており、当該右用アイコンを表示するために、水平方向に配設された3つの画素251cの一部が用いられていることが示されている。なお、左用アイコンの表示に用いられる画素251cの数、及び、右用アイコンの表示に用いられる画素251cの数は、3つに限ったものではない。また、図5(a)及び図5(b)には示されていないが、ジェスチャー領域の表示も、左用アイコン及び右用アイコンの表示と同様である。
 以下の説明では、スプリットビュー表示部2に時分割方式の表示装置250が適用された構成において、第1期間に左用アイコンの表示に用いられた複数の画素251cのうち少なくとも1つと、第2期間に右用アイコンの表示に用いられた複数の画素251cのうち少なくとも1つとが一致する場合に、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なると記す。一方、第1期間に左用アイコンの表示に用いられ、かつ、第2期間に右用アイコンの表示に用いられた画素251cが存在しない場合に、当該左用アイコンの表示領域と、当該右用アイコンの表示領域とがスプリットビュー表示部2の画面上において離間すると記す。また、この記述は、左用アイコンと右用アイコンについてだけでなく、ジェスチャー領域と左用アイコンまたは右用アイコンとについても同様に記す。
 詳細な構成については説明を省略するが、スプリットビュー表示部2には、空間分割方式と時分割方式とを組み合わせた方式の表示装置が適用されてもよい。そして、例えば、第1期間に左用アイコンの表示に用いられた画素の少なくとも一部が、第2期間に右用アイコンの表示に用いられた複数の画素のうち外縁部に位置する画素に挟まれている場合、または、第2期間に右用アイコンの表示に用いられた画素の少なくとも一部が、第1期間に左用アイコンの表示に用いられた複数の画素のうち外縁部に位置する画素に挟まれている場合に、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なると記す。一方、第1期間に左用アイコンの表示に用いられた画素、及び、第2期間に右用アイコンの表示に用いられた画素の一方が、他方に挟まれていない場合に、当該左用アイコンの表示領域と、当該右用アイコンの表示領域とがスプリットビュー表示部2の画面上において離間すると記す。また、この記述は、左用アイコンと右用アイコンについてだけでなく、ジェスチャー領域と左用アイコンまたは右用アイコンとについても同様に記す。
 なお、スプリットビュー方式を用いた表示装置の具体的な構成は、例えば特開2005-078080号公報及び国際公開第2012/070444号などに開示されている。なお、以上の説明では言及しなかったが、空間分割方式及び時分割方式のいずれにおいても、短い期間(1/30[秒])で画素の走査が行われる。
 図1に戻って、タッチパネル3の検出面は、スプリットビュー表示部2の画面に配設されている。タッチパネル3(入力部)は、アプリケーションの機能を実行するための左用画像に対する第1操作(以下「左用操作」)と、アプリケーションの機能を実行するための右用画像に対する第2操作(以下「右用操作」)とを一律に受け付ける。本実施の形態1に係るタッチパネル3は、図6に示すように、ユーザ(運転者及び助手席の同乗者)の指などの指示体との距離が最短となる検出面上の点の位置(X,Y)と、指示体と検出面(当該点)との間の距離Zとを含む三次元の位置(X,Y,Z)を、指示体の位置として検出する。
 指示体(図6では指21)とタッチパネル3の検出面との間の距離Zを示す。距離Z=0である場合には、指示体(図6では指21)がタッチパネル3の検出面を接触(タッチ)していることを意味する。
 このようなタッチパネル3には、例えば、検出面と指示体との間に形成される静電容量に基づいて指示体の三次元の位置(検出面上の基準点に対する指示体の三次元の位置)を検出する静電式タッチパネルが適用される。タッチパネル3は、以上のような指示体の三次元の位置を定期的に検出し、当該三次元の位置を示す信号を、操作入力処理部9に出力する。
 無線通信部4は、例えばDSRC(Dedicate Short Range Communication)及び携帯電話機などを介してサーバと通信を行う。無線通信部4は、サーバから受信した情報(例えばダウンロードした情報など)を制御部14に出力したり、制御部14から出力された情報をサーバに送信したりする。また、無線通信部4は、ラジオ放送及びテレビ放送を受信し、それら放送から取得した情報を制御部14に出力する。
 スピーカ5(音声出力部)は、制御部14から出力された音声信号に基づいて音声を出力する。
 DVDプレーヤ6は、DVDに記録されたAV(Audio-video)情報を再生し、当該AV情報を制御部14に出力する。
 エアコン7は、制御部14の制御により、自車の室内の温度や湿度を調整する。
 車内LAN8は、自車のECU(Electronic Control Unit)やGPS(Global Positioning System)装置などと通信を行う。例えば、車内LAN8は、ECUから取得した自車の速度や、GPS装置から取得した自車の現在位置(例えば緯度及び経度)を制御部14に出力する。
 操作入力処理部9には、スプリットビュー表示部2に表示されているアイコンの位置を示すアイコン位置情報が制御部14から入力される。操作入力処理部9は、当該アイコン位置情報と、タッチパネル3の出力信号(指示体の三次元の位置を示す信号)とに基づいて、タッチパネル3、ひいてはスプリットビュー表示部2に表示されているアイコンなどに対して操作が実施されたか否かを判定する。ここでは、操作入力処理部9は、タッチパネル3の出力信号が、距離Z=0を示し、かつ、当該出力信号が示す指示体の位置が、左用アイコンの表示領域に重なる(当該指示体が、当該左用アイコンの内側に位置する)と判定した場合には、当該左用アイコンに対する操作が実施されたと判定する。同様に、操作入力処理部9は、タッチパネル3の出力信号が、距離Z=0を示し、かつ、当該出力信号が示す指示体の位置が、右用アイコンの表示領域に重なる(当該指示体が、当該右用アイコンの内側に位置する)と判定した場合には、当該右用アイコンに対する操作が実施されたと判定する。そして、操作入力処理部9は、その判定結果を制御部14に出力する。
 また、操作入力処理部9は、タッチパネル3の出力信号(指示体の三次元の位置を示す信号)に基づいて、タッチパネル3の検出面に対するタッチ操作などのポインティング操作以外の予め定められたジェスチャー操作(以下「ジェスチャー操作」と略記する)が実施されたか否かを判定する。ここでは、操作入力処理部9は、タッチパネル3の出力信号が、距離Z=0を示し、かつ、当該出力信号が示す指示体の位置が、ジェスチャー領域に重なりながら変化する(当該指示体の二次元の位置(X,Y)が、当該ジェスチャー領域の内側に位置しながら変化する)と判定した場合には、当該ジェスチャー領域に対するジェスチャー操作が実施されたと判定する。そして、操作入力処理部9は、その判定結果を制御部14に出力する。
 ジェスチャー操作は、例えば、指示体が予め定められた時間よりも短い時間で検出面を擦るフリック操作、指示体が予め定められた時間よりも長い時間で検出面を擦るドラッグ操作、及び、二つの指示体が検出面に接触した状態でそれらの間の距離を変更するピンチ操作などを含んでおり、後述する予め定められた第1ジェスチャー操作及び予め定められた第2ジェスチャー操作として適用される。なお、ドラッグ操作は、上述した操作に限ったものではなく、指示体がタッチパネルに触れたまま検出面を擦る操作として適用されてもよい。また、フリック操作は、上述した操作に限ったものではなく、指示体がタッチパネルに触れた状態からその検出面をはらう操作として適用されてもよい。また、ジェスチャー操作は、2点タッチ後に当該2点タッチの2点を続けて用いるジェスチャー操作を含んでもよく、または、2点タッチ後に当該2点タッチの2点のうち1点を離して残りの1点を続けて用いるジェスチャー操作を含んでもよい。
 以上のように本実施の形態1では、スプリットビュー表示部2に表示されているアイコンなどに対する操作が実施されたか否かを判定する処理を、操作入力処理部9によって実施するものとして説明するが、当該判定する処理は制御部14によって実施されてもよい。また、図1では、操作入力処理部9は、タッチパネル3及び制御部14とは別に設けられているが、これに限ったものではなく、タッチパネル3の機能としてタッチパネル3に備えられていてもよいし、制御部14の機能として制御部14に備えられていてもよい。
 記憶部11は、例えばハードディスクドライブ、DVD及びそのドライブ装置、ブルーレイディスク及びそのドライブ装置、または、半導体メモリなどの記憶装置から構成される。記憶部11は、制御部14が動作するのに必要なプログラムのほか、制御部14に用いられる情報を記憶している。制御部14に用いられる情報には、例えば、アプリケーション(アプリケーションソフトウェア)、アプリケーションの機能を実行する際に操作されるアイコンが配置された画像、及び、地図情報などが含まれる。なお、以下の説明では、アプリケーションの機能を実行する際に操作されるアイコンが配置された画像(例えば図10(a)及び図10(b)に対応する画像)を、「アイコン配置画像」と記す。「アイコン配置画像」は、地図情報にアイコンを表示した画像も含む。
 左用画像生成部12は、制御部14から出力された表示情報に基づいて、左用画像を表示するための表示信号を生成し、当該表示信号をスプリットビュー表示部2に出力する。スプリットビュー表示部2は、左用画像生成部12から表示信号を受けると、当該表示信号に基づいて左用画像を表示する。
 右用画像生成部13は、制御部14から出力された表示情報に基づいて、右用画像を表示するための表示信号を生成し、当該表示信号をスプリットビュー表示部2に出力する。スプリットビュー表示部2は、右用画像生成部13から表示信号を受けると、当該表示信号に基づいて右用画像を表示する。
 ここで、左用画像生成部12が生成する表示信号には、左用画像に用いられる複数の画素のそれぞれに例えば(1,1)、(2,1)、…、(800,1)、(1,2)、…(800,2)、…、(800,480)という順序で割り当てられた画素番号が含まれている。同様に、右用画像生成部13が生成する表示信号にも、右用画像に用いられる複数の画素のそれぞれに例えば(1,1)、(1,2)、…、(800,480)という順序で割り当てられた画素番号が含まれる。このため、左用アイコンの表示に用いられる少なくとも1つの画素の画素番号と、右用アイコンの表示に用いられる少なくとも1つの画素の画素番号とが一致する場合には、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なることに相当する。ここで、(x,y)は、当該画面上の左上を(1,1)とし、x軸は右方向を正、y軸は下方向を正としたxy座標に対応した画素位置を示す。
 制御部14は、例えばCPU(Central Processing Unit)から構成されており、当該CPUが記憶部11に記憶されたプログラムを実行することにより、ナビゲーション装置1にて様々なアプリケーションを実行すること、ひいては当該実行されたアプリケーションに応じてスピーカ5などを制御することが可能となっている。
 例えば、制御部14は、ナビゲーションのアプリケーションを実行した場合には、自車の現在位置と、タッチパネル3の出力信号に基づく目的地と、地図情報とに基づいて現在位置から目的地までの経路を探索し、当該経路に沿った案内を表示するための表示情報、及び、当該案内を音声出力するための音声信号を生成する。この結果、上述の案内が左用画像または右用画像として表示されるとともに、上述の案内の音声がスピーカ5にて出力される。
 また、例えば、制御部14は、DVD再生のアプリケーションを実行した場合には、DVDプレーヤ6からのAV情報を表示するための表示情報、及び、AV情報を音声出力するための音声信号を生成する。この結果、DVDに記憶された映像が左用画像または右用画像として表示されるとともに、DVDに記憶された音声がスピーカ5にて出力される。
 また、制御部14は、左用画像側にて実行可能な(左用画像側から実行可能な)1以上のアプリケーションに対応する1つのアイコン配置画像を記憶部11から取得し、当該取得したアイコン配置画像を左用画像として表示させる。これにより、当該アプリケーションの機能を左用画像側にて実行するための操作の対象となるアイコンが、スプリットビュー表示部2(左用画像)に表示される。以下、左用画像として表示可能なアイコン配置画像(例えば図8(a)に対応する画像)を「左用アイコン配置画像」と記す。なお、左用画像として表示されている左用アイコン配置画像内のアイコンは、上述の左用アイコンである。
 同様に、制御部14は、右用画像側にて実行可能な(右用画像側から実行可能な)1以上のアプリケーションに対応する1つのアイコン配置画像を記憶部11から取得し、当該取得したアイコン配置画像を右用画像として表示させる。これにより、当該アプリケーションの機能を右用画像側にて実行するための操作の対象となるアイコンが、スプリットビュー表示部2(右用画像)に表示される。以下、右用画像として表示可能なアイコン配置画像(例えば図8(b)に対応する画像)を「右用アイコン配置画像」と記す。なお、右用画像として表示されている右用アイコン配置画像内のアイコンは、上述の右用アイコンである。
 さて、以上の構成要素からなる本実施の形態1に係るナビゲーション装置1には、上述の右用操作も上述の左用操作も制約せずに両方を有効にする通常モードと、上述の右用操作を制約する右制約モードとが規定されている。
 そして、制御部14は、予め定められた第1条件が満たされたと判断した場合に当該満たされた第1条件に基づいて、通常モード及び右制約モード(第2制約モード)のうちいずれか一つのモードに設定する。
 <関連するナビゲーション装置>
 ここでは、本実施の形態1に係るナビゲーション装置1と関連するナビゲーション装置(以下「関連ナビゲーション装置」と記す)について説明する。なお、関連ナビゲーション装置においても、図1で説明した構成要素と同一または類似するものについては同じ符号を付す。
 図7(a)及び図7(b)は、関連ナビゲーション装置(スプリットビュー表示部2)の左用画像及び右用画像の表示例を示す図である。図7(a)の左用画像には、左用アイコンL1,L2,L3(以下これらのアイコンをまとめて「左用アイコンL1~L3」と記すこともある)と、上述のジェスチャー領域GLとが配置された左用アイコン配置画像が表示されている。図7(b)の右用画像には、右用アイコンR1,R2,R3,R4,R5(以下これらのアイコンをまとめて「右用アイコンR1~R5」と記すこともある)が配置された右用アイコン配置画像が表示されている。
 さて、図7(a)及び図7(b)に示すような表示では、左用画像のジェスチャー領域GLの少なくとも一部と、右用アイコンR1~R5の表示領域の少なくとも一部とはスプリットビュー表示部2の画面上において互いに重なっている。このため、関連ナビゲーション装置では、左座席のユーザ(運転者)がジェスチャー領域GLでジェスチャー操作を実施した場合には、知らないうちに右用アイコンR1~R5に対しても操作を実施してしまうことがあるという問題があった。そこで、以下で説明するように、本実施の形態1に係るナビゲーション装置1によれば、左座席のユーザ(運転者)が、操作したことによって右用画像側のアプリケーションの機能を知らないうちに実行してしまうことを抑制することが可能となっている。
 <本実施の形態1に係るナビゲーション装置の動作>
 図8及び図9は、本実施の形態1に係るナビゲーション装置1の動作を示すフローチャートである。なお、図8及び図9に示される動作はCPUが記憶部11に記憶されたプログラムを実行することによって行われる。以下、ナビゲーション装置1の動作について図8及び図9を用いて説明する。
 まず、図8のステップS1にて、初期動作を実行するための操作が実施された場合に、制御部14は初期動作を実行する。ここでは、初期動作として、制御部14は、左用画像側及び右用画像側にて初期に実行すべきアプリケーションを記憶部11から取得し、当該アプリケーションを実行する。
 ステップS2にて、制御部14は、左用画像側にて実行されているアプリケーションに対応する左用アイコン配置画像を記憶部11から取得するとともに、右用画像側にて実行されているアプリケーションに対応する右用アイコン配置画像を記憶部11から取得する。
 ステップS3にて、制御部14は、取得した左用アイコン配置画像をスプリットビュー表示部2の左用画像として表示し、取得した右用アイコン配置画像をスプリットビュー表示部2の右用画像として表示する。また、制御部14は通常モードに設定する。
 図10(a)及び図10(b)は、本実施の形態1に係るナビゲーション装置1(スプリットビュー表示部2)のステップS3における左用画像及び右用画像の表示例を示す図である。図10(a)の左用画像には、図7(b)の左用画像に、左優先ボタンLP(予め定められた第1ボタン)が追加されている。ここでは、左優先ボタンLPの表示領域は、右用アイコンR1~R5の表示領域からスプリットビュー表示部2の画面上において離間して配置されているので、左優先ボタンLPに対する操作が実施されても、右用アイコンR1~R5に対する操作が実施されることが抑制されている。図10(b)の右用画像は、図7(b)の右用画像と同じである。
 図8のステップS4にて、操作入力処理部9は、タッチパネル3からの出力信号に基づき、左用画像内の左優先ボタンLPに対する操作が実施されたか否かを判定する。左優先ボタンLPに対する操作が実施されなかったと判定された場合にはステップS5に進み、実施されたと判定された場合には図9のステップS7に進む。
 ステップS5にて、操作入力処理部9は、通常モードで有効な操作が実施されたか否かを判定する。ここでは、操作入力処理部9は、左用アイコンL1~L3もしくは右用アイコンR1~R5に対する操作、または、ジェスチャー領域GLに対するジェスチャー操作が実施されたか否かを判定する。実施されたと判定された場合にはステップS6に進み、実施されなかったと判定された場合にはステップS4に戻る。なお、ステップS4に戻る際において、地図が左用画像または右用画像として表示されており、かつ、自車の位置が変化していた場合には、制御部14は、当該変化に応じて当該地図をスクロールさせてもよい。このことは、ステップS5以外のステップからステップS4に戻る際においても同様である。
 ステップS6にて、制御部14は、実施された操作に応じた機能を実行する。ここでは、制御部14は、操作されたアイコンまたはジェスチャー領域に対応するアプリケーションの機能を実行する。その後ステップS4に戻る。なお、操作されたアイコンまたはジェスチャー領域に対して、アイコン配置画像が予め対応付けられて記憶部11に記憶されている場合には、ステップS6からステップS3に戻って、当該アイコン配置画像がスプリットビュー表示部2に表示されてもよい。
 図8のステップS4から図9のステップS7に進んだ場合、当該ステップS7にて、制御部14は、左優先ボタンLPに対する操作が実施されたとステップS4で判定されたことによって第1条件が満たされたと判断して、右用操作を制約する右制約モードに設定する。ここでは、制御部14は、左用操作として実施される第1ジェスチャー操作(例えばジェスチャー領域GLで受け付け可能なジェスチャー操作)を有効にし、かつ、右用操作として実施される第2ジェスチャー操作を無効にすることによって、右用操作を制約する。以下、左用操作として実施される第1ジェスチャー操作を「左ジェスチャー操作」と記し、右用操作として実施される第2ジェスチャー操作を「右ジェスチャー操作」と記す。なお、ここで有効にされる左ジェスチャー操作と、無効にされる右ジェスチャー操作とは同じジェスチャー操作が適用されてもよいし、異なるジェスチャー操作が適用されてもよい。
 また、制御部14は、右用操作を制約していることをスプリットビュー表示部2に識別可能に表示させる。図11(a)及び図11(b)は、本実施の形態1に係るナビゲーション装置1のステップS7における左用画像及び右用画像の表示例を示す図である。
 図11(a)に示されるように、制御部14は、左優先ボタンLPをステップS3の左優先ボタンLP(図10(a))よりも明るい色で表示させる(なお、以下においては、ハッチングの点の密度が高いほど暗い画像であることを意味するものとする)。
 また、図11(b)に示されるように、制御部14は、右用アイコンR1~R5を、ステップS3の右用アイコンR1~R5(図10(b))よりも暗い色で表示させるとともに、右用画像の背景画像を、ステップS3の右用画像の背景画像(図10(b))よりも暗い色で表示させることにより、右用操作を制約していることを識別可能に表示させる。また、ステップS7にて表示される右用画像は、これに限ったものではなく、例えば、背景画像をぼかした画像であってもよいし、右用アイコンR1~R5が表示されない画像であってもよい。
 図9のステップS8にて、操作入力処理部9は、ステップS4の判定を再度行う。すなわち、操作入力処理部9は、タッチパネル3からの出力信号に基づき、左用画像内の左優先ボタンLPに対する操作が実施されたか否かを再判定する。左優先ボタンLPに対する操作が実施されたと判定された場合にはステップS9に進み、実施されなかったと判定された場合にはステップS10に進む。
 ステップS9にて、制御部14は、左優先ボタンLPに対する操作が再度実施されたとステップS8で判定されたことによって第1条件が満たされたと判断して、通常モードに設定する。すなわち、制御部14は、右用操作の制約を解除する。そして、制御部14は、ステップS8の左用画像(図11(a))及び右用画像(図11(b))の表示からステップS3の元の左用画像(図10(a))及び元の右用画像(図10(b))の表示に戻す。その後、ステップS4に戻る。
 ステップS8からステップS10に進んだ場合、当該ステップS10にて、操作入力処理部9は、右制約モードで有効な操作(ここでは、左用アイコンL1~L3に対する操作及びジェスチャー領域GLに対する左ジェスチャー操作などの左用操作)が実施されたか否かを判定する。右制約モードで有効な操作が実施されたと判定された場合にはステップS11に進み、実施されなかったと判定された場合にはステップS12に進む。
 ステップS11にて、制御部14は、実施された操作に応じた機能を実行する。ここでは、制御部14は、操作されたアイコンまたはジェスチャー領域に対応するアプリケーションの機能を実行する。その後ステップS8に戻る。なお、操作されたアイコンまたはジェスチャー領域に対して、アイコン配置画像が予め対応付けられて記憶部11に記憶されている場合には、ステップS11からステップS3に戻って、当該アイコン配置画像がスプリットビュー表示部2に表示されてもよい。
 ステップS10からステップS12に進んだ場合、当該ステップS12にて、制御部14は、右制約モードに設定してから予め定められた時間までの間に左用操作に応じたアプリケーションの機能が実行されず、かつ通常モードに設定されなかったか否かを判断する。予め定められた時間までの間に実行及び設定のいずれも実行されなかったと判断した場合にはステップS9に進み、そうでない場合にはステップS8に戻る。
 すなわち、ステップS12からステップS9に進んだ場合には、当該ステップS9にて、制御部14は、右制約モードに設定してから予め定められた時間までの間に左用操作に応じたアプリケーションの機能が実行されず、かつ通常モードに設定されなかったとステップS12で判断したことによって第1条件が満たされたと判断して、通常モードに設定する。
 <効果>
 以上のような本実施の形態1に係るナビゲーション装置1によれば、予め定められた第1条件が満たされたと判断した場合に当該満たされた第1条件に基づいて、通常モード及び右制約モードのうち、いずれか一つのモードに設定する。したがって、左座席のユーザ(運転者)が、操作したことによって右用画像側のアプリケーションの機能を知らないうちに実行してしまうことを抑制することができる。
 また、本実施の形態1によれば、タッチパネル3からの出力信号に基づき左用画像内の左優先ボタンLPに対する操作が実施されたと判定された場合に、第1条件が満たされたと判断して右用操作を制約する右制約モードに設定する。したがって、左座席のユーザ(運転者)は、左優先ボタンLPを操作した後は通常モードが設定されるまで、右用画像側のアプリケーションの機能を実行してしまうことを気にせずに操作することができる。
 特に、以上に説明した本実施の形態1によれば、比較的広い範囲にわたる左ジェスチャー操作または右ジェスチャー操作の実施が想定される場合において、上述の効果は有効である。
 また、本実施の形態1によれば、右制約モードに設定してから予め定められた時間までの間に左用操作に応じたアプリケーションの機能が実行されず、かつ通常モードに設定されなかった場合に、第1条件が満たされたと判断して通常モードに設定する。したがって、右用操作の制約を必要最小限に留めることができる。
 なお、以上では、後述の変形例や実施の形態との都合上、図6のように指示体の三次元の位置(X,Y,Z)を検出できるタッチパネルを用いた構成について説明した。しかしこれに限ったものではなく、タッチした指示体の二次元の位置(X,Y)を検出できるタッチパネルを用いてもよい。
 なお、本実施の形態1では、左優先ボタンに対する操作が実施されたと判定された場合と、左優先ボタンに対する操作が再度実施されたと判定された場合と、右制約モードに設定してから予め定められた時間までの間に左用操作に応じたアプリケーションの機能が実行されず、かつ通常モードに設定されなかった場合とにおいて、制御部14は第1条件が満たされたと判断した。しかしこれに限ったものではなく、例えば、次に説明する変形例を適用することができる。
 <実施の形態1の変形例1>
 実施の形態1では、制御部14は、左優先ボタンLPに対する操作が実施されたと判定された場合に、第1条件が満たされたと判断して右制約モードに設定した。しかし、これに限ったものではなく、以下の第1例~第4例に説明する構成であってもよい。
 第1例の構成では、タッチパネル3は、複数の指示体によって同時に複数点でタッチされた場合に、当該複数点のそれぞれの位置を示す信号を出力する。操作入力処理部9は、タッチパネル3からの出力信号に基づいて、複数の指示体が同時に複数点でタッチパネル3をタッチする操作(以下「多点タッチ操作」などと記す)が実施されたか否かを判定する。
 そして、制御部14は、複数の指示体による多点タッチ操作が実施されたと操作入力処理部9で判定された場合に、第1条件が満たされたと判断して右制約モードに設定する。以上のような第1例の構成によれば、例えば、図12に示すように、2本の指21による2点タッチ操作が実施された場合には、右制約モードに設定することができる。なお、第1例の構成では、図6のように指示体の三次元の位置(X,Y,Z)を検出できるタッチパネルを用いてもよいし、タッチした指示体の二次元の位置(X,Y)を検出できるタッチパネルを用いてもよい。
 第2例の構成では、タッチパネル3は、実施の形態1と同様に、指示体の三次元の位置を示す信号を出力する。操作入力処理部9は、タッチパネル3からの出力信号に基づいて、タッチパネル3から離間した指示体によって予め定められた軌道を有する操作(以下「軌道操作」と記す)が実施されたか否かを判定する。軌道操作には、例えば、図6の距離Zの変化が予め定められた閾値以下であり、かつ、二次元の位置(X,Y)の変化が予め定められた閾値以上である操作、タッチパネル3の検出面に対して平行または略平行に移動する操作、タッチパネル3の検出面から離れた位置で指によって円を描くような操作などが適用される。
 そして、制御部14は、指示体による軌道操作が実施されたと操作入力処理部9で判定された場合に、第1条件が満たされたと判断して右制約モードに設定する。以上のような第2例の構成によれば、軌道操作が実施された場合には、右制約モードに設定することができる。
 第3例の構成では、タッチパネル3は、上述の距離Zの代わりに、指示体によって検出面が押し込まれた量(押し込み量)を検出し、当該検出結果を示す信号を出力する。操作入力処理部9は、タッチパネル3からの出力信号が示す押し込み量が予め定められた値以下である場合には、タッチ操作が実施されたと判定し、押し込み量が予め定められた値よりも大きい場合には、押し込み操作が実施されたと判定する。
 そして、制御部14は、指示体による押し込み操作が実施されたと判定された場合に、第1条件が満たされたと判断して右制約モードに設定する。以上のような第3例の構成によれば、例えば、指によって押し込み操作が実施された場合には、右制約モードに設定することができる。なお、この構成において、タッチ操作と押し込み操作とを互いに置き換えてもよい。すなわち、制御部14は、指示体によるタッチ操作が実施されたと判定された場合に、第1条件が満たされたと判断して右制約モードに設定してもよい。
 第4例の構成では、タッチパネル3は、実施の形態1と同様に、指示体の三次元の位置を示す信号を出力する。操作入力処理部9は、タッチパネル3からの出力信号に基づいて、指示体による操作(アイコン操作及びジェスチャー操作)が実施される直前の行為(予め定義された行為)が実施されたまたは実施中であるかを判定する。例えば、操作入力処理部9は、上述の距離Z(図6)が予め定められた閾値Z1(例えば3~10cm程度)以下になった場合に、当該予め定義された行為が実施されたまたは実施中であると判定する。なお、実施中であると判定される行為は、実施されたと判定された上述の行為から継続する行為であってもよいし、継続しない行為であってもよい。
 制御部14は、操作が実施される直前の行為が実施されたまたは実施中であると操作入力処理部9で判定された場合、すなわち距離Zが閾値Z1以下になった場合には、図13(a)及び図13(b)に示す表示をスプリットビュー表示部2に表示させる。具体的には、制御部14は、左用画像において右用アイコンR1~R5に対応する領域RA1~RA5を識別可能に表示させるとともに、右用画像において左用アイコンL1~L3及びジェスチャー領域GLに対応する領域LA1~LA3及び領域GLAを識別可能に表示させる。
 操作入力処理部9は、タッチパネル3からの出力信号に基づいて、背景画像(左用アイコンL1~L3、ジェスチャー領域GL及び右用アイコンR1~R5以外の画像、換言すれば領域LA1~LA3,GLA,RA1~RA5以外の画像)に対する操作(例えばタッチ操作)が実施されたか否かを判定する。
 そして、制御部14は、図13(a)及び図13(b)に示すような背景画像に対する操作が実施されたと操作入力処理部9で判定された場合には、第1条件が満たされたと判断して右制約モードに設定する。以上のような第4例の構成によれば、例えば、指によって背景画像に対する操作が実施された場合には、右制約モードに設定することができる。また、タッチするごとに、通常モードと右制約モードとを切り替えるようにしてもよい。また、現在のモードを示す表示を行なってもよい。
 以上、第1例~第4例の構成について説明したが、これらの構成によっても、実施の形態1と同様の効果を得ることができる。また、これらの構成によれば、左優先ボタンLPを左用画像(左用アイコン配置画像)から省くことができる。
 また、上述の第1~第4例とは別に、例えば、制御部14は、予め定められた時間内における同一点への指示体による複数回のタッチ操作が実施されたと操作入力処理部9で判定された場合に、第1条件が満たされたと判断して右制約モードに設定してもよい。また、例えば、制御部14は、予め定められた時間以上継続して、指示体によってタッチされたと操作入力処理部9で判定された場合に、第1条件が満たされたと判断して右制約モードに設定してもよい。
 <実施の形態1の変形例2>
 実施の形態1に係る制御部14は、右制約モードに設定する場合には、左ジェスチャー操作を有効にし、かつ、右ジェスチャー操作を無効にした(図9のステップS7)。
 これに対し、本変形例2に係る制御部14は、右制約モードに設定する場合には、左用画像側にて実行されているアプリケーションの種類に基づいて、左ジェスチャー操の種類、及び、右ジェスチャー操作の種類を変更するように構成されている。
 例えば、制御部14は、左用画像側にて実行されているアプリケーションがナビゲーション機能のアプリケーションである際に右制約モードに設定する場合には、有効となる左ジェスチャー操作にドラッグ操作を適用し、かつ、無効となる右ジェスチャー操作にドラッグ操作を適用してもよい。一方、制御部14は、左用画像側にて実行されているアプリケーションがDVD再生機能のアプリケーションである際に右制約モードに設定する場合には、有効となる左ジェスチャー操作にフリック操作を適用し、かつ、無効となる右ジェスチャー操作にフリック操作を適用してもよい。
 また、制御部14は、左用画像側にて実行されているアプリケーションの種類に基づいて、有効となる左ジェスチャー操作の数、及び、無効となる右ジェスチャー操作の数も変更してもよい。
 例えば、制御部14は、左用画像側にて実行されているアプリケーションがナビゲーション機能のアプリケーションである際に右制約モードに設定する場合には、有効となる左ジェスチャー操作に2つのジェスチャー操作(例えばドラッグ操作及びピンチ操作)を適用し、かつ、無効となる右ジェスチャー操作に当該2つのジェスチャー操作を適用する。そして、制御部14は、左用画像側にて実行されているアプリケーションがDVD再生機能のアプリケーションである際に右制約モードに設定する場合には、有効となる左ジェスチャー操作に1つのジェスチャー操作(例えばフリック操作)を適用し、かつ、無効となる右ジェスチャー操作に当該1つのジェスチャー操作を適用にしてもよい。また、右側のアプリケーションが必要とするジェスチャー操作を、右側のアプリケーションでは無効(禁止)するようにしてもよい。
 以上の内容を概括すると、本変形例2に係る制御部14は、左用画像側にて実行されているアプリケーションの種類に基づいて、左ジェスチャー操作及び右ジェスチャー操作を変更するように構成されている。このような本変形例2に係る構成によれば、有効にする左ジェスチャー操作、及び、無効にする右ジェスチャー操作を、適正化することができる。
 なお、本変形例2の構成では、図6のように指示体の三次元の位置(X,Y,Z)を検出できるタッチパネルを用いてもよいし、タッチした指示体の二次元の位置(X,Y)を検出できるタッチパネルを用いてもよい。
 <実施の形態2>
 実施の形態1では、通常モード及び右制約モードが規定されていた。本発明の実施の形態2では、通常モード及び右制約モードだけでなく、左用操作を制約する左制約モード(第1制約モード)が追加されている。以下、本実施の形態2に係るナビゲーション装置1の構成について説明する。
 なお、本実施の形態2に係るナビゲーション装置1のブロック構成は、実施の形態1のブロック構成と同じであることから、その図示については省略する。そして、本実施の形態2に係るナビゲーション装置1において、実施の形態1で説明した構成要素と同一または類似するものについては同じ符号を付し、以下においては異なる点を中心に説明する。
 本実施の形態2に係る制御部14は、予め定められた第2条件が満たされたと判断した場合に当該満たされた第2条件に基づいて、右制約モード、左制約モード、及び、通常モードのうち、いずれか一つのモードに設定する。
 なお、ここでは、後述するように、左優先ボタンまたは右優先ボタンに対する操作が実施されたと判定された場合と、左優先ボタンまたは右優先ボタンに対する操作が再度実施されたと判定された場合と、右制約モードに設定してから予め定められた時間までの間に左用操作に応じたアプリケーションの機能が実行されず、かつ通常モード及び左制約モードのいずれにも設定されなかった場合と、左制約モードに設定してから予め定められた時間までの間に右用操作に応じたアプリケーションの機能が実行されず、かつ通常モード及び右制約モードのいずれにも設定されなかった場合とにおいて、制御部14は、上述の予め定められた第2条件が満たされたと判断するものとする。すなわち、本実施の形態2に係る第2条件は、実施の形態1に係る第1条件と一部が重複しているが、これに限ったものではなく、第2条件と第1条件とは完全に重複してもよく、第2条件と第1条件とは全く重複していなくてもよい。
 図14,図15及び図16は、本実施の形態2に係るナビゲーション装置1の動作を示すフローチャートである。なお、図14のステップS1及びS2では、実施の形態1のステップS1及びS2と同様の動作が行われるので、その説明については省略する。
 ステップS2後のステップS3にて、制御部14は、取得した左用アイコン配置画像をスプリットビュー表示部2の左用画像として表示し、取得した右用アイコン配置画像をスプリットビュー表示部2の右用画像として表示する。また、制御部14は通常モードに設定する。
 図17(a)及び図17(b)は、本実施の形態2に係るナビゲーション装置1のステップS3における左用画像及び右用画像の表示例を示す図である。図17(a)の左用画像は、図10(a)の左用画像と同じである。図17(b)の右用画像には、右用アイコンR1,R2,R3(以下これらのアイコンをまとめて「右用アイコンR1~R3」と記すこともある)と、上述のジェスチャー領域GRと、右優先ボタンRP(予め定められた第2ボタン)とが配置された右用アイコン配置画像が表示されている。
 なお、左用アイコンL1~L3の表示領域の少なくとも一部と、右用画像のジェスチャー領域GRの少なくとも一部とはスプリットビュー表示部2の画面上において互いに重なっている。また、右用アイコンR1~R3の表示領域の少なくとも一部と、左用画像のジェスチャー領域GLの少なくとも一部とはスプリットビュー表示部2の画面上において互いに重なっている。また、右優先ボタンRPは、左用アイコンL1~L3からスプリットビュー表示部2の画面上において離間して配置されているので、右優先ボタンRPに対する操作が実施されても、左用アイコンL1~L3などに対する操作が実施されることが抑制されている。また、右優先ボタンRPの表示領域の少なくとも一部は、左用画像のジェスチャー領域GLの少なくとも一部とスプリットビュー表示部2の画面上において重なっていない。したがって、右座席のユーザ(ここでは助手席の同乗者)が右優先ボタンRPを操作することが抑制され、左座席のユーザ(ここでは運転者)に悪影響を与えることが抑制されると考えられる。
 図14のステップS4aにて、操作入力処理部9は、タッチパネル3からの出力信号に基づき、左用画像内の左優先ボタンLPに対する操作が実施されたか否かを判定する。左優先ボタンLPに対する操作が実施されなかったと判定された場合にはステップS4bに進み、実施されたと判定された場合には図15のステップS7aに進む。
 ステップS4bにて、操作入力処理部9は、タッチパネル3からの出力信号に基づき、右用画像内の右優先ボタンRPに対する操作が実施されたか否かを判定する。右優先ボタンRPに対する操作が実施されなかったと判定された場合にはステップS5に進み、実施されたと判定された場合には図16のステップS7bに進む。
 なお、図14のステップS5及びS6では、実施の形態1のステップS5及びS6と同様の動作が行われるので、その説明については省略する。
 次に図15の動作について説明する。ステップS4aから図15のステップS7aに進んだ場合、当該ステップS7aにて、制御部14は、左優先ボタンLPに対する操作が実施されたとステップS4aで判定されたことによって第2条件が満たされたと判断して、右用操作を制約する右制約モードに設定する。ここでは、制御部14は、左ジェスチャー操作(例えばジェスチャー領域GLで受け付け可能なジェスチャー操作)を有効にし、かつ、右ジェスチャー操作を無効にすることによって右用操作を制約する。なお、ここで有効にされる左ジェスチャー操作と、無効にされる右ジェスチャー操作とは同じジェスチャー操作が適用されてもよいし、異なるジェスチャー操作が適用されてもよい。
 また、制御部14は、右用操作を制約していることをスプリットビュー表示部2に識別可能に表示させる。図18(a)及び図18(b)は、本実施の形態2に係るナビゲーション装置1のステップS7aにおける左用画像及び右用画像の表示例を示す図である。
 図18(a)に示されるように、制御部14は、左優先ボタンLPをステップS3の左優先ボタンLP(図17(a))よりも明るい色で表示させる。
 また、図18(b)に示されるように、制御部14は、右用アイコンR1~R3及びジェスチャー領域GRを、ステップS3の右用アイコンR1~R3及びジェスチャー領域GR(図17(b))よりも暗い色で表示させるとともに、右用画像の背景画像を、ステップS3の右用画像の背景画像(図17(b))よりも暗い色で表示させる。さらに、制御部14は、右優先ボタンRPを、ステップS3の右優先ボタンRP(図17(b))よりも暗い色で表示させる。これにより、制御部14は、右用操作を制約していることを識別可能に表示させる。なお、ステップS7aに表示される右用画像は、これに限ったものではなく、例えば、背景画像をぼかした画像であってもよいし、右用アイコンR1~R3などが表示されない画像であってもよい。また、ジェスチャー操作が無効(禁止)とされている場合は、ジェスチャー領域または背景を暗く表示し、タッチ操作が無効(禁止)とされている場合は、操作アイコンを暗く表示してもよい。このように表示する構成によれば、どの操作が無効(禁止)とされているかをユーザに認識させることができるという効果を奏する。
 図15のステップS8aにて、操作入力処理部9は、ステップS4aの判定を再度行う。すなわち、操作入力処理部9は、タッチパネル3からの出力信号に基づき、左用画像内の左優先ボタンLPに対する操作が実施されたか否かを再判定する。左優先ボタンLPに対する操作が実施されたと判定された場合にはステップS9aに進み、実施されなかったと判定された場合にはステップS10aに進む。
 ステップS9aにて、制御部14は、左優先ボタンLPに対する操作が再度実施されたとステップS8aで判定されたことによって第2条件が満たされたと判断して、通常モードに設定する。すなわち、制御部14は、右用操作の制約を解除する。そして、制御部14は、ステップS7aの左用画像(図18(a))及び右用画像(図18(b))の表示からステップS3の元の左用画像(図17(a))及び元の右用画像(図17(b))の表示に戻す。その後、ステップS4aに戻る。
 ステップS8aからステップS10aに進んだ場合、当該ステップS10aにて、操作入力処理部9は、右制約モードで有効な操作(ここでは、左用アイコンL1~L3に対する操作及びジェスチャー領域GLに対する左ジェスチャー操作などの左用操作)が実施されたか否かを判定する。右制約モードで有効な操作が実施されたと判定された場合にはステップS11aに進み、実施されなかったと判定された場合にはステップS12aに進む。
 ステップS11aにて、制御部14は、実施された操作に応じた機能を実行する。ここでは、制御部14は、操作されたアイコンまたはジェスチャー領域に対応するアプリケーションの機能を実行する。その後ステップS8aに戻る。なお、操作されたアイコンまたはジェスチャー領域に対して、アイコン配置画像が予め対応付けられて記憶部11に記憶されている場合には、ステップS11aからステップS3に戻って、当該アイコン配置画像がスプリットビュー表示部2に表示されてもよい。
 ステップS10aからステップS12aに進んだ場合、当該ステップS12aにて、制御部14は、右制約モードに設定してから予め定められた時間までの間に左用操作に応じたアプリケーションの機能が実行されず、かつ通常モード及び左制約モードのいずれにも設定されなかったか否かを判断する。予め定められた時間までの間に実行及び設定のいずれも実行されなかったと判断した場合にはステップS9aに進み、そうでない場合にはステップS8aに戻る。
 すなわち、ステップS12aからステップS9aに進んだ場合には、当該ステップS9aにて、制御部14は、右制約モードに設定してから予め定められた時間までの間に左用操作に応じたアプリケーションの機能が実行されず、かつ通常モード及び左制約モードのいずれにも設定されなかったとステップS12aで判断したことによって第2条件が満たされたと判断して、通常モードに設定する。
 次に図16の動作について説明する。ステップS4bから図16のステップS7bに進んだ場合、当該ステップS7bにて、制御部14は、右優先ボタンRPに対する操作が実施されたとステップS4bで判定されたことによって第2条件が満たされたと判断して、左用操作を制約する左制約モードに設定する。ここでは、制御部14は、右ジェスチャー操作(例えばジェスチャー領域GRで受け付け可能なジェスチャー操作)を有効にし、かつ、左ジェスチャー操作を無効にすることによって左用操作を制約する。なお、ここで有効にされる右ジェスチャー操作と、無効にされる左ジェスチャー操作とは同じジェスチャー操作が適用されてもよいし、異なるジェスチャー操作が適用されてもよい。
 また、制御部14は、左用操作を制約していることをスプリットビュー表示部2に識別可能に表示させる。図19(a)及び図19(b)は、本実施の形態2に係るナビゲーション装置1のステップS7bにおける左用画像及び右用画像の表示例を示す図である。
 図19(b)に示されるように、制御部14は、右優先ボタンRPをステップS3の右優先ボタンRP(図17(b))よりも明るい色で表示させる。
 また、図19(a)に示されるように、制御部14は、左用アイコンL1~L3及びジェスチャー領域GLを、ステップS3の左用アイコンL1~L3及びジェスチャー領域GL(図17(a))よりも暗い色で表示させるとともに、左用画像の背景画像を、ステップS3の左用画像の背景画像(図17(a))よりも暗い色で表示させる。さらに、制御部14は、左優先ボタンLPを、ステップS3の左優先ボタンLP(図17(a))よりも暗い色で表示させる。これにより、制御部14は、左用操作を制約していることを識別可能に表示させる。なお、ステップS7bに表示される左用画像は、これに限ったものではなく、例えば、背景画像をぼかした画像であってもよいし、左用アイコンL1~L3などが表示されない画像であってもよい。また、ジェスチャー操作が無効(禁止)されている場合は、ジェスチャー領域または背景を暗く表示し、タッチ操作が無効(禁止)されている場合は、操作アイコンを暗く表示してもよい。このように表示する構成によれば、どの操作が無効(禁止)されているかをユーザに認識させることができるという効果を奏する。
 図16のステップS8bにて、操作入力処理部9は、ステップS4bの判定を再度行う。すなわち、操作入力処理部9は、タッチパネル3からの出力信号に基づき、右用画像内の右優先ボタンRPに対する操作が実施されたか否かを再判定する。右優先ボタンRPに対する操作が実施されたと判定された場合にはステップS9bに進み、実施されなかったと判定された場合にはステップS10bに進む。
 ステップS9bにて、制御部14は、右優先ボタンRPに対する操作が再度実施されたとステップS8bで判定されたことによって第2条件が満たされたと判断して、通常モードに設定する。すなわち、制御部14は、左用操作の制約を解除する。そして、制御部14は、ステップS7bの左用画像(図19(a))及び右用画像(図19(b))の表示からステップS3の元の左用画像(図17(a))及び元の右用画像(図17(b))の表示に戻す。その後、ステップS4aに戻る。
 ステップS8bからステップS10bに進んだ場合、当該ステップS10bにて、操作入力処理部9は、左制約モードで有効な操作(ここでは、右用アイコンR1~R3に対する操作及びジェスチャー領域GRに対する右ジェスチャー操作などの右用操作)が実施されたか否かを判定する。左制約モードで有効な操作が実施されたと判定された場合にはステップS11bに進み、実施されなかったと判定された場合にはステップS12bに進む。
 ステップS11bにて、制御部14は、実施された操作に応じた機能を実行する。ここでは、制御部14は、操作されたアイコンまたはジェスチャー領域に対応するアプリケーションの機能を実行する。その後ステップS8bに戻る。なお、操作されたアイコンまたはジェスチャー領域に対して、アイコン配置画像が予め対応付けられて記憶部11に記憶されている場合には、ステップS11bからステップS3に戻って、当該アイコン配置画像がスプリットビュー表示部2に表示されてもよい。
 ステップS10bからステップS12bに進んだ場合、当該ステップS12bにて、制御部14は、左制約モードに設定してから予め定められた時間までの間に右用操作に応じたアプリケーションの機能が実行されず、かつ通常モード及び右制約モードのいずれにも設定されなかったか否かを判断する。予め定められた時間までの間に実行及び設定のいずれも実行されなかったと判断した場合にはステップS9bに進み、そうでない場合にはステップS8bに戻る。
 すなわち、ステップS12bからステップS9bに進んだ場合には、当該ステップS9bにて、制御部14は、左制約モードに設定してから予め定められた時間までの間に右用操作に応じたアプリケーションの機能が実行されず、かつ通常モード及び右制約モードのいずれにも設定されなかったとステップS12bで判断したことによって第2条件が満たされたと判断して、通常モードに設定する。
 <効果>
 以上のような本実施の形態2に係るナビゲーション装置1によれば、予め定められた第2条件が満たされたと判断した場合に当該満たされた第2条件に基づいて、右制約モード、左制約モード及び通常モードのうち、いずれか一つのモードに設定する。したがって、左座席のユーザ(運転者)が操作したことによって右用画像側のアプリケーションの機能を知らないうちに実行してしまうことを抑制することができるとともに、右座席のユーザ(助手席の同乗者)が操作したことによって左用画像側のアプリケーションの機能を知らないうちに実行してしまうことを抑制することができる。
 また、本実施の形態2によれば、左優先ボタンLPに対する操作が実施されたと判定された場合に、第2条件が満たされたと判断して右用操作を制約する右制約モードに設定し、右優先ボタンRPに対する操作が実施されたと判定された場合に、第2条件が満たされたと判断して左用操作を制約する左制約モードに設定する。したがって、左座席のユーザ(運転者)は、左優先ボタンLPを操作した後は通常モードが設定されるまで、右用画像側のアプリケーションの機能を実行してしまうことを気にせずに操作することができる。同様に、右座席のユーザ(助手席の同乗者)は、右優先ボタンRPを操作した後は通常モードが設定されるまで、左用画像側のアプリケーションの機能を実行してしまうことを気にせずに操作することができる。
 特に、以上に説明した本実施の形態2によれば、比較的広い範囲にわたる左ジェスチャー操作または右ジェスチャー操作の実施が想定される場合において、上述の効果は有効である。
 また、本実施の形態2によれば、右制約モードに設定してから予め定められた時間までの間に左用操作に応じたアプリケーションの機能が実行されず、かつ通常モード及び左制約モードのいずれにも設定されなかった場合に、第2条件が満たされたと判断して通常モードに設定する。したがって、右用操作の制約を必要最小限に留めることができる。同様に、左制約モードに設定してから予め定められた時間までの間に右用操作に応じたアプリケーションの機能が実行されず、かつ通常モード及び右制約モードのいずれにも設定されなかった場合に、第2条件が満たされたと判断して通常モードに設定する。したがって、左用操作の制約を必要最小限に留めることができる。
 なお、本実施の形態2の構成では、図6のように指示体の三次元の位置(X,Y,Z)を検出できるタッチパネルを用いてもよいし、タッチした指示体の二次元の位置(X,Y)を検出できるタッチパネルを用いてもよい。
 <実施の形態2の変形例1>
 実施の形態2では、制御部14は、左優先ボタンLPまたは右優先ボタンRPに対する操作が実施されたと判定された場合に、第2条件が満たされたと判断して右制約モードまたは左制約モードに設定した。しかし、これに限ったものではなく、実施の形態1の変形例1で説明した第1例~第4例と同様の構成が適用されてもよい。
 上述の第1例を適用すると、制御部14は、複数の指示体による多点タッチ操作が実施されたと操作入力処理部9で判定された場合に、第2条件が満たされたと判断して右制約モードまたは左制約モードに設定することになる。
 ここで、制御部14は、複数の指示体による多点タッチ操作が実施されたと判定された場合に、当該複数の指示体が同時にタッチした複数点の数に基づいて、右制約モード及び左制約モードのうち設定すべき一方を選択してもよい。このような第1例の構成によれば、例えば、2本の指による2点タッチ操作が実施された場合には右制約モードに設定し、3本の指による3点タッチ操作が実施された場合には左制約モードに設定することが可能となる。したがって、ユーザの意思により右制約モード及び左制約モードを選択することができる。
 また、上述の第1例を適用する別構成として、制御部14は、複数の指示体による多点タッチ操作が実施されたと判定された場合に、当該多点タッチ操作に続けてドラッグ操作などのジェスチャー操作が実施されたか否かに基づいて、右制約モード及び左制約モードのうち設定すべき一方を選択してもよい。このような第1例の別構成によれば、例えば、2点タッチ操作だけが実施された場合には右制約モードに設定し、2点タッチ操作に続けてドラッグ操作などのジェスチャー操作も実施された場合には左制約モードに設定することが可能となる。したがって、ユーザの意思により右制約モード及び左制約モードを選択することができる。
 なお、第1例の構成では、図6のように指示体の三次元の位置(X,Y,Z)を検出できるタッチパネルを用いてもよいし、タッチした指示体の二次元の位置(X,Y)を検出できるタッチパネルを用いてもよい。
 上述の第1例ではなく上述の第2例を適用すると、制御部14は、指示体による軌道操作が実施されたと操作入力処理部9で判定された場合に、第2条件が満たされたと判断して右制約モードまたは左制約モードに設定することになる。
 ここで、制御部14は、指示体による軌道操作が実施されたと判定された場合に、当該軌道操作における指示体の移動の方向に基づいて、右制約モード及び左制約モードのうち設定すべき一方を選択してもよい。このような第2例の構成によれば、例えば、指示体がタッチパネル3の縦方向に沿って移動する軌道操作が実施された場合には右制約モードに設定し、指示体がタッチパネル3の横方向に沿って移動する軌道操作が実施された場合には左制約モードに設定することが可能となる。したがって、ユーザの意思により右制約モード及び左制約モードを選択することができる。なお、軌道操作における指示体の移動方向は、縦方向(Y軸方向)及び横方向(X軸方向)の組み合わせに限ったものではなく、X軸方向,Y軸方向,Z軸方向を任意に組み合わせた方向が適用されてもよい。また、互いに異なる三方向を適用して、当該三方向に右制約モード、左制約モード、通常モードがそれぞれ対応付けられてもよい。また、Z軸方向(タッチパネル3の検出面の垂直方向)に指示体が移動したことを検出した場合には、制御部14が通常モードを選択する構成としてもよい。
 上述の第1例または第2例ではなく上述の第3例を適用すると、制御部14は、指示体による押し込み操作が実施されたと操作入力処理部9で判定された場合に、第2条件が満たされたと判断して右制約モードまたは左制約モードに設定することになる。
 ここで、制御部14は、指示体による押し込み操作が実施されたと判定された場合に、当該押し込み操作と同時に実施されるジェスチャー操作の種類に基づいて、右制約モード及び左制約モードのうち設定すべき一方を選択してもよい。このような第3例の構成によれば、例えば、押し込み操作を伴うドラッグ操作が実施された場合には右制約モードに設定し、押し込み操作を伴うピンチ操作が実施された場合には左制約モードに設定することが可能となる。したがって、ユーザの意思により右制約モード及び左制約モードを選択することができる。
 上述の第1例~第3例ではなく上述の第4例を適用すると、制御部14は、指示体による背景画像に対する操作(例えばタッチ操作)が実施されたと操作入力処理部9で判定された場合に、第2条件が満たされたと判断して右制約モードまたは左制約モードに設定することになる。
 ここで、制御部14は、指示体による背景画像に対する操作が実施されたと判定された場合に、当該背景画像を区分して得られる2つの区分画像のうち、いずれの区分画像に対して操作が実施されたかに基づいて、右制約モード及び左制約モードのうち設定すべき一方を選択してもよい。なお、制御部14は、ユーザが2つの区分画像を識別できるように、事前に2つの区分画像を互いに異なる色などで表示させてもよい。このような第4例の構成によれば、例えば、背景画像のうち左側の区分画像に対する操作が実施された場合には右制約モードに設定し、背景画像のうち右側の区分画像に対する操作が実施された場合には左制約モードに設定することが可能となる。したがって、ユーザの意思により右制約モード及び左制約モードを選択することができる。
 以上、第1例~第4例を適用する構成について説明したが、これらの構成によっても、実施の形態2と同様の効果を得ることができる。また、これらの構成によれば、左優先ボタンLPを左用画像(左用アイコン配置画像)から省くことができるとともに、右優先ボタンRPを右用画像(右用アイコン配置画像)から省くことができる。
 また、上述の第1~第4例とは別に、例えば、制御部14は、予め定められた時間内における同一点への指示体による複数回のタッチ操作が実施されたと操作入力処理部9で判定された場合に、第2条件が満たされたと判断して右制約モードまたは左制約モードに設定してもよい。また、例えば、制御部14は、予め定められた時間以上継続して、指示体によってタッチされたと操作入力処理部9で判定された場合に、第2条件が満たされたと判断して右制約モードまたは左制約モードに設定してもよい。
 <実施の形態2の変形例2>
 実施の形態2に係る制御部14は、右制約モードに設定する場合には、左ジェスチャー操作を有効にし、かつ、右ジェスチャー操作を無効にした(図15のステップS7a)。そして、実施の形態2に係る制御部14は、左制約モードに設定する場合には、右ジェスチャー操作を有効にし、かつ、左ジェスチャー操作を無効にした(図16のステップS7b)。
 これに対し、本変形例2に係る制御部14は、左用画像側にて実行されているアプリケーションの種類、及び、右用画像側にて実行されているアプリケーションの種類に基づいて、左ジェスチャー操作及び右ジェスチャー操作を変更するように構成されている。例えば、制御部14は、右制約モードを設定する場合には、実施の形態1の変形例2と同様に、左用画像側にて実行されているアプリケーションの種類に基づいて、有効となる左ジェスチャー操作と、無効となる右ジェスチャー操作を変更する。一方、制御部14は、左制約モードを設定する場合には、右用画像側にて実行されているアプリケーションの種類に基づいて、有効となる右ジェスチャー操作と、無効となる左ジェスチャー操作を変更する。
 このような本変形例2に係る構成によれば、左ジェスチャー操作及び右ジェスチャー操作を適正化することができる。
 なお、本変形例2の構成では、図6のように指示体の三次元の位置(X,Y,Z)を検出できるタッチパネルを用いてもよいし、タッチした指示体の二次元の位置(X,Y)を検出できるタッチパネルを用いてもよい。
 <実施の形態1及び実施の形態2に関するその他の変形例>
 図7(a)及び図7(b)に示した例などにおいて、左座席のユーザ(運転者)が操作したことによって知らないうちに右用画像側のアプリケーションの機能を実行してしまうのは、左用画像のジェスチャー領域の少なくとも一部と、右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なっていることが大きな要因であると考えられる。このことに鑑みて、制御部14は、左用画像及び右用画像の一方のジェスチャー領域の少なくとも一部と、左用画像及び右用画像の他方のアイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なっている場合には、その旨を左用画像及び右用画像に表示させるように構成されてもよいし、その旨をスピーカ5から音声出力させるように構成されてもよい。このような構成によれば、ユーザが慎重に操作を実施することが期待でき、結果として相手のアイコンなどを操作する可能性が低減される。
 その一方で、右用画像及び左用画像の一方に表示されたジェスチャー領域と、右用画像及び左用画像の他方に表示された全てのアイコンとがスプリットビュー表示部2の画面上において離間していれば、上述の問題は発生しにくいと考えられる。このことに鑑みて、制御部14は、左用画像及び右用画像の一方のジェスチャー領域と、左用画像及び右用画像の他方の全てのアイコンとがスプリットビュー表示部2の画面上において離間している場合には、第1条件(または第2条件)が満たされたと判断して通常モードに設定するように構成されてもよい。
 また、ジェスチャー操作が必要なアプリケーションを実行する場合には、制御部14は、右用画像及び左用画像のうち一方(好ましくは助手席側の画像)において他方よりも優先的に、ジェスチャー領域を表示させるように構成されてもよい。
 以上の説明では、入力部としてタッチパネル3を適用した構成について説明した。しかし、入力部は、アプリケーションの機能を実行するための左用画像に対する操作と、アプリケーションの機能を実行するための右用画像に対する操作とを一律に受け付けるものであればよく、タッチパネル3に限ったものではない。例えば、入力部には、スプリットビュー表示部2と離れて設けられたタッチパッドが適用されてもよい。このとき、タッチパッドには指示体の三次元の位置を求める機能を有し、タッチパッドの操作領域上の指示体の位置を、スプリットビュー表示部2の表示領域に対応付けておき、指示体の位置を示す点やアイコン表示で行ってもよい。
 <表示制御装置をナビゲーション装置以外にも適用した変形例>
 以上で説明した表示制御装置は、車両に備え付けられたナビゲーション装置1だけでなく、車両に搭載可能な、PND(Portable Navigation Device)、及び、携帯端末(例えば携帯電話機、スマートフォン、及びタブレットなど)、並びにサーバなどを適宜に組み合わせてシステムとして構築される表示制御装置にも適用することができる。この場合、以上で説明したナビゲーション装置1の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置される。
 例えば、以上の説明では、表示制御装置を、ナビゲーション装置1に適用した構成について説明したが、これに限ったものではなく、ナビゲーション機能を持たないが表示機能を有する所謂ディスプレイオーディオ、PND、携帯端末、設置型の表示装置、及び、サーバのいずれかに適用してもよい。
 また、以上では、スプリットビュー方式の表示部に、ナビゲーション装置1が備えるスプリットビュー表示部2を適用した構成について説明したが、これに限ったものではない。例えば、表示制御装置をスマートフォンに適用する場合には、スマートフォンが備えるスプリットビュー方式の表示部が適用されてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。
 1 ナビゲーション装置、2 スプリットビュー表示部、3 タッチパネル、14 制御部、21 指、LP 左優先ボタン、RP 右優先ボタン。

Claims (17)

  1.  第1方向にて視認可能であるが第2方向にて視認できない第1画像と、前記第2方向にて視認可能であるが前記第1方向にて視認できない第2画像とを一つの画面上に表示可能な表示部を制御する表示制御装置であって、
     予め定められた第1条件が満たされたと判断した場合に当該満たされた第1条件に基づいて、アプリケーションの機能を実行するための前記第1画像に対する第1操作と、アプリケーションの機能を実行するための前記第2画像に対する第2操作とを有効にする通常モード、及び、前記第2操作を制約する第2制約モードのうち、いずれか一つのモードに設定する制御部
    を備える、表示制御装置。
  2.  請求項1に記載の表示制御装置であって、
     前記制御部は、
     前記第2制約モードに設定する場合には、前記第1操作として実施される予め定められた第1ジェスチャー操作を有効にし、かつ、前記第2操作として実施される前記第2ジェスチャー操作を無効にする、表示制御装置。
  3.  請求項2に記載の表示制御装置であって、
     前記制御部は、
     前記第1画像側にて実行されているアプリケーションの種類に基づいて、前記第1ジェスチャー操作及び前記第2ジェスチャー操作を変更する、表示制御装置。
  4.  請求項1に記載の表示制御装置であって、
     前記制御部は、
     前記第1操作と前記第2操作とを一律に受け付ける入力部からの出力信号に基づき、前記第1画像内の予め定められた第1ボタンに対する操作が実施されたと判定された場合に、前記第1条件が満たされたと判断して前記第2制約モードに設定する、表示制御装置。
  5.  請求項1に記載の表示制御装置であって、
     前記制御部は、
     指示体の二次元の位置を検出することによって前記第1操作と前記第2操作とを一律に受け付ける入力部からの出力信号に基づき、複数の指示体が同時に複数点で前記入力部をタッチする操作が実施されたと判定された場合に、前記第1条件が満たされたと判断して前記第2制約モードに設定する、表示制御装置。
  6.  請求項1に記載の表示制御装置であって、
     前記制御部は、
     指示体の三次元の位置を検出することによって前記第1操作と前記第2操作とを一律に受け付ける入力部からの出力信号に基づき、指示体が前記入力部から離間した状態で当該指示体によって予め定められた軌道を有する操作が実施されたと判定された場合に、前記第1条件が満たされたと判断して前記第2制約モードに設定する、表示制御装置。
  7.  請求項1に記載の表示制御装置であって、
     前記制御部は、
     前記第2制約モードに設定してから予め定められた時間までの間に前記第1操作に応じた前記機能が実行されず、かつ前記通常モードに設定されなかった場合に、前記第1条件が満たされたと判断して前記通常モードに設定する、表示制御装置。
  8.  請求項1に記載の表示制御装置であって、
     前記制御部は、
     予め定められた第2条件が満たされたと判断した場合に当該満たされた第2条件に基づいて、前記第1操作を制約する第1制約モード、前記第2制約モード、及び、前記通常モードのうち、いずれか一つのモードに設定する、表示制御装置。
  9.  請求項8に記載の表示制御装置であって、
     前記制御部は、
     前記第1制約モードに設定する場合には、前記第2操作として実施される予め定められた第2ジェスチャー操作を有効にし、かつ、前記第1操作として実施される予め定められた第1ジェスチャー操作を無効にし、前記第2制約モードに設定する場合には、前記第1ジェスチャー操作を有効にし、かつ、前記第2ジェスチャー操作を無効にする、表示制御装置。
  10.  請求項9に記載の表示制御装置であって、
     前記制御部は、
     前記第1画像側にて実行されているアプリケーションの種類、及び、前記第2画像側にて実行されているアプリケーションの種類に基づいて、前記第1ジェスチャー操作及び前記第2ジェスチャー操作を変更する、表示制御装置。
  11.  請求項8に記載の表示制御装置であって、
     前記制御部は、
     前記第1操作と前記第2操作とを一律に受け付ける入力部からの出力信号に基づき、前記第1画像内の予め定められた第1ボタンに対する操作が実施されたと判定された場合に、前記第2条件が満たされたと判断して前記第2制約モードに設定し、前記入力部からの出力信号に基づき、前記第2画像内の予め定められた第2ボタンに対する操作が実施されたと判定された場合に、前記第2条件が満たされたと判断して前記第1制約モードに設定する、表示制御装置。
  12.  請求項8に記載の表示制御装置であって、
     前記制御部は、
     指示体の二次元の位置を検出することによって前記第1操作と前記第2操作とを一律に受け付ける入力部からの出力信号に基づき、複数の指示体が同時に複数点で前記入力部をタッチする操作が実施されたと判定された場合に、前記第2条件が満たされたと判断して前記第1制約モードまたは前記第2制約モードに設定する、表示制御装置。
  13.  請求項12に記載の表示制御装置であって、
     前記制御部は、
     前記複数の指示体が同時に複数点で前記入力部をタッチする操作が実施されたと判定された場合に、当該複数点の数に基づいて前記第1制約モード及び前記第2制約モードのうち設定すべき一方を選択する、表示制御装置。
  14.  請求項8に記載の表示制御装置であって、
     前記制御部は、
     指示体の三次元の位置を検出することによって前記第1操作と前記第2操作とを一律に受け付ける入力部からの出力信号に基づき、前記入力部から離間した指示体によって予め定められた軌道を有する操作が実施されたと判定された場合に、前記第2条件が満たされたと判断して前記第1制約モードまたは前記第2制約モードに設定する、表示制御装置。
  15.  請求項14に記載の表示制御装置であって、
     前記制御部は、
     前記入力部から離間した指示体によって前記予め定められた軌道を有する操作が実施されたと判定された場合に、当該操作における前記指示体の移動の方向に基づいて前記第1制約モード及び前記第2制約モードのうち設定すべき一方を選択する、表示制御装置。
  16.  請求項8に記載の表示制御装置であって、
     前記制御部は、
     前記第1制約モードに設定してから予め定められた時間までの間に前記第2操作に応じた前記機能が実行されず、かつ前記通常モード及び前記第2制約モードのいずれにも設定されなかった場合に、または、前記第2制約モードに設定してから予め定められた時間までの間に前記第1操作に応じた前記機能が実行されず、かつ前記通常モード及び前記第1制約モードのいずれにも設定されなかった場合に、前記第2条件が満たされたと判断して前記通常モードに設定する、表示制御装置。
  17.  第1方向にて視認可能であるが第2方向にて視認できない第1画像と、前記第2方向にて視認可能であるが前記第1方向にて視認できない第2画像とを一つの画面上に表示可能な表示部を制御する表示制御方法であって、
     (a)予め定められた第1条件が満たされたか否かを判断する工程と、
     (b)前記工程(a)にて前記予め定められた第1条件が満たされたと判断した場合に当該満たされた第1条件に基づいて、アプリケーションの機能を実行するための前記第1画像に対する第1操作と、アプリケーションの機能を実行するための前記第2画像に対する第2操作とを有効にする通常モード、及び、前記第2操作を制約する第2制約モードのうち、いずれか一つのモードに設定する工程と
    を備える、表示制御方法。
PCT/JP2013/082687 2013-12-05 2013-12-05 表示制御装置及び表示制御方法 WO2015083266A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2013/082687 WO2015083266A1 (ja) 2013-12-05 2013-12-05 表示制御装置及び表示制御方法
JP2015551342A JP6120988B2 (ja) 2013-12-05 2013-12-05 表示制御装置及び表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/082687 WO2015083266A1 (ja) 2013-12-05 2013-12-05 表示制御装置及び表示制御方法

Publications (1)

Publication Number Publication Date
WO2015083266A1 true WO2015083266A1 (ja) 2015-06-11

Family

ID=53273059

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/082687 WO2015083266A1 (ja) 2013-12-05 2013-12-05 表示制御装置及び表示制御方法

Country Status (2)

Country Link
JP (1) JP6120988B2 (ja)
WO (1) WO2015083266A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107256108A (zh) * 2017-05-24 2017-10-17 努比亚技术有限公司 一种分屏方法、设备和计算机可读存储介质
US10675767B2 (en) 2017-08-02 2020-06-09 Fanuc Corporation Robot system and robot controller

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195417A (ja) * 2004-12-13 2006-07-27 Fujitsu Ten Ltd 表示装置
JP2007207146A (ja) * 2006-02-06 2007-08-16 Alpine Electronics Inc 表示装置およびそのユーザインタフェース、メニュー提供方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259046A (ja) * 2001-02-28 2002-09-13 Tomoya Sonoda 空中で手描きした文字・記号入力システム
JP4342572B2 (ja) * 2007-05-21 2009-10-14 株式会社リコー 情報入出力装置、情報入出力制御方法、記録媒体およびプログラム
JP2010160581A (ja) * 2009-01-06 2010-07-22 Olympus Imaging Corp ユーザインタフェース装置、カメラ、ユーザインタフェース方法およびユーザインタフェース用プログラム
JP5353777B2 (ja) * 2010-03-15 2013-11-27 アイシン・エィ・ダブリュ株式会社 地図表示装置、地図表示方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195417A (ja) * 2004-12-13 2006-07-27 Fujitsu Ten Ltd 表示装置
JP2007207146A (ja) * 2006-02-06 2007-08-16 Alpine Electronics Inc 表示装置およびそのユーザインタフェース、メニュー提供方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107256108A (zh) * 2017-05-24 2017-10-17 努比亚技术有限公司 一种分屏方法、设备和计算机可读存储介质
US10675767B2 (en) 2017-08-02 2020-06-09 Fanuc Corporation Robot system and robot controller

Also Published As

Publication number Publication date
JPWO2015083266A1 (ja) 2017-03-16
JP6120988B2 (ja) 2017-04-26

Similar Documents

Publication Publication Date Title
JP5725259B2 (ja) 表示のための方法、装置、コンピュータ、及び携帯機器、並びに、その装置を有する車両
CN106062514B (zh) 便携式装置与车辆头端单元之间的交互
US7747961B2 (en) Display device, user interface, and method for providing menus
US20160342406A1 (en) Presenting and interacting with audio-visual content in a vehicle
JP2017507828A (ja) 車両におけるオーディオビジュアルコンテンツの提示及びこれとの相互作用
JP6244822B2 (ja) 車載用表示システム
WO2013180280A1 (ja) 車載情報システム、情報端末、アプリケーション実行方法
JP2013125540A (ja) 車両のメニュー実施方法およびメニュー実施装置
US20160231977A1 (en) Display device for vehicle
JP2016097928A (ja) 車両用表示制御装置
JPWO2006100904A1 (ja) 多重画像表示装置、多重画像表示プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
JP6033465B2 (ja) 表示制御装置
EP2444882A1 (en) Multi-view display
JP6120988B2 (ja) 表示制御装置及び表示制御方法
JP6147357B2 (ja) 表示制御装置及び表示制御方法
JP6108995B2 (ja) 車両情報表示制御装置
JP6180306B2 (ja) 表示制御装置及び表示制御方法
KR101847495B1 (ko) 인포테인먼트 디바이스 및 그 제어 방법
JP2023540568A (ja) 車両の計器盤の別個のディスプレイデバイスでのコンテンツの提示
GB2502595A (en) Touch sensitive input device compatibility notification when a mobile device is connected to an In-Vehicle device
JP6124777B2 (ja) 表示制御装置、表示制御方法及び画像設計方法
JP5901865B2 (ja) 表示制御装置及び表示制御方法
JP2020147101A (ja) 制御装置および制御方法
JP7377883B2 (ja) 端末装置、情報処理方法及び端末装置用プログラム
JP2015108984A (ja) 表示制御装置及び表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13898777

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015551342

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13898777

Country of ref document: EP

Kind code of ref document: A1