WO2020045328A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2020045328A1
WO2020045328A1 PCT/JP2019/033222 JP2019033222W WO2020045328A1 WO 2020045328 A1 WO2020045328 A1 WO 2020045328A1 JP 2019033222 W JP2019033222 W JP 2019033222W WO 2020045328 A1 WO2020045328 A1 WO 2020045328A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
unit
display unit
warning
Prior art date
Application number
PCT/JP2019/033222
Other languages
English (en)
French (fr)
Inventor
成美 的場
匠 佐藤
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Priority to JP2020539433A priority Critical patent/JP7367680B2/ja
Publication of WO2020045328A1 publication Critical patent/WO2020045328A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits

Definitions

  • the present invention relates to a display device.
  • Patent Document 1 discloses a navigation system mounted on a vehicle.
  • Japanese Patent Application Laid-Open No. H11-163873 discloses a vehicle equipped with a switch common to a plurality of in-vehicle devices including a navigation system, and in a case where a line of sight of an occupant of the vehicle points to any of the plurality of in-vehicle devices.
  • an apparatus for notifying an occupant with a pilot lamp that the device can be operated by a switch. With this device, an occupant can select an in-vehicle device to be operated with his / her line of sight without using his / her hand, and can operate it with a common switch.
  • the present invention has been made in view of the above circumstances, and has as its object to provide a display device capable of safely selecting an operation target even during driving.
  • a display device includes: A display device mounted on a vehicle, A plurality of display units that display images and are located at different positions from each other; An operation unit that enables an operation on each of the plurality of display units; A control unit that receives the operation performed on the operation unit and controls display of the plurality of display units,
  • the plurality of display units include a display unit that displays an image as a virtual image in front of the vehicle as viewed from the driver of the vehicle,
  • the control unit is capable of specifying whether or not any of the plurality of display units is in a visually recognized state in which the driver is visually recognized for a fixed period or more, When the display unit in the visual recognition state is specified from among the plurality of display units, a cursor image indicating that an operation on the display unit is possible is displayed on the display unit.
  • FIG. 1 It is a figure for explaining a mode of mounting in a vehicle of a display concerning one embodiment of the present invention. It is a figure for explaining the display mode of the head up display with which the display concerning one embodiment of the present invention is provided. It is a block diagram mainly showing the display concerning one embodiment of the present invention. It is a flow chart of selection control processing concerning one embodiment of the present invention.
  • (A)-(c) is a figure for demonstrating the example of a display of a cursor image.
  • (A) And (b) is a figure for demonstrating the example of a display of a cursor image.
  • (A)-(c) is a figure for demonstrating the operation example at the time of performing warning processing.
  • (A)-(d) is a figure for demonstrating the operation example at the time of performing the warning process concerning a modification.
  • a display device 100 includes a first display unit 11 and a second display unit 12 (hereinafter, collectively referred to as “multiple display units”) provided inside and around a dashboard 2 of a vehicle 1.
  • a display unit is also provided, and not only information about the vehicle 1 (hereinafter, also referred to as “vehicle information”) but also information other than the vehicle information is notified to the driver 5 (see FIG. 2) in an integrated manner.
  • vehicle information includes not only information on the vehicle 1 itself but also information on the outside of the vehicle 1 related to the operation of the vehicle 1.
  • the display device 100 includes a HUD (Head-Up Display) 21, a meter 22, and a control device 30, as shown in FIG.
  • HUD Head-Up Display
  • the first display unit 11 is realized by the HUD 21, and the second display unit 12 is realized by the meter 22. As shown in FIG. 1, the first display unit 11 and the second display unit 12 are located at different positions from each other, and specifically, are adjacent to each other with an interval in the vertical direction viewed from the driver 5. .
  • the HUD 21 is provided inside the dashboard 2 and emits the display light L toward the combiner-treated windshield 4.
  • the display light L reflected by the windshield 4 travels to the driver 5 side.
  • the driver 5 can visually recognize the image represented by the display light L as the virtual image V in front of the windshield 4 by placing the viewpoint in the eye box E. That is, the HUD device 100 displays the virtual image V at a position in front of the windshield 4. Thereby, the driver 5 can observe the virtual image V by superimposing it on the scenery.
  • the first display unit 11 in this specification indicates an arbitrary portion between the eye box E and the display position of the virtual image V as shown in FIG. Displaying the virtual image V by the HUD 21 is also expressed as “displaying an image on the first display unit 11”.
  • the display positions of the eye box E and the virtual image V are set in advance based on the size of the display surface of the LCD 21a, which will be described later, and the optical system configured by various mirrors in the HUD and the combiner-processed windshield 4.
  • the HUD 21 is configured to include an LCD (Liquid Crystal Display) 21a, a light source 21b (backlight) that illuminates the LCD 21a from behind, and a reflecting unit including a plane mirror and a concave mirror (not shown).
  • the LCD 21a is of a TFT (Thin Film Transistor) type
  • the light source 21b is composed of an LED (Light Emitting Diode).
  • the HUD 21 generates the display light L by the LCD 21a illuminated by the light source 21b displaying an image under the control of the control device 30.
  • the generated display light L is emitted toward the windshield 4 after being reflected by the reflector. Thereby, as described above, it is possible to display the image indicating the vehicle information on the first display unit 11. Note that the content reported by the HUD 21 using an image may partially overlap the content reported by the meter 22.
  • the meter 22 is located in front of the steering wheel 3 when viewed from the driver 5, and reports a measured amount of the vehicle 1 such as a vehicle speed, an engine speed, a total traveling distance, and a section traveling distance. That is, the meter 22 can display an image indicating a speedometer, a tachometer, an odometer, a trip meter, and the like. As shown in FIG. 3, the meter 22 includes an LCD 22a and a light source 22b (backlight) that illuminates the LCD 22a from behind. For example, the LCD 22a is of a TFT type, and the light source 22b is composed of an LED. The meter 22 displays an image indicating the measurement amount on the second display unit 12 under the control of the control device 30. That is, the image displayable area of the LCD 22a is the second display unit 12.
  • the control device 30 includes a microcomputer that controls the entire operation of the display device 100, and includes a control unit 31, a ROM (Read Only Memory) 32, and a RAM (Random Access Memory) 33, as shown in FIG. .
  • the control device 30 includes a drive circuit and an input / output circuit for communicating with various systems in the vehicle 1 as a configuration (not shown). In addition, the control device 30 appropriately measures time using a built-in timer.
  • the ROM 32 stores an operation program and various image data in advance.
  • the RAM 33 temporarily stores various calculation results and the like.
  • the control unit 31 includes a CPU (Central Processing Unit) 31a that executes an operation program stored in a ROM 32, and a GDC (Graphics Display Controller) 31b that executes image processing in cooperation with the CPU.
  • the GDC 31b includes, for example, a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), and an ASIC (Application Specific Integrated Circuit).
  • the ROM 32 stores an operation program for executing a selection control process described later.
  • the configurations of the control device 30 and the control unit 31 are arbitrary as long as the functions described below are satisfied.
  • the control unit 31 controls the driving of each of the HUD 21 and the meter 22.
  • the CPU 31a drives and controls each of the light source 21b of the HUD 21 and the light source 22b of the meter 22.
  • the GDC 31b cooperates with the CPU 31a to drive and control each of the LCD 21a of the HUD 21 and the LCD 22a of the meter 22.
  • the CPU 31a of the control unit 31 performs display control of each of the plurality of display units based on various image data stored in the ROM 32 in cooperation with the GDC 31b.
  • the GDC 31b determines the control content of the display operation of each of the plurality of display units based on the display control command from the CPU 31a.
  • the GDC 31b reads, from the ROM 32, image part data necessary to compose one screen to be displayed on each of the plurality of display units, and transfers the data to the RAM 33.
  • the GDC 31b uses the RAM 33 to create picture data for one screen based on image part data and various image data received from outside the display device 100 by communication.
  • the GDC 31b transfers the picture data to each of the plurality of display units in synchronization with the image update timing. Thereby, an image corresponding to each of the plurality of display units is displayed. Further, as described later, the control unit 31 receives an operation performed on the operation unit 70 and controls a display operation according to the received operation.
  • the CPU 31a of the control unit 31 communicates with each of the situation analysis unit 40, the ECU (Electronic Control Unit) 50, the visual line detection unit 60, and the operation unit 70 mounted on the vehicle 1.
  • communication for example, communication systems such as CAN (Controller Area Network), Ethernet, MOST, and LVDS (Low Voltage Differential Signaling) can be applied.
  • the situation analysis unit 40 outputs data indicating the situation of the vehicle 1 (hereinafter, also referred to as the own vehicle 1) itself and the surrounding conditions of the own vehicle 1 to the control unit 31 and the ECU 50.
  • the situation analysis unit 40 communicates between the vehicle 1 and a wireless network (V2N: Vehicle To Cellular Network), communicates between the vehicle 1 and another vehicle (V2V: Vehicle To To Vehicle), and communicates between the vehicle 1 and a pedestrian (V2P: It has various modules that enable communication between the vehicle 1 and the roadside infrastructure (V2I: Vehicle To Roadside Infrastructure). That is, the situation analysis unit 40 enables communication by V2X (Vehicle @ To ⁇ Everything) between the vehicle 1 and the outside of the vehicle 1.
  • V2N Vehicle To Cellular Network
  • V2V Vehicle To To Vehicle
  • V2P It has various modules that enable communication between the vehicle 1 and the roadside infrastructure (V2I: Vehicle To Roadside Infrastructure). That is, the situation analysis unit 40 enables communication by V2X (Vehicle @ To
  • the situation analysis unit 40 communicates with a communication module that can directly access a WAN (Wide Area Network), an external device (such as a mobile router) that can access the WAN, an access point of a public wireless LAN (Local Area Network), and the like. And a communication module for performing Internet communication.
  • the situation analysis unit 40 includes a GPS controller that calculates the position of the vehicle 1 based on a GPS (Global Positioning System) signal received from an artificial satellite or the like. With these configurations, communication by V2N is enabled.
  • the situation analysis unit 40 includes a wireless communication module conforming to a predetermined wireless communication standard, and performs communication using V2V or V2P.
  • the situation analysis unit 40 includes a communication device that wirelessly communicates with the roadside infrastructure.
  • a roadside installed as an infrastructure from a base station of a driving safety support system (DSSS: Driving Safety Support Systems). Obtain traffic information via a wireless device. Thereby, communication by V2I becomes possible.
  • DSSS Driving Safety Support Systems
  • the situation analysis unit 40 includes a stereo camera that captures an image of the outside of the vehicle 1 and an object detection unit including a sonar, an ultrasonic sensor, and a millimeter-wave radar, detects a danger around the vehicle 1, and warns of the detected danger.
  • the information is transmitted to the CPU 31a as information.
  • the control unit 31 displays an image for notifying warning information on the first display unit 11 corresponding to the HUD 21 so as to be superimposed on a warning target object (a vehicle ahead of the vehicle 1, a pedestrian, or the like).
  • the warning information transmitted to the CPU 31a is based on traffic information that can be obtained by V2N or V2I communication, approaching vehicle information that can be obtained by V2V communication, or pedestrian information that can be obtained by V2P communication. Is also good.
  • the ECU 50 controls each unit of the vehicle 1 based on information from each of the situation analysis unit 40, the line-of-sight detection unit 60, and the operation unit 70. For example, the ECU 50 transmits vehicle speed information indicating the current vehicle speed of the vehicle 1 to the CPU 31a. Note that the CPU 31a may acquire vehicle speed information from a vehicle speed sensor. Further, the ECU 50 transmits to the CPU 31a measurement amounts such as the engine speed, warning information of the vehicle 1 itself (low fuel, abnormal engine oil pressure, abnormal tire pressure, etc.), and other vehicle information. Based on the information obtained from the ECU 50, the CPU 31a causes the meter 22 to display vehicle information such as a vehicle speed, an engine speed, and various warnings via the GDC 31b. Note that the CPU 31a may cause the first display unit 11 corresponding to the HUD 21 to display at least a part of the vehicle information.
  • the line-of-sight detection unit 60 includes, for example, an imaging unit (for example, a stereo camera) that images the face of the driver 5 and generates image data, and an image processing unit that performs image processing of the image data. Is detected.
  • the line-of-sight detection unit 60 detects the line-of-sight direction of the driver 5 by a known image analysis method such as a pattern matching method, and transmits detection data indicating a detection result to the CPU 31a.
  • the CPU 31a stores the line-of-sight direction, the position of each of the plurality of display units (the first display unit 11 and the second display unit 12), and a later-described content image stored in the predetermined display unit.
  • the driver 5 specifies which target the driver 5 is currently viewing. That is, the CPU 31a specifies whether the predetermined target is in the visual recognition state in which the driver 5 is visually recognized or in the non-visual state in which the predetermined object is not visually recognized.
  • the gaze direction may be detected based on, for example, one of the eyes of the driver 5, or may be detected as the center of gravity of both eyes.
  • the detection data is arbitrary as long as the CPU 31a can specify whether or not the driver 5 visually recognizes a certain target.
  • the line-of-sight detection unit 60 may detect the direction of the face of the driver 5 by a known image analysis method and use the detected data as detection data.
  • the CPU 31a refers to the table data in which the orientation of the face and the position of each of the plurality of targets are stored in advance in the ROM 32, and the driver 5 visually recognizes a certain target at present. It is sufficient to specify whether or not there is.
  • the gaze detection unit 60 may be an imaging unit, an electro-oculogram sensor, or a motion sensor mounted on a wearable device worn by the driver 5 on the head.
  • the direction of the line of sight and the direction of the face can be detected in the same manner as described above, based on the image data obtained by the imaging means.
  • the electro-oculography sensor detects the gaze direction of the driver 5 based on the measured electro-oculography.
  • the motion sensor includes, for example, one or a combination of an acceleration sensor, a gyro sensor, and a geomagnetic sensor, and detects the direction of the face of the driver 5.
  • the CPU 31a may be configured to detect the gaze direction and the face direction of the driver 5 based on signals from the imaging unit and various sensors. If the CPU 31a can specify whether a certain object is in a visual recognition state in which the driver 5 is visually recognized or in a non-visual state in which the driver 5 is not visually recognized, a method of detecting the gaze direction and the face direction of the driver 5
  • the detection configuration is arbitrary.
  • the operation unit 70 includes a steering switch and a touch panel provided on the steering wheel 3, detects an operation performed by the driver 5 on the operation unit 70, and outputs the detection result to the ECU 50 and the control unit 31.
  • the driver 5 can select a target to be operated by a cursor image (notification image) C displayed according to his / her own line of sight movement by a selection control process described later, and can operate the selected target with the operation unit 70.
  • the operation unit 70 detects an operation on each of the plurality of display units.
  • the operation on the first display unit 11 corresponding to the HUD 21 is, for example, a setting operation or a selection operation of map information or route guidance information displayed as the virtual image V.
  • the operation on the second display unit 12 corresponding to the meter 22 includes, for example, an odometer confirmation operation, a trip meter setting operation, and a display mode setting operation of the meter 22. Further, the operation on the first display unit 11 and the second display unit 12 may include a reproduction operation, a selection operation, and the like when displaying entertainment information described later. Note that the display contents on each display unit and the type of operation on each display unit are not limited to these examples, and are arbitrary.
  • the vehicle 1 has an entertainment (entertainment) system for displaying entertainment information on the display device 100 and a voice input / output unit as a configuration (not shown).
  • the entertainment system includes a video / music playback unit.
  • the entertainment system may execute communication with the outside using a part of the situation analysis unit 40 described above.
  • the entertainment system can play video and music recorded on a recording medium such as a built-in memory, a CD (Compact Disc), and a DVD (Digital Video Disk) as a video / music playback unit,
  • a recording medium such as a built-in memory, a CD (Compact Disc), and a DVD (Digital Video Disk)
  • Such information (such as a work title and an author name) is supplied to the control unit 31 as entertainment information.
  • the video / music reproducing unit outputs the reproduced audio from the speaker of the audio input / output unit.
  • the audio input / output unit includes a microphone, a speaker, and the like.
  • the voice input / output unit outputs a predetermined voice from a speaker in response to a voice output command from the CPU 31a. Further, the audio input / output unit transmits input audio data corresponding to the audio input to the microphone to the CPU 31a.
  • the CPU 31a may receive an instruction operation according to the received input audio data, and may perform control such as switching between display images on each of the plurality of display units according to the received instruction operation.
  • the voice input unit of the voice input / output unit may function as the operation unit 70 instead of the steering switch or the like.
  • Selection control processing Subsequently, a selection control process executed by the control unit 31 will be described with reference to FIG.
  • the selection control process is continuously performed, for example, while the display device 100 is running.
  • the display device 100 is activated when, for example, the ignition of the vehicle 1 is turned on.
  • control unit 31 controls the predetermined display unit (the first display unit 11 or the second display unit 12) based on the detection data from the line-of-sight detection unit 60 for a certain period of time (for example, a period of several seconds predetermined in the ROM 32 in advance). As described above, it is determined whether or not the vehicle is in the visual recognition state visually recognized by the driver 5 (step S1).
  • the control unit 31 displays a cursor image C on the predetermined display unit indicating that an operation on the predetermined display unit is possible (Step S2). .
  • the cursor image C which is a notification image that notifies the second display unit 12 that an operation related to the predetermined display unit is possible, is provided. Is displayed.
  • the cursor image C is displayed as shown in FIG. That is, the driver 5 can select a target to be operated by the cursor image C displayed according to his / her own line-of-sight movement.
  • control unit 31 When the operation of the driver 5 is received via the operation unit 70 while the cursor image C is displayed on the first display unit 11, the control unit 31 performs control according to the operation (for example, display as a virtual image V). Map information and route guidance information to be set and selected, etc.).
  • the control unit 31 When the operation of the driver 5 is received via the operation unit 70 while the cursor image C is displayed on the second display unit 12, the control unit 31 performs control according to the operation (for example, an odometer or an odometer). Switching of the display of the trip meter, switching of the display mode of the meter 22, etc.).
  • the cursor image C can cause the driver 5 to recognize that an operation relating to an arbitrary content displayed on the predetermined display unit (the first display unit 11 or the second display unit 12) is possible, the cursor image C is displayed.
  • the cursor image C may be a frame-shaped image surrounding an image (content image) indicating the content displayed in the predetermined display unit, or a color, saturation, or the like of at least a part of the display area of the content image. It may be realized by changing the gradation, the luminance, or the like, or may be realized by changing the shape of the currently selected content image.
  • the control unit 31 deletes the cursor image C (Step S3).
  • the predetermined display unit the first display unit 11 or the second display unit 12
  • the cursor image C is deleted from the predetermined display unit. Is done.
  • the driver 5 does not visually recognize both the first display unit 11 and the second display unit 12
  • the cursor image C is not displayed on both display units.
  • the driver 5 shifts his / her gaze from the first display unit 11 displaying the cursor image C to the second display unit 12, the cursor image C is deleted from the first display unit 11 (step S3).
  • the cursor image C is displayed on the second display unit 12 (Step S2).
  • the driver 5 shifts his / her gaze from the second display unit 12 displaying the cursor image C to the first display unit 11, the cursor image C is deleted from the second display unit 12 (Step S3).
  • the cursor image C is displayed on the first display unit 11 (Step S2).
  • step S2 the control unit 31 determines whether or not a plurality of content images are displayed on the predetermined display unit in the visible state (step S4). If a plurality of content images are displayed (step S4) ; Yes), the cursor image C is displayed at a position corresponding to the content image being visually recognized by the driver 5 (step S5). The cursor image C in this case indicates that an operation on the content image is possible.
  • An image Im shown in FIGS. 5B and 5C and the like indicates an image displayed on an arbitrary display unit among the plurality of display units.
  • the image Im shown in FIGS. 5B and 5C includes, for example, a plurality of content images (contents A1 to A3).
  • the content A1 is located at the center of the image Im
  • the content A2 is located on the left side of the content A1 as viewed from the driver 5
  • the content A3 is located on the right side of the content A1 as viewed from the driver 5.
  • the types of the contents A1 to A3 may be various types of vehicle information and entertainment information, and are arbitrary according to the purpose.
  • FIG. 5B shows a state in which the content A2 is visually recognized by the driver 5, and indicates that an operation related to the content A2 can be performed via the operation unit 70.
  • FIG. 5C shows a visual recognition state in which the content A3 is visually recognized by the driver 5, and indicates that an operation relating to the content A3 can be performed via the operation unit 70.
  • the display position may be a position corresponding to the content image.
  • the corresponding position is not limited to a position that is superimposed on at least a part of the content image, and may be a position that is distant from the content image but indicates that the content image is selected. For example, an aspect in which an arrow-shaped cursor image C indicating the content image is displayed near the content image may be adopted.
  • the plurality of content images may be displayed according to a determination operation performed on the operation unit 70 by the driver 5.
  • 6A and 6B show examples of the display.
  • the content A1 shown in FIG. 6A is a media player displayed based on entertainment information from the entertainment system.
  • the driver 5 adjusts his / her line of sight to the content A1 for a certain period of time to display the cursor image C as shown in FIG. 6A, and sets the media player to a selected state. In this state, when a predetermined determination operation is performed on the operation unit 70, items A11, A12, and A13 for operating the media player are displayed as shown in FIG. 6B.
  • item A11 is a library genre list
  • item A12 is an album list
  • A13 is a play screen.
  • the driver 5 performs the selection operation based on the line of sight by adjusting the line of sight to any of the items A11, A12, and A13.
  • FIG. 6B shows a state where the item A11 as the genre list is selected by the cursor image C. In this state, when the driver 5 performs a predetermined operation on the operation unit 70, the music of the genre to be reproduced may be determined.
  • the content image selectable by the driver 5 based on his / her own line of sight is displayed after the driver 5 performs a predetermined operation on the operation unit 70 once or a plurality of times.
  • It may be an image (for example, the items A11 to A13).
  • the driver 5 turns his / her eyes to another display unit and changes the cursor image C. Is deleted and the predetermined display unit is visually recognized again, the control unit 31 may return to the image of the higher hierarchy (for example, the content image A1) and display the image, or store the operation history in the RAM 33 or the like.
  • images of lower layers for example, items A11 to A13
  • the immediately preceding operation is user-friendly.
  • the control unit 31 determines whether there is warning information (step S4). S6). For example, the control unit 31 determines that there is warning information when warning information of the vehicle 1 itself (such as low fuel or abnormal engine oil pressure) is acquired from the ECU 50. The control unit 31 may determine that there is warning information when acquiring warning information indicating that an object to be warned (a vehicle ahead of the vehicle 1, a pedestrian, or the like) is present from the situation analysis unit 40.
  • warning information of the vehicle 1 itself such as low fuel or abnormal engine oil pressure
  • the control unit 31 may determine that there is warning information when acquiring warning information indicating that an object to be warned (a vehicle ahead of the vehicle 1, a pedestrian, or the like) is present from the situation analysis unit 40.
  • Step S6 If there is no warning information (Step S6; No), the control unit 31 returns the process to Step S1, while if there is warning information (Step S6; Yes), executes a warning process (Step S7).
  • the control unit 31 notifies the warning information to an arbitrary area of the image Im displayed on the predetermined display unit (the first display unit 11 or the second display unit 12). Is displayed.
  • FIG. 7A shows an example in which, when there is warning information, the control unit 31 displays a warning image D instead of the content image A1 in the area where the content image A1 was displayed.
  • FIG. 7A shows a state where the content image A3 is selected by the frame-shaped cursor image C.
  • the cursor image C is moved from the state illustrated in FIG. 7A to a position corresponding to the warning image D, and transitions to the state illustrated in FIG. 7B.
  • the control unit 31 deletes the cursor image C displayed according to the content image A2, and displays the cursor image C as a highlight image at a position corresponding to the warning image D.
  • the control unit 31 may gradually move the cursor image C toward the warning image D, or may execute drawing control indicating an afterimage accompanying the movement of the cursor image C. In this manner, the driver's line of sight can be guided to the warning image D, and the presence of the warning information can be effectively notified.
  • the relationship between the warning image D and the cursor image C at the “position corresponding to the warning image D” as the position where the cursor image C is displayed is based on the relationship between the content image and the cursor image at the aforementioned “position corresponding to the content image”. This is the same as the relationship with C. Further, in the state shown in FIG. 7B, the cursor image C does not indicate an operable target, and functions as an enhanced image for enhancing the presence of the warning image D.
  • the cursor image C may be enlarged and deformed from the state shown in FIG. 7A to surround the warning image D as shown in FIG. 7C.
  • the control unit 31 may gradually enlarge the cursor image C toward the warning image D, or may execute drawing control indicating an afterimage accompanying the movement of the cursor image C.
  • the cursor image C functions as an emphasis image for emphasizing the presence of the warning image D while indicating that the operation regarding the content image A3 is possible. That is, in the state shown in FIG. 7C, the cursor image C does not merely indicate an operable target.
  • the emphasized image that emphasizes the warning image D may be in the same mode as the cursor image C.
  • the same mode includes not only a mode completely same as the cursor image C but also a mode in which the size is changed as shown in FIG. 7C, a mode in which at least a part of the color and the shape are changed, and the like.
  • the mode of the emphasized image is arbitrary as long as the driver 5 can recognize that the image is drawn using the cursor image C.
  • the warning image D is displayed in the area where the cursor image C was displayed, the cursor image C may be used as an enhanced image without moving. At this time, the color of the cursor image C may be changed, or the cursor image C may blink.
  • the control unit 31 displays the cursor image C functioning as the emphasized image at a position corresponding to the warning image D in accordance with the display of the warning image D. Good.
  • step S8 the control unit 31 determines whether a predetermined termination condition has been satisfied.
  • the termination condition is satisfied, for example, when a predetermined operation (operation for confirming the warning information) by the driver 5 is performed on the operation unit 70 or when the warning information is lost.
  • the control unit 31 continues to execute the warning process (Step S7).
  • the termination condition is satisfied (Step S8; Yes)
  • the control unit 31 executes the warning process.
  • the process ends (step S9). Specifically, the control unit 31 terminates the warning process by deleting the warning image D and stopping the movement and deformation of the cursor image C functioning as the emphasized image. After the warning process, the process returns to step S1.
  • step S7 of the selection control process the control unit 31 may execute a warning process according to a modified example in which transition examples are shown in FIGS. 8A to 8D.
  • the control unit 31 when there is warning information as described above (step S6; Yes), the control unit 31 first displays the first warning image D1 on the first display unit 11, as shown in FIG. Is displayed, and the second warning image D2 is displayed on the second display unit 12.
  • FIG. 8A illustrates an example in which the first display unit 11 is visually recognized by the driver 5.
  • the first warning image D1 and the second warning image D2 are images having different amounts of information from each other (note that, in FIG. 8, both images are simplified and the same image is shown).
  • the first warning image D1 is an image representing a content such as “There is an important warning.”
  • the second warning image D2 is The image is more specific and has more information than the first warning image D1, such as "The engine oil pressure is abnormal. Please stop after confirming safety.”
  • the control unit 31 displays the first warning image D1 and the second warning image D2, and displays the frame-shaped cursor image C displayed on the first display unit 11 at a position corresponding to the first warning image D1.
  • FIGS. 8B, 8C, and 8D are controlled by drawing so as to move from the first display unit 11 to the second display unit 12, as shown in FIGS. 8B, 8C, and 8D.
  • This guides the driver 5's line of sight from the first warning image D1 to the second warning image D2 displaying more detailed information, and effectively notifies not only the presence of the warning information but also the content thereof. be able to.
  • the cursor image C does not indicate an operable target, and informs the first warning image D1 and the second warning image D2, and particularly as an enhanced image for enhancing the presence of the second warning image D2. Function.
  • the magnitude of the information amount of the first warning image D1 and the second warning image D2 is set to the opposite relationship, and the drawing control is performed so that the cursor image C is moved from the second display unit 12 to the first display unit 11. It may be displayed. Further, the warning process according to the modification may be executed regardless of whether the first display unit 11 or the second display unit 12 is in the visible state.
  • the projection target of the display light L is not limited to the windshield 4, but may be a combiner including a plate-shaped half mirror, a hologram element, and the like.
  • the display of the HUD 21 and the meter 22 is an LCD
  • OLEDs Organic Light Emitting Diodes
  • the HUD 21 may use a reflective display device such as a DMD (Digital Micro Mirror Device) or an LCOS (Liquid Crystal On Silicon).
  • the display unit includes a display unit that displays an image as a virtual image V in front of the vehicle 1. If included, there may be three or more. Furthermore, as long as the first display unit 11 and the second display unit 12 are separated from each other, both may display an image as a virtual image V in front of the vehicle 1 by the HUD.
  • the display device 100 mounted on the vehicle 1 described above displays an image, and includes a plurality of display units (first display unit 11 and second display unit 12) located at different positions from each other.
  • An operation unit 70 that enables an operation on each of the display units, and a control unit 31 that receives an operation performed on the operation unit 70 and controls display of a plurality of display units.
  • the plurality of display units include a display unit (first display unit 11) that displays an image as a virtual image V in front of the vehicle 1 as viewed from the driver 5.
  • the control unit 31 can specify whether or not any of the plurality of display units is in a visual recognition state in which the driver 5 visually recognizes the display unit for a certain period of time or more.
  • a cursor image C indicating that an operation on the display unit is possible is displayed on the display unit.
  • the driver 5 can select a target to be operated by the cursor image C displayed according to his / her own line of sight movement, and can operate the selected target with one operation unit 70.
  • the display unit capable of displaying the cursor image C includes a display based on the HUD, it is possible to prevent the driver 5 from diverting his / her gaze from the front scene that the driver 5 should watch while driving, at the time of the selection operation with the gaze. . That is, according to the display device 100, it is possible to safely select an operation target even during driving.
  • control unit 31 when the control unit 31 specifies that the display unit on which the cursor image C is displayed among the plurality of display units is not in the visible state, the control unit 31 deletes the cursor image C from the display unit.
  • the control unit 31 may display the plurality of content images when the display unit displays the plurality of content images.
  • the content image in the display unit can also be selected with a line of sight, and is user-friendly.
  • the control unit 31 When the control unit 31 acquires the warning information from the vehicle 1 (specifically, the ECU 50, the situation analysis unit 40, or the like), the control unit 31 notifies the warning information to at least one of the plurality of display units. A warning image D is displayed, and an emphasized image in the same mode as the cursor image C is displayed at a position corresponding to the warning image D as an image for emphasizing the presence of the warning image D. (5) When displaying the warning image D, the control unit 31 may delete the displayed cursor image C and display the emphasized image at a position corresponding to the warning image D. With the configuration described in (4) or (5), the driver's line of sight can be guided to the warning image D, and the presence of warning information can be effectively notified.
  • the control unit 31 When acquiring the warning information from the vehicle 1, the control unit 31 according to the modification displays the first warning image D1 for notifying the warning information on the first display unit 11 and the second display.
  • a second warning image D2 for notifying warning information to the unit 12 is displayed, and as an image for enhancing the first warning image D1 or the second warning image D2, an emphasized image in the same mode as the cursor image C is used as a first image.
  • the display may be performed so as to move from one of the display unit 11 and the second display unit 12 to the other. With this configuration, it is possible to guide the line of sight of the driver 5 from one of the first warning image D1 and the second warning image D2 to the other, and effectively notify not only the existence of the warning information but also the content thereof. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Instrument Panels (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

運転中においても安全に操作対象を選択することができる表示装置を提供する。 車両1に搭載される表示装置100は、画像を表示し、互いに異なる位置にある第1表示部11及び第2表示部12を含む複数の表示部と、複数の表示部の各々に関する操作を可能とする操作部と、操作部に対してなされた操作を受け付けるとともに、複数の表示部の表示制御を行う制御部と、を備える。第1表示部11は、運転者から見て車両1の前方に虚像として画像を表示する。制御部は、複数の表示部のいずれかが一定期間以上、運転者に視認されている視認状態であるか否かを特定可能であり、複数の表示部のうち視認状態である表示部を特定すると、当該表示部に関する操作が可能であることを示すカーソル画像Cを当該表示部に表示する。

Description

表示装置
 本発明は、表示装置に関する。
 従来の表示装置として、特許文献1には、車両に搭載されたナビゲーションシステムが開示されている。また、特許文献1には、ナビゲーションシステムを含む複数の車載機器で共通のスイッチを備え、車両の乗員の視線が複数の車載機器のいずれかを指向している場合に、当該視線が指向する車載機器がスイッチで操作可能になったことをパイロットランプにて乗員に報知する装置が開示されている。この装置により、乗員は操作したい車載機器を手を使わずに視線で選択し、共通のスイッチにより操作することが可能となる。
特開2011-957号公報
 特許文献1に係る装置では、車両の運転者が操作対象を視線で選択する際に、視線が運転中に注視すべき車両の前方風景から逸れやすい。
 本発明は、上記実情に鑑みてなされたものであり、運転中においても安全に操作対象を選択することができる表示装置を提供することを目的とする。
 上記目的を達成するため、本発明に係る表示装置は、
 車両に搭載される表示装置であって、
 画像を表示し、互いに異なる位置にある複数の表示部と、
 前記複数の表示部の各々に関する操作を可能とする操作部と、
 前記操作部に対してなされた前記操作を受け付けるとともに、前記複数の表示部の表示制御を行う制御部と、を備え、
 前記複数の表示部は、前記車両の運転者から見て前記車両の前方に虚像として画像を表示する表示部を含み、
 前記制御部は、前記複数の表示部のいずれかが一定期間以上前記運転者に視認されている視認状態であるか否かを特定可能であり、
 前記複数の表示部のうち前記視認状態である表示部を特定すると、当該表示部に関する操作が可能であることを示すカーソル画像を当該表示部に表示する。
 本発明によれば、運転中においても安全に操作対象を選択することができる。
本発明の一実施形態に係る表示装置の車両への搭載態様を説明するための図である。 本発明の一実施形態に係る表示装置が備えるヘッドアップディスプレイの表示態様を説明するための図である。 本発明の一実施形態に係る表示装置を主に示すブロック図である。 本発明の一実施形態に係る選択制御処理のフローチャートである。 (a)~(c)は、カーソル画像の表示例を説明するための図である。 (a)及び(b)は、カーソル画像の表示例を説明するための図である。 (a)~(c)は、警告処理実行時の動作例を説明するための図である。 (a)~(d)は、変形例に係る警告処理実行時の動作例を説明するための図である。
 本発明の一実施形態に係る表示装置について図面を参照して説明する。
 本実施形態に係る表示装置100は、図1に示すように、車両1のダッシュボード2の内部及び周辺に設けられた第1表示部11及び第2表示部12(以下、纏めて「複数の表示部」とも言う。)を備え、車両1に関する情報(以下、「車両情報」とも言う。)だけでなく、車両情報以外の情報も統合的に運転者5(図2参照)に報知する。なお、車両情報は、車両1自体の情報だけでなく、車両1の運行に関連した車両1の外部の情報も含む。
 表示装置100は、図3に示すように、HUD(Head-Up Display)21と、メータ22と、制御装置30と、を備える。
 第1表示部11はHUD21により、第2表示部12はメータ22により実現される。第1表示部11と第2表示部12とは、図1に示すように、互いに異なる位置にあり、具体的には、運転者5から見ての上下方向において間隔を空けて隣り合っている。
 HUD21は、図2に示すように、ダッシュボード2の内部に設けられ、コンバイナ処理されたフロントガラス4に向けて表示光Lを射出する。フロントガラス4で反射した表示光Lは、運転者5側へと向かう。運転者5は、視点をアイボックスE内におくことで、フロントガラス4の前方に、表示光Lが表す画像を虚像Vとして視認することができる。つまり、HUD装置100は、フロントガラス4の前方位置に虚像Vを表示する。これにより、運転者5は、虚像Vを風景と重畳させて観察することができる。
 ここで、本明細書における第1表示部11は、図2に示すように、アイボックスEと虚像Vの表示位置との間における任意の部分を示すものとする。また、HUD21が虚像Vを表示することを「第1表示部11に画像を表示する」とも表現する。アイボックスE及び虚像Vの表示位置は、後述のLCD21aの表示面の大きさや、HUD内の各種の鏡とコンバイナ処理されたフロントガラス4によって構成される光学系に基づいて予め設定される。
 HUD21は、図3に示すように、LCD(Liquid Crystal Display)21aと、LCD21aを背後から照明する光源21b(バックライト)と、図示しない平面鏡及び凹面鏡からなる反射部とを有して構成される。例えば、LCD21aはTFT(Thin Film Transistor)型のものであり、光源21bはLED(Light Emitting Diode)から構成されている。
 HUD21は、制御装置30の制御の下で、光源21bに照明されたLCD21aが画像を表示することにより表示光Lを生成する。生成した表示光Lは、反射部で反射した後に、フロントガラス4に向けて射出される。これにより、前記のように、第1表示部11に車両情報を示す画像を表示することが可能となる。なお、HUD21が画像により報知する内容は、メータ22による報知内容の一部と重複していてもよい。
 メータ22は、図1に示すように、運転者5から見てステアリングホイール3の前方に位置し、車速、エンジン回転数、総走行距離、区間走行距離などの車両1に関する計測量を報知する。つまり、メータ22は、スピードメータ、タコメータ、オドメータ、トリップメータなどを示す画像を表示可能となっている。メータ22は、図3に示すように、LCD22aと、LCD22aを背後から照明する光源22b(バックライト)を含んで構成される。例えば、LCD22aはTFT型のものであり、光源22bはLEDから構成されている。メータ22は、制御装置30の制御の下で、前記計測量を示す画像を第2表示部12に表示する。つまり、LCD22aのうち、画像の表示可能領域が第2表示部12となる。
 制御装置30は、表示装置100の全体動作を制御するマイクロコンピュータからなり、図3に示すように、制御部31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33とを備える。また、制御装置30は、図示しない構成として、駆動回路や、車両1内の各種システムと通信を行うための入出力回路を備える。また、制御装置30は、内蔵のタイマにより適宜計時を行う。
 ROM32は、動作プログラムや各種の画像データを予め記憶する。RAM33は、各種の演算結果などを一時的に記憶する。制御部31は、ROM32に記憶された動作プログラムを実行するCPU(Central Processing Unit)31aと、CPUと協働して画像処理を実行するGDC(Graphics Display Controller)31bとを備える。GDC31bは、例えば、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等から構成されている。特に、ROM32には、後述する選択制御処理を実行するための動作プログラムが格納されている。また、制御装置30や制御部31の構成は、以下に説明する機能を充足する限りにおいては任意である。
 制御部31は、HUD21及びメータ22のそれぞれを駆動制御する。例えば、CPU31aは、HUD21の光源21b及びメータ22の光源22bのそれぞれを駆動制御する。また、GDC31bは、CPU31aと協働して、HUD21のLCD21a及びメータ22のLCD22aのそれぞれを駆動制御する。
 制御部31のCPU31aは、GDC31bと協働して、ROM32に記憶された各種の画像データに基づき、複数の表示部の各々の表示制御を行う。GDC31bは、CPU31aからの表示制御指令に基づき、複数の表示部の各々の表示動作の制御内容を決定する。GDC31bは、複数の表示部の各々に表示する1画面を構成するために必要な画像パーツデータをROM32から読み込み、RAM33へ転送する。また、GDC31bは、RAM33を使って、画像パーツデータや表示装置100の外部から通信により受け取った各種の画像データを元に、1画面分の絵データを作成する。そして、GDC31bは、RAM33で1画面分の絵データを完成させたところで、画像の更新タイミングに合わせて、複数の表示部の各々に転送する。これにより、複数の表示部の各々に応じた画像が表示される。また、制御部31は、後述するように、操作部70に対してなされた操作を受け付け、受け付けた操作に応じて表示動作を制御する。
 制御部31のCPU31aは、車両1に搭載された状況解析部40、ECU(Electronic Control Unit)50、視線検出部60、操作部70の各々と通信を行う。当該通信としては、例えば、CAN(Controller Area Network)、Ethernet、MOST、LVDS(Low Voltage Differential Signaling)などの通信方式が適用可能である。
 状況解析部40は、車両1(以下、自車1とも言う。)自体の状況や、自車1の周辺状況を示すデータを制御部31やECU50へ出力する。状況解析部40は、車両1とワイヤレスネットワークとの通信(V2N:Vehicle To cellular Network)、車両1と他車両との通信(V2V:Vehicle To Vehicle)、車両1と歩行者との通信(V2P:Vehicle To Pedestrian)、車両1と路側のインフラとの通信(V2I:Vehicle To roadside Infrastructure)を可能とする各種モジュールを備える。つまり、状況解析部40は、車両1と車両1の外部との間でV2X(Vehicle To Everything)による通信を可能とする。
 例えば、(i)状況解析部40は、WAN(Wide Area Network)に直接アクセスできる通信モジュール、WANにアクセス可能な外部装置(モバイルルータなど)や公衆無線LAN(Local Area Network)のアクセスポイント等と通信するための通信モジュールなどを備え、インターネット通信を行う。また、状況解析部40は、人工衛星などから受信したGPS(Global Positioning System)信号に基づいて車両1の位置を算出するGPSコントローラを備える。これらの構成により、V2Nによる通信を可能とする。(ii)また、状況解析部40は、所定の無線通信規格に準拠した無線通信モジュールを備え、V2VやV2Pによる通信を行う。(iii)また、状況解析部40は、路側のインフラと無線通信する通信装置を有し、例えば、安全運転支援システム(DSSS:Driving Safety Support Systems)の基地局から、インフラストラクチャーとして設置された路側無線装置を介して、交通情報を取得する。これによりV2Iによる通信が可能となる。
 また、状況解析部40は、車両1の外部を撮像するステレオカメラや、ソナー、超音波センサ、ミリ波レーダからなる物体検出手段を備え、車両1周囲の危険を検知し、検知した危険を警告情報としてCPU31aへ送信する。例えば、制御部31は、HUD21に対応した第1表示部11に、警告情報を報知するための画像を警告対象の物体(車両1の前方車両や歩行者など)に重畳させて表示する。なお、CPU31aへ送信される警告情報は、V2NやV2I通信により取得可能な交通情報や、V2V通信により取得可能な接近車両情報や、V2P通信により取得可能な歩行者情報などに基づくものであってもよい。
 ECU50は、状況解析部40、視線検出部60及び操作部70の各々からの情報に基づいて、車両1の各部を制御する。例えば、ECU50は、車両1の現在の車速を示す車速情報をCPU31aへ送信する。なお、CPU31aは、車速センサから車速情報を取得してもよい。また、ECU50は、エンジン回転数などの計測量や、車両1自体の警告情報(燃料低下、エンジン油圧異常、タイヤ空気圧異常など)や、その他の車両情報をCPU31aへ送信する。ECU50から取得した情報に基づいて、CPU31aは、GDC31bを介して、メータ22に車速、エンジン回転数、各種警告などの車両情報を表示させる。なお、CPU31aは、当該車両情報の少なくとも一部をHUD21に対応する第1表示部11に表示させてもよい。
 視線検出部60は、例えば、運転者5の顔を撮像し、撮像データを生成する撮像手段(例えばステレオカメラ)や、撮像データの画像処理を行う画像処理部からなり、運転者5の視線方向を検出する。例えば、視線検出部60は、パタンマッチング法などの公知の画像解析法により運転者5の視線方向を検出し、検出結果を示す検出データをCPU31aに送信する。CPU31aは、予めROM32内に格納された、視線方向と、複数の表示部(第1表示部11及び第2表示部12)の各々の位置や、所定表示部内に表示されている後述のコンテンツ画像の表示位置とが対応付けられたテーブルデータを参照し、現在、運転者5がどの対象を視認しているかを特定する。つまり、CPU31aは、所定の対象が運転者5に視認されている視認状態であるか、視認されていない非視認状態であるかを特定する。なお、視線方向は、例えば、運転者5の両目のいずれかに基づいて検出されてもよいし、両目の重心として検出されてもよい。CPU31aによって、運転者5がある対象を視認しているか否かを特定することができれば、検出データは任意である。また、視線検出部60は、運転者5の顔の向きを、公知の画像解析法により検出し、検出データとしてもよい。この場合、CPU31aは、予めROM32内に格納された、顔の向きと、複数の対象の各々の位置とが対応付けられたテーブルデータを参照し、現在、運転者5がある対象を視認しているか否かを特定すればよい。
 また、視線検出部60は、運転者5が頭部に装着したウェアラブルデバイスに搭載された撮像手段や、眼電位センサや、モーションセンサであってもよい。撮像手段による撮像データにより、前述と同様に視線方向や顔の向きを検出可能である。また、眼電位センサは、測定した眼電位に基づいて運転者5の視線方向を検出する。また、モーションセンサは、例えば、加速度センサ、ジャイロセンサ及び地磁気センサのうち1つ又は複数の組み合わせからなり、運転者5の顔の向きを検出する。
 なお、CPU31aが、撮像手段や各種センサからの信号に基づき、運転者5の視線方向や顔の向きを検出する構成としてもよい。CPU31aが、ある対象が運転者5に視認されている視認状態であるか、視認されていない非視認状態であるかを特定することができれば、運転者5の視線方向や顔の向きの検出手法及び検出構成は任意である。
 操作部70は、ステアリングホイール3に設けられたステアリングスイッチやタッチパネルからなり、操作部70に対してなされた運転者5による操作を検出し、当該検出結果をECU50や制御部31に出力する。後述する選択制御処理によって運転者5は自身の視線移動に応じて表示されるカーソル画像(報知画像)Cによって操作したい対象を選択し、選択された対象を操作部70によって操作することができる。操作部70は、複数の表示部の各々に対する操作を検出する。HUD21に対応する第1表示部11に対する操作としては、例えば、虚像Vとして表示される地図情報や経路案内情報の設定操作や選択操作などである。メータ22に対応する第2表示部12に対する操作としては、例えば、オドメータの確認操作、トリップメータの設定操作、メータ22の表示モードの設定操作などである。また、第1表示部11及び第2表示部12に対する操作は、後述のエンタメ情報を表示する際の再生操作や選択操作などを含んでいてもよい。なお、各表示部における表示内容や、各表示部に対する操作の種類は、これらの例に限定されるものではなく、任意である。
 また、車両1は、図示しない構成として、娯楽情報を表示装置100に表示するためのエンターテインメント(エンタメ)システムや、音声入出力部を有する。エンタメシステムは、映像・音楽再生部を有して構成される。エンタメシステムは、先に述べた状況解析部40の一部を利用して外部との通信を実行してもよい。例えば、エンタメシステムは、映像・音楽再生部として、内蔵メモリ、CD(Compact Disc)、DVD(Digital Video Disk)などの記録媒体に記録された映像や音楽を再生可能であるとともに、映像や音楽に係る情報(作品タイトルや作者名など)を、娯楽情報として制御部31に供給する。また、映像・音楽再生部は、音声入出力部のスピーカから再生した音声を出力する。音声入出力部は、マイク、スピーカ等からなる。音声入出力部は、CPU31aからの音声出力指令に応じてスピーカから所定の音声を出力する。また、音声入出力部は、マイクに入力された音声に応じた入力音声データをCPU31aへ送信する。例えば、CPU31aは、受信した入力音声データに応じた指示操作を受け付け、受け付けた指示操作に従って、複数の表示部の各々の表示画像を切り替える等の制御を行ってもよい。このように、音声入出力部のうちの音声入力部がステアリングスイッチなどの代わりに操作部70として機能してもよい。
(選択制御処理)
 続いて、制御部31が実行する選択制御処理について、図4を参照して説明する。選択制御処理は、例えば、表示装置100の起動中において継続して実行される。表示装置100は、例えば、車両1のイグニッションのオンに伴い起動する。
 まず、制御部31は、視線検出部60からの検出データに基づき、所定表示部(第1表示部11又は第2表示部12)が一定期間(例えば予めROM32に定められた、数秒といった期間)以上、運転者5によって視認されている視認状態であるか否かを判別する(ステップS1)。
 所定表示部が視認状態である場合(ステップS1;Yes)、制御部31は、当該所定表示部に、当該所定表示部に関する操作が可能であることを示すカーソル画像Cを表示する(ステップS2)。これにより、第2表示部12が視認状態である場合は、図1に示すように、第2表示部12に前記所定表示部に関する操作が可能であることを報知する報知画像であるカーソル画像Cが表示される。一方、第1表示部11が視認状態である場合は、図5(a)に示すようにカーソル画像Cが表示される。つまり、運転者5は、自身の視線移動に応じて表示されるカーソル画像Cによって、操作したい対象を選択することができる。
 制御部31は、第1表示部11にカーソル画像Cが表示されている際に、操作部70を介して運転者5の操作を受け付けると、当該操作に応じた制御(例えば、虚像Vとして表示される地図情報や経路案内情報の設定や選択など)を行う。また、制御部31は、第2表示部12にカーソル画像Cが表示されている際に、操作部70を介して運転者5の操作を受け付けると、当該操作に応じた制御(例えば、オドメータやトリップメータの表示切り替え、メータ22の表示モードの切り替えなど)を行う。
 ここで、カーソル画像Cは、所定表示部(第1表示部11又は第2表示部12)に表示された任意のコンテンツに関する操作が可能であることを運転者5に認識させることができれば、その態様は任意である。例えば、カーソル画像Cは、所定表示部内に表示されたコンテンツを示す画像(コンテンツ画像)を囲む枠状の画像であってもよいし、コンテンツ画像の表示領域の少なくとも一部の色、彩度、階調、輝度などを変更することで実現されてもよいし、現在選択されているコンテンツ画像の形状を変形させたものとして実現されてもよい。
 所定表示部が視認状態でない場合(ステップS1;No)、制御部31は、カーソル画像Cを消去する(ステップS3)。これにより、カーソル画像Cが表示されている所定表示部(第1表示部11又は第2表示部12)が視認状態から非視認状態になった場合は、当該所定表示部からカーソル画像Cが消去される。また、運転者5が第1表示部11も第2表示部12も視認していない場合には、双方の表示部にカーソル画像Cが表示されないことになる。また、カーソル画像Cが表示されている第1表示部11から運転者5が第2表示部12に視線を移した場合は、第1表示部11からカーソル画像Cが消去され(ステップS3)、第2表示部12にカーソル画像Cが表示される(ステップS2)ことになる。また、カーソル画像Cが表示されている第2表示部12から運転者5が第1表示部11に視線を移した場合は、第2表示部12からカーソル画像Cが消去され(ステップS3)、第1表示部11にカーソル画像Cが表示される(ステップS2)ことになる。
 ステップS2に続いて、制御部31は、視認状態の所定表示部に複数のコンテンツ画像が表示されているか否かを判別し(ステップS4)、複数のコンテンツ画像が表示されている場合(ステップS4;Yes)、運転者5が視認中のコンテンツ画像に応じた位置にカーソル画像Cを表示する(ステップS5)。この場合のカーソル画像Cは、当該コンテンツ画像に関する操作が可能であることを示す。
 ここで、複数のコンテンツ画像が表示されている場合の表示例を説明する。図5(b)、(c)等に示す画像Imは、複数の表示部のうち任意の表示部に表示される画像を示している。図5(b)、(c)に示す画像Imは、例えば、複数のコンテンツ画像(コンテンツA1~A3)を含んで構成されている。コンテンツA1は画像Imの中央部に位置し、コンテンツA2は運転者5から見てコンテンツA1の左側に、コンテンツA3は運転者5から見てコンテンツA1の右側に位置する。コンテンツA1~A3の種類は、各種の車両情報や娯楽情報であればよく、目的に応じて任意である。
 図5(b)は、コンテンツA2が運転者5に視認されている視認状態であり、操作部70を介してコンテンツA2に関する操作が可能であることを示している。図5(c)は、コンテンツA3が運転者5に視認されている視認状態であり、操作部70を介してコンテンツA3に関する操作が可能であることを示している。なお、このようにカーソル画像Cが表示される場合、その表示位置はコンテンツ画像に応じた位置であればよい。当該応じた位置とは、コンテンツ画像の少なくとも一部に重畳する位置に限られず、コンテンツ画像から離れているが当該コンテンツ画像が選択されていることが分かる位置であってもよい。例えば、コンテンツ画像の近傍に当該コンテンツ画像を指し示す矢印状のカーソル画像Cが表示されるといった態様であってもよい。
 また、複数のコンテンツ画像は、運転者5が操作部70に対して行った決定操作に応じて表示されるものであってもよい。当該表示例を図6(a)、(b)に示す。
 例えば、図6(a)に示すコンテンツA1が前記のエンタメシステムからの娯楽情報に基づいて表示されるメディアプレイヤーであるとする。運転者5は、コンテンツA1に視線を一定期間以上合わせることで、図6(a)に示すように、カーソル画像Cを表示させ、メディアプレイヤーが選択された状態とする。当該状態において、操作部70に対して所定の決定操作を行うと、図6(b)に示すように、メディアプレイヤーを操作するための項目A11、A12、A13が表示される。例えば、項目A11はライブラリのジャンルリスト、項目A12はアルバムリスト、A13はプレイ画面とする。そして、運転者5は、項目A11、A12、A13のいずれかに視線を合わせることで、視線による選択操作を行う。図6(b)は、ジャンルリストとしての項目A11がカーソル画像Cによって選択された状態を示している。当該状態において運転者5が操作部70に対して所定の操作を行うことで、再生するジャンルの楽曲を決定することが可能となっていてもよい。このように、運転者5が自身の視線により選択可能なコンテンツ画像は、運転者5が一回又は複数回、操作部70に対して所定の操作を行った後に表示される、下位の階層の画像(例えば、前記の項目A11~A13)などであってもよい。なお、図6(b)に示すように、所定表示部に表示された下位の階層の画像をカーソル画像Cで選択した後に、運転者5が他の表示部に視線を逸らして当該カーソル画像Cが消去され、再び所定表示部を視認した場合、制御部31は、上位の階層の画像(例えば、コンテンツ画像A1)に戻って表示してもよいし、操作履歴をRAM33等に記憶させておき、直前の操作に応じた下位の階層の画像(例えば、項目A11~A13)を表示してもよい。このように、直前の操作に応じた表示を行えば、ユーザフレンドリである。
 図4に戻って、ステップS3やS5の実行後や、複数のコンテンツ画像が表示されていない場合(ステップS4;No)は、制御部31は、警告情報があるか否かを判別する(ステップS6)。例えば、制御部31は、ECU50から車両1自体の警告情報(燃料低下やエンジン油圧異常など)を取得した場合に警告情報ありと判別する。なお、制御部31は、状況解析部40から警告対象の物体(車両1の前方車両や歩行者など)が存在することを示す警告情報を取得した場合に警告情報ありと判別してもよい。
 制御部31は、警告情報がない場合(ステップS6;No)、ステップS1に処理を戻す一方で、警告情報がある場合(ステップS6;Yes)、警告処理を実行する(ステップS7)。
 ここで、警告処理実行時の動作例を図7(a)~(c)を参照して、説明する。
 まず、制御部31は、図7(a)に示すように、所定表示部(第1表示部11又は第2表示部12)に表示されている画像Imの任意の領域に、警告情報を報知するための警告画像Dを表示する。図7(a)は、警告情報ありの場合に、制御部31がコンテンツ画像A1の表示されていた領域に、コンテンツ画像A1に代えて警告画像Dを表示している例を示している。また、図7(a)は、コンテンツ画像A3が枠状のカーソル画像Cによって選択されている状態を示している。
 警告処理は、一例として、図7(a)に示す状態から、カーソル画像Cを警告画像Dに応じた位置に移動させ、図7(b)に示す状態へと遷移する。この場合、制御部31は、コンテンツ画像A2に応じて表示されているカーソル画像Cを消去し、警告画像Dに応じた位置に強調画像としてのカーソル画像Cを表示する。なお、制御部31は、カーソル画像Cを警告画像Dに向かって徐々に移動させてもよいし、カーソル画像Cの移動に伴う残像を表した描画制御を実行してもよい。このようにすることで、運転者5の視線を警告画像Dへと誘導し、警告情報の存在を効果的に報知することができる。
 なお、カーソル画像Cが表示される位置としての「警告画像Dに応じた位置」における警告画像Dとカーソル画像Cとの関係は、前述の「コンテンツ画像に応じた位置」におけるコンテンツ画像とカーソル画像Cとの関係と同じである。また、図7(b)に示す状態では、カーソル画像Cは、操作可能な対象を示すものではなくなり、警告画像Dの存在を強調するための強調画像として機能する。
 また、警告処理の他の例として、図7(a)に示す状態から、カーソル画像Cを拡大変形し、図7(c)に示すように、警告画像Dを囲む態様としてもよい。この場合も、制御部31は、カーソル画像Cを警告画像Dに向かって徐々に拡大させてもよいし、カーソル画像Cの移動に伴う残像を表した描画制御を実行してもよい。図7(c)に示す状態では、カーソル画像Cはコンテンツ画像A3に関する操作を可能であることを示しつつも、警告画像Dの存在を強調するための強調画像として機能する。つまり、図7(c)に示す状態では、カーソル画像Cは、操作可能な対象を示すだけのものではなくなる。
 なお、警告画像Dを強調する強調画像は、カーソル画像Cと同じ態様であればよい。当該同じ態様とは、カーソル画像Cと完全に同じ態様だけでなく、図7(c)に示すように大きさを変形した態様や、少なくとも一部の色や形状を変更した態様などを含む。強調画像の態様は、運転者5にカーソル画像Cを用いて描画されたものであると認識させることが可能な態様であれば、任意である。また、カーソル画像Cが表示されていた領域に警告画像Dが表示される場合は、カーソル画像Cをそのまま移動せずに強調画像として用いればよい。その際に、カーソル画像Cの色を変えたり、カーソル画像Cを点滅させたりしてもよい。また、ステップS3からステップS6でYesと処理が遷移した場合、制御部31は、警告画像Dの表示に合わせて、強調画像として機能するカーソル画像Cを警告画像Dに応じた位置に表示すればよい。
 ステップS7に続いて、制御部31は、予め定められた終了条件が成立したか否かを判別する(ステップS8)。終了条件は、例えば、運転者5による所定操作(警告情報を確認した旨の操作)が操作部70になされた場合や、警告情報がなくなった場合などに成立する。制御部31は、終了条件が成立していない場合(ステップS8;No)、警告処理の実行を継続する(ステップS7)一方で、終了条件が成立した場合(ステップS8;Yes)、警告処理を終了する(ステップS9)。具体的には、制御部31は、警告画像Dを消去するとともに、強調画像として機能するカーソル画像Cの移動や変形を停止することで、警告処理を終了する。警告処理後は、ステップS1に処理を戻す。
(変形例)
 なお、選択制御処理のステップS7において、制御部31は、図8(a)~図8(d)に遷移例を示す、変形例に係る警告処理を実行してもよい。この変形例では、制御部31は、前述と同様に警告情報があった場合(ステップS6;Yes)、まず、図8(a)に示すように、第1表示部11に第1警告画像D1を表示するとともに、第2表示部12に第2警告画像D2を表示する。なお、図8(a)は、第1表示部11が運転者5に視認されている視認状態である例を示している。
 例えば、第1警告画像D1と第2警告画像D2は、互いに情報量が異なる画像である(なお、図8では簡略化して、双方の画像を同じく表している)。具体的に、一例として警告情報がエンジン油圧異常を示している場合を説明すると、第1警告画像D1は「重要な警告があります。」といった内容を表す画像であり、第2警告画像D2は、「エンジン油圧異常です。安全を確認した上で停車してください。」といった、第1警告画像D1よりも具体的で、情報量が多い画像である。
 制御部31は、このような第1警告画像D1及び第2警告画像D2を表示するとともに、第1表示部11において第1警告画像D1に応じた位置に表示されていた枠状のカーソル画像Cを、図8(b)、(c)、(d)の順で示すように、第1表示部11から第2表示部12へと移動するように描画制御して表示する。これにより、第1警告画像D1からより詳細な情報を表示している第2警告画像D2へと運転者5の視線を誘導し、警告情報の存在だけでなく、その内容を効果的に報知することができる。この場合のカーソル画像Cは、操作可能な対象を示すものではなくなり、第1警告画像D1及び第2警告画像D2を報知するとともに、特に第2警告画像D2の存在を強調するための強調画像として機能する。なお、第1警告画像D1と第2警告画像D2の情報量の大小を逆の関係とし、カーソル画像Cを、第2表示部12から第1表示部11へと移動するように描画制御して表示するようにしてもよい。また、変形例に係る警告処理は、第1表示部11又は第2表示部12が視認状態であるか否かに関わらず実行されてもよい。
 なお、本発明は以上の実施形態、変形例、及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。
 表示光Lの投射対象は、フロントガラス4に限定されず、板状のハーフミラー、ホログラム素子等により構成されるコンバイナであってもよい。
 以上では、HUD21及びメータ22のディスプレイをLCDとした例を示したが、OLED(Organic Light Emitting Diodes)を採用してもよい。また、HUD21は、DMD(Digital Micro mirror Device)やLCOS(Liquid Crystal On Silicon)などの反射型表示デバイスを用いたものであってもよい。
 また、以上では、車両1内に2つの第1表示部11及び第2表示部12を構成した例を示したが、表示部は、車両1の前方に虚像Vとして画像を表示する表示部を含んでいれば、3つ以上あってもよい。さらには、第1表示部11と第2表示部12とは、互いに離れた位置にあれば、双方ともHUDによって車両1の前方に虚像Vとして画像を表示するものであってもよい。
(1)以上に説明した、車両1に搭載される表示装置100は、画像を表示し、互いに異なる位置にある複数の表示部(第1表示部11、第2表示部12)と、複数の表示部の各々に関する操作を可能とする操作部70と、操作部70に対してなされた操作を受け付けるとともに、複数の表示部の表示制御を行う制御部31と、を備える。複数の表示部は、運転者5から見て車両1の前方に虚像Vとして画像を表示する表示部(第1表示部11)を含む。制御部31は、複数の表示部のいずれかが一定期間以上運転者5に視認されている視認状態であるか否かを特定可能であり、複数の表示部のうち視認状態である表示部を特定すると、当該表示部に関する操作が可能であることを示すカーソル画像Cを当該表示部に表示する。
 この構成により、運転者5は自身の視線移動に応じて表示されるカーソル画像Cによって、操作したい対象を選択し、選択された対象を1つの操作部70によって操作することができる。また、カーソル画像Cが表示可能な表示部はHUDによるものを含むため、視線による選択操作時に、運転者5が運転中に注視すべき前方風景から視線を逸らしてしまうことを抑制することができる。つまり、表示装置100によれば、運転中においても安全に操作対象を選択することができる。
(2)具体的に、制御部31は、複数の表示部のうちカーソル画像Cが表示されている表示部が視認状態でないと特定すると、当該表示部からカーソル画像Cを消去する。
(3)また、制御部31は、複数の表示部のうち視認状態である表示部を特定する際に、当該表示部が複数のコンテンツ画像を表示している場合には複数のコンテンツ画像のうちいずれのコンテンツ画像が視認状態であることを特定可能であり、視認状態であることを特定したコンテンツ画像に応じた位置に、カーソル画像Cとして、当該コンテンツ画像に関する操作が可能であることを示す画像を表示する。この構成により、表示部内におけるコンテンツ画像も視線で選択することができ、ユーザフレンドリである。
(4)また、制御部31は、車両1(具体的には、ECU50や状況解析部40など)から警告情報を取得した場合、複数の表示部の少なくともいずれかに警告情報を報知するための警告画像Dを表示し、警告画像Dの存在を強調するための画像として、カーソル画像Cと同じ態様の強調画像を警告画像Dに応じた位置に表示する。(5)また、制御部31は、警告画像Dを表示すると、表示されているカーソル画像Cを消去し、強調画像を警告画像Dに応じた位置に表示してもよい。
 (4)又は(5)に記載の構成により、運転者5の視線を警告画像Dへと誘導し、警告情報の存在を効果的に報知することができる。
(6)また、変形例に係る制御部31は、車両1から警告情報を取得した場合、第1表示部11に警告情報を報知するための第1警告画像D1を表示するとともに、第2表示部12に警告情報を報知するための第2警告画像D2を表示し、第1警告画像D1又は第2警告画像D2を強調するための画像として、カーソル画像Cと同じ態様の強調画像を第1表示部11と第2表示部12との一方から他方へと移動するように表示してもよい。この構成により、第1警告画像D1と第2警告画像D2との一方から他方へと運転者5の視線を誘導し、警告情報の存在だけでなく、その内容を効果的に報知することができる。
 以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。
 100…表示装置
  11…第1表示部、12…第2表示部
  21…HUD(21a…LCD、21b…光源)
  22…メータ(22a…LCD、22b…光源)
  30…制御装置
  31…制御部(31a…CPU、31b…GDC)
  32…ROM、33…RAM
  40…状況解析部
  50…ECU
  60…視線検出部
  70…操作部
   1…車両、2…ダッシュボード、3…ステアリングホイール、4…フロントガラス
   5…運転者、E…アイボックス、L…表示光、V…虚像
   C…カーソル画像、D…警告画像

Claims (6)

  1.  車両に搭載される表示装置であって、
     画像を表示し、互いに異なる位置にある複数の表示部と、
     前記複数の表示部の各々に関する操作を可能とする操作部と、
     前記操作部に対してなされた前記操作を受け付けるとともに、前記複数の表示部の表示制御を行う制御部と、を備え、
     前記複数の表示部は、前記車両の運転者から見て前記車両の前方に虚像として画像を表示する表示部を含み、
     前記制御部は、前記複数の表示部のいずれかが一定期間以上前記運転者に視認されている視認状態であるか否かを特定可能であり、
     前記複数の表示部のうち前記視認状態である表示部を特定すると、当該表示部に関する操作が可能であることを示すカーソル画像を当該表示部に表示する、
     表示装置。
  2.  前記制御部は、前記複数の表示部のうち前記カーソル画像が表示されている表示部が前記視認状態でないと特定すると、当該表示部から前記カーソル画像を消去する、
     請求項1に記載の表示装置。
  3.  前記制御部は、前記複数の表示部のうち前記視認状態である表示部を特定する際に、当該表示部が複数のコンテンツ画像を表示している場合には前記複数のコンテンツ画像のうちいずれのコンテンツ画像が前記視認状態であることを特定可能であり、
     前記視認状態であることを特定したコンテンツ画像に応じた位置に、前記カーソル画像として、当該コンテンツ画像に関する操作が可能であることを示す画像を表示する、
     請求項1又は2に記載の表示装置。
  4.  前記制御部は、前記車両から警告情報を取得した場合、前記複数の表示部の少なくともいずれかに前記警告情報を報知するための警告画像を表示し、
     前記警告画像の存在を強調するための画像として、前記カーソル画像と同じ態様の強調画像を前記警告画像に応じた位置に表示する、
     請求項1乃至3のいずれか1項に記載の表示装置。
  5.  前記制御部は、前記警告画像を表示すると、表示されている前記カーソル画像を消去し、前記強調画像を前記警告画像に応じた位置に表示する、
     請求項4に記載の表示装置。
  6.  前記複数の表示部は、前記虚像として画像を表示する第1表示部と、第2表示部とを含み、
     前記制御部は、前記車両から警告情報を取得した場合、前記第1表示部に前記警告情報を報知するための第1警告画像を表示するとともに、前記第2表示部に前記警告情報を報知するための第2警告画像を表示し、
     前記第1警告画像又は前記第2警告画像を強調するための画像として、前記カーソル画像と同じ態様の強調画像を前記第1表示部と前記第2表示部との一方から他方へと移動するように表示する、
     請求項1乃至3のいずれか1項に記載の表示装置。
PCT/JP2019/033222 2018-08-27 2019-08-26 表示装置 WO2020045328A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020539433A JP7367680B2 (ja) 2018-08-27 2019-08-26 表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018158416 2018-08-27
JP2018-158416 2018-08-27

Publications (1)

Publication Number Publication Date
WO2020045328A1 true WO2020045328A1 (ja) 2020-03-05

Family

ID=69644368

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/033222 WO2020045328A1 (ja) 2018-08-27 2019-08-26 表示装置

Country Status (2)

Country Link
JP (1) JP7367680B2 (ja)
WO (1) WO2020045328A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192410A1 (ja) * 2020-03-25 2021-09-30 株式会社Jvcケンウッド 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP7424156B2 (ja) 2020-03-25 2024-01-30 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
JP7443877B2 (ja) 2020-03-25 2024-03-06 株式会社Jvcケンウッド 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP7447602B2 (ja) 2020-03-25 2024-03-12 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013120447A (ja) * 2011-12-06 2013-06-17 Nippon Soken Inc 表示制御システム
JP2013143012A (ja) * 2012-01-11 2013-07-22 Tokai Rika Co Ltd 視線入力装置
JP2015043115A (ja) * 2013-08-26 2015-03-05 三菱電機株式会社 マルチディスプレイ制御装置およびマルチディスプレイ制御方法
JP2016157220A (ja) * 2015-02-24 2016-09-01 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013120447A (ja) * 2011-12-06 2013-06-17 Nippon Soken Inc 表示制御システム
JP2013143012A (ja) * 2012-01-11 2013-07-22 Tokai Rika Co Ltd 視線入力装置
JP2015043115A (ja) * 2013-08-26 2015-03-05 三菱電機株式会社 マルチディスプレイ制御装置およびマルチディスプレイ制御方法
JP2016157220A (ja) * 2015-02-24 2016-09-01 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192410A1 (ja) * 2020-03-25 2021-09-30 株式会社Jvcケンウッド 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP7424156B2 (ja) 2020-03-25 2024-01-30 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
JP7443877B2 (ja) 2020-03-25 2024-03-06 株式会社Jvcケンウッド 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP7447602B2 (ja) 2020-03-25 2024-03-12 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム

Also Published As

Publication number Publication date
JP7367680B2 (ja) 2023-10-24
JPWO2020045328A1 (ja) 2021-09-24

Similar Documents

Publication Publication Date Title
WO2020045328A1 (ja) 表示装置
US10250860B2 (en) Electronic apparatus and image display method
US9818206B2 (en) Display device
WO2016067574A1 (ja) 表示制御装置及び表示制御プログラム
WO2016103937A1 (ja) 投写型表示装置、安全運転支援方法、及び安全運転支援プログラム
US20160334623A1 (en) Display device, display method, and non-transitory computer readable medium storing display program
JP7017154B2 (ja) 表示制御装置、及び表示制御プログラム
JP2013112269A (ja) 車載用表示装置
JP7147370B2 (ja) 表示装置
JP2017081456A (ja) 表示装置及び表示方法
WO2019189393A1 (en) Image control apparatus, display apparatus, movable body, and image control method
EP3776152A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP2015074391A (ja) ヘッドアップディスプレイ装置
US11321922B2 (en) Virtual image display device
JP6988368B2 (ja) ヘッドアップディスプレイ装置
JP2019131022A (ja) 表示装置
US10914948B2 (en) Display device, display control method, and storage medium
JP2017149353A (ja) ヘッドアップディスプレイ装置
JP2019217910A (ja) 表示装置
JP2019132968A (ja) 表示装置
WO2020040276A1 (ja) 表示装置
JP2019207632A (ja) 表示装置
JP2021037916A (ja) 表示制御装置及び表示制御プログラム
JP2020050000A (ja) 表示装置
JP7484132B2 (ja) 重畳画像表示装置及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19854120

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020539433

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19854120

Country of ref document: EP

Kind code of ref document: A1