WO2022255409A1 - 車両用表示システム、車両用表示方法、及び車両用表示プログラム - Google Patents

車両用表示システム、車両用表示方法、及び車両用表示プログラム Download PDF

Info

Publication number
WO2022255409A1
WO2022255409A1 PCT/JP2022/022323 JP2022022323W WO2022255409A1 WO 2022255409 A1 WO2022255409 A1 WO 2022255409A1 JP 2022022323 W JP2022022323 W JP 2022022323W WO 2022255409 A1 WO2022255409 A1 WO 2022255409A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
content
vehicle
main content
related content
Prior art date
Application number
PCT/JP2022/022323
Other languages
English (en)
French (fr)
Inventor
健史 山元
静香 横山
清貴 田口
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to JP2023525891A priority Critical patent/JPWO2022255409A1/ja
Publication of WO2022255409A1 publication Critical patent/WO2022255409A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to a vehicle display system, a vehicle display method, and a vehicle display program.
  • Patent Document 1 In order to supplement the visual information necessary for driving, many peripheral monitoring functions using peripheral cameras have been proposed. See Patent Document 1, for example.
  • Patent Document 1 In the technique described in Japanese Patent Laid-Open No. 2002-200020, a plurality of images appear as if they were one by processing the captured images of the rear and side peripheral cameras into a continuous composite image.
  • an electronic mirror technology is provided that makes it easier to monitor the surroundings by understanding the turning direction with a blinker and widening the angle of view in the turning direction.
  • technology is provided to support driving by converting the information obtained from various sensors into graphical visual information, making it easier to see and understand.
  • the technology improves, the amount of information handled in the vehicle increases, and the area of the display screen of the display and the number of such screens installed tend to increase.
  • An object of the present disclosure is to provide a vehicular display system, a vehicular display method, and a vehicular display program that enable an occupant to check appropriate information while minimizing the number of times the passenger moves his/her line of sight or shakes his/her head. It is in.
  • the determination unit determines main content being viewed by a vehicle occupant
  • the change detection unit detects whether a situation related to the main content has changed or related content related to the main content has changed. Detect when conditions have changed.
  • the display processing unit changes the display mode of the main content or the related content based on the detection result of the change detection unit, and displays the main content and the related content in a visual field beyond the line of sight of the vehicle occupant.
  • the determination unit determines the main content viewed by the first vehicle occupant, and the change detection unit detects that the vehicle occupant viewing the main content has changed.
  • a display processing unit changes a display mode of the main content or the related content based on a detection result by the change detection unit, and changes the display mode of the main content and the related content, and then views the main content and the related content. is displayed in the field of view beyond the vehicle occupant's line of sight.
  • the field of view beyond the line of sight of a vehicle occupant viewing main content or related content after changing the display mode of the main content or related content based on the detection result of the change detection unit Since it is displayed in the range, the vehicle occupants can see the related content as well as the main content. Therefore, it is possible to confirm appropriate information while minimizing the number of times the passenger moves his/her line of sight or shakes his or her head.
  • FIG. 1 is a diagram showing a control image for the first embodiment
  • FIG. 2 is a block diagram schematically showing a vehicle display system
  • FIG. 3 is a flowchart schematically showing the contents of processing
  • FIG. 4 is an explanatory diagram of the display confirmed by the vehicle occupant
  • FIG. 5 shows one example of the display mode
  • FIG. 6 is a bird's-eye view showing the positional relationship between the vehicle and obstacles
  • FIG. 7 shows the second display mode example
  • FIG. 8 is an explanatory diagram of the display confirmed by the vehicle occupant
  • FIG. 9 shows the third display mode example
  • FIG. 10 is the fourth display mode example
  • FIG. 1 is a diagram showing a control image for the first embodiment
  • FIG. 2 is a block diagram schematically showing a vehicle display system
  • FIG. 3 is a flowchart schematically showing the contents of processing
  • FIG. 4 is an explanatory diagram of the display confirmed by the vehicle occupant
  • FIG. 5 shows one example of the display mode
  • FIG. 6 is
  • FIG. 11 is part 1 of explanatory diagrams of changes in the display mode
  • FIG. 12 is the second explanatory diagram of the change in the display mode
  • FIG. 13 is the fifth display mode example in the second embodiment
  • FIG. 14 shows the sixth display mode example
  • FIG. 15 is the seventh example of the display mode
  • FIG. 16 shows the eighth example of the display mode.
  • the vehicle display system 1 is composed of a cockpit system including a plurality of displays such as a center display 3 and an electronic mirror 4.
  • a cockpit system including a plurality of displays such as a center display 3 and an electronic mirror 4.
  • the number, installation, or configuration of the display is an example, and the present invention is not limited to these.
  • the center display 3 is composed of, for example, a liquid crystal display or an organic EL display, and is installed between the driver's seat and the passenger's seat.
  • the center display 3 is provided near the center console so that both the driver and the passenger in the front passenger seat can easily see it, and can display various contents.
  • An operation panel 21 is formed on the center display 3, and selection of contents to be displayed on the center display 3, air conditioning operation, audio operation, and input operation of the navigation function can be performed.
  • the electronic mirror 4 is configured using a door mirror camera 4a and a display 4b. See Figure 2.
  • the door mirror camera 4a is a peripheral camera 23 that captures an image of the rear side of the vehicle Ca from the position where the door mirror of the vehicle Ca is installed, that is, the side rear side.
  • the display 4b of the electronic mirror 4 is composed of, for example, a liquid crystal display or an organic EL display.
  • the displays 4b are installed one by one at the left and right positions of the driver, for example, under the A pillar in the vehicle interior.
  • the display 4b of the electronic mirror 4 is provided at a position where the driver can easily check the rear side of the vehicle, and the display 4b is configured to display information about the surroundings of the vehicle captured by the door mirror camera 4a.
  • the ECU 5 includes a display system ECU, a surrounding monitoring system ECU, a travel control system ECU, and a DCM that communicates with the outside of the vehicle.
  • DCM is an abbreviation for Data Communication Module.
  • the travel control system ECU includes a well-known vehicle control ECU, engine control ECU, motor control ECU, brake control ECU, steering control ECU, integrated control ECU, and the like.
  • the travel control system ECU includes an automatic driving ECU.
  • the autonomous driving ECU is the Autonomous Driving Electric Control Unit.
  • Level I driving assistance includes automatic braking to avoid collisions with obstacles, follow-up driving that follows the vehicle in front, or lane-departure prevention driving that controls the vehicle so that it does not stray from the lanes on both sides.
  • level II automated driving a combination of level I driving assistance, or automated driving under specific conditions, such as automatically overtaking a slow vehicle on an expressway or automatically merging on an expressway. You can run an automatic driving mode that In Level III and higher autonomous driving, the system performs all driving tasks while being supervised by the system.
  • Each ECU 5 is mainly composed of a microcomputer equipped with a processor, various storage units 6 such as cache memory, RAM and ROM, I/O, and a bus connecting them. Each ECU 5 is communicably connected to other ECUs 5 provided in the vehicle through the communication control unit 7 and the in-vehicle network 25 .
  • a plurality of display system ECUs 5 constitute an HCU as the vehicle device 10, and share the processing capacity of the physical resources inside the display system ECUs 5 to perform center display. 3 and electronic mirror 4 display 4b.
  • the display system ECUs 5 may be connected to each other through a dedicated line, or may be configured by one ECU 5 .
  • HCU is an abbreviation for Human Machine Interface Control Unit and indicates an information presentation control device.
  • the storage unit 6 described above indicates a non-transitional material storage medium that non-temporarily stores computer-readable programs and data.
  • a non-transitional material storage medium is implemented by a semiconductor memory or the like.
  • the vehicle device 10 includes a control device 11, an arithmetic device 12, a storage unit 6, a display processing unit 13, an audio processing unit 14, and an I/O control unit that manages inputs or outputs from various devices. 15 and a communication control unit 7 that manages communication with another ECU 5 .
  • the output signals of the position detector 19, the operation panel 21, the occupant monitor 22, the peripheral camera 23, and the distance detection sensor 24 shown in FIG. 25, signals may be input from other ECUs 5 such as a perimeter monitoring ECU and a travel control ECU.
  • the arithmetic device 12 displays contents such as images, sentences, characters (hereinafter referred to as images, etc.) stored in the storage unit 6 on the center display 3 and the display 4b of the electronic mirror 4.
  • a display area to be displayed on the display screen is calculated, and it is determined in which area of the display screen of the center display 3 or the display 4b of the electronic mirror 4 content such as an image is to be displayed, or in which area the content is to be superimposed and displayed. Then, the display area is output to the display processing unit 13 through the control device 11 together with the content such as the image.
  • the display processing unit 13 displays contents such as images in the above-described display areas in the display screens of the center display 3 and the display 4b of the electronic mirror 4. As a result, contents such as images can be superimposed and displayed for each display layer on the display screens of the displays 3 and 4b.
  • the voice processing unit 14 receives received voice input from the microphone 17 and outputs transmitted voice from the speaker 18 .
  • the voice processing unit 14 converts it into voice, reads it out through the speaker 18, and outputs it.
  • the position detector 19 detects the position with high accuracy using a well-known GNSS receiver such as GPS (not shown) and an inertial sensor such as an acceleration sensor or a gyro sensor.
  • the position detector 19 outputs a position detection signal to the control device 11 through the I/O control section 15 .
  • the position specifying unit 11a of the control device 11 realizes a function as an ADAS locator that sequentially measures the current position of the vehicle with high accuracy based on the map information input from the map data input device and the position detection signal of the position detector 19. do.
  • ADAS stands for Advanced Driver Assistance Systems.
  • the vehicle position is represented by a coordinate system consisting of latitude and longitude.
  • the X axis indicates longitude and the Y axis indicates latitude.
  • a vehicle speed sensor mounted on the own vehicle Ca may be used.
  • the vehicle speed sensor detects the speed of the vehicle and outputs a speed signal to the control device 11 .
  • Various configurations can be adopted as long as the position of the own vehicle Ca can be specified, such as positioning based on information on the distance traveled based on the sensing result of the vehicle speed sensor.
  • the control device 11 can perform so-called navigation processing based on the current position of the host vehicle Ca.
  • the operation panel 21 is a touch panel configured on the center display 3 , and the I/O control unit 15 receives an operation input when there is an operation input by the passenger and outputs it to the control device 11 .
  • the control device 11 executes control based on operation signals from the operation panel 21 .
  • the occupant monitor 22 detects the state of the occupant in the vehicle or the operating state.
  • the occupant monitor 22 is configured using, for example, a power switch, occupant state monitor, turn switch, automatic control switch, etc., and outputs various signals to the control device 11 .
  • the occupant monitor 22 includes a steering sensor that detects whether the steering wheel is being gripped or steered by the driver, a seating sensor that detects whether the driver is seated, an accelerator pedal or brake pedal depression sensor, and the like. may contain
  • the occupant condition monitor When the power switch is turned on by the passenger inside the vehicle to start the internal combustion engine or electric motor, it outputs a signal corresponding to the operation.
  • the occupant condition monitor includes a camera that detects the condition of the occupant in the D seat or the P seat by capturing the condition of the occupant with an image sensor and outputs an image signal.
  • the driver's occupant condition monitor is called DSM.
  • DSM is an abbreviation for Driver Status Monitor.
  • the occupant condition monitor acquires an imaging signal obtained by irradiating the head of the driver with near-infrared light and capturing an image, analyzes the image as necessary, and outputs the signal to the control device 11 .
  • the occupant condition monitor is used to detect the condition of the occupants such as the driver, especially during driving assistance and automatic driving.
  • the turn switch is turned on by an occupant in the vehicle interior when activating the direction indicator of the vehicle Ca, and outputs a turn signal for turning right or left according to the operation.
  • the automatic control switch outputs an automatic control signal according to the operation when it is turned on by the passenger inside the vehicle in order to command a predetermined driving assistance or automatic control for the running state of the vehicle.
  • the control device 11 can determine the behavior of the vehicle occupant, for example, in which direction the line of sight is directed, based on the sensor signal of the occupant monitor 22, and can also determine the operating state of the power switch, the operating state of the direction indicator, and the automatic control of the vehicle. command information, speed information from the speed sensor of the vehicle, etc. can be input.
  • the peripheral camera 23 is a front view camera that images the front of the vehicle, a back camera that images the rear of the vehicle, a corner camera that images the front and rear sides of the vehicle, or a side camera that images the side of the vehicle. , the door mirror camera 4a of the electronic mirror 4, etc.
  • These are the front guide monitor, the back guide monitor, the corner view monitor, the side guide monitor, and the electronic mirror 4 as respective imaging signals through the I/O control unit 15 to the control device 11 and stored in the storage unit 6 .
  • the display 4b of the electronic mirror 4 displays the image captured by the door mirror camera 4a.
  • the electronic mirror 4 reproduces a rearview mirror. Therefore, the electronic mirror 4 causes the display 4b for the electronic mirror 4 to display an image obtained by mirror-reversing the image captured by the door mirror camera 4a.
  • the vehicle is equipped with a distance detection sensor 24 that detects the distance to obstacles as a peripheral monitoring sensor.
  • the distance detection sensor 24 is configured by a clearance sonar 24a, LiDAR, millimeter-wave radar, or the like, and detects obstacles such as vehicles and people approaching the front of the vehicle, the front side of the vehicle, the rear side of the vehicle, the rear of the vehicle, or the side of the vehicle. Detect distance to objects.
  • SoC is an abbreviation for System On Chip.
  • the mounted SoC incorporates the aforementioned microcomputer.
  • the microcomputer incorporated in the SoC of the ECU 5 is configured to run various applications (hereinafter abbreviated as apps) on a pre-installed general-purpose OS and real-time OS. A function to be described later can be realized.
  • Applications include image processing applications and other applications.
  • a processor incorporated in the SoC performs drawing processing on the display screens of the center display 3 and the display 4b of the electronic mirror 4 in response to a drawing request from the image processing application.
  • the content drawn by the application can also be displayed on another display, here the center display 3.
  • Applications include navigation applications and the like.
  • the navigation application implements a navigation function, and draws a navigation screen including a map image and the current position of the vehicle mainly displayed on the center display 3 or the display 4b of the electronic mirror 4. FIG.
  • the app also includes an image synthesis app.
  • the image synthesizing application identifies the sizes and types of various image contents to be displayed on the display device, synthesizes the images of the image contents in one frame, and displays this synthesized mixed image on the display of the center display 3 or the electronic mirror 4. It is an application that outputs to 4b.
  • the image synthesizing application implements a function as an image synthesizing unit, also called a compositor, and a function as an image output unit.
  • the app also includes a detection app.
  • the detection application detects the gestures of the occupants in the vehicle based on the imaging signals from the occupant monitor 22, detects the operations by fingers and their line of sight, and detects the facial expressions and gestures of the occupants in the vehicle. Also, the operator of the touch panel of the operation panel 21 is detected.
  • a display layer for drawing image content is assigned to each application that draws image content. These display layers are secured on the storage unit 6 in sizes capable of drawing necessary image contents.
  • Contents include entertainment content such as movies and television images, meter screens, images captured by the door mirror cameras 4a of the electronic mirrors 4, peripheral cameras 23 (for example, front imaging cameras, corner cameras, side cameras, back cameras, door mirror cameras 4a, etc.). ), or an around-view image content created by synthesizing images captured by the surrounding cameras 23, and the like.
  • the above-mentioned contents are associated with each other, and are registered in the storage unit 6 as a database with the relationship between the main contents and the related contents.
  • the image captured by the electronic mirror 4 is associated with content indicating the detection states Sa and Sb of the clearance sonar 24a.
  • the captured images of the peripheral cameras 23 described above that is, the captured images of the front imaging camera, the corner camera, the side cameras, the rear camera, and the door mirror camera 4a are associated with each other.
  • map images and meter images related to navigation are stored in association with the images captured by the electronic mirror 4 .
  • the content of supplementary information is associated with the navigation map image and stored in the storage unit 6 .
  • the supplementary information is, for example, the contents of the operation instruction button display screen such as destination, current location, navigation setting, environment setting, map detail display, display change, map display off, destination set, point registration, wide area map change, and the like.
  • information on facilities such as restaurants near the location of the map is associated with each other and stored in the storage unit 6 .
  • the control device 11 can refer to the storage unit 6 to read and refer to the related content related to this main content.
  • the display processing unit 13 can display the main content and the related content on the display 3 or 4b at the same time.
  • an animation action means a gradual change in the position or size of an image showing content, rotation of an image, overall movement of the user interface with a swipe operation, or gradual fading of an image. It is a display mode in which the image is displayed in or faded out, or the color of the image is changed.
  • the animation action is not limited to these, and is included in the animation action as long as the display mode changes continuously or intermittently from a certain time point.
  • the control device 11 shown in FIG. 2 executes various applications stored in the storage unit 6.
  • the control device 11 executes the navigation application stored in the storage unit 6 to realize the navigation function.
  • the control device 11 executes the detection application stored in the storage unit 6, based on the monitor signal of the occupant monitor 22, the driver seat (hereinafter referred to as D seat), the passenger seat (hereinafter referred to as P seat), and the driver seat (hereinafter referred to as P seat) ), and the presence or absence of passengers sitting in the rear seats can be detected.
  • D seat the driver seat
  • P seat passenger seat
  • P seat the driver seat
  • P seat the driver seat
  • It also functions as a line-of-sight detection unit 11b that detects the line-of-sight of an occupant sitting in the D seat, the P seat, or the rear seat.
  • the control device 11 By executing the application stored in the storage unit 6, the control device 11 realizes the function as the determination unit 11c that determines the main content viewed by the vehicle occupants. By executing the application stored in the storage unit 6, the control device 11 changes the situation related to the main content, changes the situation of the related content related to the main content, or changes the vehicle occupant viewing the main content. It realizes a function as a change detection unit 11d that detects that the Further, the control device 11 executes an application stored in the storage unit 6 to realize a function as a driving load determination unit 11e that determines the driving load of the vehicle occupant, particularly the driver.
  • the display processing unit 13 changes the display mode of the main content or the related content based on the detection result of the change detection unit 11d, and displays the main content and the related content in a predetermined visual field beyond the line of sight of the vehicle occupant.
  • the control device 11 starts an application such as a navigation application in S1.
  • the application is started, in S2, the passenger monitor 22 is used to monitor the line of sight of the vehicle passenger, and the display processing unit 13 outputs and displays images on the displays 3 and 4b.
  • the control device 11 determines the content being viewed by the driver in S4 and certifies it as the main content.
  • a driver is equivalent to a first vehicle occupant.
  • the content being viewed can be determined by determining which display 3 or 4b the driver is viewing by detecting the line of sight of the driver.
  • control device 11 determines whether or not the situation related to the main content has changed in S5, determines whether or not the situation of the related content has changed in S6, and determines whether the vehicle viewing the main content changes in S7. It is determined whether or not the occupant has changed.
  • the determination content of S5, ⁇ the situation related to the main content has changed'' is that, for example, when the captured image of the electronic mirror 4 is recognized as the main content, an obstacle is imaged in the captured image of the electronic mirror 4 by backing up the vehicle. It shows a case where a change that begins to be recognized is detected.
  • the main content viewed by the driver is the detection situation Sa of the clearance sonar 24a, and the clearance sonar 24a detects some change such as detecting an obstacle around the vehicle Ca. That is, when some change occurs in the main content, YES is determined in S5.
  • the determination content of S6, ⁇ change in status of related content'' is related content related to the captured image of the electronic mirror 4 when the main content being viewed by the driver is the captured image of the electronic mirror 4, for example.
  • the detection situation Sa of the clearance sonar 24a changes, for example, when an obstacle starts to be detected, it is shown.
  • the determination content of S6 "change in status of related content" is an electronic mirror related to the detection situation Sa of the clearance sonar 24a. 4 shows a case where an obstacle is detected in the captured image of No. 4 and a change occurs in the image recognition state of the captured image. In other words, YES is determined in S6 when there is some change in the related content related to the main content.
  • control device 11 determines that the status related to the main content has changed in S5 or that the status of the related content has changed in S6, the display mode is changed in S9, and the display 3 displayed in S10. 4b is specified, and the display processing unit 13 outputs and displays the image on the specified displays 3 and 4b.
  • the determination content of S7 "Change in occupants viewing the main content” indicates, for example, the case where it is detected that the line of sight of the driver deviates from the main content and that the occupant in the P seat has begun to view the same main content.
  • YES is determined in S7 when the occupant viewing the specific main content has changed. Passenger in P seat is second vehicle occupants.
  • control device 11 determines in S7 that the vehicle occupant viewing the main content has changed, the control device 11 uses the occupant monitor 22 to detect the line of sight of the second vehicle occupant viewing the main content in S8, and then detects the line of sight of the second vehicle occupant viewing the main content in S9.
  • the display mode of the main content or the related content is changed, the display (for example, 3, 4b, etc.) to be displayed is specified in S10, and the image is output and displayed in S11.
  • the control device 11 detects that the driver is looking at the detection situation Sa of the clearance sonar 24a. At this time, the detection status Sa of the clearance sonar 24a is recognized as the main content.
  • the display processing unit 13 directly displays the detection situation Sa of the clearance sonar 24a on the center display 3 as shown in FIG. to display.
  • the display processing unit 13 displays the detection direction of the obstacle reacting to the clearance sonar 24a and the captured image of the peripheral camera 23 that captures the periphery of the detection direction in the field of view range as related content. Specifically, the display processing unit 13 displays a warning in the direction in which the obstacle is detected together with the detection situation Sa of the clearance sonar 24a. It is preferable to display an image picked up by the surrounding camera 23 corresponding to . 6, it is preferable to display an image picked up by the door mirror camera 4a of the electronic mirror 4 that picks up an image of the rear left, as shown in FIG. At this time, the display processing unit 13 should display the image so as to be within the visual range of the vehicle occupant.
  • the display processing unit 13 sets the captured image of the door mirror camera 4a of the electronic mirror 4 as the related content to the electronic mirror at the default predetermined position. 4 is displayed on the display 4b, and the related content can be moved to the visual field range of the center display 3 after the change in situation is detected. At this time, the display processing unit 13 may erase the related content displayed on the display 4b of the electronic mirror 4 as a default, or duplicate the content on the center display 3 while displaying it on the display 4b of the electronic mirror 4. may be displayed.
  • the display processing unit 13 change the position where the related content is displayed according to the relative positional relationship between the position of the vehicle occupant viewing the main content and the main content. For example, when the related content is related to the right side of the driver viewing the main content, it is preferable to display the related content on the right side of the main content. When the related content is related to the left side of the driver who is using the main content, it is preferable to display the related content on the left side of the main content. Further, for example, when it is detected that the passenger in the P seat has viewed the content, the content may be displayed on the side of the passenger in the P seat. When a dangerous place is shown by a captured image, it is preferable to display the dangerous place at a relative position centering on the main content.
  • the control device 11 detects the change in the movement of the line of sight, and the display processing unit 13 directs the line of sight to the predetermined center display 3.
  • the display processing unit 13 it is preferable to display the captured image of the surrounding camera 23 that captures the direction in which the clearance sonar 24a responds.
  • the display processing unit 13 preferably displays the image content so as to be within the visual field range to which the line of sight is moved.
  • the display processing unit 13 displays the detection status Sa of the clearance sonar 24a on the center display 3, it is further determined that the driver is looking at the detection status Sa of the clearance sonar 24a. In this case, the display processing unit 13 causes the same display 3 to display the captured image of the electronic mirror 4 together with the image of the normal detection situation Sa of the clearance sonar 24a.
  • the display processing unit 13 displays the captured image on the display 4b of the electronic mirror 4 and determines that the electronic mirror 4 is seen by the driver, the display processing unit 13 displays the normal captured image of the electronic mirror 4. At the same time, the detection status Sa of the clearance sonar 24a is displayed on the same display 4b. In other cases, normal display continues. This makes it possible to make the driver conscious of caution.
  • the display processing unit 13 should collectively display them as main content and related content in one place. .
  • the display processing unit 13 can change the related content or change the display mode of the related content according to the level of the display priority set for the main content and the related content according to the driving environment or the traffic situation. desirable.
  • the control device 11 sets the display priority to the image captured by the peripheral camera 23 and the image captured by the electronic mirror 4 according to the ever-changing driving environment or traffic conditions, and uses the display priority to set the display priority. Images should be displayed on 3 and 4b. At this time, it is preferable to display the images on the display 3 or 4b in order of the content having the highest display priority.
  • the related content should be displayed so as to stand out from the main content.
  • the status of the related content changes and the display priority is changed to be higher, it is preferable to change the related content itself or change the display mode of the related content for display processing.
  • the control device 11 can determine the situation in which the vehicle Ca is placed in the traffic situation including the driving environment or the location and time by detecting the image captured by the peripheral camera 23 and the behavior of the vehicle Ca.
  • the position specifying unit 11a recognizes that the vehicle is traveling on a highway. While traveling on a highway, when the control device 11 detects many other vehicles Ce in the vicinity of the own vehicle Ca and detects that the traveling speed of the own vehicle Ca has rapidly decreased within a predetermined time, the expressway travel is stopped. It is possible to determine the driving environment and traffic conditions of the own vehicle Ca that is caught in a traffic jam.
  • control device 11 refers to the database in the storage unit 6 and uses the peripheral camera 23 and the distance detection sensor 24 to detect the vehicle Ca. , or whether or not the number of other vehicles Ce increases in the vicinity of the own vehicle Ca, thereby determining whether or not traffic congestion occurs, and the extent of traffic congestion. can be predicted.
  • the control device 11 refers to the database in the storage unit 6 to detect that traffic congestion has occurred, and furthermore, to what degree the traffic congestion will occur. For example, in the center display 3 displaying a map screen as the main content, the picked-up image of the back camera of the surrounding cameras 23 showing the situation of the following vehicle of the own vehicle Ca is displayed on the center display 3 as the related content. and good. Such display processing can alert the driver.
  • the control device 11 determines whether or not the shift range has entered the R range, and refers to the database stored in the storage unit 6. A phenomenon that is likely to cause an accident when the vehicle is parked in a home parking space is estimated and reflected in the display priority of the image displayed on the display 3 or 4b.
  • the controller 11 can refer to this accident event.
  • the clearance sonar 24a detects an obstacle on the right rear side
  • FIG. 4 is displayed on the display 4b.
  • FIG. 12 it is preferable to display the detection situation Sb on the right side larger than the detection situation Sa so as to call the driver's attention.
  • the detection situation Sb on the right side is displayed as related content, but the detection situation Sa on the left side may also be displayed.
  • the display mode of the main content or the related content is changed based on the detection result by the change detection unit 11d, and displayed in the visual field beyond the line of sight of the vehicle occupant viewing the main content or the related content.
  • the vehicle occupant can simultaneously check the related content along with the main content.
  • the vehicle occupant can confirm appropriate information while reducing the number of times of moving the line of sight and the number of times of shaking the head as much as possible.
  • FIG. 13 to 16 A second embodiment will be described with reference to FIGS. 13 to 16.
  • FIG. The second embodiment will explain the relationship between the main content and the related content when the passenger views a map screen drawn according to the navigation application.
  • a map screen B1 shown in FIG. 13 is drawn on the display 3 or the like as the navigation application is executed.
  • the display processing unit 13 preferably displays the map screen B1 on the full display screen of the center display 3 in a large size. This is because the driver can easily check the map screen B1 while paying attention to the front during normal driving. That is, when the control device 11 detects that the driver is looking at the map screen B1 through the occupant monitor 22, the display processing unit 13 displays the map screen B1 on the full display screen of the center display 3 in a large size. should not be displayed.
  • the supplementary information shown in FIG. 15 includes, for example, destination setting B4, current location setting B5, other navigation setting B6, environment setting B7, detailed map display, display change, map display off, destination set, point registration, wide area map change, etc. This is the content of the operation instruction button display screen B8.
  • the display processing unit 13 does not display the supplementary information. is superimposed.
  • information can be provided while increasing the information step by step, and information can be provided according to the situation.
  • the amount of provided information that the driver can intuitively check with a delay increases, and the driver's cognitive processing load is reduced.
  • control device 11 and the display processing unit 13 should change the content displayed on the center display 3 depending on whether it is viewed by the driver or by the passenger in the P seat. That is, when it is determined in S7 of FIG. 3 that the passenger viewing the map screen has changed and the navigation map information is being viewed by the passenger in the P seat, the control device 11 detects the line of sight of the passenger in the P seat in S8. After that, the display processing unit 13 displays, in steps S9 to S11, for example, entertainment information being held near the current location being displayed on the map screen B1, and recommended stores B9 in the vicinity as shown in FIG. 16 as related contents. good to handle.
  • the display processing unit 13 should display the related content on the passenger side of the P seat who is looking at the map screen B1. At this time, it is preferable to display it in the visual range of the line of sight of the passenger in the P seat.
  • the P-seat occupant can reduce the frequency of line of sight movement and reduce the number of swings.
  • control device 11 determines the driver's driving load by the driving load determination unit 11e, and the display processing unit 13 performs display processing by changing the information amount of the related content according to the driver's driving load.
  • the driving load can be calculated by detecting the driving actuators operated by the driver, the operation status of the navigation display screen, the automatic driving level, or the state of the occupant by the occupant monitor 22 using known techniques.
  • the control device 11 determines that the driving load of the driver is within the standard range by the driving load determination unit 11e, the information amount is displayed as a normal predetermined amount, but when the driving load is determined to be lower than the standard , the amount of information may be increased for display processing. Conversely, when it is determined that the driver's driving load is higher than the standard, it is preferable to use a less conspicuous expression than the standard or reduce the amount of information. In other words, it is preferable to change the amount of information about the related content according to the driving load of the driver and perform display processing.
  • the driver's load when the vehicle is stopped, or when the navigation destination or current location is set while the vehicle is stopped, the driver's load is low, so the amount of related content information may be displayed with a larger amount than the standard. Also, during automatic driving at level III or higher, it may be determined that the driver's driving load is low, and similarly the amount of information may be increased from the standard and displayed. Also, during follow-up driving by ACC or steady-state driving by lane keeping assist (LAS), it may be determined that the driving load is low, and similarly, the amount of information of related content may be increased from the standard and displayed.
  • LAS lane keeping assist
  • the control device 11 determines that there are more obstacles around the vehicle than a predetermined amount by the surroundings monitoring sensor, or by referring to traffic information such as VICS (registered trademark), the traffic volume in the surroundings is greater than a predetermined amount.
  • VICS registered trademark
  • the traffic volume in the surroundings is greater than a predetermined amount.
  • the lane change assist is Lane Change Assist. It is preferable that the control device 11 determines that the driving load is high while the lane change assist is being performed, and reduces the information amount of the related content from the standard or displays it inconspicuously.
  • the display processing unit 13 determines whether or not to display the related content or changes the display mode depending on whether or not the related content is confirmed by one or more vehicle occupants. This is because safety can be improved by not allowing vehicle occupants such as the driver to check the related content depending on the situation.
  • the control device 11 determines which crew member is watching when there are a plurality of crew members watching the moving image content, and stops displaying the moving image content when the driver is watching and there is a problem in the safety of vehicle operation. is desirable.
  • the vehicle changes from being stopped to being driven, it is desirable to stop the video content when the driver detects that he is watching entertainment-related video content.
  • the driver may be treated like an occupant in the P seat, and the display processing unit 13 may continue to display moving image content.
  • the main content and the related content are displayed in the visual field beyond the line of sight of the vehicle occupant. It may be adjusted and displayed in the viewing range.
  • 11c is a determination unit
  • 11d is a change detection unit
  • 11e is a driving load determination unit
  • 13 is a display processing unit.
  • the controller 11, display processor 13 approach described in the present disclosure is provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a dedicated computer. Alternatively, the control device 11, display processing unit 13, and techniques described in the present disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the control device 11, display processing unit 13, and techniques described in the present disclosure are configured with a processor and memory and one or more hardware logic circuits programmed to perform one or more functions. It may also be implemented by one or more dedicated computers configured in combination with processors. The computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

判定部(11c)は、車両乗員により見られている主コンテンツを判定する。変化検知部(11d)は、主コンテンツに関連する状況が変化、又は、主コンテンツに関連する関連コンテンツの状況が変化したことを検知する。表示処理部(13)は、変化検知部による検知結果に基づいて主コンテンツ又は関連コンテンツの表示態様を変更し、主コンテンツ及び関連コンテンツを車両乗員の視線の先の視野範囲に表示する。

Description

車両用表示システム、車両用表示方法、及び車両用表示プログラム 関連出願の相互参照
 本出願は、2021年6月2日に出願された日本出願番号2021-092992号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両用表示システム、車両用表示方法、及び車両用表示プログラムに関する。
 運転に必要な視覚情報を補うため、周辺カメラを使用した周辺監視機能が多数提案されている。例えば特許文献1参照。特許文献1記載の技術では、後方と側面の周辺カメラの撮像画像を連続した合成画像に加工することで、複数の画像を1枚のように見せている。また、ウィンカにより曲がる方向を理解し、曲がる方向の画角を広げることで周辺監視をしやすくした電子ミラー技術も提供されている。
 このように、複数画像を連続した一つの画像に加工したり、カメラ側で機械的に画角を変更したりすることで、乗員が確認している場所を概ね変更することなく、本来確認させるべき画像を視認させることができる。これらの課題は、表示器の表示面積を大きくしながらフレーミングすることでも解決できるが、フレーミング技術だけでは車両乗員が求める情報を提供できない。
 また、各種センサ類から得られる情報をグラフィカルな視覚情報にすることで、見やすく分かりやすい情報に変更して運転をサポートする技術も提供されている。技術が向上するにつれて車両内で取り扱われる情報は増加し、ディスプレイの表示画面の面積とその設置個数は増加傾向にある。
 多くの情報が表示されていれば車両乗員をサポートできるが、乗員の視野範囲は限られているため全ての情報を一度に確認できない。そのため、車両乗員が視線を移動する回数が増加したり、首を振ったりする回数が増加し不便となる。また、多くの情報が表示されていると、必要且つ適切な情報をわずかな時間で探索し一目で確認することも困難である。
特開2019-118016号公報
 本開示の目的は、乗員が視線を移動する回数や首を振る回数を極力抑制しながら適切な情報を確認できるようにした車両用表示システム、車両用表示方法及び車両用表示プログラムを提供することにある。
 本開示の一態様によれば、判定部は、車両乗員により見られている主コンテンツを判定し、変化検知部は、主コンテンツに関連する状況が変化、又は、主コンテンツに関連する関連コンテンツの状況が変化したことを検知する。表示処理部は、変化検知部による検知結果に基づいて主コンテンツ又は関連コンテンツの表示態様を変更し、主コンテンツ及び関連コンテンツを車両乗員の視線の先の視野範囲に表示する。
 本開示の他の一態様によれば、判定部は、第1の車両乗員により見られている主コンテンツを判定し、変化検知部は、主コンテンツを見る車両乗員が変化したことを検知する。表示処理部は、変化検知部による検知結果に基づいて主コンテンツ又は関連コンテンツの表示態様を変更し、主コンテンツ及び前記関連コンテンツの表示態様を変更した後に当該主コンテンツ及び前記関連コンテンツを見る第2の車両乗員の視線の先の視野範囲に表示する。
 本開示の一又は他の一態様によれば、変化検知部による検知結果に基づいて主コンテンツ又は関連コンテンツの表示態様を変更した後に当該主コンテンツ及び関連コンテンツを見る車両乗員の視線の先の視野範囲に表示しているため、車両乗員は主コンテンツと共に関連コンテンツも確認できる。このため、乗員が視線を移動する回数や首を振る回数を極力抑制しながら適切な情報を確認できる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、第1実施形態について制御イメージを示す図であり、 図2は、車両用表示システムを概略的に示すブロック図であり、 図3は、処理内容を概略的に示すフローチャートであり、 図4は、車両乗員により確認されるディスプレイの説明図であり、 図5は、表示態様例のその1であり、 図6は、自車両と障害物の位置関係を示す鳥瞰図であり、 図7は、表示態様例のその2であり、 図8は、車両乗員により確認されるディスプレイの説明図であり、 図9は、表示態様例のその3であり、 図10は、表示態様例のその4であり、 図11は、表示態様の変化の説明図のその1であり、 図12は、表示態様の変化の説明図のその2であり、 図13は、第2実施形態における表示態様例のその5であり、 図14は、表示態様例のその6であり、 図15は、表示態様例のその7であり、 図16は、表示態様例のその8である。
 以下、車両用表示システム1、車両用表示方法、車両用表示プログラムに係る幾つかの実施形態について図面を参照しながら説明する。なお、各実施形態において実質的に共通する部位には同一の符号を付して説明する。
 図1に示すように、車両用表示システム1は、センタディスプレイ3、及び電子ミラー4など複数の表示器を備えるコックピットシステムにより構成される。ただし、表示器の数や設置あるいは構成は一例であり、これらに限定されない。
 センタディスプレイ3は、例えば液晶ディスプレイや有機ELディスプレイにより構成され、運転席と助手席との間に設置されている。
 センタディスプレイ3は、ドライバや助手席の乗員の両者が視認しやすいセンタコンソール付近に設けられると共に各種のコンテンツを表示可能になっている。センタディスプレイ3の上には操作パネル21が構成されており、センタディスプレイ3に表示させるコンテンツの選択や空調操作、オーディオ操作、ナビゲーション機能の入力操作できるようになっている。
 電子ミラー4は、ドアミラーカメラ4a及びディスプレイ4bを用いて構成される。図2参照。ドアミラーカメラ4aは、自車両Caのドアミラーの設置箇所から自車両Caの後方、すなわち側後方を撮像する周辺カメラ23である。
 電子ミラー4のディスプレイ4bは、例えば液晶ディスプレイや有機ELディスプレイにより構成される。ディスプレイ4bは、ドライバの左右位置にそれぞれ一つずつ設置されるもので、例えば車室内のAピラーの下部にそれぞれ設置される。
 電子ミラー4のディスプレイ4bは、ドライバから車両側後方を確認しやすい位置に設けられ、ディスプレイ4bには、ドアミラーカメラ4aにより撮像された車両の周辺情報などを表示可能な構成となっている。
 また車両内には、図1及び図2に示すように、多数のECU5が構成されており、車内ネットワーク25に接続されている。ECU5は、表示系のECU、周辺監視系のECU、走行制御系のECU、車両外部と通信接続するDCMを含む。DCMは、Data Communication Moduleの略である。走行制御系のECUは、周知の車両制御ECU、エンジン制御ECU、モータ制御ECU、ブレーキ制御ECU、ステアリング制御ECU及び統合制御ECU等である。走行制御系のECUには自動運転ECUが含まれる。自動運転ECUは、Autonomous Driving Electric Control Unitである。
 自動運転ECUは、自動制御信号を入力すると、運転アクチュエータを駆動することで対応した所定のレベルの運転支援、自動運転を実行する。例えば、レベルIの運転支援では、障害物への衝突を避ける自動ブレーキ、前車に追従して走行する追従走行、又は、両脇の車線からはみ出さないように制御する走行レーンはみ出し防止走行、を実行できる。レベルIIの自動運転では、レベルIの運転支援の組み合わせ、又は、特定条件下での自動運転、例えば高速道路で遅い車両が存在すれば自動で追い越したり、高速道路の分合流を自動で行ったりする自動運転モードを実行できる。レベルIII以上の自動運転では、システムにより監視しながらシステムが全ての運転タスクを実行する。
 各ECU5は、プロセッサ、キャッシュメモリ、RAM、ROMなどの各種の記憶部6、I/O、これらを接続するバスを備えたマイクロコンピュータを主体として構成される。各ECU5は、車両内に設けられる他のECU5と通信制御部7及び車内ネットワーク25を通じて通信可能に接続されている。
 本実施形態では、図2に示すように、複数の表示系のECU5が車両用装置10としてのHCUを構成しており、表示系のECU5の内部の物理リソースの処理能力を分担してセンタディスプレイ3及び電子ミラー4のディスプレイ4bに表示処理する。表示系のECU5は専用線で互いに接続しても良いし、1つのECU5により構成されていても良い。HCUは、Human Machine Interface Control Unitの略であり情報提示制御装置を示す。前述した記憶部6は、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体を示す。非遷移的実体的記憶媒体は、半導体メモリなどにより実現される。
 図2に示すように、車両用装置10は、制御装置11、演算装置12、記憶部6、表示処理部13、音声処理部14、各種装置からの入力又は出力を管理するI/O制御部15、他のECU5との間で通信管理する通信制御部7、を備える。
 また、図2に示した位置検出器19、操作パネル21、乗員モニタ22、周辺カメラ23、距離検出センサ24の出力信号についてはI/O制御部15を通じて入力する形態を説明するが、車内ネットワーク25を通じて、周辺監視系のECU、走行制御系のECUなどの他のECU5から信号入力されることもある。
 演算装置12は、制御装置11の制御に基づいて、記憶部6に記憶された画像、文章や文字など(以下、画像等と称する)のコンテンツについて、センタディスプレイ3、電子ミラー4のディスプレイ4bの表示画面に表示させる表示領域を演算し、画像等のコンテンツをセンタディスプレイ3、電子ミラー4のディスプレイ4bの表示画面の何れの領域に表示させるか、また、何れの領域に重ね合わせて表示させるか演算し、画像等のコンテンツと共に表示領域を制御装置11を通じて表示処理部13に出力する。
 表示処理部13は、制御装置11の制御に基づいて、センタディスプレイ3、電子ミラー4のディスプレイ4bの表示画面の中の前述の表示領域に画像等のコンテンツを表示処理する。これにより、各ディスプレイ3、4bの表示画面には、表示レイヤ毎に画像等のコンテンツを重ね合わせて表示できる。音声処理部14は、制御装置11の制御に基づいて、マイク17から入力された受話音声を入力すると共に、スピーカ18から送話音声を出力する。音声処理部14は、文章や文字のコンテンツを制御装置11から入力すると、音声に変換してスピーカ18を通じて読み上げて出力する。
 位置検出器19は、図示しない周知のGPSなどのGNSS受信機、加速度センサやジャイロセンサなどの慣性センサを用いて高精度に位置を検出する。位置検出器19は、位置検出信号をI/O制御部15を通じて制御装置11に出力する。制御装置11の位置特定部11aは、地図データ入力器から入力される地図情報と位置検出器19の位置検出信号に基づいて車両の現在位置を高精度に逐次測位するADASロケータとしての機能を実現する。ADASは、Advanced Driver Assistance Systemsの略である。
 この場合、車両位置は、緯度及び経度からなる座標系で表され、この座標系では、例えば、X軸が経度、Y軸が緯度を示す。なお、車両位置の測位は、例えば、自車両Caに搭載されている車速センサを用いても良い。車速センサは、車両の速度を検出し速度信号を制御装置11に出力する。測位は車速センサによるセンシング結果に基づき求められる走行距離の情報などに基づいて行うなど、自車両Caの位置を特定できる構成であれば、種々の構成を採用できる。制御装置11は、自車両Caの現在位置に基づいて、いわゆるナビゲーション処理を行うことができる。
 操作パネル21は、センタディスプレイ3の上に構成されたタッチパネルであり、I/O制御部15は、乗員による操作入力があると操作入力を受け付け、制御装置11に出力する。制御装置11は操作パネル21の操作信号に基づいた制御を実行する。
 乗員モニタ22は、車両内に搭乗した乗員の状態又は操作状態を検知する。乗員モニタ22は、例えばパワースイッチ、乗員状態モニタ、ターンスイッチ、自動制御スイッチなどを用いて構成され、各種の信号を制御装置11に出力する。乗員モニタ22は、ドライバによりステアリングホイールが把持されているか又は操舵されているか否かを検出するステアリングセンサ、シートに着座しているか否かを検出する着座センサ、アクセルペダル又はブレーキペダルの踏込センサなどを含んでいても良い。
 パワースイッチは、内燃機関又は電動モータを始動させるために車室内にて乗員によりオン操作されることで、当該操作に応じた信号を出力する。乗員状態モニタは、D席又はP席の乗員の状態を画像センサにより撮影することで当該乗員の状態を検知して撮像信号を出力するカメラを含んで構成される。ドライバの乗員状態モニタはDSMと称されている。DSMは、Driver Status Monitorの略である。乗員状態モニタは、ドライバの頭部に近赤外光を照射して撮影した撮像信号を取得し必要に応じて画像解析して制御装置11に出力する。
 乗員状態モニタは、特に運転支援中や自動運転中にドライバなどの乗員の状態を検知するために使用される。ターンスイッチは、自車両Caの方向指示器を作動させるときに車室内にて乗員によりオン操作されることで、当該操作に応じて右方又は左方にターンするターン信号を出力する。
 自動制御スイッチは、車両の走行状態に対する所定の運転支援又は自動制御を指令するために、車室内にて乗員によりオン操作されることで、当該操作に応じた自動制御信号を出力する。この自動制御信号は走行制御系のECUに出力されることで、対応した所定のレベルの運転支援又は自動運転制御を実行できる。
 制御装置11は、乗員モニタ22のセンサ信号により車両乗員の挙動、例えば視線が何れの方向を向いているかを判定でき、また、パワースイッチの操作状態、方向指示器の作動状態、車両の自動制御の指令情報、車両の速度センサによる速度情報などを入力できる。
 周辺カメラ23は、車両の前方を撮像する前方視界カメラや、車両の後部を撮像するバックカメラ、車両の前側部や後側部を撮像するコーナカメラ、又は、車両の側部を撮像するサイドカメラ、電子ミラー4のドアミラーカメラ4aなどによるものであり、これらはそれぞれフロントガイドモニタ、バックガイドモニタ、コーナービューモニタ、サイドガイドモニタ、電子ミラー4の各撮像信号としてI/O制御部15を通じて制御装置11に出力され記憶部6に記憶される。
 電子ミラー4のディスプレイ4bは、ドアミラーカメラ4aにより撮像された映像を表示させる。なお電子ミラー4は、後写鏡を再現するものである。このため、電子ミラー4は、ドアミラーカメラ4aにより撮像された映像について鏡像反転させた映像を、電子ミラー4用のディスプレイ4bに表示させる。
 また車両には障害物との距離などを検出する距離検出センサ24が周辺監視センサとして設置されている。距離検出センサ24は、クリアランスソナー24a、LiDAR又はミリ波を用いたレーダなどにより構成され、車両前方、車両前側部、車両後側部、車両後方又は車両側部に近接する車両や人などの障害物との距離を検出する。
 各ECU5にはSoCが搭載されている。SoCはSystem On Chipの略である。搭載されたSoCには前述したマイクロコンピュータが組込まれている。ECU5のSoCに組み込まれたマイクロコンピュータは、予めインストールされた汎用OS、リアルタイムOS上で各種の複数のアプリケーション(以下、アプリと略す)が動作するように構成されており、これにより制御装置11は後述する機能を実現できる。アプリは、画像処理アプリやその他のアプリを含む。画像処理アプリの描画要求に応じてSoCに組み込まれたプロセッサが、センタディスプレイ3、電子ミラー4のディスプレイ4bの表示画面に描画処理する。
 また、アプリにより描画されるコンテンツは、他のディスプレイ、ここではセンタディスプレイ3にも表示できる。アプリにはナビアプリ等が含まれている。ナビアプリは、ナビゲーション機能を実現するものであると共に、主にセンタディスプレイ3又は電子ミラー4のディスプレイ4bに表示される地図画像や車両の現在位置などを含むナビゲーション画面を描画する。
 またアプリには画像合成アプリも含まれている。画像合成アプリは、表示器に表示する様々な画像コンテンツの大きさや種類を特定し、画像コンテンツの画像を1フレーム内に合成し、この合成された混在画像をセンタディスプレイ3又は電子ミラー4のディスプレイ4bに出力するアプリである。画像合成アプリは、コンポジッタとも称される画像合成部としての機能や、また画像出力部としての機能を実現する。
 またアプリには検知アプリも含まれている。検知アプリは、乗員モニタ22による撮像信号に基づいて車両内の乗員の仕草を検知したり、手指による操作やその視線を検知したり、車両内の乗員の顔の表情や仕草を検知する。また、操作パネル21のタッチパネルの操作者を検知する。
 各アプリのうち画像コンテンツを描画するアプリには、画像コンテンツを描画するための表示レイヤが割り当てられている。これらの表示レイヤは、記憶部6上に、必要となる画像コンテンツを描画できる大きさで確保されている。
 記憶部6には各種のコンテンツが記憶される。コンテンツは、映画やテレビ映像などのエンタテイメント系コンテンツ、メータ画面、電子ミラー4のドアミラーカメラ4aによる撮像画像、周辺カメラ23(例えば、前方撮像カメラ、コーナカメラ、サイドカメラ、バックカメラ、ドアミラーカメラ4a等)による各撮像画像、或いは、周辺カメラ23の撮像画像を合成して作成されたアラウンドビューの画像コンテンツ、などに分類される。
 また、前述したコンテンツは相互に関連付けられており、主コンテンツと関連コンテンツとの関係性を備えて記憶部6にデータベース化して登録される。例えば、電子ミラー4の撮像画像には、クリアランスソナー24aの検知状況Sa、Sbを示すコンテンツが互いに関連づけられる。さらに、前述した周辺カメラ23の撮像画像、すなわち前方撮像カメラ、コーナカメラ、サイドカメラ、バックカメラ、ドアミラーカメラ4aの各撮像画像は、相互に関連付けられている。
 さらに、ナビゲーションに係る地図画像やメータ画像は、電子ミラー4の撮像画像と互いに関連付けて記憶される。さらに、ナビゲーション地図画像には、補足情報のコンテンツが関連付けて記憶部6に記憶されている。補足情報は、例えば目的地や現在地、ナビ設定、環境設定、地図詳細表示、表示変更、地図表示オフ、目的地セット、地点登録、広域地図変更などの操作指示ボタン表示画面のコンテンツである。また、ナビゲーションに係る地図画像には、地図の場所に近接した飲食店などの施設の情報が互いに関連付けて記憶部6に記憶されている。
 制御装置11は、記憶部6に記憶されたあるコンテンツを主コンテンツとした場合、記憶部6を参照することでこの主コンテンツに関連した上記の関連コンテンツを読み出して参照できる。これにより、表示処理部13は、主コンテンツ及び関連コンテンツをディスプレイ3又は4bに同時に表示処理できる。
 また、各ディスプレイ3、4bに表示されるコンテンツは、アニメーション動作可能になっている。ここで、アニメーション動作とは、コンテンツを示す画像の位置や大きさが徐々に変化したり、画像が回転したり、スワイプ操作にともなってユーザインターフェースが全体的に移動したり、画像が徐々にフェードインあるいはフェードアウトしたり、画像の色が変化したりするような表示態様である。ただし、アニメーション動作はこれらに限定されず、ある時点から連続的あるいは断続的に表示態様が変化するものであればアニメーション動作に含まれる。
 図2に示した制御装置11は、記憶部6に記憶された各種のアプリを実行する。本実施形態では、制御装置11が記憶部6に記憶されたナビアプリを実行することでナビゲーション機能を実現する。また、制御装置11は、記憶部6に記憶された検知アプリを実行することで、乗員モニタ22のモニタ信号に基づいて車両内のドライバ席(以下、D席)、助手席(以下、P席)、後部座席に座した乗員の有無を検知できる。また、D席やP席又は後部座席に座した乗員の視線を検知する視線検知部11bとして機能する。
 制御装置11は、記憶部6に記憶されたアプリを実行することで、車両乗員により見られている主コンテンツを判定する判定部11cとしての機能を実現する。制御装置11は、記憶部6に記憶されたアプリを実行することで、主コンテンツに関連する状況が変化、主コンテンツに関連する関連コンテンツの状況が変化、又は、主コンテンツを見る車両乗員が変化することを検知する変化検知部11dとしての機能を実現する。また、制御装置11は、記憶部6に記憶されたアプリを実行することで、車両乗員、特にドライバの運転負荷を判定する運転負荷判定部11eとしての機能を実現する。
 そして表示処理部13は、変化検知部11dによる検知結果に基づいて主コンテンツ又は関連コンテンツの表示態様を変更し、主コンテンツ及び関連コンテンツを車両乗員の視線の先の所定の視野範囲に表示する。
 上記の作用について図3以降の図面を参照しながら説明する。図3に示すように、パワースイッチが操作され車両が起動されると、制御装置11は、S1においてナビアプリ等のアプリを起動する。アプリが起動されると、S2において乗員モニタ22を用いて車両乗員の視線を監視し、表示処理部13は、各ディスプレイ3、4bに画像を出力して表示させる。
 制御装置11は、S4においてドライバにより見られているコンテンツを判定し主コンテンツとして認定する。ドライバは、第1の車両乗員相当である。ここでは、ドライバの視線を検知することで何れのディスプレイ3、4bを見ているか判定することで見られているコンテンツを判定できる。
 制御装置11は、その後、S5において主コンテンツに関連する状況が変化したか否かを判定したり、S6において関連コンテンツの状況が変化したか否かを判定したり、S7において主コンテンツを見る車両乗員が変化したか否かを判定する。
 S5の判定内容「主コンテンツに関連する状況が変化」は、例えば主コンテンツとして電子ミラー4の撮像画像を認定した場合、車両がバックすることで電子ミラー4の撮像画像の中に障害物を画像認識し始める変化を検知した場合などを示している。その他、ドライバにより見られている主コンテンツがクリアランスソナー24aの検知状況Saであった場合、クリアランスソナー24aにより自車両Caの周辺に障害物を検知するなど何らかの変化を検知した場合を示している。すなわち、主コンテンツの中で何らかの変化を生じたときにS5でYESと判定する。
 また、S6の判定内容「関連コンテンツの状況が変化」は、例えばドライバにより見られている主コンテンツが電子ミラー4の撮像画像であるときに、電子ミラー4の撮像画像に関連する関連コンテンツであるクリアランスソナー24aの検知状況Saに変化したとき、例えば障害物を検知し始めた変化を生じた場合などを示している。
 また、S6の判定内容「関連コンテンツの状況が変化」は、ドライバにより見られている主コンテンツがクリアランスソナー24aの検知状況Saであるときに、当該クリアランスソナー24aの検知状況Saに関連する電子ミラー4の撮像画像に障害物を検出し始めて撮像画像の画像認識状況に変化を生じた場合などを示している。すなわち、主コンテンツに関連する関連コンテンツに何らかの変化を生じたときにS6でYESと判定する。
 制御装置11は、S5において主コンテンツに関連する状況が変化し、又はS6において関連コンテンツの状況が変化した、と判定したときには、S9において表示態様を変更した上で、S10において表示するディスプレイ3、4bを特定し、表示処理部13は、特定されたディスプレイ3、4bに画像を出力して表示させる。
 また、S7の判定内容「主コンテンツを見る乗員が変化」は、例えばドライバの視線が主コンテンツから外れると共に、P席の乗員が同じ主コンテンツを見始めたことを検知した場合などを示しており、特定の主コンテンツを見る乗員が変化したときにS7でYESと判定する。P席の乗員は第2
の車両乗員相当である。
 制御装置11は、S7において主コンテンツを見る車両乗員自体が変化したと判定したときには、S8において乗員モニタ22を用いて主コンテンツを見ている第2の車両乗員の視線を検知した上で、S9において主コンテンツ又は関連コンテンツの表示態様を変更し、S10において表示するディスプレイ(例えば3、4bなど)を特定し、S11において画像を出力して表示させる。
 以下、実際の車両運行に適用した適用例を説明する。例えば、ドライバが自車両Caを後退させて駐車場に駐車させるときに、図4及び図5に示すようにセンタディスプレイ3に表示されたクリアランスソナー24aの検知状況Saを見ている場合を考える。
 制御装置11は、ドライバによりクリアランスソナー24aの検知状況Saを見ていることを検知する。このとき、クリアランスソナー24aの検知状況Saが主コンテンツとして認識される。自車両Caの周辺に障害物が存在しないとき、クリアランスソナー24aが近接無反応の場合には、図5に示すように、表示処理部13は、そのままクリアランスソナー24aの検知状況Saをセンタディスプレイ3に表示させる。
 その後、ドライバが自車両Caを後退させたときに、図6に示すように自車両Caの左後方に障害物Obが存在することを想定すると、クリアランスソナー24aにより自車両Caの左後方に障害物Obが検知される。
 このとき、表示処理部13は、クリアランスソナー24aに反応した障害物の検知方向、及び、検知方向の周辺を撮像する周辺カメラ23の撮像画像を関連コンテンツとして視野範囲に表示する。具体的には、表示処理部13は、クリアランスソナー24aの検知状況Saと共に障害物を検知した方向に警告表示を行い、さらに検知状況Saの表示領域に隣接して、クリアランスソナー24aが反応した方向に対応した周辺カメラ23の撮像画像を表示すると良い。図6に示すことを想定した場合には、図7に示すように、左後方を撮像する電子ミラー4のドアミラーカメラ4aの撮像画像を表示させると良い。このとき、表示処理部13は、車両乗員の視野範囲に入るように表示すると良い。
 これにより、制御装置11の変化検知部11dにより状況変化が検知される前は、表示処理部13は、関連コンテンツとなる電子ミラー4のドアミラーカメラ4aの撮像画像をデフォルトの所定位置となる電子ミラー4のディスプレイ4bに表示し、状況変化が検知された後は、関連コンテンツをセンタディスプレイ3の視野範囲に移動させることができる。このとき、表示処理部13は、デフォルトとして電子ミラー4のディスプレイ4bに表示させていた関連コンテンツを消去しても良いし、電子ミラー4のディスプレイ4bに表示させたまま、センタディスプレイ3に複製して表示しても良い。
 なお、クリアランスソナー24aの反応位置に対し、周辺カメラ23のうち何れの方向(前方、後方、前側方、後側方etc)を撮像する画像コンテンツを表示するかは予め決定し、対応関係を記憶部6に予め記憶しておくことが望ましい。
 また表示処理部13は、主コンテンツを見ている車両乗員の位置と主コンテンツとの相対位置関係に応じて関連コンテンツを表示する位置を変更することが望ましい。例えば、主コンテンツを見ているドライバの右側に関連コンテンツが関係するときには、主コンテンツの右側に関連コンテンツを表示させると良く、逆に、図6及び図7に示したように、主コンテンツを見ているドライバの左側に関連コンテンツが関係するときには、主コンテンツの左側に関連コンテンツを表示させると良い。また例えば、P席の乗員がコンテンツを見たことを検知した場合、P席の乗員側に表示しても良い。危険な場所を撮像画像により見せる場合には、主コンテンツを中心として危険箇所の相対位置に表示すると良い。
 また、この後、ドライバが所定のセンタディスプレイ3の中央脇に視線を移動した場合でも、制御装置11によりこの視線の移動変化を検知し、表示処理部13は、その定められたセンタディスプレイ3に対し、クリアランスソナー24aが反応した方向を撮像する周辺カメラ23の撮像画像を表示すると良い。センタディスプレイ3の中央側に視線を移動した場合、バックカメラの撮像画像を表示すると良い。表示処理部13は、視線の移動先の視野範囲に入るように画像コンテンツを表示させると良い。
 クリアランスソナー24aによる障害物の反応が終了した後、視線の移動がされなかった場合でも、周辺カメラ23の撮像画像を一定時間の間、表示を留めておくことが望ましい。これにより、車両乗員は、自車両Caの周辺状況を確認して問題なくなったことを認識できる。これにより、車両乗員が視線の先を変える頻度を減らすことができ、首振り回数を減らすことができる。
 また、ドライバが自車両Caを後退させ左後方に位置する自宅駐車スペースに駐車させるときに、図8及び図9に示すように、左側の電子ミラー4のディスプレイ4bを確認しながら駐車させる場合を考える。このように、ドライバが左側のドアミラーカメラ4aの撮像画像を見ているときには、制御装置11は、電子ミラー4の撮像画像を主コンテンツとして認定する。
 自動運転ではなく通常運転する場合、ドライバは走行方向を常に確認しなければならない都合上、そのまま電子ミラー4のディスプレイ4bを継続して見続けながら運転を続けるのは難しい。また狭い道路を走行中に対向車とすれ違う場合、また左右の障害物をすり抜ける場合には、従来通り、左右の電子ミラー4に注意を向けながら運転するほうが良い。このため、制御装置11が、乗員モニタ22によりドライバが電子ミラー4のディスプレイ4bを見ていることを検知した場合、クリアランスソナー24aの検知状況Saを関連コンテンツとし、表示処理部13は、図10に示すように、電子ミラー4の表示領域の一部にクリアランスソナー24aが他の障害物に反応した検知状況Saを表示すると良い。図10に示すように、自車両Caの側後方に他車両Ceが存在したとしても、この方向を認識できる。
 まとめると、図11に示すように、表示処理部13がクリアランスソナー24aの検知状況Saをセンタディスプレイ3に表示している場合、さらにドライバがクリアランスソナー24aの検知状況Saを見ていると判定した場合、表示処理部13は、通常のクリアランスソナー24aの検知状況Saの画像と共に電子ミラー4の撮像画像を同一のディスプレイ3に表示させている。
 また、表示処理部13が電子ミラー4のディスプレイ4bに撮像画像を表示すると共に、電子ミラー4がドライバにより見られていると判定した場合、表示処理部13は、通常の電子ミラー4の撮像画像と共に、クリアランスソナー24aの検知状況Saを同一のディスプレイ4bに表示させている。なお、それ以外の場合には、通常の表示を継続している。これにより、ドライバに注意を意識づけることができる。
 運転環境又は交通状況に応じて、ドライバが確認したほうが良く、確認させる必要性の高い画像が複数存在する場合、表示処理部13は、主コンテンツ及び関連コンテンツとして一箇所にまとめて表示処理すると良い。また、乗員が見ている箇所に最適化した表現で表示させることが望ましい。
 また表示処理部13は、運転環境又は交通状況に応じて主コンテンツ及び関連コンテンツに設定される表示優先度の高低により、関連コンテンツを変更又は関連コンテンツの表示態様を変更して表示処理することが望ましい。具体的には、制御装置11は、刻々と変化する運転環境又は交通状況に応じて周辺カメラ23の撮像画像や電子ミラー4の撮像画像に表示優先度を設定し、表示優先度を用いてディスプレイ3、4bに画像を表示させると良い。このとき、表示優先度の高いコンテンツの順にディスプレイ3又は4bに画像を表示させると良い。
 このとき、関連コンテンツの表示優先度が主コンテンツより高く変更された場合には、関連コンテンツを主コンテンツに対して目立つように表示すると良い。関連コンテンツの状況が変化し、表示優先度が高く変更されたときには当該関連コンテンツ自体を変更したり、また関連コンテンツの表示態様を変更したりして表示処理すると良い。
 制御装置11は、周辺カメラ23の撮像画像や自車両Caの挙動を検出することで、運転環境又は場所や時間を含む交通状況の中で自車両Caの置かれている状況を判断できる。
 例えば、位置特定部11aにより高速道路を走行中であると認められた場合について説明する。高速道路を走行中、制御装置11が自車両Caの周辺に他車両Ceを多く検知すると共に、自車両Caの走行速度が所定の時間内に急速に低下したことを検出した場合、高速道路走行中に渋滞に巻き込まれたという自車両Caの運転環境や交通状況を判定できる。
 このような運転環境や交通状況が、記憶部6にデータベース化して記憶されていれば、制御装置11は、この記憶部6のデータベースを参照し、周辺カメラ23や距離検出センサ24により自車両Caの周辺に他車両Ceがどの程度密集しているか、又は、自車両Caの周辺に他車両Ceが増加しているか検出することで、渋滞を生じるか否か、又は、どの程度の渋滞を生じるか予測できる。
 このため、制御装置11は、高速道路を走行中に所定より急減速したと認められたときには、記憶部6のデータベースを参照することで渋滞を生じたと検出、さらにどの程度の渋滞を生じるかを予測し、例えば、地図画面を主コンテンツとして表示するセンタディスプレイ3の中に、周辺カメラ23のうち自車両Caの後続車の状況を映し出すバックカメラの撮像画像を関連コンテンツとしてセンタディスプレイ3に表示させると良い。このように表示処理することで、ドライバに注意喚起できる。
 また例えば、位置特定部11aによりドライバの自宅住所周辺を走行中であると認められた場合について説明する。車両がドライバの自宅住所周辺を走行中であると認められると、制御装置11は、シフトレンジがRレンジに入ったか否かを判定し、記憶部6に記憶されたデータベースを参照することで、自宅駐車スペースに入庫させるときに事故を生じやすい事象を推定し、ディスプレイ3又は4bに表示させる画像の表示優先度に反映させる。
 例えば、ドライバがステアリングホイールを左旋回させながら自車両Caを後退させるときには、図10に示したように、ドライバは左側の電子ミラー4のディスプレイ4bの映像を確認しながら自車両Caを後退させる。しかし、ドライバが左側の電子ミラー4のディスプレイ4bに注意しすぎている場合、右側に他の障害物(図示せず)を見落としやすい。この事故の事象が記憶部6のデータベースに登録されていれば、制御装置11はこの事故の事象を参照できる。
 クリアランスソナー24aにより右後方に障害物を検知した場合、図12に示すように、表示処理部13は、関連コンテンツとして表示されている左側の検知状況Saに代えて右側の検知状況Sbを電子ミラー4のディスプレイ4bに表示させると良い。また、図12に示したように、ドライバへ注意を促すように右側の検知状況Sbを検知状況Saに比べて大きく表示させると良い。図12に示す例では、右側の検知状況Sbだけを関連コンテンツとして表示しているが、左側の検知状況Saも合わせて表示しても良い。
 本実施形態によれば、変化検知部11dによる検知結果に基づいて主コンテンツ又は関連コンテンツの表示態様を変更し、当該主コンテンツ及び関連コンテンツを見る車両乗員の視線の先の視野範囲に表示している。このため、車両乗員は主コンテンツと共に関連コンテンツも同時に確認できる。これにより、車両乗員は視線を移動する回数や首を振る回数を極力減らしつつ適切な情報を確認できる。
 (第2実施形態)
 第2実施形態について図13から図16を参照しながら説明する。第2実施形態は、乗員がナビアプリに応じて描画される地図画面を見る際の主コンテンツと関連コンテンツとの関係性について説明する。
 図13に示す地図画面B1は、ナビアプリの実行に伴いディスプレイ3などに描画される。通常時、表示処理部13は、地図画面B1をセンタディスプレイ3の表示画面いっぱいに大きく表示すると良い。これは、ドライバが通常運転中に前方に注意を払いつつ地図画面B1をちら見して確認したとしても確認しやすくなるためである。すなわち、制御装置11は、乗員モニタ22によりドライバが地図画面B1を見ていることを検知したとき、表示処理部13は地図画面B1をセンタディスプレイ3の表示画面いっぱいに大きく表示し、余計なものを表示しないようにすることが望ましい。
 なお、乗員が操作しないと必要な情報が表示されないと不便なため、例えば、図14に示すように、地図の方角情報B2、VICS(登録商標)の情報取得時間B3などのように必要な情報を予め表示しておいても良い。
 また制御装置11は、乗員により地図画面B1が一定時間見られたことを検知したことを条件として、表示処理部13は、図15に示すように、その地図画面B1の補足情報を関連コンテンツとして表示すると良い。図15に示す補足情報は、例えば目的地設定B4や現在地設定B5、その他のナビ設定B6、環境設定B7、地図詳細表示、表示変更、地図表示オフ、目的地セット、地点登録、広域地図変更などの操作指示ボタン表示画面B8のコンテンツである。
 すなわち、制御装置11は、ドライバにより見られていない又は一定時間未満だけしか見られていないと判定した場合、表示処理部13は補足情報を表示せず、ドライバにより一定時間見続けられると補足情報を重畳表示する。これにより、段階的に情報を増やしながら情報提供でき、状況に応じた情報を提供できる。ドライバは感覚的に遅れて確認可能な提供情報が増えることになりドライバの認知処理負担も軽減される。
 さらに、制御装置11及び表示処理部13は、ドライバにより見られている場合とP席の乗員により見られている場合とでセンタディスプレイ3に表示するコンテンツを変更すると良い。すなわち制御装置11は、図3のS7において地図画面を見る乗員が変化しP席の乗員によりナビゲーションの地図情報が見られていることが判定された場合、S8においてP席の乗員の視線を検知した上で、表示処理部13はS9からS11において例えば地図画面B1に表示中の現在地近辺で開催されているエンタテイメント情報や、図16に示すように、周辺のおすすめ店舗B9などを関連コンテンツとして表示処理すると良い。
 このとき、表示処理部13は地図画面B1を見ているP席の乗員側に関連コンテンツを表示させると良い。このとき、P席の乗員の視線の視野範囲に表示させると良い。P席の乗員が、視線の移動頻度を減らすことができ、首振りの回数を減らすことができる。
 また制御装置11は、運転負荷判定部11eによりドライバの運転負荷を判定し、表示処理部13は、ドライバの運転負荷に応じて関連コンテンツの情報量を変更して表示処理することが望ましい。運転負荷は、ドライバ操作による運転アクチュエータや、ナビゲーション表示画面の操作状況、自動運転レベル、又は乗員モニタ22により乗員の状態を周知の技術を用いて検知することで算定できる。
 例えば、制御装置11が、運転負荷判定部11eによりドライバの運転負荷を標準範囲と判定した場合には、情報量を通常の所定量として表示処理するが、運転負荷を標準より低いと判定した場合には情報量を多くして表示処理しても良い。逆に、ドライバの運転負荷を標準より高いと判定した場合、標準より目立たない表現にしたり情報量を減少させたりすると良い。すなわち、関連コンテンツについては、ドライバの運転負荷に応じて情報量を変更して表示処理すると良い。
 例えば、停車中、また、その停車中にナビゲーションの目的地や現在地の設定しているときは運転負荷が低いため、関連コンテンツの情報量を標準より多くして表示しても良い。また、レベルIII以上の自動運転中には、ドライバの運転負荷を低いと判定し、同様に情報量を標準より多くして表示しても良い。また、ACCによる追従走行や、レーンキープアシスト(LAS)による定常運転時には、運転負荷を低いと判定し、同様に関連コンテンツの情報量を標準より多くして表示しても良い。
 逆に、制御装置11が、周辺監視センサにより車両の周囲に障害物が所定より多いと判定した場合や、VICS(登録商標)等による交通情報を参照することで周辺の交通量が所定より多い高速道路を走行中であると判定した場合、また、高速道路を走行中に周辺監視センサにより他車両Ceが自車両Caの走行車線に進入すると判定した場合、また、一般道路を走行中でも人物が車両の周囲に存在又は移動していると判定した場合には、運転負荷を高いと判定し、関連コンテンツの情報量を標準より少なくしたり目立たないように表示したりすると良い。
 さらに、レベルIIの運転支援においてレーンチェンジアシストを実行しているとき、特に車両操舵中には法規上ドライバによる監視義務を生じている。なおレーンチェンジアシストはLane Change Assistである。制御装置11はレーンチェンジアシストを実行している最中には運転負荷を高いと判定し、関連コンテンツの情報量を標準より少なくしたり目立たないように表示したりすると良い。
 表示処理部13は、関連コンテンツが1又は複数の車両乗員による関連コンテンツを確認しているか否かの状況に応じて表示するか否かを決定又は表示態様を変更することが望ましい。状況に応じて、ドライバなどの車両乗員に関連コンテンツを確認させないようにすることで安全性を向上できるためである。
 例えば、表示処理部13が、P席の乗員を対象者として有益な動画コンテンツを関連コンテンツとして表示処理した場合、ドライバには不安全な誘目になる。ドライバがこの関連コンテンツを見たことを検知したときに動画コンテンツの表示をやめると良い。また、制御装置11は、動画コンテンツを見る乗員が複数のときに何れの乗員が見ているかを判定し、ドライバが見ており車両運行の安全性に問題があるときには動画コンテンツの表示をやめることが望ましい。
 車両が停車中から運転中に変化した場合、ドライバによりエンタメ系の動画コンテンツを見ていることが検知されたときには動画コンテンツを停止することが望ましい。ただし所定のレベル以上の自動運転中、例えばレベルIII以上の自動運転中の場合には、ドライバをP席の乗員同様に扱っても良く、表示処理部13は動画コンテンツを映し続けても良い。
 (他の実施形態)
 本開示は、前述した実施形態に限定されるものではなく、種々変形して実施することができ、その要旨を逸脱しない範囲で種々の実施形態に適用可能である。例えば以下に示す変形又は拡張が可能である。
 変化検知部11dによる変化検知条件を満たしたときに、車両乗員の視線の先の視野範囲に主コンテンツ及び関連コンテンツを表示するようにしたが、逆に偏光フィルタなどを用いて見える範囲の広狭を調整して視野範囲に表示するようにしても良い。
 図面中、11cは判定部、11dは変化検知部、11eは運転負荷判定部、13は表示処理部、を示す。
 本開示に記載の制御装置11、表示処理部13による手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することにより提供された専用コンピュータにより実現されても良い。或いは、本開示に記載の制御装置11、表示処理部13及びその手法は、一つ以上の専用ハードウェア論理回路によりプロセッサを構成することにより提供された専用コンピュータにより実現されても良い。若しくは、本開示に記載の制御装置11、表示処理部13及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路により構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより実現されても良い。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていても良い。
 本開示は、前述した実施形態に準拠して記述したが、本開示は当該実施形態や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。

Claims (9)

  1.  車両乗員により見られている主コンテンツを判定する判定部(11c)と、
     前記主コンテンツに関連する状況が変化、又は、前記主コンテンツに関連する関連コンテンツの状況が変化したことを検知する変化検知部(11d)と、
     前記変化検知部による検知結果に基づいて前記主コンテンツ又は前記関連コンテンツの表示態様を変更し、前記主コンテンツ及び前記関連コンテンツを前記車両乗員の視線の先の視野範囲に表示する表示処理部(13)と、
     を備える車両用表示システム。
  2.  前記変化検知部により状況変化が検知される前は、前記関連コンテンツをデフォルトの所定位置に表示し、前記状況変化が検知された後は、前記関連コンテンツを前記視野範囲に移動又は複製する請求項1記載の車両用表示システム。
  3.  第1の車両乗員により見られている主コンテンツを判定する判定部(11c)と、
     前記主コンテンツを見る車両乗員が変化したことを検知する変化検知部(11d)と、
     前記変化検知部による検知結果に基づいて前記主コンテンツ又は前記主コンテンツに関連する関連コンテンツの表示態様を変更し、前記主コンテンツ及び前記関連コンテンツの表示態様を変更した後に当該主コンテンツ及び前記関連コンテンツを見る第2の車両乗員の視線の先の視野範囲に表示する表示処理部(13)と、
     を備える車両用表示システム。
  4.  前記表示処理部は、前記主コンテンツを見る前記車両乗員の位置と前記主コンテンツとの相対位置関係に応じて前記関連コンテンツを表示する位置を変更する請求項1から3の何れか一項に記載の車両用表示システム。
  5.  ドライバの運転負荷を判定する運転負荷判定部(11e)を備え、
     前記表示処理部は、前記運転負荷判定部による運転負荷に基づいて前記関連コンテンツの情報量を変更して表示処理する請求項1から3の何れか一項に記載の車両用表示システム。
  6.  前記表示処理部は、運転環境又は交通状況に応じて前記主コンテンツ及び前記関連コンテンツに設定される表示優先度を用いて、前記関連コンテンツを変更又は前記関連コンテンツの表示態様を変更して表示処理する請求項1から3の何れか一項に記載の車両用表示システム。
  7.  前記表示処理部は、1又は複数の前記車両乗員による前記関連コンテンツを確認しているか否かの状況に応じて表示するか否かを決定又は表示態様を変更する請求項1から5の何れか一項に記載の車両用表示システム。
  8.  判定部(11c)が車両乗員により見られている主コンテンツを判定し、
     変化検知部(11d)が前記主コンテンツに関連する状況が変化、又は、前記主コンテンツに関連する関連コンテンツの状況が変化したことを検知し、
     表示処理部(13)が前記変化検知部による検知結果に基づいて前記主コンテンツ又は前記関連コンテンツの表示態様を変更し、前記主コンテンツ及び前記関連コンテンツを前記車両乗員の視線の先の視野範囲に表示する、
     車両用表示方法。
  9.  判定部(11c)に、第1の車両乗員により見られている主コンテンツを判定させる手順と、
     変化検知部(11d)に、前記主コンテンツを見る車両乗員が変化したことを検知させる手順と、
     表示処理部(13)に、前記変化検知部による検知結果に基づいて前記主コンテンツ又は前記主コンテンツに関連する関連コンテンツの表示態様を変更し、前記主コンテンツ及び前記関連コンテンツの表示態様を変更した後に当該主コンテンツ及び前記関連コンテンツを見る第2の車両乗員の視線の先の視野範囲に表示させる手順と、
     を実行させる車両用表示プログラム。
     
PCT/JP2022/022323 2021-06-02 2022-06-01 車両用表示システム、車両用表示方法、及び車両用表示プログラム WO2022255409A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023525891A JPWO2022255409A1 (ja) 2021-06-02 2022-06-01

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021092992 2021-06-02
JP2021-092992 2021-06-02

Publications (1)

Publication Number Publication Date
WO2022255409A1 true WO2022255409A1 (ja) 2022-12-08

Family

ID=84324177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/022323 WO2022255409A1 (ja) 2021-06-02 2022-06-01 車両用表示システム、車両用表示方法、及び車両用表示プログラム

Country Status (2)

Country Link
JP (1) JPWO2022255409A1 (ja)
WO (1) WO2022255409A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003214878A (ja) * 2002-01-17 2003-07-30 Hitachi Ltd 車載用表示装置
JP2016084021A (ja) * 2014-10-27 2016-05-19 三菱電機株式会社 車両用表示装置及び車両用表示システム
US20170364148A1 (en) * 2016-06-15 2017-12-21 Lg Electronics Inc. Control device for vehicle and control method thereof
JP2019101634A (ja) * 2017-11-30 2019-06-24 パイオニア株式会社 情報提示制御装置、情報提示制御方法及びプログラム
JP2019176330A (ja) * 2018-03-28 2019-10-10 ダイハツ工業株式会社 表示装置
JP2021033872A (ja) * 2019-08-28 2021-03-01 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示制御方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003214878A (ja) * 2002-01-17 2003-07-30 Hitachi Ltd 車載用表示装置
JP2016084021A (ja) * 2014-10-27 2016-05-19 三菱電機株式会社 車両用表示装置及び車両用表示システム
US20170364148A1 (en) * 2016-06-15 2017-12-21 Lg Electronics Inc. Control device for vehicle and control method thereof
JP2019101634A (ja) * 2017-11-30 2019-06-24 パイオニア株式会社 情報提示制御装置、情報提示制御方法及びプログラム
JP2019176330A (ja) * 2018-03-28 2019-10-10 ダイハツ工業株式会社 表示装置
JP2021033872A (ja) * 2019-08-28 2021-03-01 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示制御方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2022255409A1 (ja) 2022-12-08

Similar Documents

Publication Publication Date Title
US11008016B2 (en) Display system, display method, and storage medium
JP6327078B2 (ja) 運転支援装置
JP5160564B2 (ja) 車両情報表示装置
WO2017086000A1 (ja) 運転支援装置
JP4517393B2 (ja) 運転支援装置
WO2017119170A1 (ja) 運転支援装置
JP7140037B2 (ja) 車両遠隔指示システム
WO2020003750A1 (ja) 車両用表示制御装置、車両用表示制御方法、及び制御プログラム
US11151871B2 (en) Autonomous driving vehicle information presentation apparatus
US11897499B2 (en) Autonomous driving vehicle information presentation device
US20210323567A1 (en) Vehicle control system
CN112977611B (zh) 行驶辅助系统及其控制方法
CN112977451B (zh) 行驶辅助系统及其控制方法
US20240042857A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program
US20210197863A1 (en) Vehicle control device, method, and program
US20240001763A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program
JP2019011055A (ja) 運転支援装置
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program
WO2022255409A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
US20220063486A1 (en) Autonomous driving vehicle information presentation device
JP6699601B2 (ja) 車両用表示装置
JP2021148506A (ja) 表示制御装置、表示制御方法およびプログラム
WO2022224753A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2022210171A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP7467521B2 (ja) 制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22816154

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023525891

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22816154

Country of ref document: EP

Kind code of ref document: A1