WO2021132566A1 - 表示制御装置、表示システム、表示制御方法 - Google Patents

表示制御装置、表示システム、表示制御方法 Download PDF

Info

Publication number
WO2021132566A1
WO2021132566A1 PCT/JP2020/048739 JP2020048739W WO2021132566A1 WO 2021132566 A1 WO2021132566 A1 WO 2021132566A1 JP 2020048739 W JP2020048739 W JP 2020048739W WO 2021132566 A1 WO2021132566 A1 WO 2021132566A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
display control
information presentation
control unit
Prior art date
Application number
PCT/JP2020/048739
Other languages
English (en)
French (fr)
Inventor
正隆 加藤
江村 恒一
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to DE112020006351.8T priority Critical patent/DE112020006351T5/de
Publication of WO2021132566A1 publication Critical patent/WO2021132566A1/ja
Priority to US17/847,738 priority patent/US20220324328A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/28
    • B60K35/285
    • B60K35/29
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays
    • B60K2360/16
    • B60K2360/177
    • B60K2360/178
    • B60K2360/1868
    • B60K35/22
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/064Adjustment of display parameters for control of overall brightness by time modulation of the brightness of the illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/06Remotely controlled electronic signs other than labels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present disclosure relates to display control technology, particularly a display control device, a display system, and a display control method for controlling the display of warnings.
  • Pred Net Deep Preditive Coding Network
  • predictive coding theory is one of the leading hypotheses as the operating principle of the human cerebral cortex
  • the time-series data also includes the second data after the lapse of the first time from the first data, and if the error between the second data and the first prediction data is large, the driver may not have imagined it.
  • HUD Head-Up Display
  • This disclosure was made in view of these circumstances, and the purpose is to provide a technology for identifying scenes and targets that are difficult for humans to recognize and providing information.
  • the display control device of a certain aspect of the present disclosure includes an input unit that receives a first image in which the foreground of the vehicle or the foreground of a user on board the vehicle is captured at the first timing.
  • a generation unit that generates a third image showing the prediction result of the foreground at one timing based on the second image in which the foreground at the second timing earlier than the first timing is captured, and the first image and the third image.
  • the present invention includes a display control unit that controls information presentation based on a comparison result using a predetermined standard.
  • This display system includes an image pickup device and a display control device connected to the image pickup device.
  • the display control device receives a first image in which the foreground of the vehicle or the foreground of the user on board the vehicle is captured at the first timing, and a third image showing the prediction result of the foreground at the first timing. Based on the comparison result of the generation unit generated based on the second image in which the foreground at the second timing earlier than the first timing is captured and the first image and the third image using a predetermined standard. It includes a display control unit that controls the display of information presentation.
  • Yet another aspect of the present disclosure is a display control method.
  • the first step of receiving the first image in which the foreground of the vehicle or the foreground of the user on board the vehicle at the first timing is captured, and the third image showing the prediction result of the foreground at the first timing are first.
  • Information is presented based on the step of generating the foreground at the second timing, which is earlier than the timing, based on the captured second image, and the comparison result of the first image and the third image using a predetermined standard. It includes a step to control the display.
  • any combination of the above components, the expression of the present disclosure converted between a device, a system, a method, a program, a recording medium on which the program is recorded, a vehicle equipped with the device, and the like are also disclosed. It is effective as an aspect.
  • FIG. 7 shows typically the interior of the vehicle which concerns on Example 3.
  • FIG. 10 (a)-(g) are diagrams showing an outline of the operation of the display system according to the third embodiment.
  • 11 (a)-(b) are diagrams showing another operation outline of the display system according to the third embodiment.
  • 12 (a)-(d) are diagrams showing still another operation outline of the display system according to the third embodiment.
  • 13 (a)-(c) are diagrams showing an outline of the operation of the display system according to the fourth embodiment. It is a figure which shows the operation outline of the display system which concerns on Example 5.
  • FIG. 15 (a)-(b) are diagrams showing another operation outline of the display system according to the fifth embodiment. It is a figure which shows the structure of the display system which concerns on Example 6.
  • 25 (a)-(e) are diagrams showing an outline of display on the meter display according to the seventh embodiment.
  • 26 (a)-(e) are views showing an outline of display on the pillar display according to the seventh embodiment.
  • 27 (a)-(e) are views showing an outline of display on the mirror display according to the seventh embodiment.
  • 28 (a)-(c) are diagrams for explaining the detection result of the degree of separation between the vehicle and the object.
  • the display system includes an image pickup device capable of photographing the front of the vehicle and a display control device for controlling the display of the HUD.
  • the display control device detects an object such as a pedestrian from the image captured by the image pickup device, and causes the HUD to display an image (hereinafter, referred to as “information presentation image”) for notifying a warning to the object.
  • information presentation image an image
  • the HUD displays information such as an information presentation image on the windshield of the vehicle, it can be displayed at a position closer to the line-of-sight direction during driving than a monitor of a car navigation device installed in the vehicle. Therefore, the driver who is driving can immediately notice the display or see the display with a small amount of movement of the line of sight.
  • the display control device displays an information presentation image for an object in which a large prediction error has occurred.
  • the prediction error is indicated by the difference between the actual foreground scenery and the foreground scenery predicted from the past foreground scenery, and it can be said that the larger the prediction error, the more likely the driver to overlook. That is, by giving priority to an object that is easily overlooked, a display that is difficult to overlook and is not bothersome is realized.
  • FIG. 1 schematically shows the interior of the vehicle 1000, and shows a configuration in which the interior of the vehicle 1000 is viewed from the rear.
  • a dashboard 10 extending to the left and right is arranged in front of the vehicle interior, a windshield 12 is arranged above the dashboard 10, and pillars 14 extend from the dashboard 10 to the left and right of the windshield 12.
  • the steering wheel 16 is arranged on the right side portion of the dashboard 10, and the meter 18 is arranged on the dashboard 10 in front of the steering wheel 16.
  • the steering 16 may be located on the left side portion of the dashboard 10.
  • a center console 20 is arranged in the central portion of the dashboard 10.
  • a display device (not shown) is installed in the dashboard 10 on the steering wheel 16 side.
  • the display device is a HUD, and projects the display light onto a part of the displayable area 50 of the windshield 12.
  • the displayable area 50 is arranged in front of the driver's seat on the windshield 12, and has a horizontally long rectangular shape that matches the shape of the windshield 12.
  • the display light reflected on the vehicle interior side in the displayable area 50 is visually recognized by the driver. Since the driver can also see the front view of the vehicle 1000 through the windshield 12, the virtual image of the image projected by the display device can be visually recognized by superimposing it on the front view. In FIG. 1, the display device does not display the displayable area 50.
  • FIG. 2 shows an outline of the recognition of the front view by the driver of the vehicle 1000.
  • the driver sees the front view, but it takes time to perceive the entire front view, so he perceives the light information of the front view.
  • the driver predicts the current forward view from the memory of the past forward view in order to supplement the optical information.
  • the driver produces a visual image by combining the perceived light information with the predicted current foreground scenery. Since it takes time for the driver to perceive the entire visual image, the information to be recognized is narrowed down to the attention area.
  • the attention area is set based on, for example, the experience of the driver. As a result, the driver recognizes that the pedestrian jumps out from the right. In this way, the driver improves cognitive efficiency by exerting "prediction" and "attention".
  • FIG. 3 shows the configuration of the display system 500 mounted on the vehicle 1000.
  • the display system 500 includes an image pickup device 100, a display control device 200, and a display device 300.
  • the display control device 200 includes an input unit 210, a storage unit 220, a generation unit 230, a detection unit 240, a comparison unit 250, and a display control unit 260.
  • the image pickup device 100 and the display control device 200 are connected by, for example, an in-vehicle network such as CAN (Control Area Network).
  • CAN Control Area Network
  • the image pickup device 100 is installed in, for example, the front side portion of the vehicle 1000 and images the front view of the vehicle 1000. This corresponds to the front view of the vehicle 1000 that the driver can see through the windshield 12.
  • the image captured by the image pickup apparatus 100 is composed of a plurality of images arranged in chronological order.
  • the image pickup device 100 transmits the captured image to the display control device 200.
  • the input unit 210 of the display control device 200 receives the image from the image pickup device 100.
  • the latest image is the current image
  • the image arranged before the current image is the past image.
  • the image at the present time is the "first image” in which the foreground view is captured at the first timing (current time)
  • the past image is the "first image” in which the foreground scenery is captured at the second timing past the first timing. It can be said that it is the "second image”.
  • a moving image includes a plurality of second images (sequences of frame images) having different second timings.
  • the second image may be a single image or may be a general term for a plurality of images.
  • FIG. 4A shows a captured image 400 input to the input unit 210.
  • the captured image 400 corresponds to the current image, that is, the first image.
  • the first object 410a and the second object 410b are shown as two pedestrians. 4 (b)-(f) will be described later, and the process returns to FIG.
  • the input unit 210 outputs a plurality of images to the storage unit 220, the detection unit 240, and the comparison unit 250.
  • the storage unit 220 receives a plurality of images from the input unit 210.
  • the storage unit 220 stores a plurality of images for a certain period of time, and then outputs the images to the generation unit 230. Therefore, it can be said that the storage unit 220 delays a plurality of images.
  • the generation unit 230 receives a plurality of images from the storage unit 220.
  • the generation unit 230 includes a neural network such as Pred Net or deep learning, and by inputting a plurality of second images into the neural network, an image that predicts the forward scenery at the first timing (hereinafter referred to as "third image"). ) Is generated.
  • the third image is an image in which the same first timing as the first image is predicted from the second image of the second timing. Since a known technique may be used for the neural network, the description thereof will be omitted here.
  • the generation unit 230 may generate the third image by using an image processing technique such as optical flow analysis instead of the neural network. For example, the generation unit 230 may predict the same first timing as the first image from the second image of the second timing by using optical flow analysis, and generate a third image based on the prediction result. Good. Since a known technique may be used for optical flow analysis, the description thereof will be omitted here.
  • FIG. 4B shows an outline of processing in the generation unit 230.
  • the first past image 402a to the fourth past image 402d which are collectively referred to as the past image 402, are images whose imaging timings are different from each other, and correspond to a plurality of second images at different second timings.
  • the predicted image 404 is an image predicted from a plurality of past images 402, and corresponds to a third image in which the first timing is predicted.
  • one predicted image 404 is generated from the four past images 402, but the number of past images 402 to be used to generate one predicted image 404 is not limited to "4". 4 (c)-(f) will be described later, and the process returns to FIG.
  • the generation unit 230 outputs the generated third image to the comparison unit 250.
  • the detection unit 240 receives a plurality of images from the input unit 210.
  • the detection unit 240 detects the object 410 included in the first image by executing image recognition processing (object recognition or the like) such as pattern matching processing on the first image among the plurality of images. Since a known technique may be used for the image recognition process, the description thereof will be omitted here. Further, the detection unit 240 sets a region (hereinafter, referred to as “object arrangement region”) surrounding the detected object 410 in the first image.
  • object arrangement region a region surrounding the detected object 410 in the first image.
  • FIG. 4C shows an outline of processing in the detection unit 240.
  • the captured image 400, the first object 410a, and the second object 410b are the same as those in FIG. 4A.
  • the detection unit 240 When the detection unit 240 detects the first object 410a and the second object 410b from the captured image 400, the detection unit 240 sets the first object arrangement area 430a so as to surround the first object 410a, and sets the second object 410b. The second object placement area 430b is set so as to surround it. 4 (d)-(f) will be described later, and the process returns to FIG.
  • the detection unit 240 outputs the position information of the set object arrangement area 430 to the comparison unit 250.
  • the detection unit 240 may output the position information of the detected object 410 to the comparison unit 250.
  • the comparison unit 250 receives a plurality of images, particularly the first image, from the input unit 210, the third image from the generation unit 230, and the position information of the object placement area 430 from the detection unit 240.
  • the comparison unit 250 calculates the difference between the first image and the third image on a pixel-by-pixel basis to generate an image (hereinafter, referred to as “comparison image”) showing the difference.
  • compare image an image showing the difference.
  • the comparison unit 250 identifies the region (hereinafter, referred to as “difference region”).
  • the difference region may be a region where the difference between the first image and the third image is larger than the predetermined threshold value, that is, a region where the prediction error is large.
  • the comparison unit 250 compares the position information of the difference area with the position information of the object arrangement area 430, and identifies an area where both overlap (hereinafter, referred to as “overlapping area”).
  • the identification of the overlapping region corresponds to specifying the region in which the object 410 is included in the first image among the difference regions, that is, associating the region having a large prediction error with the detection region of the object 410.
  • FIG. 4D shows an outline of processing in the comparison unit 250.
  • the difference region 420 in the comparative image 406 is shown.
  • the difference region 420 overlaps with the first object placement region 430a. 4 (e)-(f) will be described later, and the process returns to FIG.
  • the comparison unit 250 outputs the position information of the object arrangement area 430 overlapping the overlapping area, that is, the difference area 420, to the display control unit 260. Further, the comparison unit 250 may output the position information of the object arrangement area 430 (hereinafter, referred to as “non-overlapping area”) that does not overlap with the difference area 420 to the display control unit 260.
  • the display control unit 260 receives the position information of the overlapping area and the position information of the non-overlapping area from the comparison unit 250.
  • the display control unit 260 generates an information presentation image showing the overlapping area based on the position information of the overlapping area.
  • the information presentation image is arranged so as to overlap the overlapping region.
  • the display control unit 260 generates a caution image showing the non-overlapping area based on the position information of the non-overlapping area.
  • the caution image is arranged so as to overlap the non-overlapping area.
  • FIG. 4E shows an outline of processing in the display control unit 260.
  • the information presentation image 440 is arranged so as to overlap the first object arrangement area 430a of FIG.
  • the information presentation image 440 and the caution image 450 are common in that they are images for notifying the driver of the existence of the object 410, but the information presentation image 440 is an object having a larger prediction error than the caution image 450. Notify the driver of the existence of the object 410. Therefore, the information presentation image 440 is displayed with a higher brightness than the caution image 450. As a modification, the caution image 450 may not be displayed.
  • FIG. 4 (f) will be described later, and the process returns to FIG.
  • the display control unit 260 causes the display device 300 to display the information presentation image 440 and the caution image 450.
  • the display device 300 is a HUD and has a displayable area 50 inside the driver's field of view while driving.
  • the display device 300 displays the information presentation image 440 and the caution image 450 in the displayable area 50 (for example, a virtual image display).
  • FIG. 4 (f) shows the display in the displayable area 50.
  • the first person 460a corresponds to the first object 410a in the captured image 400 of FIG. 1 (a)
  • the second person 460b corresponds to the second object 410b in the captured image 400 of FIG. 1 (a).
  • the information presentation image 440 is displayed so as to be superimposed on the first person 460a.
  • the caution image 450 is displayed so as to be superimposed on the second person 460b. That is, the information presentation image 440 and the caution image 450 are displayed by AR (Augmented Reality). Since a known technique may be used for the processing of the display control unit 260 for displaying the information presentation image 440 and the caution image 450 at such a position, the description thereof will be omitted here.
  • the display control unit 260 displays the information presentation image 440 in accordance with the background, which corresponds to displaying the information presentation image 440 so as to overlap the overlapping region.
  • the above processing is sequentially executed, and the display of the information presentation image 440 and the caution image 450 is also sequentially updated.
  • the display of the information presentation image 440 by the display control unit 260 is not limited to the form shown in FIG. 4 (f).
  • the display control unit 260 may divide the displayable area 50 into a plurality of partial areas, and display the information presentation image 440 in the partial area 52 including the overlapping area among the plurality of partial areas.
  • 5 (a)-(b) show another example of display by the display system 500.
  • 5 (a)-(b) show the displayable area 50.
  • the displayable area 50 is divided into a first partial area 52a arranged on the left side and a second partial area 52b arranged on the right side.
  • the information presentation image 440 is shown for the entire second partial region 52b.
  • the information presentation image 440 is shown, for example, as a transparent but colored region.
  • the first partial region 52a and the second partial region 52b are arranged in the same manner as in FIG. 5 (a).
  • the information presentation image 440 is shown in the lower part of the second partial region 52b.
  • the information presentation image 440 is shown as, for example, a rectangular or arcuate bar.
  • the number of partial areas 52 that divide the displayable area 50 is not limited to "2" and may be "3" or more.
  • the shape of the information presentation image 440 is not limited to the example shown in FIGS. 5 (a)-(b).
  • the display control device 200 is composed of one or more CPUs (Central Processing Units), one or more GPUs (Graphical Processing Units), one or more memories, and other LSIs (Program Scale Integration) of any computer. ) Etc., and in terms of software, it is realized by a program loaded in memory, etc., but here, the functional blocks realized by their cooperation are drawn. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms only by hardware and by a combination of hardware and software.
  • FIG. 6 is a flowchart showing a display control procedure of the display control device 200.
  • the input unit 210 receives the first image (S10).
  • the detection unit 240 detects the object 410 (Y in S12)
  • the generation unit 230 generates a third image from the second image (S14).
  • the display control unit 260 When there is a difference region 420 in which the difference between the first image and the third image is larger than the threshold value (Y in S16) and the difference region 420 corresponds to the object 410 (Y in S18), the display control unit 260 ,
  • the information presentation image 440 is displayed on the display device 300 (S20).
  • the detection unit 240 does not detect the object 410 (N in S12), or when there is no difference region 420 in which the difference between the first image and the third image is larger than the threshold value (N in S16), or the difference region When 420 does not correspond to the object 410 (N in S18), the process is terminated.
  • the difference between the first image and the third image is a overlapping region larger than the threshold value, and the information presentation image showing the overlapping region in which the object is included in the first image is used as a background. Since they are displayed together, the number of information presentation images in the HUD can be reduced. Moreover, since the number of information presentation images in the HUD is reduced, the troublesomeness of display can be suppressed. In addition, since the information presentation image showing the overlapping area including the object having a large prediction error is displayed according to the background, it is possible to call attention to the object. Further, since the information presentation image is displayed so as to be superimposed on the overlapping area, it is possible to make it easy to understand the object to be called attention by the information presentation image. Further, since the information presentation image is displayed in the partial area including the overlapping area among the plurality of partial areas, the processing can be simplified.
  • Example 2 relates to a display system including a display control device for controlling the display of the HUD, as in the first embodiment.
  • the first embodiment it has been explained that when the prediction error becomes large with respect to the object outside the vehicle, oversight is likely to occur.
  • the driver is drawn to the situation.
  • oversights of objects outside the vehicle are likely to occur.
  • the display of the car navigation system is changed, the display of the instrument panel is changed, or the display of the smartphone placed in the passenger compartment (dashboard, etc.) is changed.
  • the second embodiment aims to call attention to an object outside the vehicle even if a situation occurs in which the prediction error becomes large inside the vehicle interior.
  • the vehicle 1000 and the display system 500 according to the second embodiment are of the same type as those in FIGS. 1 and 3. Here, the differences from the past will be mainly described.
  • FIG. 7 (a)-(b) are diagrams schematically showing the interior of the vehicle 1000.
  • FIG. 7A is shown in the same manner as in FIG.
  • a monitor 30 is arranged on the left side of the dashboard 10.
  • the monitor 30 can display a screen of a car navigation system, a screen of a television, and the like.
  • the imaging range of the above-mentioned imaging device 100 is shown as the front imaging range 600.
  • the front imaging range 600 is provided outside the vehicle 1000.
  • an image pickup device hereinafter, referred to as “indoor image pickup device” (hereinafter, referred to as “indoor image pickup device”) (not shown) is also installed in the interior of the vehicle 1000.
  • the imaging range of the indoor imaging device is shown as an in-vehicle imaging range 610, and the indoor imaging device is installed so that the in-vehicle imaging range 610 includes the dashboard 10, the center console 20, and the monitor 30.
  • FIG. 7B will be described later, and the process returns to FIG.
  • the display system 500 also executes the following processing in addition to the processing of the first embodiment.
  • the input unit 210 of the display control device 200 receives an image from the indoor image pickup device.
  • the current image included in the image from the indoor image pickup device is the "fourth image” obtained by capturing the vehicle interior at the first timing (current time), and the past image is the second image past the first timing. It can be said that this is the "fifth image” in which the vehicle interior is imaged at the timing.
  • the moving image includes a plurality of fifth images (sequences of frame images) having different second timings.
  • the fifth image may be a single image or may be a general term for a plurality of images.
  • the input unit 210 outputs a plurality of images to the storage unit 220, the detection unit 240, and the comparison unit 250.
  • the storage unit 220 receives a plurality of images from the input unit 210, stores the plurality of images for a certain period of time, and then outputs the plurality of images to the generation unit 230.
  • the generation unit 230 receives a plurality of images from the storage unit 220.
  • the generation unit 230 includes a neural network such as Pred Net, and by inputting a plurality of fifth images into the neural network, an image predicting the vehicle interior at the first timing (hereinafter referred to as "sixth image”) is obtained. Generate. That is, the sixth image is an image in which the same first timing as the fourth image is predicted from the fifth image of the second timing.
  • the generation unit 230 outputs the generated sixth image to the comparison unit 250.
  • the detection unit 240 receives a plurality of images from the input unit 210.
  • the detection unit 240 detects a portion of the fourth image excluding the front imaging range 600, that is, an object included in the vehicle interior, by executing pattern matching processing on the fourth image of the plurality of images. ..
  • the portion of the fourth image excluding the front imaging range 600 is preset.
  • the object corresponds to, for example, the monitor 30 of FIG. 7 (a).
  • the detection unit 240 sets a region surrounding the detected object (hereinafter, referred to as “object arrangement region”) in the fourth image.
  • the detection unit 240 outputs the position information of the set object arrangement area to the comparison unit 250.
  • the comparison unit 250 receives a plurality of images, particularly the fourth image, from the input unit 210, the sixth image from the generation unit 230, and the position information of the object placement area from the detection unit 240.
  • the comparison unit 250 calculates the difference between the fourth image and the sixth image on a pixel-by-pixel basis to generate an image (hereinafter, referred to as “comparison image”) showing the difference.
  • the comparison unit 250 identifies the region (hereinafter, referred to as “difference region”).
  • the difference region is a region where the difference between the fourth image and the sixth image is large, that is, a region where the prediction error is large.
  • the comparison unit 250 compares the position information of the difference region with the position information of the object placement region, and identifies whether or not there is an region in which both overlap (hereinafter, referred to as “overlapping region”).
  • FIG. 7B shows a case where the display of the monitor 30 is changed from FIG. 7A.
  • An object placement area is set for such a monitor 30, and a prediction error is increased due to a change in the display of the monitor 30. Therefore, the monitor 30 is specified as an overlapping region in the comparison unit 250. This is a situation in which the display of the monitor 30 is changed in the vehicle interior, so that the driver is attracted to the monitor 30 and the person 460 outside the vehicle 1000 is likely to be overlooked.
  • the display control unit 260 displays the information presentation image 440 as shown in FIG. 7B so as to overlap the overlapping area when the comparison unit 250 specifies the overlapping area with respect to the person 460.
  • the display control unit 260 changes the display mode of the information presentation image 440 depending on whether or not there is an overlapping region with respect to the monitor 30. For example, when the overlapping area with respect to the monitor 30 exists, the brightness of the information presentation image 440 is higher than when the overlapping area with respect to the monitor 30 does not exist. Further, the information presentation image 440 may be blinked when there is an overlapping area with respect to the monitor 30. Further, when there is an overlapping area with respect to the monitor 30, a warning sound may be output, and the brightness of the display of the monitor 30 may be lowered.
  • the display mode of the information presentation image is changed depending on whether or not there is another overlapping region having a large prediction error in the vehicle interior. Therefore, even in a situation where the driver's attention is likely to shift from the outside of the vehicle interior to the inside of the vehicle due to a change in the display state of one or more display devices arranged in the vehicle interior, one or more outside the vehicle. It is possible to call attention to the driver about the magnitude of the prediction error regarding the object of. Further, even in a situation where the interior of the vehicle is likely to attract the driver's attention, attention is drawn to the information presentation image, so that the driver can be made aware of the existence of an object outside the vehicle.
  • Example 3 corresponds to a modified example of Example 1. Here, the differences from the past will be mainly described.
  • FIG. 8 schematically shows the interior of the vehicle 1000, and shows a configuration in which the interior of the vehicle 1000 is viewed from the rear. This is a configuration of another pattern in the room of FIG.
  • the configuration of the vehicle interior of the vehicle 1000 may be a combination of FIGS. 1 and 8.
  • the meter display 700 is a display for displaying the meter 18 of FIG. 1, or a CID (Center Information Display) provided around the meter 18.
  • the HUD702 corresponds to the displayable area 50 of FIG. In the following, the HUD 702 and the displayable area 50 will be used without distinction.
  • the HUD702 may be able to display an image on the entire windshield 12 as shown in FIG. 1, or may be able to display an image on a part of the windshield 12 as shown in FIG.
  • the mirror display 704 is an electronic mirror.
  • the center display 706 is a display arranged on the center console 20.
  • the LED (Light Emitting Diode) display 708 is composed of a plurality of LEDs arranged on the dashboard 10.
  • the LED display 708 may be composed of one LED.
  • the first pillar display 710a and the second pillar display 710b, which are collectively referred to as pillar displays 710, are displays arranged on the left and right pillars 14, respectively.
  • the pillar display 710 may be an LED.
  • a sound transmitted to the auditory sense and a haptic display transmitted to the tactile sense may be arranged. Therefore, the conventional "display" may be "presentation". This also applies to the following.
  • the speaker 712 can output sound.
  • the steering wheel 16 may be provided with an LED and a vibrator.
  • An oscillator may be provided on the aroma diffuser and the sheet.
  • FIG. 9 shows the configuration of the display system 500 mounted on the vehicle 1000.
  • the display system 500 includes a front image pickup device 110, a display control device 200, a detection device 270, and a display device 300.
  • the front image pickup device 110 is an image pickup device 100 that images the front.
  • the display control device 200 includes an input unit 210, a storage unit 220, a generation unit 230, a comparison unit 250, and a display control unit 260.
  • the display control device 200 of FIG. 3 includes a detection unit 240, but the display control device 200 of FIG. 9 does not include the detection unit 240.
  • the detection device 270 has a function of the detection unit 240, and is connected to the front image pickup device 110 and the display control device 200.
  • the detection device 270 is included in, for example, ADAS (Advanced Driver-Assistance Systems), and the detection device 270 may be referred to as ADAS.
  • the display device 300 includes a meter display 700, a HUD 702, a mirror display 704, a center display 706, an LED display 708, a pillar display 710, and the like shown in FIG.
  • the comparison unit 250 receives the first image from the input unit 210 and the third image from the generation unit 230. Further, the comparison unit 250 receives the position information of the object placement area 430 from the detection device 270. The comparison unit 250 derives a prediction error by calculating the difference between the first image and the third image on a pixel-by-pixel basis.
  • the prediction error may be derived in units of pixels, or may be derived in units of a region in which a certain number of pixels are aggregated (hereinafter, referred to as "partial region").
  • the comparison unit 250 calculates the integrated value of the prediction error in the position information of the object arrangement area 430, and then divides the integrated value by the size of the object arrangement area 430 to obtain the prediction error of the object arrangement area 430. Is derived.
  • the comparison unit 250 outputs the position information of the object arrangement area 430 and the prediction error to the display control unit 260.
  • the display control unit 260 receives the position information of the object placement area 430 and the prediction error from the comparison unit 250.
  • 10 (a)-(g) show an outline of the operation of the display system 500.
  • FIG. 10A shows a table stored in the display control unit 260.
  • the prediction error "low” is specified.
  • the prediction error "medium” is defined, and when the prediction error is larger than the second threshold value, The prediction error "high” is specified.
  • different colors are defined for each prediction error range. Different brightness may be specified for each range of prediction error.
  • the display control unit 260 determines the color corresponding to the received prediction error by comparing the received prediction error with the table. 10 (b)-(g) will be described later, and the process returns to FIG.
  • the display control unit 260 generates an information presentation image 440 using the determined color. Since the caution image 450 in the first embodiment corresponds to the information presentation image 440 having a small prediction error, the caution image 450 may be included in the information presentation image 440 in the following description.
  • the display control unit 260 causes the display device 300 to display the information presentation image 440.
  • FIGS. 10 (b)-(d) show the captured image 400 input to the input unit 210. These correspond to the first images showing the transition states in the order of FIGS. 10 (b)-(d).
  • the first image shown in FIG. 10 (b) does not include the object 410 such as a person, and the object 410 appears in the first image shown in FIG. 10 (c).
  • FIG. 10 (d) the object 410 appearing in FIG. 10 (c) moves.
  • FIG. 10 (e) shows an image displayed in the displayable area 50 by the display control unit 260 so as to correspond to FIG. 10 (b). Since the person 460 is not included, the caution image 450 is not displayed.
  • FIG. 10 (f) shows an image displayed in the displayable area 50 by the display control unit 260 so as to correspond to FIG.
  • FIG. 10 (c) shows an image displayed in the displayable area 50 by the display control unit 260 so as to correspond to FIG. 10 (d). Since the person 460 is included and the prediction error for the person 460 is "low”, the information presentation image 440 is displayed in a color corresponding to the prediction error "low”. This information presentation image 440 corresponds to the caution image 450.
  • the display control unit 260 changes the display mode of the information presentation image 440 according to the magnitude of the prediction error, which is the difference between the first image and the third image. Therefore, the display control unit 260 changes the display mode of the information presentation image 440 even when there is one object such as the person 460. For example, when the ease of overlooking an object changes, the color of the information presentation image 440 is changed or the brightness is changed. In addition, the display control unit 260 gradually changes the display mode.
  • the trigger when the ease of overlooking an object changes is, for example, when a certain period of time has passed since the display was displayed, when the line of sight is detected, or when avoidance behavior such as deceleration or steering in the opposite direction is detected. ..
  • the comparison unit 250 of FIG. 9 receives the first image from the input unit 210 and the third image from the generation unit 230. Further, the comparison unit 250 receives the position information of the object placement area 430 from the detection device 270. As described above, the comparison unit 250 derives the prediction error by calculating the difference between the first image and the third image on a pixel-by-pixel basis. The comparison unit 250 outputs the position information of the object arrangement area 430 and the derived prediction error to the display control unit 260.
  • the display control unit 260 receives the position information of the object placement area 430 and the derived prediction error from the comparison unit 250.
  • 11 (a)-(b) show another outline of the operation of the display system 500. These show images displayed in the displayable area 50 by the display control unit 260.
  • a person 460 is included.
  • the position information on which the person 460 is placed corresponds to the position information of the object placement area 430.
  • the display control unit 260 arranges the actual information presentation image 750 with respect to the person 460 based on the position information of the object arrangement area 430.
  • the manifest information presentation image 750 has, for example, an elliptical shape and is arranged so as to overlap a part of the person 460.
  • the display control unit 260 arranges the latent information presentation image 760 at a position where the prediction error becomes larger than a constant value.
  • the bar-shaped latent information presentation image 760 is arranged at the horizontal coordinates of the position where the prediction error becomes larger than a constant value, and, for example, the fixed vertical coordinates at the bottom. Further, by using the table of FIG. 10A for a constant value, the display mode of the latent information presentation image 760 may be changed according to the magnitude of the prediction error.
  • the person 460 is included as in FIG. 11 (a).
  • the display control unit 260 arranges the actual information presentation image 750 with respect to the person 460 based on the position information of the object arrangement area 430.
  • the actual information presentation image 750 has, for example, a frame shape that surrounds the person 460.
  • the display control unit 260 arranges the latent information presentation image 760 at a position where the prediction error becomes larger than a constant value.
  • the latent information presentation image 760 has an elliptical shape.
  • the comparison unit 250 of FIG. 9 receives the first image from the input unit 210 and the third image from the generation unit 230. Further, the comparison unit 250 receives the position information of the object placement area 430 from the detection device 270. At that time, the comparison unit 250 also receives information indicating the distance between the object 410 and the vehicle 1000, for example, TTC (Time-to-Collision) from the detection device 270.
  • TTC Time-to-Collision
  • TTC can be said to be the detection result of the degree of distance between the vehicle 1000 and the object 410, but as the detection result of the degree of distance between the vehicle 1000 and the object 410, instead of TTC, THW (Time Head Way) Risk Perception may be used. THW and Risk Perception will be described later.
  • the display control unit 260 receives the position information of the object placement area 430, the TTC value, and the derived prediction error from the comparison unit 250.
  • 12 (a)-(d) show still another outline of operation of the display system 500. These show images displayed in the displayable area 50 by the display control unit 260.
  • FIG. 12A shows an image displayed in the displayable area 50 by the display control unit 260 when the TTC value is equal to or higher than the specified value. This includes a manifest information presentation image 750 and a latent information presentation image 760, as in FIG. 11A.
  • FIG. 12B shows an image displayed in the displayable area 50 by the display control unit 260 when the TTC value is smaller than the specified value, that is, when the risk to the object 410 increases. This displays only the actual information presentation image 750 and does not display the latent information presentation image 760.
  • FIG. 12C shows an image displayed in the displayable area 50 by the display control unit 260 when the TTC value is equal to or higher than the specified value.
  • FIG. 12D shows an image displayed in the displayable area 50 by the display control unit 260 when the TTC value is smaller than the specified value, that is, when the risk to the object 410 increases.
  • the display mode of the information presentation image is changed according to the magnitude of the prediction error, it is possible to inform the magnitude of the prediction error, that is, the potential risk for a scene or an object that is difficult for humans to recognize. Further, when the actual information presentation image is displayed, the latent information presentation image is not displayed or the prominence is displayed low, so that the actual information presentation image can be easily focused on.
  • Example 4 relates to the same display system 500 as the third embodiment.
  • the display control device 200 receives the TTC value for the object 410 from the detection device 270, but it is not necessary to display the actual information presentation image based on the TTC value.
  • the configuration of the display system 500 according to the fourth embodiment is the same type as that shown in FIG. Here, the differences from the past will be mainly described.
  • the detection device 270 of FIG. 9 detects the value of TTC with respect to the object 410.
  • the detection device 270 sets the object arrangement area 430 in order to notify the danger to the object 410, and displays the position information of the object arrangement area 430 in the display control device 200. Output to. At that time, the detection device 270 may also output the TTC value to the display control device 200.
  • the detection device 270 does not set the object placement area 430 because the risk to the object 410 is low.
  • the TTC value can be said to be the detection result of the degree of distance between the vehicle 1000 and the object 410, so it can be said that this is a situation in which the object 410 is separated from the vehicle 1000 to the extent that it is not dangerous.
  • the detection device 270 outputs the TTC value to the display control device 200.
  • the detection device 270 may output the position information of the object 410 to the display control device 200.
  • the comparison unit 250 of the display control device 200 receives the first image from the input unit 210 and the third image from the generation unit 230. Further, the comparison unit 250 receives the position information of the object 410 and the TTC value from the detection device 270.
  • the value of TTC here has a value equal to or higher than the specified value in the detection device 270.
  • the comparison unit 250 calculates the difference between the first image and the third image on a pixel-by-pixel basis by comparing the first image and the third image, and derives a prediction error. In particular, the comparison unit 250 derives a prediction error for each of the regions (hereinafter, referred to as “divided regions”) in which the first image and the third image are bisected into left and right.
  • the comparison unit 250 outputs the TTC value and the derived prediction error to the display control unit 260.
  • the display control unit 260 receives the TTC value and the derived prediction error from the comparison unit 250.
  • 13 (a)-(c) show the outline of operation of the display system 500.
  • FIG. 13A shows a table stored in the display control unit 260.
  • the prediction error "low” is specified.
  • the prediction error "medium” is defined, and when the prediction error is larger than the second threshold value, The prediction error "high” is specified.
  • a third threshold value and a fourth threshold value are defined, and for cases where the TTC is longer than the third threshold value.
  • TTC "length" is specified.
  • the TTC "medium” is defined, and when the TTC is equal to or less than the fourth threshold value, the TTC " "Short” is specified.
  • the display control unit 260 determines the color of the latent information presentation image 760 corresponding to the combination of the received prediction error and the TTC value by comparing the combination of the received prediction error and the TTC value with the table. To do. Specifically, the first subregion is supported by comparing the combination of the prediction error for one of the subregions (hereinafter referred to as "first subregion") and the TTC value with the table. The color is determined. Further, by comparing the combination of the prediction error for another one of the subregions (hereinafter referred to as "second subregion”) and the TTC value with the table, the color corresponding to the second subregion is obtained. Is determined.
  • FIG. 13B shows an image displayed in the displayable area 50 by the display control unit 260.
  • the left side portion of the displayable area 50 is defined as the first partial area, and the right side portion of the displayable area 50 is defined as the second partial area.
  • FIG. 13B includes a person 460.
  • the display control unit 260 displays the first latent information presentation image 760a for the first subregion including the person 460, and displays the second latent information presentation image 760b for the second subregion not including the person 460. indicate.
  • the colors determined as described above are used for the first latent information presentation image 760a and the second latent information presentation image 760b.
  • FIG. 13C shows an image displayed in the displayable area 50 by the display control unit 260.
  • FIG. 13C includes a first person 460a and a second person 460b.
  • the display control unit 260 displays the first latent information presentation image 760a for the first partial region including the first person 460a and the second person 460b, and the display control unit 260 does not include the first person 460a and the second person 460b.
  • the second latent information presentation image 760b is displayed for the two partial regions. Since the prediction error and the TTC value for the first person 460a and the second person 460b in FIG. 13 (b) and the prediction error and the TTC value for the person 460 in FIG. 13 (b) are different, FIG.
  • the color of the first latent information presentation image 760a is different from the color of the first latent information presentation image 760a of FIG. 13 (a). That is, the display control unit 260 displays the latent information presentation image 760 based on the TTC value and the prediction error, and when the TTC value or the prediction error changes, the display mode of the latent information presentation image 760 is changed. change.
  • Example 5 relates to the same display system 500 as before.
  • the display control device 200 receives the position information of the object arrangement area 430 and the TTC value for the object 410 from the detection device 270.
  • the display control device 200 receives only the detection result when the detection device 270 detects the object 410. Under such circumstances, it is required to display the latent information presentation image 760 so as not to interfere with the display of the actual information presentation image 750.
  • the configuration of the display system 500 according to the fifth embodiment is the same type as that of FIG. Here, the differences from the past will be mainly described.
  • the detection device 270 When the object 410 is detected by the detection device 270 of FIG. 9, the detection device 270 outputs the detection result of the object 410 to the display control device 200 and causes the display device 300 to display the actual information presentation image 750. On the other hand, when the object 410 is not detected by the detection device 270, the detection device 270 does not output the detection result of the object 410 to the display control device 200 and does not display the actual information presentation image 750 on the display device 300.
  • the comparison unit 250 of the display control device 200 receives the first image from the input unit 210 and the third image from the generation unit 230. Further, the comparison unit 250 receives the detection result of the object 410 from the detection device 270 when the detection device 270 detects the object 410. As described above, the comparison unit 250 derives the prediction error by calculating the difference between the first image and the third image on a pixel-by-pixel basis. The comparison unit 250 outputs the derived prediction error to the display control unit 260. When the comparison unit 250 receives the detection result, the comparison unit 250 outputs the detection result to the display control unit 260.
  • the display control unit 260 receives the derived prediction error from the comparison unit 250. By executing the same processing as in the third embodiment, the display control unit 260 arranges the latent information presentation image 760 at a position where the prediction error becomes larger than a constant value, as in FIG. 11A. That is, the display control unit 260 displays the latent information presentation image 760 based on the prediction error which is the difference between the first image and the third image. In particular, the display control unit 260 displays the actual information presentation image 750 in the first display mode when the detection result is received, and displays the actual information presentation image 750 in the second display mode when the detection result is not received.
  • the first display mode and the second display mode are different.
  • FIG. 14 shows an outline of the operation of the display system 500.
  • the detection device 270 causes the displayable area 50 to display the first actual information presentation image 750a for the first person 460a and the second actual information presentation image 750b for the second person 460b.
  • the display control unit 260 receives the detection result from the detection device 270, the latent information presentation image 760 is displayed in the displayable area 50 in the first display mode.
  • the first display mode is a display with a lighter color or lower brightness than the second display mode. As a result, the actual information presentation image 750 becomes more noticeable, and the latent information presentation image 760 becomes less noticeable.
  • the detection device 270 does not detect the object 410, the detection device 270 does not display the actual information presentation image 750 in the displayable area 50. Further, since the display control unit 260 has not received the detection result from the detection device 270, the latent information presentation image 760 is displayed in the displayable area 50 in the second display mode.
  • FIG. 15A the detection device 270 does not detect the object 410. Therefore, the detection device 270 does not display the actual information presentation image 750 in the displayable area 50, and the display control unit 260 displays the latent information presentation image 760 in the displayable area 50.
  • FIG. 15B the detection device 270 detects the object 410. Therefore, the detection device 270 displays the actual information presentation image 750 for the person 460 in the displayable area 50, and the display control unit 260 displays the latent information presentation image 760 on the meter display 700. That is, when the actual information presentation image 750 is displayed, the latent information presentation image 760 is displayed on a display different from the display on which the actual information presentation image 750 is displayed.
  • the display mode of the latent information presentation image is changed depending on whether or not the actual information presentation image is displayed, interference between the actual information presentation image and the latent information presentation image can be suppressed.
  • Example 6 relates to the same display system 500 as before.
  • the conventional display control device 200 includes a detection unit 240 or is connected to the detection device 270.
  • the display control device 200 according to the sixth embodiment does not include the detection unit 240 and is not connected to the detection device 270.
  • the detection device 270 can display the actual information presentation image 750
  • the display control unit 260 can display the latent information presentation image 760. Therefore, the display control device 200 does not recognize whether or not the detection device 270 is displaying the actual information presentation image 750 when displaying the latent information presentation image 760. Under such circumstances, it is required to display the latent information presentation image 760 so as not to interfere with the display of the actual information presentation image 750.
  • the differences from the past will be mainly described.
  • FIG. 16 shows the configuration of the display system 500.
  • the display system 500 includes a front image pickup device 110, a display control device 200, and a display device 300.
  • the display control device 200 includes an input unit 210, a storage unit 220, a generation unit 230, a comparison unit 250, and a display control unit 260. Unlike FIG. 9, the display system 500 does not include the detection device 270.
  • FIG. 17 shows another configuration of the display system 500.
  • the display system 500 includes a rear image pickup device 120, a display control device 200, and a display device 300.
  • the rear image pickup device 120 is an image pickup device 100 that images the rear from the vehicle 1000.
  • the display control device 200 includes an input unit 210, a storage unit 220, a generation unit 230, a comparison unit 250, and a display control unit 260.
  • the display system 500 does not include the detection device 270.
  • FIG. 18A shows an image displayed on the displayable area 50 and the meter display 700.
  • the detection device 270 generates an actual information presentation image 750 by detecting the object 410.
  • the detection device 270 causes the displayable area 50 to display the first actual information presentation image 750a for the first person 460a and the second actual information presentation image 750b for the second person 460b.
  • the display control unit 260 of the display control device 200 causes the meter display 700 to display the latent information presentation image 760 based on the prediction error which is the difference between the first image and the third image. Since the generation of the latent information presentation image 760 in the display control unit 260 is the same as before, the description thereof will be omitted here.
  • the displayable area 50 is referred to as a second display device.
  • the first display device is different from the second display device.
  • FIG. 18B shows an image displayed on the displayable area 50 and the pillar display 710.
  • the detection device 270 generates an actual information presentation image 750 by detecting the object 410.
  • the detection device 270 causes the displayable area 50 to display the first actual information presentation image 750a for the first person 460a and the second actual information presentation image 750b for the second person 460b.
  • the display control unit 260 of the display control device 200 causes the pillar display 710 to display the latent information presentation image 760 based on the prediction error which is the difference between the first image and the third image.
  • the latent information presentation image 760 is displayed on the first pillar display 710a.
  • the displayable area 50 is referred to as a second display device.
  • the first display device is different from the second display device.
  • FIG. 19 shows another operation outline of the display system 500.
  • the detection device 270 generates an actual information presentation image 750 by detecting the object 410.
  • the detection device 270 causes the displayable area 50 to display the first actual information presentation image 750a for the first person 460a and the second actual information presentation image 750b for the second person 460b.
  • the display control unit 260 of the display control device 200 is a voice corresponding to the latent information presentation image 760 (hereinafter, referred to as “latent information presentation voice”) based on a prediction error which is a difference between the first image and the third image. ) Is generated.
  • the display control unit 260 outputs the latent information presentation voice from the speaker 712.
  • the display control unit 260 here may be called a control unit.
  • the actual information presentation image and the latent information presentation image are displayed on different display devices, it is possible to suppress the interference between the actual information presentation image and the latent information presentation image.
  • Example 7 Next, Example 7 will be described.
  • the seventh embodiment relates to the same display system 500 as before.
  • it is not limited whether the display control device 200 is mounted on the vehicle 1000 and the detection unit 240 or the detection device 270 is mounted on the vehicle 1000. Therefore, the latent information presentation image 760 can be displayed regardless of whether or not the actual information presentation image 750 can be displayed.
  • the display device 300 according to the seventh embodiment is of the same type as those in FIGS. 16 and 17. Here, the differences from the past will be mainly described.
  • the comparison unit 250 of the display control device 200 derives a prediction error, which is the difference between the first image and the third image, by comparing the first image and the third image.
  • the display control unit 260 causes the display device 300 to display the latent information presentation image 760 based on the prediction error.
  • the display control unit 260 changes the display mode of the latent information presentation image 760.
  • FIG. 20A shows a display when the prediction error of the entire front region is smaller than a predetermined value in the display control unit 260. In this case, even if the prediction error is small due to the absence of the object 410, the driver can easily be distracted. Therefore, by lighting the central portion of the LED display 708, concentration on the preceding vehicle is promoted.
  • FIG. 20B shows a display when the prediction error of the front left region is smaller than a predetermined value in the display control unit 260. In this case, the prediction error is biased due to the absence of the object 410, and the driver's attention is extremely likely to be drawn. Therefore, by lighting the left side portion of the LED display 708, concentration on the front left side is promoted.
  • FIG. 20C shows a display in the display control unit 260 when the prediction error of the front right region is smaller than the prediction error of the front left region and the prediction error of the front left region is smaller than the predetermined value.
  • the left side portion and the right side portion of the LED display 708 are lit in different colors.
  • FIG. 20D shows a display when the prediction error of the front left region is larger than a predetermined value in the display control unit 260. In this case, cognition cannot catch up even without the object 410. Therefore, by lighting the left side portion of the LED display 708, concentration on the front left is promoted.
  • FIG. 20E shows a display in the display control unit 260 when the prediction error of the entire front region is larger than a predetermined value. In this case, the operating load is too large (the operating requirement is too high). Therefore, when all of the LED displays 708 are turned on, deceleration or slowing is promoted.
  • FIG. 21A shows the colors when the LED display 708 is turned on.
  • the LED display 708 can be lit in any of red, orange, and green. Further, the LED display 708 may be unlit.
  • FIG. 21B shows the control for blinking the LED display 708.
  • the LED display 708 blinks by repeating the lighting state of the brightness "100" and the extinguishing state of the brightness "0".
  • the ratio of light time to the blinking cycle is the duty ratio, but the duty ratio can be changed as shown in the upper and lower rows.
  • FIG. 21C shows a configuration in which the first color 770 and the second color 772 are alternately arranged in the LED display 708.
  • the first color 770 and the second color 772 are different colors from each other.
  • the positions of the first color 770 and the second color 772 may be interchanged as in the upper and lower rows.
  • FIG. 21D shows the control for changing the color of the LED display 708.
  • the LED display 708 lights up while repeating the first color 770 and the second color 772.
  • the lighting time of the first color 770 and the lighting time of the second color 772 do not have to be the same.
  • FIGS. 22 (a)-(e) show an outline of display on the HUD 702.
  • FIG. 22A shows a display when the prediction error of the entire front region is smaller than a predetermined value in the display control unit 260. In this case, even if the prediction error is small due to the absence of the object 410, the driver can easily be distracted. Therefore, by lighting the first latent information presentation image 760a on the left side portion of the HUD702 and the second latent information presentation image 760b on the right side portion, concentration on the preceding vehicle is promoted. Further, the latent information presentation image 760 in the lower portion of the HUD 702 may be lit.
  • FIG. 22B shows a display when the prediction error of the front left region is smaller than a predetermined value in the display control unit 260.
  • the prediction error is biased due to the absence of the object 410, and the driver's attention is extremely likely to be drawn. Therefore, by lighting the latent information presentation image 760 on the left side portion of the HUD702, concentration on the front left side is promoted.
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 22C shows a display in the display control unit 260 when the prediction error of the front right region is smaller than the prediction error of the front left region and the prediction error of the front left region is smaller than the predetermined value.
  • the first latent information presentation image 760a on the left side of the HUD702 and the second latent information presentation image 760b on the right side are lit in different colors.
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 22D shows a display when the prediction error of the front left region is larger than a predetermined value in the display control unit 260. In this case, cognition cannot catch up even without the object 410.
  • the latent information presentation image 760 on the left side portion of the HUD 702 is lit by the first color 770 and the second color 772, so that the concentration on the front left is promoted.
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 22E shows a display in the display control unit 260 when the prediction error of the entire front region is larger than a predetermined value. In this case, the operating load is too large (the operating requirement is too high). Therefore, when the frame-shaped latent information presentation image 760 along the edge of the HUD 702 lights up, deceleration or slowing is promoted.
  • FIGS. 23 (a)-(d) show the display details on the HUD702.
  • FIG. 23A shows the colors when the latent information presentation image 760 is turned on in the HUD702.
  • the HUD702 can be lit in any of red, orange, and green. Further, the HUD702 may be unlit.
  • FIG. 23B shows the control for blinking the latent information presentation image 760 in the HUD702.
  • the HUD702 blinks by repeating the lighting state of the brightness "100" and the extinguishing state of the brightness "0".
  • the ratio of light time to the blinking cycle is the duty ratio, but the duty ratio can be changed as shown in the upper and lower rows.
  • FIG. 23C shows a configuration in which the first color 770 and the second color 772 are alternately arranged in the latent information presentation image 760 of the HUD702.
  • the first color 770 and the second color 772 are different colors from each other.
  • the positions of the first color 770 and the second color 772 may be interchanged as in the upper and lower rows.
  • FIG. 23D shows the control for changing the color of the latent information presentation image 760 of the HUD702.
  • the HUD 702 lights up while repeating the first color 770 and the second color 772.
  • the lighting time of the first color 770 and the lighting time of the second color 772 do not have to be the same.
  • FIGS. 24 (a)-(b) show the configuration of the meter display 700.
  • the meter display 700 which is a CID, is arranged between the first meter 720a and the second meter 720b arranged side by side.
  • the meter display 700 displays the first meter image 722a and the second meter image 722b.
  • FIGS. 25 (a)-(e) show an outline of the display on the meter display 700.
  • FIG. 25A shows a display when the prediction error of the entire front region is smaller than a predetermined value in the display control unit 260. In this case, even if the prediction error is small due to the absence of the object 410, the driver can easily be distracted. Therefore, by lighting the first latent information presentation image 760a on the left side portion of the meter display 700 and the second latent information presentation image 760b on the right side portion, concentration on the preceding vehicle is promoted. Further, the latent information presentation image 760 in the lower portion of the meter display 700 may be lit.
  • FIG. 25A shows a display when the prediction error of the entire front region is smaller than a predetermined value in the display control unit 260. In this case, even if the prediction error is small due to the absence of the object 410, the driver can easily be distracted. Therefore, by lighting the first latent information presentation image 760a on the left side portion of the meter display 700 and the
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 25C shows a display in the display control unit 260 when the prediction error of the front right region is smaller than the prediction error of the front left region and the prediction error of the front left region is smaller than the predetermined value.
  • the first latent information presentation image 760a on the left side portion of the meter display 700 and the second latent information presentation image 760b on the right side portion are lit in different colors.
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 25D shows a display when the prediction error of the front left region is larger than a predetermined value in the display control unit 260. In this case, cognition cannot catch up even without the object 410.
  • the latent information presentation image 760 on the left side of the meter display 700 is lit by the first color 770 and the second color 772, so that the concentration on the front left is promoted.
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 25E shows a display in the display control unit 260 when the prediction error of the entire front region is larger than a predetermined value. In this case, the operating load is too large (the operating requirement is too high). Therefore, the frame-shaped latent information presentation image 760 along the edge of the meter display 700 is lit to promote deceleration or slowing.
  • FIGS. 26 (a)-(e) show an outline of the display on the pillar display 710.
  • FIG. 26A shows a display when the prediction error of the entire front region is smaller than a predetermined value in the display control unit 260. In this case, even if the prediction error is small due to the absence of the object 410, the driver can easily be distracted. Therefore, the first latent information presentation image 760a is lit on the first pillar display 710a, and the second latent information presentation image 760b is lit on the second pillar display 710b, thereby promoting concentration on the preceding vehicle.
  • FIG. 26B shows a display when the prediction error of the front left region is smaller than a predetermined value in the display control unit 260.
  • the prediction error is biased due to the absence of the object 410, and the driver's attention is extremely likely to be drawn. Therefore, by turning on the latent information presentation image 760 of the first pillar display 710a, concentration on the front left side is promoted. The latent information presentation image 760 does not light on the second pillar display 710b.
  • FIG. 26C shows a display in the display control unit 260 when the prediction error of the front right region is smaller than the prediction error of the front left region and the prediction error of the front left region is smaller than the predetermined value.
  • the first latent information presentation image 760a of the first pillar display 710a and the second latent information presentation image 760b of the second pillar display 710b are lit in different colors.
  • FIG. 26D shows a display when the prediction error of the front left region is larger than a predetermined value in the display control unit 260. In this case, cognition cannot catch up even without the object 410.
  • the latent information presentation image 760 of the first pillar display 710a is lit by the first color 770 and the second color 772, so that the concentration to the front left is promoted.
  • FIG. 26E shows a display in the display control unit 260 when the prediction error of the entire front region is larger than a predetermined value. In this case, the operating load is too large (the operating requirement is too high). Therefore, the first pillar display 710a is lit with the first latent information presentation image 760a, and the second pillar display 710b is lit with the second latent information presentation image 760b, which promotes deceleration or slowing down.
  • FIG. 27 (a)-(e) are views showing an outline of display on the mirror display 704.
  • FIG. 27A shows a display when the prediction error of the entire front region is smaller than a predetermined value in the display control unit 260. In this case, even if the prediction error is small due to the absence of the object 410, the driver can easily be distracted. Therefore, by lighting the first latent information presentation image 760a on the left side portion of the mirror display 704 and the second latent information presentation image 760b on the right side portion, concentration on the preceding vehicle is promoted. Further, the latent information presentation image 760 in the lower portion of the mirror display 704 may be lit.
  • FIG. 27B shows a display when the prediction error of the front left region is smaller than a predetermined value in the display control unit 260.
  • the prediction error is biased due to the absence of the object 410, and the driver's attention is extremely likely to be drawn. Therefore, by turning on the latent information presentation image 760 on the left side portion of the mirror display 704, concentration on the front left side is promoted.
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 27C shows a display in the display control unit 260 when the prediction error of the front right region is smaller than the prediction error of the front left region and the prediction error of the front left region is smaller than the predetermined value.
  • the first latent information presentation image 760a on the left side portion of the mirror display 704 and the second latent information presentation image 760b on the right side portion are lit in different colors.
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 27D shows a display in the display control unit 260 when the prediction error of the front left region is larger than a predetermined value. In this case, cognition cannot catch up even without the object 410.
  • the latent information presentation image 760 on the left side portion of the mirror display 704 is lit by the first color 770 and the second color 772, so that the concentration on the front left is promoted.
  • the latent information presentation image 760 may extend in the vertical direction or may extend in the horizontal direction.
  • FIG. 27E shows a display in the display control unit 260 when the prediction error of the entire front region is larger than a predetermined value. In this case, the operating load is too large (the operating requirement is too high). Therefore, the frame-shaped latent information presentation image 760 along the edge of the mirror display 704 is lit to promote deceleration or slowing down.
  • the display mode of the information presentation image is changed when the prediction error changes, it is possible to appropriately inform the information provision that conveys the potential risk to the scene or the target that is difficult for humans to recognize.
  • Computers that realize the above-mentioned functions programmatically include input devices such as keyboards, mice, and touchpads, output devices such as displays and speakers, CPUs (Central Processing Units), ROMs, RAMs, hard disk devices, and SSDs (Solid State Drives). It is equipped with a storage device such as a DVD-ROM (Digital Versail Disk Read Only Memory), a reader that reads information from a recording medium such as a USB memory, and a network card that communicates via a network, and each part is connected by a bus. ..
  • the reading device reads the program from the recording medium on which the above program is recorded and stores it in the storage device.
  • the network card communicates with the server device connected to the network, and stores the program downloaded from the server device for realizing the function of each device in the storage device. Further, the function of each device is realized by the CPU copying the program stored in the storage device to the RAM, sequentially reading the instructions included in the program from the RAM, and executing the program.
  • the display control device of a certain aspect of the present disclosure includes an input unit that receives a first image in which the foreground of the vehicle or the foreground of a user on board the vehicle is captured at the first timing.
  • a generation unit that generates a third image showing the prediction result of the foreground at one timing based on the second image in which the foreground at the second timing earlier than the first timing is captured, and the first image and the third image.
  • the present invention includes a display control unit that controls information presentation based on a comparison result using a predetermined standard.
  • the information presentation image is displayed based on the comparison result between the first image and the third image, it is possible to call attention while suppressing the troublesomeness of the display.
  • the predetermined criteria are "the difference between the first image and the third image is larger than a predetermined threshold value (for example, the first threshold value)" and "the difference between the first image and the third image is predetermined.
  • a state in which the difference between the first image and the third image is larger than (or smaller than) a predetermined threshold value (for example, the first threshold value) "Continue for a predetermined time or longer", "The distribution of the difference value of each pixel between the first image and the third image becomes a specific distribution", or "A series of first images and a series of first images within a unit time”
  • the amount of change in the difference when the three images are compared with each other may be larger than the third threshold value (or smaller than the third threshold value).
  • comparison unit for comparing the first image and the third image using a predetermined standard.
  • the presence or absence of a difference can be specified.
  • the predetermined criterion is whether or not the difference between the first image and the third image is larger than the first threshold value, and in the comparison unit, the difference between the first image and the third image is the first.
  • a first region that is larger than the threshold value and includes the imaging region of the first object is specified, and the information presentation is an image that warns the first region or the first object. is there.
  • an information presentation image showing a first region in which the difference between the first image and the third image is larger than the threshold value and the first image includes the first object. Is displayed, so it is possible to call attention while suppressing the annoyance of the display.
  • the display control unit may change the display mode of information presentation according to the magnitude of the difference between the first image and the third image.
  • the display mode of the information presentation image is changed according to the magnitude of the difference, it is possible to inform the magnitude of the prediction error, that is, the potential risk for a scene or an object that is difficult for humans to recognize.
  • the display control unit displays the information presentation so as to overlap the first area specified in the comparison unit. In this case, since the information presentation image is displayed so as to be superimposed on the specified first region, it is possible to make it easy to understand the object that calls attention by the information presentation image.
  • the display control unit displays the information presentation in the partial area including the first area specified by the comparison unit among the plurality of partial areas obtained by dividing the displayable area. In this case, since the information presentation image is displayed in the partial area including the specified first area, the process can be simplified.
  • the first image, the second image, and the third image are images of the scenery in front of the vehicle
  • the input unit receives the fourth image in which the interior of the vehicle is imaged at the first timing
  • the generation unit receives the fourth image.
  • a sixth image that predicts the vehicle interior at the first timing is generated
  • the comparison unit has a second difference between the fourth image and the sixth image. It is specified whether or not there is a second region that is larger than the threshold value and includes the second object, and the display control unit determines whether or not the second region exists. The display mode of information presentation is changed accordingly.
  • the fourth image contains the second object. Since the display mode of the information presentation image is changed depending on whether or not the information is presented, attention can be drawn.
  • the second threshold value can be a value different from the first threshold value.
  • the second threshold value may be adaptively set to the first threshold value. Further, the second threshold value may be determined by the first threshold value and a predetermined calculation formula.
  • a comparison unit for comparing the first image and the third image may be further provided.
  • the display control unit receives the detection result of the degree of separation between the vehicle and the object, and presents information based on the degree of separation and the difference between the first image and the third image compared in the comparison unit.
  • the display control unit may change the display mode of information presentation when the degree of separation or the difference between the first image and the third image changes. In this case, when the degree of separation or the difference between the first image and the third image changes, the display mode of the information presentation image is changed, so that it is possible to inform the potential risk to the scene or the target that is difficult for humans to recognize.
  • a comparison unit for comparing the first image and the third image may be further provided.
  • the display control unit displays and displays a latent information presentation image for notifying a latent risk to a scene or an object that is difficult for humans to recognize, based on the difference between the first image and the third image compared in the comparison unit.
  • the control unit receives the detection result of the object, the latent information presentation image is displayed in the first display mode, and when the detection result of the object is not received, the latent information presentation image is displayed in the second display mode.
  • the detection result of the object is received, the actual information presentation image for notifying the actual danger is displayed, and the first display mode and the second display mode may be different. In this case, since the display mode of the latent information presentation image is changed depending on whether or not the actual information presentation image is displayed, interference between the actual information presentation image and the latent information presentation image can be suppressed.
  • a comparison unit for comparing the first image and the third image may be further provided. Based on the difference between the first image and the third image compared in the comparison unit, the display control unit displays a latent information presentation image for notifying a latent risk to a scene or an object that is difficult for humans to recognize.
  • the first display device may be different from the second display device in which the actual information presentation image for notifying the actual danger when the object is detected is displayed. In this case, since the actual information presentation image and the latent information presentation image are displayed on different display devices, interference between the actual information presentation image and the latent information presentation image can be suppressed.
  • a comparison unit for comparing the first image and the third image may be further provided.
  • the display control unit displays an information presentation image based on the difference between the first image and the third image compared in the comparison unit, and the display control unit displays the difference between the first image and the third image.
  • the display mode of the information presentation image may be changed. In this case, when the difference between the first image and the third image changes, the display mode of the information presentation image is changed, so that it is possible to appropriately inform the potential risk to the scene or the target that is difficult for humans to recognize.
  • This display system includes an image pickup device and a display control device connected to the image pickup device.
  • the display control device receives a first image in which the foreground of the vehicle or the foreground of the user on board the vehicle is captured at the first timing, and a third image showing the prediction result of the foreground at the first timing. Based on the comparison result of the generation unit generated based on the second image in which the foreground at the second timing earlier than the first timing is captured and the first image and the third image using a predetermined standard. It includes a display control unit that controls the display of information presentation.
  • Yet another aspect of the present disclosure is a display control method.
  • the first step of receiving the first image in which the foreground of the vehicle or the foreground of the user on board the vehicle at the first timing is captured, and the third image showing the prediction result of the foreground at the first timing are first.
  • Information is presented based on the step of generating the foreground at the second timing, which is earlier than the timing, based on the captured second image, and the comparison result of the first image and the third image using a predetermined standard. It includes a step to control the display.
  • the present disclosure is not limited to such an example.
  • a plurality of LEDs may be mounted in a horizontal row on the dashboard 10 in the vehicle 1000.
  • the LED near the place where the prediction error has occurred may be lit (instead of displaying the information presentation image or additionally).
  • a predetermined image information presentation image, etc.
  • CID Center Information Display
  • the present disclosure is not limited to such an example.
  • the brightness and hue of the lighting in the vehicle interior may be controlled so as to give a warning to the driver.
  • the degree of freedom of configuration can be improved.
  • This example provides the lowest priority information in prioritizing alerts and alerts recommended by international standards, and integrating alerts and alerts according to severity and urgency, as follows: It may be configured as the least serious or urgent information provision.
  • Reference 1 ISO / TS 1695 Road vehicles --Ergonomic aspects of transport information and control systems (TICS) --Procedures for determining priority of on-board messages presented to drivers According to Reference Material 1, "It is necessary to prioritize information in consideration of its seriousness and urgency, and to consider the presentation method and timing so that the higher the priority of information, the faster and more reliable it will be transmitted to the driver. Is.
  • the presentation that conveys the potential risk to a scene or target that is difficult for humans to recognize in this embodiment is a presentation that has a lower priority and urgency than warnings and alerts in the advanced driver assistance system (ADAS).
  • Reference 2 ISO / TR 12204: 2012 Road vehicles --Ergonomic aspects of transport information and control systems --Introduction to integrating safety critical and time critical warning signals According to Reference Material 2, "When presenting multiple alarms, the presentation method is to prevent conflicts of alarms (the multiple alarms cannot be understood due to masking of alarms or confusion of the driver due to simultaneous presentation). It is necessary to give consideration to.
  • the scene where the alarms compete is 1) When the same presentation means (visual, auditory, tactile, etc.) are used for multiple alarms 2) When multiple visual alarms are presented in spatially close locations 3) Have similar characteristics When multiple alarms are presented (frequency for auditory alarms, display and icon shape for visual alarms, etc.) 4) Frequent and infrequent alarms (infrequent information may be mistaken for high frequency information) Is. If the presentation that conveys the potential risk to a scene or object that is difficult for humans to perceive in this example conflicts with the alarm, for example, the conflict avoidance approach a) Change the thresholds and parameters that determine the timing of presentation if it is issued later in time b) If the alarm has a high priority, the reaction time is slower than the presentation of information by hearing or touch.
  • Visual information presentation c) Change the presentation mode so that two or more alarms and presentations that convey potential risks to scenes and objects that are difficult for humans to recognize are different. For example, the parameters may be changed to not interfere with the alarm and / or to enhance the distinctiveness. Parameters include pitch, frequency, waveform, volume, etc. for hearing, position, flushing rate, symbol and icon design, color, size, etc. for vision, and amplitude, frequency, waveform, etc. for tactile sensation. d) Even if the target of the alarm and the information presentation that conveys the potential risk to the scene or target that is difficult for humans to recognize are different, if the generation direction is the same, a common presentation may be used.
  • the content of the latent information presentation in this embodiment may be a display that tightens attention, a display that appropriately disperses attention, or a display that encourages deceleration.
  • the medium for presenting latent information in this embodiment may be visual, auditory, tactile, odor, or a combination thereof.
  • the sense of smell when a large amount of prediction error occurs, an aroma having a relaxing effect is sprayed, and when a state in which the prediction error is small continues, an aroma having a wakefulness effect is sprayed.
  • the warning may also be displayed in the central field of view or output from the front speaker.
  • the warning may be displayed in the peripheral vision or output from the left and right speakers.
  • the warning may be displayed outside the peripheral vision or as a whole.
  • the latent information presentation may be always displayed or may continue to ring.
  • the latent information presentation may be displayed only once or may be sounded only for a moment.
  • the latent information presentation may be displayed multiple times, may be blinking, or may be extinguished by a trigger.
  • the frequency and number of latent information presentations may be controlled.
  • Display modes include text, icons, figures, light emission, contrast, still images, moving images, and CG (Computer Graphics).
  • the shape such as height, length, and area, color, hue, brightness, contrast, transparency (transmissive display), and transparency (non-transmissive display) may be controlled. According to this modification, the degree of freedom of configuration can be improved.
  • FIG. 28 (a)-(c) are diagrams for explaining the detection result of the degree of distance between the vehicle 1000 and the object 410.
  • the vehicle 1000 is referred to as the own vehicle 1010
  • the object 410 is referred to as the other vehicle (person) 1012.
  • FIG. 28 (a) shows an outline of TTC
  • FIG. 28 (b) shows an outline of THW
  • FIG. 28 (c) shows an outline of Risk Perception.
  • the driver's subjective risk index includes THW (Time HeadWay) and Risk Perception expressed by the sum of the reciprocal of TTC and the reciprocal of THW, in addition to TTC.
  • THW Time HeadWay
  • the TTC described in this example is TTC when a collision is unavoidable or may occur, Risk Perception or THW when a collision risk is manifested or is not present. May be used. According to this modification, the degree of freedom of configuration can be improved.

Abstract

入力部210は、第1タイミングにおける、車両の前景または車両に搭乗中のユーザの前景が撮像された第1画像を受けつける。生成部230は、第1タイミングにおける前景の予測結果を示す第3画像を、第1タイミングよりも過去の第2タイミングにおける前景が撮像された第2画像に基づいて生成する。表示制御部260は、入力部210において受けつけた第1画像と、生成部230において生成した第3画像との、所定の基準を用いた比較結果に基づいて、情報提示の表示を制御する。

Description

表示制御装置、表示システム、表示制御方法
 本開示は、表示制御技術、特に警告の表示を制御する表示制御装置、表示システム、表示制御方法に関する。
 思い込みなどの交通事故要因には、人の予測特性が作用していると考えられる。人間の大脳皮質の動作原理として有力な仮説のひとつである予測符号化理論を組み込んだ深層学習機Pred Net(Deep Predictive Coding Network)を用いて、運転において人の視覚が走行環境をどのように予測しているかをシミュレーションする新しいアプローチであり、自動運転におけるリスク状況の予測に適用可能である。時系列データに含まれる第1データがPred Netに入力されると、第1時間経過後の第1予測データが予測される。時系列データには、第1データから第1時間経過後の第2データも含まれており、第2データと第1予測データとの誤差が大きい場合、運転者にとって想像もしていないことが発生している可能性がある(例えば、特許文献1参照)。
 また、車両に搭載されたヘッドアップディスプレイ(HUD、Head-Up Display)を用いて、検知した歩行者と関連付けてアイコンを表示することによって、運転者に注意を喚起することが提案されている。
特開2018-173944号公報
 しかしながら、従来技術では、人間が認知しているかしていないかに関わらず注意喚起が行われるため、ユーザが煩わしく感じる恐れがあった。
 本開示はこうした状況に鑑みなされたものであり、その目的は、人間が認知しにくいシーンや対象を特定して情報提供する技術を提供することにある。
 上記課題を解決するために、本開示のある態様の表示制御装置は、第1タイミングにおける、車両の前景または車両に搭乗中のユーザの前景が撮像された第1画像を受けつける入力部と、第1タイミングにおける前景の予測結果を示す第3画像を、第1タイミングよりも過去の第2タイミングにおける前景が撮像された第2画像に基づいて生成する生成部と、第1画像と第3画像との、所定の基準を用いた比較結果に基づいて、情報提示を制御する表示制御部と、を備える。
 本開示の別の態様は、表示システムである。この表示システムは、撮像装置と、撮像装置に接続される表示制御装置とを備える。表示制御装置は、第1タイミングにおける、車両の前景または車両に搭乗中のユーザの前景が撮像された第1画像を受けつける入力部と、第1タイミングにおける前景の予測結果を示す第3画像を、第1タイミングよりも過去の第2タイミングにおける前景が撮像された第2画像に基づいて生成する生成部と、第1画像と第3画像との、所定の基準を用いた比較結果に基づいて、情報提示の表示を制御する表示制御部と、を備える。
 本開示のさらに別の態様は、表示制御方法である。この方法は、第1タイミングにおける、車両の前景または車両に搭乗中のユーザの前景が撮像された第1画像を受けつけるステップと、第1タイミングにおける前景の予測結果を示す第3画像を、第1タイミングよりも過去の第2タイミングにおける前景が撮像された第2画像に基づいて生成するステップと、第1画像と第3画像との、所定の基準を用いた比較結果に基づいて、情報提示の表示を制御するステップと、を備える。
 なお、以上の構成要素の任意の組合せ、本開示の表現を装置、システム、方法、プログラム、プログラムを記録した記録媒体、本装置を搭載した車両などの間で変換したものもまた、本開示の態様として有効である。
 本開示によれば、人間が認知しにくいシーンや対象を特定して情報提供できる。
実施例1に係る車両の室内を模式的に示す図である。 図1の車両の運転者による前方景色の認知の概要を示す図である。 図1の車両に搭載される表示システムの構成を示す図である。 図4(a)-(f)は、図3の表示システムの処理の概要を示す図である。 図5(a)-(b)は、図3の表示システムによる表示の別の例を示す図である。 図3の表示制御装置の表示制御手順を示すフローチャートである。 図7(a)-(b)は、実施例2に係る車両の室内を模式的に示す図である。 実施例3に係る車両の室内を模式的に示す図である。 車両に搭載される表示システムの構成を示す図である。 図10(a)-(g)は、実施例3に係る表示システムの動作概要を示す図である。 図11(a)-(b)は、実施例3に係る表示システムの別の動作概要を示す図である。 図12(a)-(d)は、実施例3に係る表示システムのさらに別の動作概要を示す図である。 図13(a)-(c)は、実施例4に係る表示システムの動作概要を示す図である。 実施例5に係る表示システムの動作概要を示す図である。 図15(a)-(b)は、実施例5に係る表示システムの別の動作概要を示す図である。 実施例6に係る表示システムの構成を示す図である。 実施例6に係る表示システムの別の構成を示す図である。 図16(a)-(b)は、実施例6に係る表示システムの動作概要を示す図である。 実施例6に係る表示システムの別の動作概要を示す図である。 図20(a)-(e)は、実施例7に係るLEDディスプレイでの表示概要を示す図である。 図21(a)-(d)は、実施例7に係るLEDディスプレイでの表示詳細を示す図である。 図22(a)-(e)は、実施例7に係るHUDでの表示概要を示す図である。 図23(a)-(d)は、実施例7に係るHUDでの表示詳細を示す図である。 図24(a)-(b)は、実施例7に係るメータディスプレイの構成を示す図である。 図25(a)-(e)は、実施例7に係るメータディスプレイでの表示概要を示す図である。 図26(a)-(e)は、実施例7に係るピラーディスプレイでの表示概要を示す図である。 図27(a)-(e)は、実施例7に係るミラーディスプレイでの表示概要を示す図である。 図28(a)-(c)は、車両と対象物との隔たりの程度の検知結果を説明するための図である。
(実施例1)
 本開示を具体的に説明する前に、概要を述べる。本実施例は、車両に搭載される表示システムに関する。表示システムは、車両の前方を撮像可能な撮像装置と、HUDの表示を制御する表示制御装置とを含む。表示制御装置は、撮像装置において撮像した映像から、歩行者等の対象物を検知し、対象物に対する警告を知らせるための画像(以下、「情報提示画像」という)をHUDに表示させる。HUDは、車両のフロントガラスに情報提示画像等の情報を表示するので、車両に設置されるカーナビゲーション装置のモニタなどに比べて運転中の視線方向に近い位置での表示が可能になる。そのため、運転中の運転者にとって、表示にすぐに気づいたり、少ない視線移動で表示を見たりすることが可能になる。
 HUDに表示される情報提示画像の数が増加すると、HUD越しの前方景色が見にくくなり、運転者にとっては煩わしくなる。また、運転者が既に認知している対象物に対して情報提示画像が表示されても、運転者にとって無意味である。一方、複数の対象物のうちの1つだけ、例えば車両から最も近い対象物を選択して情報提示画像を表示する場合、対象物への見落としが発生しやすくなる。そのため、表示の煩わしさを抑制しながら、見落としの発生を抑制するように注意を喚起することが求められる。
 本実施例に係る表示制御装置は、大きな予測誤差が発生した対象物に対して情報提示画像を表示する。ここで、予測誤差とは、実際の前方景色と、過去の前方景色から予測した前方景色との差分によって示され、予測誤差が大きくなるほど、運転者の見落としが発生しやすいといえる。つまり、見落としやすい対象物に対して重点表示がなされることによって、見落としにくく、かつ煩わしくない表示が実現される。以下、本開示の実施例について、図面を参照して詳細に説明する。なお、以下に説明する各実施例は一例であり、本開示はこれらの実施例により限定されるものではない。
 図1は、車両1000の室内を模式的に示し、車両1000の車室内を後方から見た構成を示す。車室内の前方には左右に延びるダッシュボード10が配置され、ダッシュボード10の上方にはフロントガラス12が配置され、フロントガラス12の左右にはダッシュボード10からピラー14が延びる。ダッシュボード10の右側部分にステアリング16が配置されており、ステアリング16の前方のダッシュボード10にメータ18が配置される。ステアリング16はダッシュボード10の左側部分に配置されてもよい。ダッシュボード10の中央部分にはセンターコンソール20が配置される。
 また、ステアリング16側のダッシュボード10のうちに表示装置(図示せず)が設置される。表示装置は、HUDであり、フロントガラス12の表示可能領域50の一部に表示光を投影する。表示可能領域50は、フロントガラス12における運転席の前方に配置されるとともに、フロントガラス12の形状に合わせた横長の矩形形状を有する。表示可能領域50において車室内側に反射された表示光は、運転者によって視認される。運転者は、フロントガラス12を介して車両1000の前方景色も視認可能であるので、表示装置によって投影された画像の虚像を前方景色と重ねて視認可能である。図1では、表示装置による表示可能領域50への表示がなされていない。
 図2は、車両1000の運転者による前方景色の認知の概要を示す。運転者は、前方景色を見るが、前方景色の全部を知覚すると時間がかかるので、前方景色の光情報を知覚する。また、運転者は、光情報を補うために、過去の前方景色の記憶から現在の前方景色を予測する。運転者は、知覚した光情報と、予測した現在の前方景色とを組み合わせることによって、視覚イメージを生成する。運転者は、視覚イメージの全部を知覚すると時間がかかるので、認知すべき情報を注意領域に絞り込む。注意領域は、例えば、運転者の経験等により設定される。その結果、運転者は、歩行者が右から飛び出すことを認知する。このように、運転者は、「予測」と「注意」を働かせることにより認知の効率化を行っている。
 図3は、車両1000に搭載される表示システム500の構成を示す。表示システム500は、撮像装置100、表示制御装置200、表示装置300を含む。表示制御装置200は、入力部210、記憶部220、生成部230、検知部240、比較部250、表示制御部260を含む。撮像装置100と表示制御装置200は、例えば、CAN(Controller Area Network)等の車載ネットワークにより接続される。
 撮像装置100は、例えば、車両1000の前側部分に設置され、車両1000の前方景色を撮像する。これは、運転者がフロントガラス12を介して視認可能な車両1000の前方景色に相当する。撮像装置100において撮像された映像は、複数の画像が時系列に並べられることによって構成される。撮像装置100は、撮像した映像を表示制御装置200に送信する。
 表示制御装置200の入力部210は、撮像装置100からの映像を受けつける。映像に含まれた複数の画像のうち、最新の画像が現時点での画像であり、現時点での画像よりも前に配置された画像が過去の画像である。例えば、現時点での画像は、第1タイミング(現時点)において前方景色を撮像した「第1画像」であり、過去の画像は、第1タイミングよりも過去の第2タイミングにおいて前方景色を撮像した「第2画像」であるといえる。一般的に、映像(動画像)には、それぞれ第2タイミングが異なった複数の第2画像(フレーム画像のシーケンス)が含まれる。以下の説明において第2画像は、1枚の画像であってもよいし、複数の画像の総称であってもよい。
 図4(a)-(f)は、表示システム500の処理の概要を示す。図4(a)は、入力部210に入力される撮像画像400を示す。撮像画像400は、現時点での画像、つまり第1画像に相当する。ここでは一例として、2人の歩行者として、第1対象物410aと第2対象物410bが示される。図4(b)-(f)は後述し、図3に戻る。入力部210は、複数の画像を記憶部220、検知部240、比較部250に出力する。
 記憶部220は、入力部210から複数の画像を受けつける。記憶部220は、複数の画像を一定期間記憶した後に、生成部230に出力する。そのため、記憶部220は、複数の画像を遅延させるといえる。生成部230は、記憶部220から複数の画像を受けつける。生成部230は、Pred Netやディープラーニングなどのニューラルネットワークを備え、ニューラルネットワークに複数の第2画像を入力することによって、第1タイミングにおける前方景色を予測した画像(以下、「第3画像」という)を生成する。
 第3画像は、第2タイミングの第2画像から、第1画像と同一の第1タイミングを予測した画像である。ニューラルネットワークには公知の技術が使用されればよいので、ここでは説明を省略する。または、生成部230は、ニューラルネットワークではなく、オプティカルフロー解析などの画像処理技術を用いることにより、第3画像を生成してもよい。例えば、生成部230は、第2タイミングの第2画像から、第1画像と同一の第1タイミングをオプティカルフロー解析を用いて予測し、そして、この予測結果に基づき第3画像を生成してもよい。なお、オプティカルフロー解析にも公知の技術が使用されればよいので、ここでは説明を省略する。
 図4(b)は、生成部230における処理の概要を示す。過去画像402と総称される第1過去画像402aから第4過去画像402dは、撮像されたタイミングが互いに異なった画像であり、異なった第2タイミングでの複数の第2画像に相当する。予測画像404は、複数の過去画像402から予想された画像であり、第1タイミングを予測した第3画像に相当する。ここでは、4つの過去画像402から1つの予測画像404が生成されているが、1つの予測画像404を生成するために使用すべき過去画像402の数は「4」に限定されない。図4(c)-(f)は後述し、図3に戻る。生成部230は、生成した第3画像を比較部250に出力する。
 検知部240は、入力部210から複数の画像を受けつける。検知部240は、複数の画像のうちの第1画像に対してパターンマッチング処理などの画像認識処理(物体認識等)を実行することによって、第1画像に含まれる対象物410を検知する。画像認識処理には公知の技術が使用されればよいので、ここでは説明を省略する。また、検知部240は、検知した対象物410を囲むような領域(以下、「対象物配置領域」という)を第1画像に設定する。図4(c)は、検知部240における処理の概要を示す。撮像画像400、第1対象物410a、第2対象物410bは、図4(a)と同一である。検知部240は、撮像画像400から第1対象物410a、第2対象物410bを検知すると、第1対象物410aを囲むように第1対象物配置領域430aを設定し、第2対象物410bを囲むように第2対象物配置領域430bを設定する。図4(d)-(f)は後述し、図3に戻る。検知部240は、設定した対象物配置領域430の位置情報を比較部250に出力する。検知部240は、検知した対象物410の位置情報を比較部250に出力してもよい。
 比較部250は、入力部210から複数の画像、特に第1画像を受けつけ、生成部230から第3画像を受けつけ、検知部240から対象物配置領域430の位置情報を受けつける。比較部250は、第1画像と第3画像との差異を画素単位で計算することによって、差異が示された画像(以下、「比較画像」という)を生成する。比較部250は、比較画像のうち、所定のしきい値よりも大きい領域が存在する場合、当該領域(以下、「差異領域」という)を特定する。差異領域は、第1画像と第3画像との差異が当該所定のしきい値よりも大きい領域、つまり予測誤差が大きい領域であり得る。また、比較部250は、差異領域の位置情報と、対象物配置領域430の位置情報とを比較し、両者が重複する領域(以下、「重複領域」という)を特定する。重複領域の特定は、差異領域のうち、第1画像に対象物410が含まれる領域を特定すること、つまり予測誤差が大きい領域と対象物410の検知領域とを関連付けることに相当する。
 図4(d)は、比較部250における処理の概要を示す。比較画像406における差異領域420が示される。図4(c)に示した例では、差異領域420は第1対象物配置領域430aに重複する。図4(e)-(f)は後述し、図3に戻る。比較部250は、重複領域、つまり差異領域420に重複する対象物配置領域430の位置情報を表示制御部260に出力する。また、比較部250は、差異領域420に重複しない対象物配置領域430(以下、「非重複領域」という)の位置情報を表示制御部260に出力してもよい。
 表示制御部260は、重複領域の位置情報、非重複領域の位置情報を比較部250から受けつける。表示制御部260は、重複領域の位置情報をもとに、重複領域を示す情報提示画像を生成する。ここでは、重複領域に重畳するように情報提示画像が配置される。また、表示制御部260は、非重複領域の位置情報をもとに、非重複領域を示す注意画像を生成する。ここでは、非重複領域に重畳するように注意画像が配置される。図4(e)は、表示制御部260における処理の概要を示す。図4(c)の第1対象物配置領域430aに重複するように情報提示画像440が配置され、図4(c)の第2対象物配置領域430bに重複するように注意画像450が配置される。情報提示画像440と注意画像450は、対象物410の存在を運転者に知らせるための画像である点で共通するが、情報提示画像440は、注意画像450と比較して、予測誤差が大きい対象物410の存在を運転者に知らせる。そのため、情報提示画像440は、注意画像450よりも高い輝度で表示される。変形例として、注意画像450は表示されなくてもよい。図4(f)は後述し、図3に戻る。
 表示制御部260は、情報提示画像440、注意画像450を表示装置300に表示させる。表示装置300は、HUDであり、運転中の運転者の視界の内側にある表示可能領域50を有する。表示装置300は、表示可能領域50に情報提示画像440、注意画像450を表示(例えば虚像表示)する。図4(f)は、表示可能領域50での表示を示す。第1人物460aは、図1(a)の撮像画像400における第1対象物410aに対応し、第2人物460bは、図1(a)の撮像画像400における第2対象物410bに対応する。運転者がフロントガラス12を介して第1人物460aを見る場合に、第1人物460aに重ねられるように情報提示画像440が表示される。また、運転者がフロントガラス12を介して第2人物460bを見る場合に、第2人物460bに重ねられるように注意画像450が表示される。つまり、情報提示画像440、注意画像450は、AR(Augmented Reality)により表示される。このような位置に情報提示画像440、注意画像450を表示させるための表示制御部260の処理には公知の技術が使用されればよいので、ここでは説明を省略する。このように、表示制御部260は、情報提示画像440を背景に合わせて表示させており、これは、重複領域に重畳するように情報提示画像440を表示させることに相当する。以上の処理は逐次実行され、情報提示画像440、注意画像450の表示も逐次更新される。
 表示制御部260による情報提示画像440の表示は、図4(f)の形態に限定されない。表示制御部260は、表示可能領域50を複数の部分領域に分割し、複数の部分領域のうち、重複領域が含まれる部分領域52に情報提示画像440を表示させてもよい。図5(a)-(b)は、表示システム500による表示の別の例を示す。図5(a)-(b)は、表示可能領域50を示す。図5(a)において、表示可能領域50は、左側に配置される第1部分領域52aと、右側に配置される第2部分領域52bに分割される。図5(a)に示した例では、第1人物460aに対して重複領域が特定される場合、第2部分領域52b全体に対して情報提示画像440が示される。情報提示画像440は、例えば、透明性を有しながら着色された領域として示される。
 図5(b)において、図5(a)と同様に、第1部分領域52a、第2部分領域52bが配置される。図5(b)に示した例では、第1人物460aに対して重複領域が特定される場合、第2部分領域52bの下部に情報提示画像440が示される。情報提示画像440は、例えば、矩形状や円弧状のバーとして示される。表示可能領域50を分割する部分領域52の数は「2」に限定されず、「3」以上であってもよい。情報提示画像440の形状は、図5(a)-(b)に示した例に限定されない。
 表示制御装置200の構成は、ハードウエア的には、任意のコンピュータの1以上のCPU(Central Processing Unit)、1以上のGPU(Graphical Processing Unit)、1以上のメモリ、その他のLSI(Large Scale Integration)等で実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ハードウエアとソフトウエアの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 以上の構成による車両1000の動作を説明する。図6は、表示制御装置200の表示制御手順を示すフローチャートである。入力部210は第1画像を受けつける(S10)。検知部240が対象物410を検知した場合(S12のY)、生成部230は第2画像から第3画像を生成する(S14)。第1画像と第3画像との差異がしきい値よりも大きい差異領域420があり(S16のY)、差異領域420が対象物410に対応する場合(S18のY)、表示制御部260は、情報提示画像440を表示装置300に表示させる(S20)。検知部240が対象物410を検知しない場合(S12のN)、あるいは第1画像と第3画像との差異がしきい値よりも大きい差異領域420がない場合(S16のN)、あるいは差異領域420が対象物410に対応しない場合(S18のN)、処理が終了される。
 本実施例によれば、第1画像と第3画像との差異がしきい値よりも大きい重複領域であって、かつ第1画像に対象物が含まれる重複領域を示す情報提示画像を背景に合わせて表示させるので、HUDにおける情報提示画像の数を減らすことができる。また、HUDにおける情報提示画像の数が減るので、表示の煩わしさを抑制できる。また、予測誤差の大きい対象物が含まれる重複領域を示す情報提示画像を背景に合わせて表示させるので、対象物に対する注意を喚起できる。また、重複領域に重畳するように情報提示画像を表示させるので、情報提示画像により注意を喚起させる対象物を分かりやすくできる。また、複数の部分領域のうち、重複領域が含まれる部分領域に情報提示画像を表示させるので、処理を簡易にできる。
(実施例2)
 次に、実施例2を説明する。実施例2は、実施例1と同様に、HUDの表示を制御する表示制御装置が含まれる表示システムに関する。実施例1では、車両の外における対象物に対して予測誤差が大きくなると、見落としが発生しやすくなることを説明した。一方、車両の車室内において予測誤差が大きくなるような状況が発生すると、運転者は、そちらに注意を引かれる。その結果、車両の外における対象物に対する見落としが発生しやすくなる。車両の車室内において予測誤差が大きくなるような状況は、例えば、カーナビゲーションシステムの表示変更、インストルメントパネルの表示変更、車室内(ダッシュボードなど)に配置したスマートフォンの表示変更などの、車室内に配置されている1以上の表示装置の表示状態(表示中の画像など)が変化する状況であり得る。実施例2は、車両の車室内において予測誤差が大きくなるような状況が発生しても、車両の外における対象物に対する注意を喚起することを目的とする。実施例2に係る車両1000、表示システム500は、図1、図3と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
 図7(a)-(b)は、車両1000の室内を模式的に示す図である。図7(a)は、図1と同様に示される。ダッシュボード10の左側にはモニタ30が配置される。モニタ30は、カーナビゲーションシステムの画面、テレビジョンの画面等を表示可能である。また、前述の撮像装置100の撮像範囲が前方撮像範囲600として示される。前方撮像範囲600は、車両1000の外に設けられる。実施例2では、車両1000の室内にも、図示しない撮像装置(以下、「室内撮像装置」という)が設置される。室内撮像装置の撮像範囲は車内撮像範囲610として示されており、車内撮像範囲610がダッシュボード10、センターコンソール20、モニタ30を含むように室内撮像装置は設置される。図7(b)は後述し、図3に戻る。
 表示システム500は、実施例1の処理に加えて次の処理も実行する。表示制御装置200の入力部210は、室内撮像装置からの映像を受けつける。室内撮像装置からの映像に含まれた現時点での画像は、第1タイミング(現時点)において車室内を撮像した「第4画像」であり、過去の画像は、第1タイミングよりも過去の第2タイミングにおいて車室内を撮像した「第5画像」であるといえる。一般的に、映像(動画像)には、それぞれ第2タイミングが異なった複数の第5画像(フレーム画像のシーケンス)が含まれる。以下の説明において第5画像は、1枚の画像であってもよいし、複数の画像の総称であってもよい。入力部210は、複数の画像を記憶部220、検知部240、比較部250に出力する。
 記憶部220は、入力部210から複数の画像を受けつけ、複数の画像を一定期間記憶した後に、生成部230に出力する。生成部230は、記憶部220から複数の画像を受けつける。生成部230は、Pred Netのようなニューラルネットワークを備え、ニューラルネットワークに複数の第5画像を入力することによって、第1タイミングにおける車室内を予測した画像(以下、「第6画像」という)を生成する。つまり、第6画像は、第2タイミングの第5画像から、第4画像と同一の第1タイミングを予測した画像である。生成部230は、生成した第6画像を比較部250に出力する。
 検知部240は、入力部210から複数の画像を受けつける。検知部240は、複数の画像のうちの第4画像に対してパターンマッチング処理を実行することによって、第4画像における前方撮像範囲600を除いた部分、つまり車室内に含まれる対象物を検知する。ここで、第4画像における前方撮像範囲600を除いた部分は予め設定されている。対象物は、例えば、図7(a)のモニタ30に対応する。また、検知部240は、検知した対象物を囲むような領域(以下、「対象物配置領域」という)を第4画像に設定する。検知部240は、設定した対象物配置領域の位置情報を比較部250に出力する。
 比較部250は、入力部210から複数の画像、特に第4画像を受けつけ、生成部230から第6画像を受けつけ、検知部240から対象物配置領域の位置情報を受けつける。比較部250は、第4画像と第6画像との差異を画素単位で計算することによって、差異が示された画像(以下、「比較画像」という)を生成する。比較部250は、比較画像のうち、しきい値よりも大きい領域が存在する場合、当該領域(以下、「差異領域」という)を特定する。差異領域は、第4画像と第6画像との違いが大きい領域、つまり予測誤差が大きい領域である。また、比較部250は、差異領域の位置情報と、対象物配置領域の位置情報とを比較し、両者が重複する領域(以下、「重複領域」という)が存在するか否かを特定する。
 図7(b)では、モニタ30の表示が図7(a)から変更された場合を示す。このようなモニタ30に対して対象物配置領域が設定されているとともに、モニタ30の表示変更によって予測誤差が大きくなっている。そのため、モニタ30は、比較部250において重複領域として特定される。これは、車室内においてモニタ30の表示が変更されることによって、運転者がモニタ30に注意を引かれ、車両1000の外における人物460に対する見落としが発生しやすくなる状況である。図3に戻る。
 表示制御部260は、実施例1と同様に、比較部250が人物460に対する重複領域を特定した場合、重複領域に重畳するように情報提示画像440を図7(b)のように表示させる。その際、表示制御部260は、モニタ30に対する重複領域が存在するか否かに応じて、情報提示画像440の表示態様を変える。例えば、モニタ30に対する重複領域が存在する場合において、モニタ30に対する重複領域が存在しない場合よりも、情報提示画像440の輝度が高くされる。また、モニタ30に対する重複領域が存在する場合において、情報提示画像440が点滅されてもよい。さらに、モニタ30に対する重複領域が存在する場合において、警告音が出力されてもよく、モニタ30の表示の輝度が低くされてもよい。
 本実施例によれば、車室内の予測誤差が大きい別の重複領域が存在するか否かに応じて、情報提示画像の表示態様を変える。このため、車室内に配置されている1以上の表示装置の表示状態が変化することにより運転者の注意が車室外から車室内へと移りそうな状況であっても、車両の外における1以上の対象物に関する予測誤差の大きさを運転者に対して注意を喚起できる。また、車室内が運転者の注意を引きそうな状況であっても、情報提示画像への注意が喚起されるので、車両の外の対象物の存在を運転者に認知させることができる。
(実施例3)
 次に、実施例3を説明する。実施例3は、実施例1の変形例に相当する。ここでは、これまでとの差異を中心に説明する。
 図8は、車両1000の室内を模式的に示し、車両1000の車室内を後方から見た構成を示す。これは、図1の室内の別パターンの構成である。車両1000の車室内の構成は、図1と図8の組合せであってもよい。メータディスプレイ700は、図1のメータ18を表示するためのディスプレイ、あるいはメータ18の周辺に設けられたCID(Center Information Display)である。HUD702は、図1の表示可能領域50に対応する。以下では、HUD702と表示可能領域50とを区別せずに使用する。HUD702は、図1のようにフロントガラス12の全体に画像を表示可能であってもよいし、図8のようにフロントガラス12の一部に画像を表示可能であってもよい。
 ミラーディスプレイ704は、電子ミラーである。センターディスプレイ706は、センターコンソール20に配置されるディスプレイである。LED(Light Emitting Diode)ディスプレイ708は、ダッシュボード10上に並べられた複数のLEDにより構成される。LEDディスプレイ708は1つのLEDにより構成されてもよい。ピラーディスプレイ710と総称される第1ピラーディスプレイ710aと第2ピラーディスプレイ710bは、左右のピラー14のそれぞれに配置されるディスプレイである。ピラーディスプレイ710はLEDであってもよい。このようなディスプレイに加えて、聴覚に伝える音声、触覚に伝えるハプティックディスプレイが配置されてもよい。そのため、これまでの「表示」は、「提示」であってもよい。これは、以下においても同様である。
 また、スピーカ712は、音を出力可能である。さらに、ステアリング16にLED、振動子が設けられてもよい。アロマディフューザ、シートに振動子が設けられてもよい。これらの装置は、表示システム500の表示制御装置200(制御装置)に接続される。
 図9は、車両1000に搭載される表示システム500の構成を示す。表示システム500は、前方撮像装置110、表示制御装置200、検知装置270、表示装置300を含む。前方撮像装置110は、前方を撮像する撮像装置100である。表示制御装置200は、入力部210、記憶部220、生成部230、比較部250、表示制御部260を含む。図3の表示制御装置200には検知部240が含まれているが、図9の表示制御装置200には含まれていない。検知装置270は、検知部240の機能を有し、前方撮像装置110、表示制御装置200に接続される。検知装置270は、例えば、ADAS(Advanced Driver-Assistance Systems)に含まれており、検知装置270はADASと呼ばれてもよい。表示装置300は、図8に示されるメータディスプレイ700、HUD702、ミラーディスプレイ704、センターディスプレイ706、LEDディスプレイ708、ピラーディスプレイ710等を含む。
 前述のごとく、比較部250は、入力部210から第1画像を受けつけ、生成部230から第3画像を受けつける。また、比較部250は、検知装置270から対象物配置領域430の位置情報を受けつける。比較部250は、第1画像と第3画像との差異を画素単位で計算することによって、予測誤差を導出する。予測誤差は、画素単位で導出されてもよいし、一定数の画素が集合した領域(以下、「部分領域」という)単位で導出されてもよい。比較部250は、対象物配置領域430の位置情報における予測誤差の積算値を算出してから、積算値を対象物配置領域430の広さで除算することによって、対象物配置領域430の予測誤差を導出する。比較部250は、対象物配置領域430の位置情報と予測誤差とを表示制御部260に出力する。
 表示制御部260は、対象物配置領域430の位置情報と予測誤差とを比較部250から受けつける。図10(a)-(g)は、表示システム500の動作概要を示す。図10(a)は、表示制御部260に記憶されるテーブルを示す。予測誤差に対して、第1しきい値と第2しきい値(第1しきい値<第2しきい値)が規定されており、予測誤差が第1しきい値以下である場合に対して、予測誤差「低」が規定される。また、予測誤差が第1しきい値より大きく、第2しきい値以下である場合に対して、予測誤差「中」が規定され、予測誤差が第2しきい値より大きい場合に対して、予測誤差「高」が規定される。また、各予測誤差の範囲に対して互いに異なった色が規定される。各予測誤差の範囲に対して互いに異なった輝度が規定されてもよい。表示制御部260は、受けつけた予測誤差とテーブルとを比較することによって、受けつけた予測誤差に対応した色を決定する。図10(b)-(g)は後述し、図9に戻る。
 表示制御部260は、決定した色を使用して情報提示画像440を生成する。実施例1における注意画像450は、予測誤差の小さい情報提示画像440に相当するので、以下では、注意画像450を情報提示画像440に含めて説明することもある。表示制御部260は、情報提示画像440を表示装置300に表示させる。
 図10(b)-(d)は、入力部210に入力される撮像画像400を示す。これらは、図10(b)-(d)の順に遷移する状態を示す第1画像に相当する。図10(b)に示される第1画像には人物等の対象物410が含まれず、図10(c)に示される第1画像において対象物410が出現する。図10(d)では、図10(c)において出現した対象物410が移動する。図10(e)は、図10(b)に対応するように表示制御部260が表示可能領域50に表示した画像を示す。人物460が含まれないので、注意画像450が表示されない。図10(f)は、図10(c)に対応するように表示制御部260が表示可能領域50に表示した画像を示す。人物460が含まれ、かつ人物460に対する予測誤差が「高」であるので、予測誤差「高」に対応した色で情報提示画像440が表示される。図10(g)は、図10(d)に対応するように表示制御部260が表示可能領域50に表示した画像を示す。人物460が含まれ、かつ人物460に対する予測誤差が「低」であるので、予測誤差「低」に対応した色で情報提示画像440が表示される。この情報提示画像440は注意画像450に相当する。
 つまり、表示制御部260は、第1画像と第3画像との差異である予測誤差の大きさに応じて、情報提示画像440の表示態様を変更する。そのため、表示制御部260は、人物460等の対象物が1つの場合においても、情報提示画像440の表示の態様を変える。例えば、対象物に対する見落としやすさが変わった際に、情報提示画像440の色を変えたり、輝度を変えたりする。また、表示制御部260は、表示の態様を徐々に変化させる。対象物に対する見落としやすさが変わった際のトリガは、例えば、表示をしてから一定の時間経過した場合、視線を検知した場合、減速、逆への操舵などの回避行動を検知した場合である。
 次に、変形例を示す。変形例では、検知装置270において検知された対象物410に対する情報提示画像(以下、「顕在情報提示画像」という)と、予測誤差に応じた情報提示画像(以下、「潜在情報提示画像」という)とが別に表示される。図9の比較部250は、入力部210から第1画像を受けつけ、生成部230から第3画像を受けつける。また、比較部250は、検知装置270から対象物配置領域430の位置情報を受けつける。前述のごとく、比較部250は、第1画像と第3画像との差異を画素単位で計算することによって、予測誤差を導出する。比較部250は、対象物配置領域430の位置情報と、導出した予測誤差とを表示制御部260に出力する。
 表示制御部260は、対象物配置領域430の位置情報と、導出された予測誤差とを比較部250から受けつける。図11(a)-(b)は、表示システム500の別の動作概要を示す。これらは、表示制御部260により表示可能領域50に表示される画像を示す。図11(a)では、人物460が含まれる。人物460が配置される位置情報が、対象物配置領域430の位置情報に相当する。表示制御部260は、対象物配置領域430の位置情報をもとに、人物460に対して顕在情報提示画像750を配置する。顕在情報提示画像750は、例えば、楕円形形状を有し、人物460の一部と重なるように配置される。また、表示制御部260は、予測誤差が一定値よりも大きくなる位置に潜在情報提示画像760を配置する。ここで、予測誤差が一定値よりも大きくなる位置の横方向の座標と、例えば、一番下側となる固定の縦方向の座標に、棒形状の潜在情報提示画像760が配置される。また、一定値に対して図10(a)のテーブルを使用することによって、予測誤差の大きさに応じて潜在情報提示画像760の表示態様が変更されてもよい。
 図11(b)では、図11(a)と同様に、人物460が含まれる。表示制御部260は、対象物配置領域430の位置情報をもとに、人物460に対して顕在情報提示画像750を配置する。顕在情報提示画像750は、例えば、人物460を囲むような枠形形状を有する。また、表示制御部260は、予測誤差が一定値よりも大きくなる位置に潜在情報提示画像760を配置する。潜在情報提示画像760は、楕円形形状を有する。
 次に、別の変形例を示す。別の変形例では、対象物410に対する危険性に応じて、潜在情報提示画像の表示が変更される。図9の比較部250は、入力部210から第1画像を受けつけ、生成部230から第3画像を受けつける。また、比較部250は、検知装置270から対象物配置領域430の位置情報を受けつける。その際、比較部250は、対象物410と車両1000との間の距離を示す情報、例えばTTC(Time-to-Collision)も検知装置270から受けつける。TTCは衝突余裕時間を示しており、TTCの値が小さくなるほど、対象物410と車両1000との間の距離も短くなる。これは、対象物410に対する危険性が増加することに相当する。TTCの値は、車両1000と対象物410との隔たりの程度の検知結果といえるが、車両1000と対象物410との隔たりの程度の検知結果として、TTCの代わりに、THW(Time HeadWay)、Risk Perceptionが使用されてもよい。THW、Risk Perceptionについては後述する。
 表示制御部260は、対象物配置領域430の位置情報と、TTCの値と、導出された予測誤差とを比較部250から受けつける。図12(a)-(d)は、表示システム500のさらに別の動作概要を示す。これらは、表示制御部260により表示可能領域50に表示される画像を示す。図12(a)は、TTCの値が規定値以上である場合に、表示制御部260により表示可能領域50に表示される画像を示す。これは、図11(a)と同様に、顕在情報提示画像750と潜在情報提示画像760を含む。図12(b)は、TTCの値が規定値より小さい場合、つまり対象物410に対する危険性が増加した場合に、表示制御部260により表示可能領域50に表示される画像を示す。これは、顕在情報提示画像750のみを表示して、潜在情報提示画像760を表示しない。
 図12(c)は、TTCの値が規定値以上である場合に、表示制御部260により表示可能領域50に表示される画像を示す。これは、図11(b)と同様に、顕在情報提示画像750と潜在情報提示画像760を含む。図12(d)は、TTCの値が規定値より小さい場合、つまり対象物410に対する危険性が増加した場合に、表示制御部260により表示可能領域50に表示される画像を示す。これは、顕在情報提示画像750のみを表示して、潜在情報提示画像760を表示しない。つまり、危険が差し迫った場合に、顕在情報提示画像750の表示が優先される。その際、潜在情報提示画像760は徐々に輝度を下げるなど、顕著性を下げる方が好ましい。
 本実施例によれば、予測誤差の大きさに応じて情報提示画像の表示態様を変更するので、予測誤差の大きさ、つまり人間が認知しにくいシーンや対象に対する潜在リスクを知らせることができる。また、顕在情報提示画像が表示される場合に、潜在情報提示画像を表示させないか、顕著性を低く表示するので、顕在情報提示画像に着目させやすくできる。
(実施例4)
 次に、実施例4を説明する。実施例4は、実施例3と同様の表示システム500に関する。実施例4では、表示制御装置200は、検知装置270から対象物410に対するTTCの値を受けつけるが、TTCの値により顕在情報提示画像を表示する必要がない状況を想定する。実施例4に係る表示システム500の構成は、図9と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
 図9の検知装置270は、対象物410に対するTTCの値を検知する。検知装置270は、TTCの値が規定値よりも小さい場合、対象物410に対する危険性を通知するために対象物配置領域430を設定して、対象物配置領域430の位置情報を表示制御装置200に出力する。その際、検知装置270は、TTCの値も表示制御装置200に出力してもよい。一方、検知装置270は、TTCの値が規定値以上である場合、対象物410に対する危険性が低いので、対象物配置領域430を設定しない。前述のごとく、TTCの値は、車両1000と対象物410との隔たりの程度の検知結果といえるので、これは、対象物410が危険でない程度に車両1000から離れている状況であるといえる。検知装置270は、TTCの値を表示制御装置200に出力する。検知装置270は、対象物410の位置情報を表示制御装置200に出力してもよい。
 表示制御装置200の比較部250は、入力部210から第1画像を受けつけ、生成部230から第3画像を受けつける。また、比較部250は、対象物410の位置情報とTTCの値とを検知装置270から受けつける。ここでのTTCの値は、検知装置270における規定値以上の値を有する。前述のごとく、比較部250は、第1画像と第3画像とを比較することによって、第1画像と第3画像との差異を画素単位で計算して、予測誤差を導出する。特に、比較部250は、第1画像と第3画像とを左右に2等分に分割した領域(以下、「分割領域」という)のそれぞれに対する予測誤差を導出する。比較部250は、TTCの値と導出した予測誤差とを表示制御部260に出力する。
 表示制御部260は、TTCの値と、導出された予測誤差とを比較部250から受けつける。図13(a)-(c)は、表示システム500の動作概要を示す。図13(a)は、表示制御部260に記憶されるテーブルを示す。予測誤差に対して、第1しきい値と第2しきい値(第1しきい値<第2しきい値)が規定されており、予測誤差が第1しきい値以下である場合に対して、予測誤差「低」が規定される。また、予測誤差が第1しきい値より大きく、第2しきい値以下である場合に対して、予測誤差「中」が規定され、予測誤差が第2しきい値より大きい場合に対して、予測誤差「高」が規定される。
 また、TTCに対して、第3しきい値と第4しきい値(第1しきい値>第2しきい値)が規定されており、TTCが第3しきい値より長い場合に対して、TTC「長」が規定される。また、TTCが第3しきい値以下であり、第4しきい値より長い場合に対して、TTC「中」が規定され、TTCが第4しきい値以下である場合に対して、TTC「短」が規定される。
 さらに、予測誤差とTTCとの組合せとのそれぞれに対して互いに異なった色が規定される。各組合せに対して互いに異なった輝度が規定されてもよい。表示制御部260は、受けつけた予測誤差とTTCの値との組合せと、テーブルとを比較することによって、受けつけた予測誤差とTTCの値との組合せに対応した潜在情報提示画像760の色を決定する。具体的に説明すると、部分領域のうちの1つ(以下、「第1部分領域」という)に対する予測誤差とTTCの値との組合せと、テーブルとを比較することによって、第1部分領域に対応した色が決定される。また、部分領域のうちの別の1つ(以下、「第2部分領域」という)に対する予測誤差とTTCの値との組合せと、テーブルとを比較することによって、第2部分領域に対応した色が決定される。
 図13(b)は、表示制御部260により表示可能領域50に表示される画像を示す。表示可能領域50の左側部分が第1部分領域と定義され、表示可能領域50の右側部分が第2部分領域と定義される。図13(b)には人物460が含まれる。表示制御部260は、人物460が含まれる第1部分領域に対して第1潜在情報提示画像760aを表示し、人物460が含まれない第2部分領域に対して第2潜在情報提示画像760bを表示する。第1潜在情報提示画像760aと第2潜在情報提示画像760bには、前述のごとく決定された色が使用される。
 図13(c)は、表示制御部260により表示可能領域50に表示される画像を示す。図13(c)には第1人物460aと第2人物460bが含まれる。表示制御部260は、第1人物460aと第2人物460bが含まれる第1部分領域に対して第1潜在情報提示画像760aを表示し、第1人物460aと第2人物460bが含まれない第2部分領域に対して第2潜在情報提示画像760bを表示する。図13(b)の第1人物460aと第2人物460bに対する予測誤差とTTCの値と、図13(b)の人物460に対する予測誤差とTTCの値とは異なるので、図13(b)の第1潜在情報提示画像760aの色と、図13(a)の第1潜在情報提示画像760aの色とは異なる。つまり、表示制御部260は、TTCの値と予測誤差とをもとに、潜在情報提示画像760を表示させており、TTCの値または予測誤差が変化すると、潜在情報提示画像760の表示態様を変更する。
 本変形例によれば、TTCの値と予測誤差が変化すると情報提示画像の表示態様を変更するので、人間が認知しにくいシーンや対象に対する潜在リスクを知らせることができる。
(実施例5)
 次に、実施例5を説明する。実施例5は、これまでと同様の表示システム500に関する。実施例3において、表示制御装置200は、検知装置270から対象物配置領域430の位置情報、対象物410に対するTTCの値を受けつける。一方、実施例5において、表示制御装置200は、検知装置270が対象物410を検知した場合に検知した結果のみを受けつける。このような状況下において、顕在情報提示画像750の表示に干渉しないように潜在情報提示画像760を表示することが求められる。実施例5に係る表示システム500の構成は、図9と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
 図9の検知装置270において対象物410が検知された場合、検知装置270は、対象物410の検知結果を表示制御装置200に出力するとともに、表示装置300に顕在情報提示画像750を表示させる。一方、検知装置270において対象物410が検知されない場合、検知装置270は、対象物410の検知結果を表示制御装置200に出力せず、かつ表示装置300に顕在情報提示画像750を表示させない。
 表示制御装置200の比較部250は、入力部210から第1画像を受けつけ、生成部230から第3画像を受けつける。また、比較部250は、検知装置270が対象物410を検知した場合に対象物410の検知結果を検知装置270から受けつける。前述のごとく、比較部250は、第1画像と第3画像との差異を画素単位で計算することによって、予測誤差を導出する。比較部250は、導出した予測誤差を表示制御部260に出力する。比較部250は、検知結果を受けつけた場合に検知結果を表示制御部260に出力する。
 表示制御部260は、導出された予測誤差を比較部250から受けつける。表示制御部260は、実施例3と同様の処理を実行することによって、図11(a)と同様に、予測誤差が一定値よりも大きくなる位置に潜在情報提示画像760を配置する。つまり、表示制御部260は、第1画像と第3画像との差異である予測誤差とをもとに、潜在情報提示画像760を表示させる。特に、表示制御部260は、検知結果を受けつけた場合に顕在情報提示画像750を第1表示態様で表示させ、検知結果を受けつけない場合に顕在情報提示画像750を第2表示態様で表示させる。ここで、第1表示態様と第2表示態様とは異なる。
 図14は、表示システム500の動作概要を示す。ここでは、第1人物460aと第2人物460bが対象物410として検知装置270に検知されている。そのため、検知装置270は、第1人物460aに対する第1顕在情報提示画像750aと、第2人物460bに対する第2顕在情報提示画像750bとを表示可能領域50に表示させる。また、表示制御部260は、検知装置270からの検知結果を受けつけているので、潜在情報提示画像760を第1表示態様で表示可能領域50に表示させる。第1表示態様は、第2表示態様よりも薄い色、あるいは低い輝度による表示である。その結果、顕在情報提示画像750が目立ちやすくなり、潜在情報提示画像760が目立ちにくくなる。
 一方、検知装置270が対象物410を検知しない場合、検知装置270は、顕在情報提示画像750を表示可能領域50に表示させない。また、表示制御部260は、検知装置270からの検知結果を受けつけていないので、潜在情報提示画像760を第2表示態様で表示可能領域50に表示させる。
 図15(a)-(b)は、表示システム500の別の動作概要を示す。図15(a)では、検知装置270が対象物410を検知していない。そのため、検知装置270は、顕在情報提示画像750を表示可能領域50に表示させず、表示制御部260は、潜在情報提示画像760を表示可能領域50に表示させる。図15(b)では、検知装置270が対象物410を検知する。そのため、検知装置270は、人物460に対する顕在情報提示画像750を表示可能領域50に表示させ、表示制御部260は、潜在情報提示画像760をメータディスプレイ700に表示させる。つまり、顕在情報提示画像750が表示される場合、潜在情報提示画像760は、顕在情報提示画像750を表示させるディスプレイとは別のディスプレイに表示される。
 本実施例によれば、顕在情報提示画像が表示されるか否かに応じて、潜在情報提示画像の表示態様を変更するので、顕在情報提示画像と潜在情報提示画像との干渉を抑制できる。
(実施例6)
 次に、実施例6を説明する。実施例6は、これまでと同様の表示システム500に関する。これまでの表示制御装置200は、検知部240を含んでいたり、検知装置270に接続されていたりする。一方、実施例6に係る表示制御装置200は、検知部240を含んでおらず、かつ検知装置270に接続されていない。ここで、検知装置270は顕在情報提示画像750を表示可能であり、表示制御部260は潜在情報提示画像760を表示可能である。そのため、表示制御装置200は、潜在情報提示画像760を表示する際に検知装置270が顕在情報提示画像750を表示しているか否かを認識していない。このような状況下において、顕在情報提示画像750の表示に干渉しないように潜在情報提示画像760を表示することが求められる。ここでは、これまでとの差異を中心に説明する。
 図16は、表示システム500の構成を示す。表示システム500は、前方撮像装置110、表示制御装置200、表示装置300を含む。表示制御装置200は、入力部210、記憶部220、生成部230、比較部250、表示制御部260を含む。表示システム500は、図9と異なり検知装置270を含まない。
 図17は、表示システム500の別の構成を示す。表示システム500は、後方撮像装置120、表示制御装置200、表示装置300を含む。後方撮像装置120は、車両1000から後方を撮像する撮像装置100である。表示制御装置200は、入力部210、記憶部220、生成部230、比較部250、表示制御部260を含む。表示システム500は、図9と異なり検知装置270を含まない。
 図18(a)-(b)は、表示システム500の動作概要を示す。図18(a)は、表示可能領域50とメータディスプレイ700に表示される画像を示す。検知装置270は、対象物410を検知することによって顕在情報提示画像750を生成する。検知装置270は、第1人物460aに対する第1顕在情報提示画像750aと、第2人物460bに対する第2顕在情報提示画像750bとを表示可能領域50に表示させる。表示制御装置200の表示制御部260は、第1画像と第3画像との差異である予測誤差とをもとに、潜在情報提示画像760をメータディスプレイ700に表示させる。表示制御部260における潜在情報提示画像760の生成はこれまでと同様であるので、ここでは説明を省略する。メータディスプレイ700を第1表示装置と呼ぶ場合、表示可能領域50は第2表示装置と呼ばれる。第1表示装置は第2表示装置とは異なる。
 図18(b)は、表示可能領域50とピラーディスプレイ710に表示される画像を示す。検知装置270は、対象物410を検知することによって顕在情報提示画像750を生成する。検知装置270は、第1人物460aに対する第1顕在情報提示画像750aと、第2人物460bに対する第2顕在情報提示画像750bとを表示可能領域50に表示させる。表示制御装置200の表示制御部260は、第1画像と第3画像との差異である予測誤差とをもとに、潜在情報提示画像760をピラーディスプレイ710に表示させる。ここでは、第1ピラーディスプレイ710aに潜在情報提示画像760が表示される。表示制御部260における潜在情報提示画像760の生成はこれまでと同様であるので、ここでは説明を省略する。ピラーディスプレイ710を第1表示装置と呼ぶ場合、表示可能領域50は第2表示装置と呼ばれる。第1表示装置は第2表示装置とは異なる。
 図19は、表示システム500の別の動作概要を示す。検知装置270は、対象物410を検知することによって顕在情報提示画像750を生成する。検知装置270は、第1人物460aに対する第1顕在情報提示画像750aと、第2人物460bに対する第2顕在情報提示画像750bとを表示可能領域50に表示させる。表示制御装置200の表示制御部260は、第1画像と第3画像との差異である予測誤差とをもとに、潜在情報提示画像760に対応した音声(以下、「潜在情報提示音声」という)を生成する。表示制御部260は、潜在情報提示音声をスピーカ712から出力する。ここでの表示制御部260は制御部と呼ばれてもよい。
 本実施例によれば、顕在情報提示画像と潜在情報提示画像とを別の表示装置に表示するので、顕在情報提示画像と潜在情報提示画像との干渉を抑制できる。
(実施例7)
 次に、実施例7を説明する。実施例7は、これまでと同様の表示システム500に関する。実施例7において、表示制御装置200が車両1000に搭載され、検知部240あるいは検知装置270が車両1000に搭載されているかは限定しない。そのため、顕在情報提示画像750の表示可否によらず、潜在情報提示画像760は表示可能である。実施例7に係る表示装置300は、図16、図17と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
 表示制御装置200の比較部250は、第1画像と第3画像とを比較することによって、第1画像と第3画像との差異である予測誤差を導出する。表示制御部260は、予測誤差をもとに、潜在情報提示画像760を表示装置300に表示させる。表示制御部260は、予測誤差が変化すると、潜在情報提示画像760の表示態様を変更する。
 図20(a)-(e)は、LEDディスプレイ708での表示概要を示す。図20(a)は、表示制御部260において前方全領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が小さくても、運転者の気が抜けやすくなる。そのため、LEDディスプレイ708の中央部分が点灯することによって、先行車への集中が促される。図20(b)は、表示制御部260において前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が偏っており、運転者の注意が極端に寄りやすい。そのため、LEDディスプレイ708の左側部分が点灯することによって、前方左側への集中が促される。
 図20(c)は、表示制御部260において前方右領域の予測誤差が前方左領域の予測誤差よりも小さく、かつ前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、LEDディスプレイ708の左側部分と右側部分とが別の色で点灯される。図20(d)は、表示制御部260において前方左領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、対象物410がなくても認知が追いつかない。そのため、LEDディスプレイ708の左側部分が点灯することによって、前方左への集中が促される。図20(e)は、表示制御部260において前方全領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、運転負荷が大きすぎる(運転要求が高すぎる)。そのため、LEDディスプレイ708の全部が点灯することによって、減速あるいは徐行が促される。
 図21(a)-(d)は、LEDディスプレイ708での表示詳細を示す。図21(a)は、LEDディスプレイ708を点灯する場合の色を示す。LEDディスプレイ708は、赤色、橙色、緑色のいずれかで点灯可能である。また、LEDディスプレイ708は、無灯の場合もある。図21(b)は、LEDディスプレイ708を点滅させるための制御を示す。LEDディスプレイ708は、輝度「100」の点灯状態と、輝度「0」の消灯状態とを繰り返すことによって点滅する。明滅周期に占める明時間の割合がデューティ比であるが、上段と下段のように、デューティ比を変更可能である。
 図21(c)は、LEDディスプレイ708において、第1色770と第2色772とが交互に配置される構成を示す。第1色770と第2色772とは互いに異なった色である。上段と下段のように、第1色770と第2色772の位置が入れかえられてもよい。図21(d)は、LEDディスプレイ708の色を変更させるための制御を示す。LEDディスプレイ708は、第1色770と第2色772とを繰り返しながら点灯する。第1色770の点灯時間と、第2色772の点灯時間とは同一でなくてもよい。
 図22(a)-(e)は、HUD702での表示概要を示す。図22(a)は、表示制御部260において前方全領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が小さくても、運転者の気が抜けやすくなる。そのため、HUD702の左側部分の第1潜在情報提示画像760aと右側部分の第2潜在情報提示画像760bが点灯することによって、先行車への集中が促される。また、HUD702の下側部分の潜在情報提示画像760が点灯してもよい。図22(b)は、表示制御部260において前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が偏っており、運転者の注意が極端に寄りやすい。そのため、HUD702の左側部分の潜在情報提示画像760が点灯することによって、前方左側への集中が促される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。
 図22(c)は、表示制御部260において前方右領域の予測誤差が前方左領域の予測誤差よりも小さく、かつ前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、HUD702の左側部分の第1潜在情報提示画像760aと右側部分の第2潜在情報提示画像760bが別の色で点灯される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。図22(d)は、表示制御部260において前方左領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、対象物410がなくても認知が追いつかない。そのため、HUD702の左側部分の潜在情報提示画像760が第1色770と第2色772とにより点灯することによって、前方左への集中が促される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。図22(e)は、表示制御部260において前方全領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、運転負荷が大きすぎる(運転要求が高すぎる)。そのため、HUD702の縁部に沿った枠形状の潜在情報提示画像760が点灯することによって、減速あるいは徐行が促される。
 図23(a)-(d)は、HUD702での表示詳細を示す。図23(a)は、HUD702において潜在情報提示画像760を点灯する場合の色を示す。HUD702は、赤色、橙色、緑色のいずれかで点灯可能である。また、HUD702は、無灯の場合もある。図23(b)は、HUD702において潜在情報提示画像760を点滅させるための制御を示す。HUD702は、輝度「100」の点灯状態と、輝度「0」の消灯状態とを繰り返すことによって点滅する。明滅周期に占める明時間の割合がデューティ比であるが、上段と下段のように、デューティ比を変更可能である。
 図23(c)は、HUD702の潜在情報提示画像760において、第1色770と第2色772とが交互に配置される構成を示す。第1色770と第2色772とは互いに異なった色である。上段と下段のように、第1色770と第2色772の位置が入れかえられてもよい。図23(d)は、HUD702の潜在情報提示画像760の色を変更させるための制御を示す。HUD702は、第1色770と第2色772とを繰り返しながら点灯する。第1色770の点灯時間と、第2色772の点灯時間とは同一でなくてもよい。
 図24(a)-(b)は、メータディスプレイ700の構成を示す。図24(a)では、左右に並べられた第1メータ720aと第2メータ720bとの間に、CIDであるメータディスプレイ700が配置される。図24(b)では、メータディスプレイ700に第1メータ画像722aと第2メータ画像722bが表示される。
 図25(a)-(e)は、メータディスプレイ700での表示概要を示す。図25(a)は、表示制御部260において前方全領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が小さくても、運転者の気が抜けやすくなる。そのため、メータディスプレイ700の左側部分の第1潜在情報提示画像760aと右側部分の第2潜在情報提示画像760bが点灯することによって、先行車への集中が促される。また、メータディスプレイ700の下側部分の潜在情報提示画像760が点灯してもよい。図25(b)は、表示制御部260において前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が偏っており、運転者の注意が極端に寄りやすい。そのため、メータディスプレイ700の左側部分の潜在情報提示画像760が点灯することによって、前方左側への集中が促される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。
 図25(c)は、表示制御部260において前方右領域の予測誤差が前方左領域の予測誤差よりも小さく、かつ前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、メータディスプレイ700の左側部分の第1潜在情報提示画像760aと右側部分の第2潜在情報提示画像760bが別の色で点灯される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。図25(d)は、表示制御部260において前方左領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、対象物410がなくても認知が追いつかない。そのため、メータディスプレイ700の左側部分の潜在情報提示画像760が第1色770と第2色772とにより点灯することによって、前方左への集中が促される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。図25(e)は、表示制御部260において前方全領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、運転負荷が大きすぎる(運転要求が高すぎる)。そのため、メータディスプレイ700の縁部に沿った枠形状の潜在情報提示画像760が点灯することによって、減速あるいは徐行が促される。
 図26(a)-(e)は、ピラーディスプレイ710での表示概要を示す。図26(a)は、表示制御部260において前方全領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が小さくても、運転者の気が抜けやすくなる。そのため、第1ピラーディスプレイ710aに第1潜在情報提示画像760aが点灯し、第2ピラーディスプレイ710bに第2潜在情報提示画像760bが点灯することによって、先行車への集中が促される。図26(b)は、表示制御部260において前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が偏っており、運転者の注意が極端に寄りやすい。そのため、第1ピラーディスプレイ710aの潜在情報提示画像760が点灯することによって、前方左側への集中が促される。第2ピラーディスプレイ710bでは潜在情報提示画像760が点灯しない。
 図26(c)は、表示制御部260において前方右領域の予測誤差が前方左領域の予測誤差よりも小さく、かつ前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、第1ピラーディスプレイ710aの第1潜在情報提示画像760aと、第2ピラーディスプレイ710bの第2潜在情報提示画像760bが別の色で点灯される。図26(d)は、表示制御部260において前方左領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、対象物410がなくても認知が追いつかない。そのため、第1ピラーディスプレイ710aの潜在情報提示画像760が第1色770と第2色772とにより点灯することによって、前方左への集中が促される。図26(e)は、表示制御部260において前方全領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、運転負荷が大きすぎる(運転要求が高すぎる)。そのため、第1ピラーディスプレイ710aに第1潜在情報提示画像760aが点灯し、第2ピラーディスプレイ710bに第2潜在情報提示画像760bが点灯することによって、減速あるいは徐行が促される。
 図27(a)-(e)は、ミラーディスプレイ704での表示概要を示す図である。図27(a)は、表示制御部260において前方全領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が小さくても、運転者の気が抜けやすくなる。そのため、ミラーディスプレイ704の左側部分の第1潜在情報提示画像760aと右側部分の第2潜在情報提示画像760bが点灯することによって、先行車への集中が促される。また、ミラーディスプレイ704の下側部分の潜在情報提示画像760が点灯してもよい。図27(b)は、表示制御部260において前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、対象物410がないことによって予測誤差が偏っており、運転者の注意が極端に寄りやすい。そのため、ミラーディスプレイ704の左側部分の潜在情報提示画像760が点灯することによって、前方左側への集中が促される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。
 図27(c)は、表示制御部260において前方右領域の予測誤差が前方左領域の予測誤差よりも小さく、かつ前方左領域の予測誤差が所定値よりも小さい場合の表示を示す。この場合、ミラーディスプレイ704の左側部分の第1潜在情報提示画像760aと右側部分の第2潜在情報提示画像760bが別の色で点灯される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。図27(d)は、表示制御部260において前方左領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、対象物410がなくても認知が追いつかない。そのため、ミラーディスプレイ704の左側部分の潜在情報提示画像760が第1色770と第2色772とにより点灯することによって、前方左への集中が促される。潜在情報提示画像760は、縦方向に延びてもよいし、横方向に延びてもよい。図27(e)は、表示制御部260において前方全領域の予測誤差が所定値よりも大きい場合の表示を示す。この場合、運転負荷が大きすぎる(運転要求が高すぎる)。そのため、ミラーディスプレイ704の縁部に沿った枠形状の潜在情報提示画像760が点灯することによって、減速あるいは徐行が促される。
 本実施例によれば、予測誤差が変化すると情報提示画像の表示態様を変更するので、人間が認知しにくいシーンや対象に対する潜在リスクを伝える情報提供を適切に知らせることができる。
 以上、本開示に係る実施例について図面を参照して詳述してきたが、上述した装置や各処理部の機能は、コンピュータプログラムにより実現されうる。上述した機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカなどの出力装置、CPU(Central Processing Unit)、ROM、RAM、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD-ROM(Digital Versatile Disk Read Only Memory)やUSBメモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。
 また、読取装置は、上記プログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。また、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。
 上記課題を解決するために、本開示のある態様の表示制御装置は、第1タイミングにおける、車両の前景または車両に搭乗中のユーザの前景が撮像された第1画像を受けつける入力部と、第1タイミングにおける前景の予測結果を示す第3画像を、第1タイミングよりも過去の第2タイミングにおける前景が撮像された第2画像に基づいて生成する生成部と、第1画像と第3画像との、所定の基準を用いた比較結果に基づいて、情報提示を制御する表示制御部と、を備える。
 この態様によると、第1画像と第3画像との比較結果をもとに、情報提示画像を表示させるので、表示の煩わしさを抑制しながら、注意を喚起できる。
 所定の基準とは、「第1画像と第3画像との差異が所定のしきい値(例えば第1のしきい値)より大きい」「第1画像と第3画像との差異が所定のしきい値(例えば第1のしきい値)より小さい」、「第1画像と第3画像との差異が所定のしきい値(例えば第1のしきい値)より大きい状態(あるいは小さい状態)が所定時間以上継続すること」、「第1画像と第3画像との各画素の差分値の分布が特定の分布になること」、または、「単位時間内における一連の第1画像と一連の第3画像とをそれぞれ比較した際の差異の変化量が、第3のしきい値よりも大きくなったこと(または第3のしきい値よりも小さくなったこと)などであってもよい。
 第1画像と第3画像とを所定の基準を用いて比較する比較部をさらに備える。この場合、第1画像と第3画像とを所定の基準を用いて比較するので、差異の有無を特定できる。
 所定の基準は、第1画像と第3画像との差異が第1のしきい値よりも大きいか否かであり、比較部は、第1画像と第3画像との差異が第1のしきい値よりも大きい領域であって、かつ、第1の対象物の撮像領域が含まれる第1の領域を特定し、情報提示は、第1の領域または第1の対象物を警告する画像である。この場合、第1画像と第3画像との差異がしきい値よりも大きい第1の領域であって、かつ第1画像に第1の対象物が含まれる第1の領域を示す情報提示画像を表示させるので、表示の煩わしさを抑制しながら、注意を喚起できる。
 表示制御部は、第1画像と第3画像との差異の大きさに応じて、情報提示の表示態様を変更してもよい。この場合、差異の大きさに応じて情報提示画像の表示態様を変更するので、予測誤差の大きさ、つまり人間が認知しにくいシーンや対象に対する潜在リスクを知らせることができる。
 表示制御部は、比較部において特定した第1の領域に重畳するように情報提示を表示させる。この場合、特定した第1の領域に重畳するように情報提示画像を表示させるので、情報提示画像により注意を喚起させる対象物を分かりやすくできる。
 表示制御部は、表示可能領域を分割した複数の部分領域のうち、比較部において特定した第1の領域が含まれる部分領域に情報提示を表示させる。この場合、特定した第1の領域が含まれる部分領域に情報提示画像を表示させるので、処理を簡易にできる。
 第1画像、第2画像、および第3画像は、車両の前方の景色の画像であり、入力部は、第1タイミングにおいて車両の車室内が撮像された第4画像を受けつけ、生成部は、第2タイミングにおいて車室内が撮像された第5画像から、第1タイミングにおける車室内を予測した第6画像を生成し、比較部は、第4画像と第6画像との差異が第2のしきい値よりも大きい領域であって、かつ、第2の対象物が含まれる第2の領域が存在するか否かを特定し、表示制御部は、第2の領域が存在するか否かに応じて、情報提示の表示態様を変える。この場合、第4画像と第6画像との差異が第2のしきい値よりも大きい第2の領域であって、かつ第4画像に第2の対象物が含まれる第2の領域が存在するか否かに応じて、情報提示画像の表示態様を変えるので、注意を喚起できる。
 第2のしきい値は、第1のしきい値とは異なる値であり得る。なお、第2のしきい値は、第1のしきい値に適応的に定められてもよい。また、第2のしきい値は、第1のしきい値と所定の計算式とによって定められてもよい。
 第1画像と第3画像とを比較する比較部をさらに備えてもよい。表示制御部は、車両と対象物との隔たりの程度の検知結果を受けつけており、隔たりの程度と、比較部において比較した第1画像と第3画像との差異とをもとに、情報提示を表示させ、表示制御部は、隔たりの程度、または第1画像と第3画像との差異が変化すると、情報提示の表示態様を変更してもよい。この場合、隔たりの程度、または第1画像と第3画像との差異が変化すると情報提示画像の表示態様を変更するので、人間が認知しにくいシーンや対象に対する潜在リスクを知らせることができる。
 第1画像と第3画像とを比較する比較部をさらに備えてもよい。表示制御部は、比較部において比較した第1画像と第3画像との差異とをもとに、人間が認知しにくいシーンや対象に対する潜在リスクを知らせるための潜在情報提示画像を表示させ、表示制御部は、対象物の検知結果を受けつけた場合に潜在情報提示画像を第1表示態様で表示させ、対象物の検知結果を受けつけない場合に潜在情報提示画像を第2表示態様で表示させ、対象物の検知結果を受けつけた場合に、顕在する危険を知らせるための顕在情報提示画像が表示され、第1表示態様と第2表示態様とは異なってもよい。この場合、顕在情報提示画像が表示されるか否かに応じて、潜在情報提示画像の表示態様を変更するので、顕在情報提示画像と潜在情報提示画像との干渉を抑制できる。
 第1画像と第3画像とを比較する比較部をさらに備えてもよい。表示制御部は、比較部において比較した第1画像と第3画像との差異とをもとに、人間が認知しにくいシーンや対象に対する潜在リスクを知らせるための潜在情報提示画像を第1表示装置に表示させ、第1表示装置は、対象物が検知された場合に顕在する危険を知らせるための顕在情報提示画像が表示される第2表示装置とは異なってもよい。この場合、顕在情報提示画像と潜在情報提示画像とを別の表示装置に表示するので、顕在情報提示画像と潜在情報提示画像との干渉を抑制できる。
 第1画像と第3画像とを比較する比較部をさらに備えてもよい。表示制御部は、比較部において比較した第1画像と第3画像との差異とをもとに、情報提示画像を表示させ、表示制御部は、第1画像と第3画像との差異とが変化すると、情報提示画像の表示態様を変更してもよい。この場合、第1画像と第3画像との差異が変化すると情報提示画像の表示態様を変更するので、人間が認知しにくいシーンや対象に対する潜在リスクを適切に知らせることができる。
 本開示の別の態様は、表示システムである。この表示システムは、撮像装置と、撮像装置に接続される表示制御装置とを備える。表示制御装置は、第1タイミングにおける、車両の前景または車両に搭乗中のユーザの前景が撮像された第1画像を受けつける入力部と、第1タイミングにおける前景の予測結果を示す第3画像を、第1タイミングよりも過去の第2タイミングにおける前景が撮像された第2画像に基づいて生成する生成部と、第1画像と第3画像との、所定の基準を用いた比較結果に基づいて、情報提示の表示を制御する表示制御部と、を備える。
 本開示のさらに別の態様は、表示制御方法である。この方法は、第1タイミングにおける、車両の前景または車両に搭乗中のユーザの前景が撮像された第1画像を受けつけるステップと、第1タイミングにおける前景の予測結果を示す第3画像を、第1タイミングよりも過去の第2タイミングにおける前景が撮像された第2画像に基づいて生成するステップと、第1画像と第3画像との、所定の基準を用いた比較結果に基づいて、情報提示の表示を制御するステップと、を備える。
 以上、本開示を実施例をもとに説明した。これらの実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。
 本実施例では、情報提示画像を前景に重畳させて表示する例を中心に説明したが、本開示はかかる例に限定されない。例えば、車両1000内のダッシュボード10に横一列に複数のLEDが取り付けられうる。この場合、(情報提示画像を表示することの代わりに、あるいは、追加的に)予測ミスが発生した箇所に近いLEDを光らせてもよい。同時に、所定の画像(情報提示画像など)をCID(Center Information Display)に表示させてもよい。本変形例によれば、構成の自由度を向上できる。
 本実施例では、情報提示画像の表示態様を制御する例を中心として説明したが、本開示はかかる例に限定されない。例えば、運転者に警告を与えるように、車室内の照明の輝度や色相などを制御してもよい。本変形例によれば、構成の自由度を向上できる。
 本実施例は、次のように国際標準で推奨される警報や注意喚起の優先順位づけや、重大性および緊急性に応じた警報や注意喚起の統合において、最も優先順位の低い情報提供、あるいは最も重大性や緊急性が低い情報提供として構成されてもよい。
 参考資料1:ISO/TS 1695 Road vehicles - Ergonomic aspects of transport information and control systems (TICS) - Procedures for determining priority of on-board messages presented to drivers
 参考資料1によれば、「重大性、緊急性を考慮して情報の優先度を決め、優先度の大きな情報程、ドライバに早く、確実に伝わるように提示方法やタイミングに配慮することが必要である」とされている。本実施例における人間が認知しにくいシーンや対象に対する潜在リスクを伝える提示は、先進運転支援システム(ADAS)における警報や注意喚起よりも優先度、緊急度が低い提示とする。
 参考資料2:ISO/TR 12204:2012 Road vehicles - Ergonomic aspects of transport information and control systems - Introduction to integrating safety critical and time critical warning signals
 参考資料2によれば、「複数の警報を提示する場合は、警報の競合(警報のマスキングや、同時提示によるドライバの混乱により、複数の警報が理解できなくなること)が起こらないように提示方法に配慮することが必要である」とされている。
 警報が競合するシーンは、
  1)複数の警報で、同じ提示手段(視覚・聴覚・触覚など)が用いられる場合
  2)複数の視覚的な警報が、空間的に近接した場所に提示される場合
  3)類似する特徴を持つ複数の警報が提示される場合(聴覚警報であれば周波数、視覚警報であれば表示やアイコンの形状など)
  4)頻度が高い警報と頻度が低い警報(頻度が低い情報を、頻度が高い情報と誤解する可能性がある)
である。
 本実施例の人間が認知しにくいシーンや対象に対する潜在リスクを伝える提示が、警報と競合した場合には、例えば、競合回避のアプローチは、
  a)時間的に後から発せられる場合は、提示されるタイミングを決定するしきい値やパラメータを変更する
  b)警報の優先度が高い場合は、聴覚または触覚による情報提示よりも反応時間の遅い視覚による情報提示を行う
  c)2つ以上の警報と人間が認知しにくいシーンや対象に対する潜在リスクを伝える提示が異なること理解させるために、提示態様を変更する。
   例えば、パラメータを変更して、警報を阻害せず、かつ/または識別性を高める。パラメータは、聴覚に関しては、ピッチ、周波数、波形、音量など、視覚に関しては、位置、フラッシングレート、シンボルやアイコンのデザイン、色、サイズなど、触覚に関しては、振幅、周波数、波形などである。
  d)警報の対象と、人間が認知しにくいシーンや対象に対する潜在リスクを伝える情報提示が異なる場合でも、発生方向が同じであれば、共通の提示を用いてもよい。
 本実施例における潜在情報提示のコンテンツは、注意を引き締めさせる表示、注意を適切に分散させる表示、減速を促す表示であってもよい。また、本実施例における潜在情報提示のメディアは、視覚、聴覚、触覚、嗅覚、それらの組み合わせであってもよい。嗅覚について、予測誤差が多く発生する場合に、リラックス効果を有するアロマが散布され、予測誤差が小さい状態が継続する場合に、覚醒効果を有するアロマが散布される。また、警告は、中心視野に表示されたり、正面のスピーカから出力されたりしてもよい。警告は、周辺視野に表示されたり、左右のスピーカから出力されたりしてもよい。警告は、周辺視野外に表示されたり、全体として表示されたりしてもよい。また、潜在情報提示は、常時表示であってもよく、鳴動し続けてもよい。潜在情報提示は、1回だけ表示されてもよく、一瞬だけ鳴動されてもよい。潜在情報提示は、複数回表示であってもよく、点滅であってもよく、トリガによって消滅されてもよい。潜在情報提示の周波数、個数が制御されてもよい。表示態様は、テキスト、アイコン、図形、発光、コントラスト、静止画像、動画像、CG(Computer Graphics)を含む。表示態様において、高さ、長さ、面積等の形状、色、色相、輝度、コントラスト、透過度(透過型ディスプレイ)、透明度(非透過型のディスプレイ)が制御されてもよい。本変形例によれば、構成の自由度を向上できる。
 本実施例におけるTTCの代わりに、THW、Risk Perceptionが使用されてもよい。図28(a)-(c)は、車両1000と対象物410との隔たりの程度の検知結果を説明するための図である。ここでは、車両1000を自車両1010と示し、対象物410を他車(者)1012と示す。図28(a)はTTCの概要を示し、図28(b)はTHWの概要を示し、図28(c)はRisk Perceptionの概要を示す。
 参考資料3:Kondoh, Yamamura, Kitazaki, Kuge, Boer, “Identification of Visual Cues and Quantification of Drivers’ Perception of Proximity Risk to the Lead vehicle in Car-Following situations”, Journal of Mechanical Systems for Transportation and Logistics, Vol.1, No.2, pp.170-180, 2008.
 参考資料3によれば、運転者の主観的リスク指標は、TTC以外にもTHW(Time HeadWay)やTTCの逆数とTHWの逆数の和で表現されるRisk Perceptionなどがある。
 本実施例で記載するTTCを、衝突が避けられないか、あるいは衝突が起こる可能性がある場合はTTC、衝突リスクが顕在化しているか、あるいは衝突リスクが顕在介していないときにはRisk PerceptionまたはTHW、を用いるとしてもよい。本変形例によれば、構成の自由度を向上できる。
 本開示によれば、人間が認知しにくいシーンや対象を特定して情報提供できる。
 10 ダッシュボード、 12 フロントガラス、 14 ピラー、 16 ステアリング、 18 メータ、 20 センターコンソール、 30 モニタ、 50 表示可能領域、 52 部分領域、 100 撮像装置、 200 表示制御装置、 210 入力部、 220 記憶部、 230 生成部、 240 検知部、 250 比較部、 260 表示制御部、 300 表示装置、 1000 車両。

Claims (13)

  1.  第1タイミングにおける、車両の前景または前記車両に搭乗中のユーザの前景が撮像された第1画像を受けつける入力部と、
     前記第1タイミングにおける前記前景の予測結果を示す第3画像を、前記第1タイミングよりも過去の第2タイミングにおける前記前景が撮像された第2画像に基づいて生成する生成部と、
     前記第1画像と前記第3画像との、所定の基準を用いた比較結果に基づいて、情報提示を制御する表示制御部と、
     を備える表示制御装置。
  2.  前記第1画像と前記第3画像とを前記所定の基準を用いて比較する比較部をさらに備える、請求項1に記載の表示制御装置。
  3.  前記所定の基準は、前記第1画像と前記第3画像との差異が第1のしきい値よりも大きいか否かであり、
     前記比較部は、前記第1画像と前記第3画像との差異が前記第1のしきい値よりも大きい領域であって、かつ、第1の対象物の撮像領域が含まれる第1の領域を特定し、
     前記情報提示は、前記第1の領域または前記第1の対象物を警告する画像である、請求項2に記載の表示制御装置。
  4.  前記表示制御部は、前記第1画像と前記第3画像との差異の大きさに応じて、前記情報提示の表示態様を変更する請求項3に記載の表示制御装置。
  5.  前記表示制御部は、前記比較部において特定した前記第1の領域に重畳するように前記情報提示を表示させる、請求項3または4に記載の表示制御装置。
  6.  前記表示制御部は、表示可能領域を分割した複数の部分領域のうち、前記比較部において特定した前記第1の領域が含まれる部分領域に前記情報提示を表示させる、請求項3から5のいずれかに記載の表示制御装置。
  7.  前記第1画像、前記第2画像、および前記第3画像は、前記車両の前方の景色の画像であり、
     前記入力部は、前記第1タイミングにおいて前記車両の車室内が撮像された第4画像を受けつけ、
     前記生成部は、前記第2タイミングにおいて前記車室内が撮像された第5画像から、前記第1タイミングにおける車室内を予測した第6画像を生成し、
     前記比較部は、前記第4画像と前記第6画像との差異が第2のしきい値よりも大きい領域であって、かつ、第2の対象物が含まれる第2の領域が存在するか否かを特定し、
     前記表示制御部は、前記第2の領域が存在するか否かに応じて、前記情報提示の表示態様を変える、請求項2から5のいずれか1項に記載の表示制御装置。
  8.  前記第1画像と前記第3画像とを比較する比較部をさらに備え、
     前記表示制御部は、前記車両と対象物との隔たりの程度の検知結果を受けつけており、前記隔たりの程度と、前記比較部において比較した前記第1画像と前記第3画像との差異とをもとに、前記情報提示を表示させ、
     前記表示制御部は、前記隔たりの程度、または前記第1画像と前記第3画像との差異が変化すると、前記情報提示の表示態様を変更する請求項1に記載の表示制御装置。
  9.  前記第1画像と前記第3画像とを比較する比較部をさらに備え、
     前記表示制御部は、前記比較部において比較した前記第1画像と前記第3画像との差異とをもとに、人間が認知しにくいシーンや対象に対する潜在リスクを知らせるための潜在情報提示画像を表示させ、
     前記表示制御部は、対象物の検知結果を受けつけた場合に前記潜在情報提示画像を第1表示態様で表示させ、前記対象物の検知結果を受けつけない場合に前記潜在情報提示画像を第2表示態様で表示させ、
     前記対象物の検知結果を受けつけた場合に、顕在する危険を知らせるための顕在情報提示画像が表示され、
     前記第1表示態様と前記第2表示態様とは異なる請求項1に記載の表示制御装置。
  10.  前記第1画像と前記第3画像とを比較する比較部をさらに備え、
     前記表示制御部は、前記比較部において比較した前記第1画像と前記第3画像との差異とをもとに、人間が認知しにくいシーンや対象に対する潜在リスクを知らせるための潜在情報提示画像を第1表示装置に表示させ、
     前記第1表示装置は、対象物が検知された場合に顕在する危険を知らせるための顕在情報提示画像が表示される第2表示装置とは異なる請求項1に記載の表示制御装置。
  11.  前記第1画像と前記第3画像とを比較する比較部をさらに備え、
     前記表示制御部は、前記比較部において比較した前記第1画像と前記第3画像との差異とをもとに、情報提示画像を表示させ、
     前記表示制御部は、前記第1画像と前記第3画像との差異とが変化すると、前記情報提示画像の表示態様を変更する請求項1に記載の表示制御装置。
  12.  撮像装置と、
     前記撮像装置に接続される表示制御装置とを備え、
     前記表示制御装置は、
     第1タイミングにおける、車両の前景または前記車両に搭乗中のユーザの前景が撮像された第1画像を受けつける入力部と、
     前記第1タイミングにおける前記前景の予測結果を示す第3画像を、前記第1タイミングよりも過去の第2タイミングにおける前記前景が撮像された第2画像に基づいて生成する生成部と、
     前記第1画像と前記第3画像との、所定の基準を用いた比較結果に基づいて、情報提示の表示を制御する表示制御部と、
     を備える表示システム。
  13.  第1タイミングにおける、車両の前景または前記車両に搭乗中のユーザの前景が撮像された第1画像を受けつけるステップと、
     前記第1タイミングにおける前記前景の予測結果を示す第3画像を、前記第1タイミングよりも過去の第2タイミングにおける前記前景が撮像された第2画像に基づいて生成するステップと、
     前記第1画像と前記第3画像との、所定の基準を用いた比較結果に基づいて、情報提示の表示を制御するステップと、
     を備える表示制御方法。
PCT/JP2020/048739 2019-12-26 2020-12-25 表示制御装置、表示システム、表示制御方法 WO2021132566A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112020006351.8T DE112020006351T5 (de) 2019-12-26 2020-12-25 Anzeigesteuervorrichtung, Anzeigesystem und Anzeigesteuerverfahren
US17/847,738 US20220324328A1 (en) 2019-12-26 2022-06-23 Display control device, display system, and display control method for controlling display of alert

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019235908 2019-12-26
JP2019-235908 2019-12-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/847,738 Continuation US20220324328A1 (en) 2019-12-26 2022-06-23 Display control device, display system, and display control method for controlling display of alert

Publications (1)

Publication Number Publication Date
WO2021132566A1 true WO2021132566A1 (ja) 2021-07-01

Family

ID=76575564

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/048739 WO2021132566A1 (ja) 2019-12-26 2020-12-25 表示制御装置、表示システム、表示制御方法

Country Status (4)

Country Link
US (1) US20220324328A1 (ja)
JP (1) JP7460870B2 (ja)
DE (1) DE112020006351T5 (ja)
WO (1) WO2021132566A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100450A1 (ja) * 2021-11-30 2023-06-08 パナソニックIpマネジメント株式会社 運転支援装置、運転支援方法及び運転支援プログラム
WO2024079956A1 (ja) * 2022-10-13 2024-04-18 パナソニックオートモーティブシステムズ株式会社 運転支援装置、運転支援システム、及び運転支援方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022063933A (ja) * 2020-10-13 2022-04-25 株式会社Subaru 車両の表示装置
US11897391B1 (en) * 2023-04-11 2024-02-13 GM Global Technology Operations LLC Systems and methods for managing interior light illumination in a vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280151A (ja) * 2006-04-07 2007-10-25 Kyushu Institute Of Technology 画像解析装置、画像解析方法及びプログラム
JP2017049666A (ja) * 2015-08-31 2017-03-09 日本電気株式会社 飛び出し物体検知装置および飛び出し物体検知方法
JP2018125639A (ja) * 2017-01-31 2018-08-09 株式会社Jvcケンウッド 熱画像処理装置、赤外線撮像装置、熱画像処理方法、及び熱画像処理プログラム
JP2018156640A (ja) * 2017-03-16 2018-10-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 学習方法およびプログラム
JP2018173944A (ja) * 2017-03-30 2018-11-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置および情報処理方法
JP2019087057A (ja) * 2017-11-07 2019-06-06 パナソニックIpマネジメント株式会社 情報提示システム、移動体、情報提示方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4652260B2 (ja) 2006-03-23 2011-03-16 本田技研工業株式会社 障害物認識装置
JP4670805B2 (ja) 2006-12-13 2011-04-13 株式会社豊田中央研究所 運転支援装置、及びプログラム
US8725309B2 (en) 2007-04-02 2014-05-13 Panasonic Corporation Safety driving support apparatus
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
EP3095073A1 (en) * 2014-01-17 2016-11-23 KPIT Technologies Ltd. Vehicle detection system and method thereof
JP6481846B2 (ja) * 2014-03-27 2019-03-13 日本精機株式会社 車両用警報装置
JP2015201010A (ja) 2014-04-07 2015-11-12 トヨタ自動車株式会社 予測外動き判定装置
JP6643659B2 (ja) 2014-04-09 2020-02-12 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
JP6627680B2 (ja) * 2016-07-27 2020-01-08 株式会社Jvcケンウッド 人物検出装置、人物検出システム、人物検出方法及び人物検出プログラム
WO2018146882A1 (ja) * 2017-02-08 2018-08-16 住友電気工業株式会社 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
JP2019074964A (ja) 2017-10-17 2019-05-16 株式会社デンソーテン 運転不能状態予測装置及び運転不能状態予測システム
US10800408B2 (en) 2018-05-24 2020-10-13 Baidu Usa Llc Determining driving paths for autonomous driving that avoid moving obstacles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280151A (ja) * 2006-04-07 2007-10-25 Kyushu Institute Of Technology 画像解析装置、画像解析方法及びプログラム
JP2017049666A (ja) * 2015-08-31 2017-03-09 日本電気株式会社 飛び出し物体検知装置および飛び出し物体検知方法
JP2018125639A (ja) * 2017-01-31 2018-08-09 株式会社Jvcケンウッド 熱画像処理装置、赤外線撮像装置、熱画像処理方法、及び熱画像処理プログラム
JP2018156640A (ja) * 2017-03-16 2018-10-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 学習方法およびプログラム
JP2018173944A (ja) * 2017-03-30 2018-11-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置および情報処理方法
JP2019087057A (ja) * 2017-11-07 2019-06-06 パナソニックIpマネジメント株式会社 情報提示システム、移動体、情報提示方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100450A1 (ja) * 2021-11-30 2023-06-08 パナソニックIpマネジメント株式会社 運転支援装置、運転支援方法及び運転支援プログラム
WO2024079956A1 (ja) * 2022-10-13 2024-04-18 パナソニックオートモーティブシステムズ株式会社 運転支援装置、運転支援システム、及び運転支援方法

Also Published As

Publication number Publication date
US20220324328A1 (en) 2022-10-13
JP7460870B2 (ja) 2024-04-03
JP2021105994A (ja) 2021-07-26
DE112020006351T5 (de) 2022-10-20

Similar Documents

Publication Publication Date Title
WO2021132566A1 (ja) 表示制御装置、表示システム、表示制御方法
EP2544162B1 (en) Surrounding area monitoring device for vehicle
US9639990B2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US20220189307A1 (en) Presentation of dynamic threat information based on threat and trajectory prediction
KR102000929B1 (ko) 차량을 위한 미러 대체 시스템
CN109204305B (zh) 丰富视野方法、观察员车辆和对象中使用的设备和机动车
JP2007087337A (ja) 車輌周囲情報表示装置
WO2008029802A1 (fr) Dispositif fournissant des informations de voyage
JP7223972B2 (ja) 監視装置および車両
CN112105520A (zh) 车辆用显示装置
Langlois ADAS HMI using peripheral vision
JP2007286959A (ja) 運転支援装置
US20230018303A1 (en) Presentation control device and non-transitory computer readable storage medium
Burge et al. An investigation of the effect of texting on hazard perception using fuzzy signal detection theory (fSDT)
Zarife Integrative warning concept for multiple driver assistance systems
CN114842433A (zh) 基于显著性的图像中对象的呈现
JP2005241516A (ja) 車両用表示装置および方法
US20230022485A1 (en) Vehicle display control device, vehicle display device, vehicle display control method, and non-transitory storage medium
WO2022158230A1 (ja) 提示制御装置及び提示制御プログラム
CN116811581A (zh) 显示控制装置、车辆用显示装置及显示控制方法
JP7338653B2 (ja) 提示制御装置及び提示制御プログラム
JP7334768B2 (ja) 提示制御装置及び提示制御プログラム
Beyer et al. An adaptive driver alert system making use of implicit sensing and notification techniques
US20240135812A1 (en) Information notification system, information notification method, and non-transitory computer-readable recording medium
EP4357183A1 (en) Information notification system, information notification method, and information notification program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20904712

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20904712

Country of ref document: EP

Kind code of ref document: A1