WO2022224752A1 - 車両用表示システム、表示システム、表示方法、及び表示プログラム - Google Patents

車両用表示システム、表示システム、表示方法、及び表示プログラム Download PDF

Info

Publication number
WO2022224752A1
WO2022224752A1 PCT/JP2022/015567 JP2022015567W WO2022224752A1 WO 2022224752 A1 WO2022224752 A1 WO 2022224752A1 JP 2022015567 W JP2022015567 W JP 2022015567W WO 2022224752 A1 WO2022224752 A1 WO 2022224752A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display screen
content
screen
displayed
Prior art date
Application number
PCT/JP2022/015567
Other languages
English (en)
French (fr)
Inventor
康彦 上保
清貴 田口
玲朗 神谷
浩之 三村
俊範 水野
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2022224752A1 publication Critical patent/WO2022224752A1/ja
Priority to US18/465,552 priority Critical patent/US20230418541A1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/182Distributing information between displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/332Light emitting diodes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/50Instruments characterised by their means of attachment to or integration in the vehicle
    • B60K35/53Movable instruments, e.g. slidable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present disclosure relates to a vehicle display system, a display system, a display method, and a display program.
  • Patent Document 1 when an image is displayed across a plurality of displays, the image that overlaps the non-display area of the displays is cut out and displayed.
  • An object of the present disclosure is to provide a vehicle display system, a display system, a display method, and a display program capable of accurately displaying information to the user without missing information important to the user.
  • the determination unit hides the content of an integrated image, text, text, characters, or symbols across the first display screen and the second display screen when displaying the content across the non-display areas. It is determined whether or not the image located in the area is information necessary for the user viewing the first display screen and the second display screen.
  • the display processing unit changes and displays the display area of the content to be displayed on the first display screen and the second display screen based on the judgment result of the judgment unit. Therefore, information can be accurately displayed to the user without missing information important to the user.
  • FIG. 1A is an explanatory diagram showing a configuration example of a display and a control image in the first embodiment
  • FIG. 1B is an explanatory diagram of a control image of the vehicle display system
  • FIG. 2 is a block diagram schematically showing a vehicle display system
  • FIG. 3 is a configuration diagram schematically showing hardware and software
  • FIG. 4 is a flowchart schematically showing the contents of processing
  • FIG. 5 is an example of image content to be displayed on the first display screen of the first display and the second display screen of the second display
  • FIG. 6 is part 1 of a diagram showing an example of a display mode
  • FIG. 1A is an explanatory diagram showing a configuration example of a display and a control image in the first embodiment
  • FIG. 1B is an explanatory diagram of a control image of the vehicle display system
  • FIG. 2 is a block diagram schematically showing a vehicle display system
  • FIG. 3 is a configuration diagram schematically showing hardware and software
  • FIG. 4 is a flowchart schematically showing
  • FIG. 7 is part 2 of a diagram showing an example of a display mode
  • FIG. 8 is part 3 of a diagram showing an example of a display mode
  • FIG. 9 is part 4 of a diagram showing an example of a display mode
  • FIG. 10A is part 5 of a diagram showing an example of a display mode
  • FIG. 10B is part 6 of a diagram showing an example of a display mode
  • FIG. 11A is part 7 of a diagram showing an example of a display mode
  • FIG. 11B is part 8 of a diagram showing an example of a display mode
  • FIG. 12 is part 9 of a diagram showing an example of a display mode
  • FIG. 13 is part 10 of a diagram showing an example of a display mode
  • FIG. 14 is part 11 of a diagram showing an example of a display mode
  • FIG. 15 is part 12 of a diagram showing a display mode example in the second embodiment
  • FIG. 16 is part 13 of a diagram showing an example of a display mode
  • FIG. 17 is part 14 of a diagram showing an example of a display mode
  • FIG. 18 is an explanatory diagram showing a configuration example of a display and a control image in a modified example
  • FIG. 19 is a configuration diagram schematically showing hardware and software in the modification.
  • a display system 1 comprises multiple displays, such as a first display 2 and a second display 3 .
  • a mode in which the two first displays 2 and the second display 3 are arranged side by side is exemplified, but it is not limited to this, and three or more displays are arranged side by side. You may apply it to the form which is carried out.
  • the displays 2 and 3 are installed side by side.
  • the first display 2 is composed of a liquid crystal display, an organic EL display, or the like.
  • the image content can be displayed in full graphic display.
  • the second display 3 is similarly composed of a liquid crystal display, an organic EL display, or the like.
  • Various image contents can be displayed in full graphic display. If multiple screens are installed side by side, the display area that can be visually recognized by the user at one time can be increased.
  • the ECU 5 includes a display system ECU, a surrounding monitoring system ECU, a travel control system ECU, and a DCM that communicates with the outside of the vehicle.
  • DCM is an abbreviation for Data Communication Module.
  • the travel control system ECU includes a well-known vehicle control ECU, engine control ECU, motor control ECU, brake control ECU, steering control ECU, integrated control ECU, and the like.
  • the travel control system ECU includes an automatic driving ECU.
  • the autonomous driving ECU is the Autonomous Driving Electric Control Unit.
  • Level I driving assistance includes automatic braking to avoid collisions with obstacles, follow-up driving that follows the preceding vehicle, and lane-departure prevention driving that controls the vehicle so that it does not stray from the lanes on both sides.
  • level II automated driving a combination of level I driving assistance, or automated driving under specific conditions, such as automatically overtaking a slow vehicle on an expressway or automatically merging on an expressway. You can run an automatic driving mode that In level II automated driving, the driver is obligated to monitor the automated driving.
  • Level III and higher autonomous driving the system performs all driving tasks while being supervised by the system.
  • Each ECU 5 is mainly composed of a microcomputer equipped with a processor, various storage units 6 such as cache memory, RAM and ROM, I/O, and a bus connecting them. Each ECU 5 is communicably connected to other ECUs 5 provided in the vehicle through the communication control unit 7 and the in-vehicle network 25 .
  • a plurality of display system ECUs 5 constitute an HCU as an information processing device 10 .
  • the ECU 5 of the display system shares the processing capacity of its internal physical resources.
  • HCU is an abbreviation for Human Machine Interface Control Unit.
  • the storage unit 6 described above indicates a non-transitional material storage medium that non-temporarily stores computer-readable programs and data.
  • a non-transitional material storage medium is implemented by a semiconductor memory or the like.
  • the information processing device 10 includes a control device 11, an arithmetic device 12, a storage unit 6, a display processing unit 13, an audio processing unit 14, and an I/O control unit that manages input or output from various devices. 15, a communication control unit 7 for managing communication with another ECU 5, and a wireless control unit 16 configured by connecting an antenna 16a and capable of wirelessly connecting to another portable terminal 27 via a wireless LAN or Bluetooth (registered trademark).
  • a mode of inputting/outputting main components through the I/O control unit 15 will be described, but through the in-vehicle network 25, other ECUs 5 such as an ECU for monitoring surroundings and an ECU for driving control can be input/output. It can be done.
  • the wireless control unit 16 establishes a communication link with the mobile terminal 27 possessed by the user of the vehicle.
  • the information processing apparatus 10 waits for an incoming call to the mobile terminal 27 , and when the mobile terminal 27 receives an incoming call from the other party and the incoming call is answered, the information processing apparatus 10 communicates with the other party through the speaker 18 and the microphone 17 via the mobile terminal 27 . You can make free calls. Further, the information processing apparatus 10 can recognize voice input through the microphone 17 .
  • Arithmetic device 12 displays content such as images, sentences, characters, or symbols (hereinafter referred to as images, etc.) stored in storage unit 6 on the display screens of displays 2 and 3 under the control of control device 11.
  • the display area is calculated, and in which area of the display screens of the displays 2 and 3 content such as an image is to be displayed, and in which area an image or the like is to be superimposed and displayed.
  • the display area is output to the control device 11 .
  • the symbol here is a general term for not only original symbols but also content such as traffic signs that are represented by icons. information.
  • the display processing unit 13 displays content such as images in the above-described display areas in the display screens of the displays 2 and 3. As a result, on the display screens of the displays 2 and 3, one content can be displayed for each display layer, or content such as a plurality of images can be superimposed and displayed.
  • the voice processing unit 14 receives received voice input from the microphone 17 and outputs transmitted voice from the speaker 18 . When text and character contents are input from the control device 11, the voice processing unit 14 converts them into voice, reads them out through the speaker 18, and outputs them.
  • the position detector 19 detects the position with high accuracy using a well-known GNSS receiver such as GPS (not shown) and an inertial sensor such as an acceleration sensor or a gyro sensor.
  • the position detector 19 outputs a position detection signal to the control device 11 through the I/O control section 15 .
  • the position specifying unit 11a of the control device 11 realizes a function as an ADAS locator that sequentially measures the current position of the vehicle with high accuracy based on the map information input from the map data input device and the position detection signal of the position detector 19. do.
  • ADAS stands for Advanced Driver Assistance Systems.
  • the vehicle position is represented by a coordinate system consisting of latitude and longitude.
  • the X axis indicates longitude and the Y axis indicates latitude. It should be noted that positioning of the vehicle position can be performed, for example, on the basis of mileage information obtained based on the sensing results of a vehicle speed sensor mounted on the vehicle. configuration can be adopted.
  • the control device 11 can perform so-called navigation processing based on the current position of the host vehicle.
  • the operation panel 21 is a predetermined display, for example, a touch panel configured on the display 3, and the I/O control unit 15 accepts an operation input by the user and outputs it to the control device 11.
  • the control device 11 executes control based on operation signals from the operation panel 21 .
  • the occupant monitor 22 detects the state or operation state of the user in the vehicle.
  • the occupant monitor 22 is configured using, for example, a power switch, occupant state monitor, turn switch, automatic control switch, etc., and outputs various signals to the control device 11 .
  • the occupant monitor 22 includes a steering sensor that detects whether the steering wheel is being gripped or steered by the driver, a seating sensor that detects whether the driver is seated, an accelerator pedal or brake pedal depression sensor, and so on. etc. may also be included.
  • the power switch When the power switch is turned on by the user inside the vehicle in order to start the internal combustion engine or the electric motor, it outputs a signal corresponding to the operation.
  • the occupant state monitor includes a camera that detects the state of the user in the D seat or the P seat by photographing the state of the user with an image sensor and outputs an image signal.
  • the driver's occupant condition monitor is called DSM.
  • DSM is an abbreviation for Driver Status Monitor.
  • the occupant condition monitor acquires an imaging signal obtained by irradiating the head of the driver with near-infrared light and capturing an image, analyzes the image as necessary, and outputs the signal to the control device 11 .
  • Occupant condition monitors are used to detect the condition of a user, such as a driver, particularly during driving assistance or automatic driving.
  • the turn switch is turned on by a user in the vehicle to activate the direction indicator of the vehicle, and outputs a turn signal for turning right or left according to the operation.
  • the automatic control switch outputs an automatic control signal in response to the user's ON operation inside the vehicle in order to command automatic control of the running state of the vehicle.
  • the control device 11 can determine the behavior of the user of the vehicle, for example, in which direction the line of sight is directed, based on the signal from the occupant monitor 22.
  • the control device 11 can also determine the operating state of the power switch, the operating state of the direction indicator, and the automatic control of the vehicle. command information, etc. can be entered.
  • the peripheral camera 23 includes a front camera that images the front of the vehicle, a back camera that images the rear of the vehicle, a corner camera that images the front and rear sides of the vehicle, a side camera that images the side of the vehicle, an electronic Peripheral monitoring sensors are configured by mirrors and the like, and these are output to the control device 11 through the I/O control unit 15 and stored as imaging signals for the front guide monitor, back guide monitor, corner view monitor, side guide monitor, and electronic mirror. stored in section 6.
  • the communication control unit 7 is connected to an in-vehicle network 25 such as CAN or LIN, and controls data communication with other ECUs 5 .
  • a distance detection sensor 24 that detects the distance to obstacles is installed on the vehicle as a peripheral monitoring sensor.
  • the distance detection sensor 24 is composed of clearance sonar, LiDAR, millimeter wave radar, etc., and detects vehicles, people, animals, fallen objects on the road near the front of the vehicle, the front side of the vehicle, the rear side of the vehicle, the rear of the vehicle, or the side of the vehicle. , guardrails, curbs, trees, etc. It can also detect the azimuth to the obstacle and the distance to the obstacle.
  • the peripheral monitoring sensor it is displayed on the road around the vehicle, such as lane lines, stop lines, pedestrian crossings, signs such as "stop” written on the road, and the boundary of the intersection. It can detect road markings such as stop lines.
  • SoCs 30 and 31 are mounted on the respective ECUs 5 and 5a, respectively, and the above-described microcomputers are incorporated in the mounted SoCs 30 and 31, respectively.
  • the microcomputers incorporated in the SoCs 30 and 31 of the ECU 5 are configured to run various applications (hereinafter abbreviated as apps) on a pre-installed general-purpose OS 32, such as LinuxOS (Linux is a registered trademark).
  • apps applications
  • LinuxOS LinuxOS
  • SoC System On Chip
  • the application 33 includes the image processing application 34 and other applications.
  • a processor incorporated in the SoC 30 performs drawing processing on the display screen of each display 2 a of the first display 2 in response to a drawing request from the image processing application 34 .
  • the ECU 5a is provided with the reference numeral 5a because it is provided for drawing a meter.
  • a microcomputer incorporated in the SoC 31 of the ECU 5 a incorporates a real-time OS 35 capable of processing with higher real-time performance than the general-purpose OS 32 , and is configured to run a meter application 36 on the real-time OS 35 .
  • the applications 33 such as the image processing application 34 and the meter application 36 .
  • the meter application 36 notifies the user of vehicle speed, number of revolutions, warnings, and the like.
  • An image content to be displayed in a specific display area of the first display 2 is drawn.
  • the meter application 36 draws image content such as a speedometer, a tachometer, a shift range position state, or a warning light.
  • the speedometer contains speed images whose display needs to be updated in real time to show changes in the speed of the vehicle.
  • the tachometer is also included in the meter image, as the display needs to be updated in real time to show changes in rpm.
  • the communication control unit 7 communicates with other ECUs 5 through an in-vehicle network 25 such as CAN and LIN.
  • the content drawn by the meter application 36 can also be displayed on another display, the second display 3 here.
  • Content rendered by the meter application 36 is required to be relatively more real-time than content rendered by other applications.
  • the application 33 includes a navigation application and the like.
  • the navigation application realizes the navigation function described above, and mainly draws image content such as a map, a navigation screen including the current position of the vehicle, etc. on the first display 2 or the second display 3 .
  • the application 33 also includes an image synthesis application.
  • the image synthesizing application identifies the sizes and types of various image contents to be displayed on the display device, synthesizes the images of the image contents in one frame, and displays the synthesized mixed image on the first display 2 and the second display 3. It is an application that outputs to The image synthesizing application implements a function as an image synthesizing unit, also called a compositor, and a function as an image output unit.
  • the application that draws the image content is assigned a display layer for drawing the image content.
  • These display layers are secured on the storage unit 6 in sizes capable of drawing necessary image contents.
  • an animation action means a gradual change in the position or size of an image showing content, rotation of an image, overall movement of the user interface with a swipe operation, or gradual fading of an image. It is a display mode in which the image is displayed in or faded out, or the color of the image is changed.
  • the control device 11 shown in FIG. 2 implements the function of the determination section 11b when executing various processes by executing various applications 33 and 36 stored in the storage section 6.
  • FIG. The display processing unit 13 changes the display position of the image content to be displayed on the first display 2 and the second display 3 based on the determination result of the determination unit 11b, or changes the image content.
  • the information processing device 10 causes the first display 2 and the second display 3 to display various contents by the display processing unit 13. At this time, the first display screen of the first display 2 is processed to display a single content, It is possible to display a single content on the second display screen of the second display 3, or to display a single image or text content across the display screens of the displays 2 and 3 as shown in FIG. There is
  • the information processing apparatus 10 displays a single piece of content across the display screens of the displays 2 and 3, a black strip or frame-shaped non-display area 4 is generated between the first display 2 and the second display 3. .
  • a continuous image or text cannot be displayed across the displays 2 and 3, resulting in a discontinuous display, and the continuity of the display is not maintained. Therefore, in order to perform display suitable for each content to be displayed, the information processing apparatus 10 displays an image or text located in the non-display area 4 when displaying a single piece of content across the non-display area 4 in S1 of FIG. is information necessary for the user who visually recognizes the display screens of the displays 2 and 3 and information leading to the user's action.
  • control device 11 determines whether or not to cut out the image or text located in the non-display area 4 according to the level of importance of the information required by the user, using the determination unit 11b.
  • the information required by the user is preferably information related to warnings, guidance, and notifications that lead to user actions.
  • the image or text located in the non-display area 4 is not clipped and displayed on the multiple displays 2 and 3. By displaying on one of the displays, information with a high degree of importance can always be displayed on one of the displays.
  • the image or text located in the non-display area 4 is cut out and displayed on the multiple displays 2 and 3. 3, the content can be displayed while maintaining the shape of the original image, and the user can be presented with a comfortable display.
  • the display processing unit 13 4 On the condition that the control device 11 determines that the information included in the content displayed across the first display 2 and the second display 3 by the determination unit 11b is not information necessary for the user, the display processing unit 13 4, the image located in the non-display area 4 is cut out, the image is assigned to the respective displays 2 and 3 in S4, and the image is output to the displays 2 and 3 in S5. As a result, the image of the portion overlapping the non-display area 4 can be cut off, and the image of the uncut portion can be displayed on the displays 2 and 3. - ⁇
  • Applicable content includes landscape paintings, vehicle exterior displays, musical artworks and titles for multimedia content, opening screens and pop-up displays, and image content related to mere information display that is not related to vehicle safety functions. It is good to say
  • the display processing unit 13 cuts out the image located in the non-display area 4 in S6, and executes blurring processing in S7. Then, the images are assigned to the displays 2 and 3 in S8, and the images are output to the displays 2 and 3 in S9. At this time, in S7, it is preferable to blur at least part of the edge of the screen where the first display screen of the first display 2 and the second display screen of the second display 3 are close to each other. As shown in blurring areas R2 and R3 in FIG. 6, display processing may be performed by blurring a part or a part of adjacent screen edges.
  • the entire display screen areas 2R and 3R of the displays 2 and 3 may be blurred.
  • a gradation process may be performed in which black is darkened as it approaches the non-display area 4 while blurring the entire areas 2R and 3R of the display screen. See gradation processing areas 2R2 and 3R3.
  • non-display area 4 is configured in a white band shape instead of a black band shape, part of the screen edge or the entire display screen may be made white. Further, when the non-display area 4 is provided in a predetermined color such as black, green, or white instead of black or white, part or all of the display screen may be displayed in a color similar to the predetermined color. Similar colors refer to similar colors that have the same tone but are adjacent in terms of hue, colors that differ only in lightness or saturation, and colors that are different in tone but have the same hue.
  • the display processing unit 13 determines YES in S1 of FIG. It is preferable to simply divide the image without cropping the display area 4, reduce the image in S11, assign the image to each display 2, 3 in S12, and output the contents of the image to the displays 2, 3 in S13. It is preferable that the content of the text is divided into characters and displayed on either display screen of the displays 2 and 3 .
  • the display processing unit 13 displays the image located in the non-display area 4 and overlapping the non-display area 4 on either of the display screens of the displays 2 and 3 without clipping the image. can be provided to the user. Textual content can also provide useful content in the same way.
  • the information located in the non-display area 4 is displayed on either of the display screens of the displays 2 and 3 for contents related to the keywords related to safety and security, thereby making it useful for the user. You can provide images and content.
  • an image located in the non-display area 4 is displayed on either the first display 2 or the second display 3 according to the information that changes from time to time. It is desirable to
  • Examples of applicable content include a captured image G1 captured around the vehicle by the surrounding camera 23, such as information on the back guide monitor, front guide monitor, corner view monitor, and side guide monitor shown in FIGS.
  • the image G1 captured by the peripheral camera 23 is cut out and discarded from the non-display area 4 illustrated in FIGS.
  • the navigation map display screen G2 shown in FIG. It is desirable to display it even in parts.
  • information that becomes difficult to see if it is simply divided such as the symbol of the current position mark M1 that is configured integrally, as shown in FIG.
  • Which of the displays 2 and 3 is to be displayed may be determined according to which side of the displays 2 and 3 the center of the symbol of the current position mark M1 is positioned with respect to the center of the non-display area 4 .
  • a rule such as displaying on the display closer to the driver may be determined and displayed.
  • the display processing unit 13 displays "57 km/h" as the actual speed M2 on the displays 2 and 3. It is preferable to display the actual speed M2 on either of the displays 2 and 3 at least partly.
  • the display processing unit 13 determines that the content of the actual speed M2 or the like is integrated content when displaying the actual speed M2 or the like, the display processing unit 13 displays "57 ” is displayed together, it becomes a more desirable display mode.
  • text content may be superimposed on image content.
  • the determination unit 11b of the information processing apparatus 10 may determine whether or not to cut off the display located in the non-display area 4 according to the level of importance of the information required by the user.
  • the display processing unit 13 displays the non-display area on either of the displays 2 and 3. It is better to process so that the portion overlapping 4 is displayed. In this case, useful information can be accurately provided to the user.
  • the display processing unit 13 selects the display located in the non-display area 4. may be cut off and not displayed on any of the display screens of the displays 2 and 3.
  • the display processing unit 13 cuts out and hides the display located in the non-display area 4 based on the determination result of the determination unit 11b. The necessary information is displayed so that the user can understand it.
  • FIG. 14 there is a case where displays 2 and 3 are arranged side by side on two vertical screens, and a non-display area 4 is positioned between them.
  • the content of characters and sentences overlaps the non-display area 4, it is desirable to display the characters on either the display 2 or 3 instead of cutting and erasing the characters overlapping the non-display area 4.
  • the display 3 can display important content related to the safety of the vehicle, such as "Check at a dealer.” Also, in such a display, the contents of the sentences arranged side by side in the vicinity of the lower part of the display 2 and the upper part of the display 3 are displayed superimposed on the image contents, so that the contents can be confirmed at a glance. In this case, when displaying with the non-display area 4 interposed therebetween, the display 2 or 3 should be displayed in one sentence. In particular, when the determination unit 11b determines that the importance of the sentence is higher than the predetermined value, the display processing unit 13 preferably displays the sentence in one sentence. This makes it easier for the user to read the content of the text.
  • the audio processing unit 14 may simultaneously convert text content into audio and output the audio from the speaker 18 .
  • the determination unit 11b of the information processing device 10 cuts out the display located in the non-display area 4 according to the level of importance of the information necessary for the user. It is better to decide whether the voice processing unit 14 reads aloud text content.
  • the processing unit 13 When the text content is read aloud by the voice processing unit 14, as illustrated in FIG. It is preferable that the processing unit 13 performs display processing on one of the display screens of the displays 2 and 3 . In this case, useful information can be accurately provided to the user.
  • the display processing unit 13 when the voice processing unit 14 reads aloud text content, the display processing unit 13, as shown in FIG.
  • the display may be cut off and not displayed on any of the display screens of the displays 2 and 3. This is particularly effective when you want to eliminate the troublesomeness of character display when reading aloud.
  • the display processing unit 13 changes the display mode of the content based on whether or not the content is information necessary for the user determined by the determination unit 11b and information leading to the user's actions. Therefore, even if the non-display area 4 exists between the first display screen of the first display 2 and the second display screen of the second display 3, the continuity of the image is maintained as much as possible, and information important to the user is displayed. It is possible to accurately provide information that leads to user behavior and necessary information to the user without omission.
  • the display processing unit 13 moves the display processing unit 13 to the non-display area 4 in S3 of FIG.
  • the image content of the portion overlapping the display area 4 is cut, the image content is assigned to each of the displays 2 and 3 in S4, and the image content is output to the displays 2 and 3 in S5.
  • the content of the image in the portion overlapping the non-display area 4 can be hidden from both the first display screen of the first display 2 and the second display screen of the second display 3 .
  • content that is of relatively low urgency or importance such as advertisements, play-back videos displayed on screens at stadiums, etc., videos of performances, player information, etc. be.
  • the relevant content is content of relatively low urgency or importance, such as secondary content attached to the main content, such as landscape paintings, backgrounds, and advertisements.
  • the display processing unit 13 determines YES in S1 of FIG. Simply splitting the content of the image without clipping the content of the image located in the display area 4 and overlapping the non-display area 4, reducing the image at S11, assigning the content of the image to each display 2, 3 at S12, and S13. , the content of the image is output to the displays 2 and 3. It is preferable to divide the contents of the text into characters and display them on the display screen of either the display 2 or 3 . Since the display processing unit 13 displays the content located in the non-display area 4 on one of the display screens of the displays 2 and 3 without clipping the content, it is possible to provide useful image content to the user.
  • content located in the non-display area 4 is displayed on one of a plurality of display screens for diagnostic images such as remote surgery operation screens, X-ray CT, and MRI.
  • diagnostic images of the human head are displayed using four screens of four displays 2a, 2b, 3a, and 3b.
  • the text content by "cross section” and “axial” and the content of the horizontal slice image in the brain are cut off by the non-display area 4.
  • the display processing unit 13 displays all of the content of characters and the content of horizontal cross-sectional images of the brain on any one of the displays 2a, 2b, 3a, and 3b. Since all the content of the horizontal cross-sectional image in the brain is displayed, users such as medical staff and nurses are less likely to misrecognize even if they observe the content of the horizontal cross-sectional image in the brain in detail.
  • FIG. 16 when applied to general display on a screen 100 in a stadium or the like for advertisement purposes, a plurality of contents such as disaster information such as earthquakes and tsunamis, traffic information of public institutions, and information such as terrorism can be displayed.
  • Useful contents can be provided to the user by displaying on any of the display screens of the displays 2 and 3.
  • FIG. 16 When applied to general display on a screen 100 in a stadium or the like for advertisement purposes, a plurality of contents such as disaster information such as earthquakes and tsunamis, traffic information of public institutions, and information such as terrorism can be displayed.
  • Useful contents can be provided to the user by displaying on any of the display screens of the displays 2 and 3.
  • FIG. 16 when applied to general display on a screen 100 in a stadium or the like for advertisement purposes, a plurality of contents such as disaster information such as earthquakes and tsunamis, traffic information of public institutions, and information such as terrorism can be displayed.
  • Useful contents can be provided to the user by displaying on any of the display screens of the displays 2
  • the image content is information necessary for the user or information that leads to the user's actions, it is possible to display useful content to the user by displaying the image content on one of the display screens of the plurality of displays 2 and 3 .
  • one of the displays 2 and 3 is physically moved when either or both of the displays 2 and 3 are physically movable.
  • the display 3 of the displays 2 and 3 is physically moved so as to overlap the surface of the display 2 .
  • the outer frame 3z of the display 3 corresponds to the black belt-shaped non-display area 4. As shown in FIG.
  • the control device 11 detects the absolute position detection sensors mounted on the displays 2 and 3, the movement values of the drive actuators when the displays 2 and 3 are physically moved, and the like. and detect the relative positional relationship between the displays 2,3.
  • the display processing unit 13 performs display processing by changing the content of the image to be displayed on the display screen of the display 3 based on the width of the outer frame 3z as well as in synchronization with this relative positional relationship. At this time, it is desirable to perform display processing so that the content located in the non-display area 4 is connected between the display screens of the displays 2 and 3 and visually recognized.
  • the display processing unit 13 causes the display screen of the display 3 to change and display.
  • the user confirms the display screens of the displays 2 and 3, the scenery including the mountains can be visually recognized as if the displays 2 and 3 were connected. Similar effects to those of the first embodiment are obtained when the present embodiment is applied to the general display, game display, and movable displays 2 and 3 .
  • the display system ECU is configured by a plurality of ECUs, but as shown in FIG. 18, the display system ECU may be configured as an HCU by one ECU.
  • FIG. 19 shows an example of hardware and software configuration at this time.
  • An SoC 230 is mounted on each ECU 5, and a microcomputer is incorporated in the SoC 230 mounted.
  • a general-purpose OS 32 and a real-time OS 35 are configured on a hypervisor 231 of the microcomputer incorporated in the SoC 230 of the ECU 5 .
  • a plurality of various applications 33 are configured to operate on the general-purpose OS 32 .
  • the real-time OS 35 can perform processing with higher real-time performance than the general-purpose OS 32 .
  • a meter application 36 is configured to operate on the real-time OS 35 . Even if such a configuration is employed, the same configuration and effects as those of the above-described embodiment can be obtained.
  • 2 is the first display
  • 3 is the second display
  • 11b is the judgment unit
  • 13 is the display processing unit
  • 14 is the sound processing unit.
  • the controller 11 approach described in this disclosure may be implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by the computer program.
  • the controller 11 and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits.
  • the controller 11 and techniques described in this disclosure are a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. may be implemented by one or more dedicated computers configured by
  • the computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

車両用表示システムは、第1ディスプレイ(2)の第1表示画面、及び、前記第1表示画面との間で非表示領域(4)を挟んで併設された第2ディスプレイ(3)の第2表示画面に表示する。車両用表示システムは、第1表示画面及び第2表示画面に亘る一体の画像、文章、文字又は記号のコンテンツを非表示領域を跨いで表示させるときにコンテンツが第1表示画面及び第2表示画面を視認するユーザに必要な情報を含むか否かを判断する判断部(11b)と、判断部の判断結果に基づいて第1表示画面及び第2表示画面に表示させるコンテンツの表示領域を変化させて表示する表示処理部(13)と、を備える。

Description

車両用表示システム、表示システム、表示方法、及び表示プログラム 関連出願の相互参照
 本出願は、2021年4月23日に出願された日本出願番号2021-073378号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両用表示システム、表示システム、表示方法、及び表示プログラムに関する。
 近年、液晶ディスプレイや有機ELディスプレイなどのディスプレイでは、一度に多くの情報を閲覧可能にするため大型化することが求められている。他方、1つの大きな意匠を表示することも求められている(例えば、特許文献1参照)。
 例えば、特許文献1記載によれば、複数のディスプレイに跨って画像を表示するときに、ディスプレイの非表示領域に重なる画像を切り取って表示するようにしている。
特開2017-187758号公報
 しかしながら、単純に非表示領域に重なった画像を切り取ってしまうとユーザにとって重要な情報が欠落してしまう可能性がある。
 本開示の目的は、ユーザにとって重要な情報を欠落させることなくユーザに対し的確に情報を表示できるようにした車両用表示システム、表示システム、表示方法及び表示プログラムを提供することにある。
 本開示の一態様によれば、第1ディスプレイの第1表示画面、及び、前記第1表示画面との間で非表示領域を挟んで併設された第2ディスプレイの第2表示画面に表示する車両用表示システムを対象としている。本開示の一態様によれば、判断部は、第1表示画面及び第2表示画面に亘る一体の画像、文章、文章、文字又は記号のコンテンツについて非表示領域を跨いで表示させるときに非表示領域に位置する画像が第1表示画面及び第2表示画面を視認するユーザに必要な情報であるか否かを判断する。
 このとき表示処理部は、判断部の判断結果に基づいて第1表示画面及び第2表示画面に表示させるコンテンツの表示領域を変化させて表示する。このため、ユーザにとって重要な情報を欠落させることなくユーザに対し的確に情報を表示できる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1Aは、第1実施形態におけるディスプレイの構成例と制御イメージを示す説明図であり、 図1Bは、車両用表示システムの制御イメージの説明図であり、 図2は、車両用表示システムを概略的に示すブロック図であり、 図3は、ハードウェア、ソフトウェアを概略的に示す構成図であり、 図4は、処理内容を概略的に示すフローチャートであり、 図5は、第1ディスプレイの第1表示画面と第2ディスプレイの第2表示画面とに表示させる画像コンテンツ例であり、 図6は、表示態様例を示す図のその1であり、 図7は、表示態様例を示す図のその2であり、 図8は、表示態様例を示す図のその3であり、 図9は、表示態様例を示す図のその4であり、 図10Aは、表示態様例を示す図のその5であり、 図10Bは、表示態様例を示す図のその6であり、 図11Aは、表示態様例を示す図のその7であり、 図11Bは、表示態様例を示す図のその8であり、 図12は、表示態様例を示す図のその9であり、 図13は、表示態様例を示す図のその10であり、 図14は、表示態様例を示す図のその11であり、 図15は、第2実施形態における表示態様例を示す図のその12であり、 図16は、表示態様例を示す図のその13であり、 図17は、表示態様例を示す図のその14であり、 図18は、変形例におけるディスプレイの構成例と制御イメージを示す説明図であり、 図19は、変形例におけるハードウェア、ソフトウェアを概略的に示す構成図である。
 以下、車両用表示システム、表示システムに係るいくつかの実施形態について図面を参照しながら説明する。なお、各実施形態において実質的に共通する部位には同一の符号を付して説明する。
 (第1実施形態)
 第1実施形態について図1Aから図14を参照しながら説明する。図1Aに示すように、表示システム1は、第1ディスプレイ2及び第2ディスプレイ3など複数の表示器を備える。本実施形態では、説明を簡略化するため、2つの第1ディスプレイ2及び第2ディスプレイ3が併設されている形態を例示するが、これに限定されるものではなく、3つ以上のディスプレイが併設されている形態に適用しても良い。
 図1Aに示すように、ディスプレイ2及び3は、隣り合わせて併設して設置されている。第1ディスプレイ2は、液晶ディスプレイ又は有機ELディスプレイ等により構成され、例えば車両用途では、メータ画像、周辺カメラ23の撮像画像、静止画や動画のエンターテインメント画像、現在位置周辺の地図画像などの各種の画像コンテンツをフルグラフィック表示で表示可能な構成となっている。
 他方、第2ディスプレイ3も同様に、液晶ディスプレイや有機ELディスプレイ等により構成され、車両用途では、メータ画像、周辺カメラ23の撮像画像、静止画や動画のエンターテインメント画像、現在位置周辺の地図画像などの各種の画像コンテンツをフルグラフィック表示で表示可能な構成となっている。複数画面併設して設置されていると、ユーザが一度に視認可能な表示領域を増やすことができる。
 また車両内には、図1A、図1B及び図2に示すように、多数のECU5が構成されており、車内ネットワーク25に接続されている。ECU5は、表示系のECU、周辺監視系のECU、走行制御系のECU、車両外部と通信接続するDCMを含む。DCMは、Data Communication Moduleの略である。走行制御系のECUは、周知の車両制御ECU、エンジン制御ECU、モータ制御ECU、ブレーキ制御ECU、ステアリング制御ECU及び統合制御ECU等である。走行制御系のECUには自動運転ECUが含まれる。自動運転ECUは、Autonomous Driving Electric Control Unitである。
 自動運転ECUは、自動制御信号を入力すると、運転アクチュエータを駆動することで対応した所定のレベルの運転支援、自動運転を実行する。例えば、レベルIの運転支援では、障害物への衝突を避ける自動ブレーキ、先行車に追従して走行する追従走行、又は、両脇の車線からはみ出さないように制御するレーンはみ出し防止走行、を実行できる。レベルIIの自動運転では、レベルIの運転支援の組み合わせ、又は、特定条件下での自動運転、例えば高速道路で遅い車両が存在すれば自動で追い越したり、高速道路の分合流を自動で行ったりする自動運転モードを実行できる。なお、レベルIIの自動運転ではドライバによる自動運転時の監視義務がある。レベルIII以上の自動運転では、システムにより監視しながらシステムが全ての運転タスクを実行する。
 各ECU5は、プロセッサ、キャッシュメモリ、RAM、ROMなどの各種の記憶部6、I/O、これらを接続するバスを備えたマイクロコンピュータを主体として構成される。各ECU5は、車両内に設けられる他のECU5と通信制御部7及び車内ネットワーク25を通じて通信可能に接続されている。
 本実施形態では、図1A及び図1Bに示すように、複数の表示系のECU5により情報処理装置10としてのHCUを構成している。図1Bに示すように、表示系のECU5はその内部の物理リソースの処理能力を分担し、例えば各ECU5がディスプレイ2、3に対し個別に表示処理する。HCUは、Human Machine Interface Control Unitの略である。表示系の複数のECU5の間に車内ネットワーク25を接続した形態を示しているが専用線により接続しても良い。前述した記憶部6は、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体を示す。非遷移的実体的記憶媒体は、半導体メモリなどにより実現される。
 図2に示すように、情報処理装置10は、制御装置11、演算装置12、記憶部6、表示処理部13、音声処理部14、各種装置からの入力又は出力を管理するI/O制御部15、他のECU5との間で通信管理する通信制御部7、アンテナ16aを接続して構成され無線LANやブルートゥース(登録商標)により他の携帯端末27と無線接続できるようにした無線制御部16を備える。ここでは、主な構成要素についてはI/O制御部15を通じて入出力する形態を説明するが、車内ネットワーク25を通じて、周辺監視系のECU、走行制御系のECUなどの他のECU5と入出力が行われても良い。
 無線制御部16は、車両のユーザが所持する携帯端末27との間で通信リンクする。情報処理装置10は、携帯端末27の着信を待機し、通話相手先から携帯端末27へ着信があり着信応答されると、携帯端末27を通じて通話相手先との間でスピーカ18及びマイク17を通じてハンズフリー通話を実行できる。また情報処理装置10は、マイク17を通じて入力された音声について音声認識できる。
 演算装置12は、制御装置11の制御に基づいて、記憶部6に記憶された画像、文章、文字又は記号(以下、画像等と称する)のコンテンツについて、ディスプレイ2、3の表示画面に表示させる表示領域を演算し、画像等のコンテンツをディスプレイ2、3の表示画面の何れの領域に表示させるか、また、何れの領域に画像等を重ね合わせて表示させるか演算し、画像等のコンテンツと共に表示領域を制御装置11に出力する。ここでいう記号とは、本来の記号の他、交通標識などの標示をアイコンなどで表したコンテンツを総称したものであり、特にナビゲーション機能によりディスプレイ2、3に標示される画像、文章、文字以外の情報を示している。
 表示処理部13は、制御装置11の制御に基づいて、ディスプレイ2、3の表示画面の中の前述の表示領域に画像等のコンテンツを表示処理する。これにより、ディスプレイ2、3の表示画面には、表示レイヤ毎に1のコンテンツを表示したり複数の画像等のコンテンツを重ね合わせて表示できる。音声処理部14は、制御装置11の制御に基づいて、マイク17から入力された受話音声を入力すると共に、スピーカ18から送話音声を出力する。音声処理部14は、文章、文字のコンテンツを制御装置11から入力すると、音声に変換してスピーカ18を通じて読み上げて出力する。
 位置検出器19は、図示しない周知のGPSなどのGNSS受信機、加速度センサやジャイロセンサなどの慣性センサを用いて高精度に位置を検出する。位置検出器19は、位置検出信号をI/O制御部15を通じて制御装置11に出力する。制御装置11の位置特定部11aは、地図データ入力器から入力される地図情報と位置検出器19の位置検出信号に基づいて車両の現在位置を高精度に逐次測位するADASロケータとしての機能を実現する。ADASはAdvanced Driver Assistance Systemsの略である。この場合、車両位置は、緯度および経度からなる座標系で表され、この座標系では、例えば、X軸が経度、Y軸が緯度を示す。なお、車両位置の測位は、例えば、自車両に搭載されている車速センサによるセンシング結果に基づき求められる走行距離の情報などに基づいて行うなど、自車両の位置を特定できる構成であれば、種々の構成を採用することができる。制御装置11は、自車両の現在位置に基づいて、いわゆるナビゲーション処理を行うことができる。
 操作パネル21は、所定のディスプレイ、例えばディスプレイ3の上に構成されたタッチパネルであり、I/O制御部15は、ユーザによる操作入力があると操作入力を受け付け、制御装置11に出力する。制御装置11は、操作パネル21の操作信号に基づいた制御を実行する。
 乗員モニタ22は、車両内に搭乗したユーザの状態又は操作状態を検知する。乗員モニタ22は、例えばパワースイッチ、乗員状態モニタ、ターンスイッチ、自動制御スイッチなどを用いて構成され、各種の信号を制御装置11に出力する。また乗員モニタ22は、ドライバによりステアリングホイールが把持されているか又は操舵されているか否かを検出するステアリングセンサ、シートに着座しているか否かを検出する着座センサ、アクセルペダル又はブレーキペダルの踏込センサなども含んでいても良い。
 パワースイッチは、内燃機関又は電動モータを始動させるために車室内にてユーザによりオン操作されることで、当該操作に応じた信号を出力する。乗員状態モニタは、D席又はP席のユーザの状態を画像センサにより撮影することで当該ユーザの状態を検知して撮像信号を出力するカメラを含んで構成される。ドライバの乗員状態モニタはDSMと称されている。DSMは、Driver Status Monitorの略である。乗員状態モニタは、ドライバの頭部に近赤外光を照射して撮影した撮像信号を取得し必要に応じて画像解析して制御装置11に出力する。乗員状態モニタは、特に運転支援中や自動運転中にドライバなどのユーザの状態を検知するために使用される。ターンスイッチは、車両の方向指示器を作動させるために車室内のユーザによりオン操作されることで、当該操作に応じて右方又は左方にターンするターン信号を出力する。
 自動制御スイッチは、車両の走行状態に対する自動制御を指令するために、車室内にてユーザによりオン操作されることで、当該操作に応じた自動制御信号を出力する。制御装置11は、乗員モニタ22の信号により車両のユーザの挙動、例えば視線が何れの方向を向いているかを判定でき、また、パワースイッチの操作状態、方向指示器の作動状態、車両の自動制御の指令情報などを入力できる。
 周辺カメラ23は、車両の前方を撮像するフロントカメラ、車両の後部を撮像するバックカメラ、車両の前側部や後側部を撮像するコーナカメラ、又は、車両の側部を撮像するサイドカメラ、電子ミラーなどによる周辺監視センサを構成し、これらはそれぞれフロントガイドモニタ、バックガイドモニタ、コーナービューモニタ、サイドガイドモニタ、電子ミラーの各撮像信号としてI/O制御部15を通じて制御装置11に出力され記憶部6に記憶される。通信制御部7は、CANやLINなどの車内ネットワーク25に接続されており、他のECU5との間でデータを通信制御する。
 また車両には障害物との距離を検出する距離検出センサ24が周辺監視センサとして設置されている。距離検出センサ24は、クリアランスソナー、LiDARやミリ波レーダなどにより構成され、車両前方、車両前側部、車両後側部、車両後方又は車両側部に近接する車両や人、動物、路上の落下物、ガードレール、縁石、樹木などを検知できる。また障害物への方位や障害物までの距離を検出できる。また、上記した周辺監視センサにより、自車両の周辺の道路に設けられている走行区画線、一時停止線、横断歩道、路上に表記された「止まれ」などの標示、交差点の境界に表示される停止線などの路面標示を検出できる。
 情報処理装置10のハードウェア、ソフトウェア構成例を図3に示している。各ECU5、5aにはそれぞれSoC30、31が搭載され、この搭載されたSoC30、31には前述したマイクロコンピュータが組込まれている。ECU5のSoC30、31に組み込まれたマイクロコンピュータは、予めインストールされた汎用OS32、例えばLinuxOS(Linuxは登録商標)上で各種の複数のアプリケーション(以下、アプリと略す)が動作するように構成されている。SoCはSystem On Chipの略である。
 アプリ33は、画像処理アプリ34やその他のアプリを含む。画像処理アプリ34の描画要求に応じてSoC30に組み込まれたプロセッサが、第1ディスプレイ2の各ディスプレイ2aの表示画面に描画処理する。
 他方、ECU5aはメータ描画用途で設けられているため符号5aを付している。ECU5aのSoC31に組み込まれたマイクロコンピュータには、汎用OS32よりもリアルタイム性能高く処理できるリアルタイムOS35が組み込まれており、リアルタイムOS35上でメータアプリ36を動作させるように構成されている。以下の説明では、画像処理アプリ34やメータアプリ36などのアプリ33を主体として説明することがあることに留意する。
 メータアプリ36は、車両の速度や回転数あるいは警告などをユーザに報知するものである。第1ディスプレイ2の特定の表示領域に表示される画像コンテンツを描画する。例えば、メータアプリ36は、速度計や回転数計、シフトレンジポジション状態、又は、警告灯などの画像コンテンツを描画する。速度計は、車両の速度の変化を示すためにリアルタイムで表示を更新する必要がある速度画像を含む。同様に、回転数計も、回転数の変化を示すためにリアルタイムで表示を更新する必要があるため、メータ画像に含まれる。通信制御部7はCAN,LINなどの車両内ネットワーク25を通じて他のECU5との間の通信を行う。
 また、メータアプリ36により描画されるコンテンツは、他のディスプレイ、ここでは第2ディスプレイ3にも表示できる。メータアプリ36によって描画されるコンテンツは、他のアプリによって描画されるコンテンツよりも、相対的にリアルタイム性が要求される。
 アプリ33にはナビアプリ等が含まれている。ナビアプリは、前述したナビゲーション機能を実現するものであるとともに、主に第1ディスプレイ2又は第2ディスプレイ3に対し、地図や車両の現在位置などを含むナビゲーション画面などの画像コンテンツを描画する。
 またアプリ33には画像合成アプリも含まれている。画像合成アプリは、表示器に表示する様々な画像コンテンツの大きさや種類を特定し、画像コンテンツの画像を1フレーム内に合成し、この合成された混在画像を第1ディスプレイ2、第2ディスプレイ3に出力するアプリである。画像合成アプリは、コンポジッタとも称される画像合成部としての機能や、また画像出力部としての機能を実現する。
 各アプリ33、36のうち画像コンテンツを描画するアプリには、画像コンテンツを描画するための表示レイヤが割り当てられている。これらの表示レイヤは、記憶部6上に、必要となる画像のコンテンツを描画できる大きさで確保されている。
 また、第1ディスプレイ2、第2ディスプレイ3に表示される画像コンテンツは、アニメーション動作可能になっている。ここで、アニメーション動作とは、コンテンツを示す画像の位置や大きさが徐々に変化したり、画像が回転したり、スワイプ操作にともなってユーザインターフェースが全体的に移動したり、画像が徐々にフェードインあるいはフェードアウトしたり、画像の色が変化したりするような表示態様である。
 図2に示した制御装置11は、記憶部6に記憶された各種のアプリ33、36を実行することで各種の処理を実行するときに判断部11bとしての機能を実現する。表示処理部13は、判断部11bの判断結果に基づいて第1ディスプレイ2及び第2ディスプレイ3に表示させる画像コンテンツの表示位置を変更、又は、画像コンテンツを変更処理する。
 上記構成の作用について図4以降の図面を参照しながら説明する。情報処理装置10は、表示処理部13により第1ディスプレイ2及び第2ディスプレイ3に様々なコンテンツを表示させるが、このとき第1ディスプレイ2の第1表示画面に単独のコンテンツを表示処理させたり、第2ディスプレイ3の第2表示画面に単独のコンテンツを表示処理させたり、さらには、図5に示すように、ディスプレイ2、3の表示画面に亘り、一体の画像又は文章のコンテンツを表示させることがある。
 情報処理装置10が、ディスプレイ2、3の表示画面に亘り、一体のコンテンツを表示させる場合、第1ディスプレイ2と第2ディスプレイ3との間に黒帯又は黒枠状の非表示領域4が発生する。このとき、ディスプレイ2、3に亘り、連続的な画像又は文章を表示できず途切れた表示となってしまい、表示の連続性が保たれない。そこで、情報処理装置10は、表示するコンテンツごとに適した表示を行うため、図4のS1において非表示領域4を跨いで一体のコンテンツを表示させるときに非表示領域4に位置する画像又は文章がディスプレイ2、3の表示画面を視認するユーザに必要な情報、ユーザの行動に繋がる情報であるか否かを判断部11bにより判断する。
 制御装置11は、判断部11bにより、ユーザに必要な情報の重要度のレベルに応じて非表示領域4に位置する画像又は文章を切り取るか否かを判断することが望ましい。ユーザに必要な情報は、ユーザの行動に繋がる警告、案内、通知に関する情報とすることが望ましい。複数のディスプレイ2、3を跨いで表示されるコンテンツがユーザにとって重要度の高い情報であると判断された場合は、非表示領域4に位置する画像又は文章を切り取らずに複数のディスプレイ2、3のいずれかに表示することで、重要度の高い情報を必ずいずれかのディスプレイに表示させることができる。逆に複数のディスプレイ2、3を跨いで表示されるコンテンツがユーザにとって重要度の低い情報であると判断された場合は、非表示領域4に位置する画像又は文章を切り取って複数のディスプレイ2,3のいずれにも表示させないようにすることで、元の画像の形状を維持したままコンテンツを表示でき、ユーザにとって違和感のない表示をさせることができる。
 制御装置11は、判断部11bにより第1ディスプレイ2と第2ディスプレイ3とを跨いで表示されるコンテンツに含まれる情報がユーザに必要な情報でないと判断したことを条件として、表示処理部13は、図4のS3において非表示領域4に位置する画像を切取り、S4において画像をそれぞれのディスプレイ2、3へ割当て、S5においてディスプレイ2、3に画像を出力すると良い。これにより、非表示領域4に重なる箇所の画像を切り取ることができ、切り取られなかった箇所の画像をディスプレイ2、3に表示できる。
 車両用途に適用した場合には、安全又は安心に係るキーワードに関係しない静止画や動画などのコンテンツを、ユーザに必要な情報、ユーザの行動に繋がる情報ではないと判断し、非表示領域4に位置する画像を第1ディスプレイ2の第1表示画面又は第2ディスプレイ3の第2表示画面の何れにも非表示とすると良い。該当するコンテンツとしては、風景画、車両外観の表示、マルチメディア系であれば音楽アート作品やタイトル、オープニング画面やポップアップ表示など、車両の安全機能に拘わらない単なる情報表示に係る画像のコンテンツを対象とすると良い。
 また、制御装置11は、図4のS2において緑又は黒などのぼかしを必要と判断したときには、表示処理部13は、S6において非表示領域4に位置する画像を切取り、S7においてぼかし処理を実行し、S8においてディスプレイ2、3へ画像を割当て、S9においてディスプレイ2,3に画像を出力する。このとき、S7において第1ディスプレイ2の第1表示画面及び第2ディスプレイ3の第2表示画面が近接する画面端の少なくとも一部をぼかすと良い。図6のぼかし領域R2、R3に示すように、一部であっても隣り合う画面端の一部をぼかして表示処理しても良い。
 図7に示すように、表示される画像が単なる背景画像であれば、各ディスプレイ2、3の表示画面の全体領域2R、3Rをぼかすようにしても良いし、また、各ディスプレイ2、3の表示画面の全体領域2R、3Rをぼかしながら、非表示領域4に近接するほど黒を濃くするようにグラデーション処理しても良い。グラデーション処理領域2R2、3R3参照。
 非表示領域4が、黒帯状ではなく白帯状に構成されていれば、画面端の一部又は表示画面の全部を白色にしても良い。また、黒又は白ではなく、非表示領域4に黒、緑、白などの所定色で設けられる場合、表示画面の一部又は全部を所定色と同系色にして表示するようにしても良い。同系色とは、トーンは同じで色相上隣り合う類似色、一色でも明度又は彩度だけが異なる色、トーンが異なるが同じ色相の色を組み合わせた色などを示す。
 逆に、表示処理部13は、判断部11bの判断結果に基づいてユーザに必要な情報又はユーザの行動に繋がる情報であると判断したときには、図4のS1においてYESと判定し、S10において非表示領域4を切り取ることなく画像を単に分割し、S11において画像を縮小し、S12において画像を各ディスプレイ2、3に割当て、S13においてディスプレイ2、3に画像のコンテンツを出力すると良い。文章のコンテンツは、文字ごとに分割してディスプレイ2、3の何れかの表示画面に表示させると良い。
 このとき表示処理部13は、非表示領域4に位置して非表示領域4に重なる画像を切り取ることなくディスプレイ2、3の表示画面の何れかに表示処理しているため、有用な画像のコンテンツをユーザに提供できる。文章のコンテンツについても有用なコンテンツを同様に提供できる。
 例えば、車両用途に適用した場合、安全、安心に係るキーワードに関係するコンテンツについては、非表示領域4に位置する情報をディスプレイ2、3の表示画面の何れかに表示させることでユーザに有用な画像、コンテンツを提供できる。
 特に、安全、安心に係るキーワードに関係するコンテンツについては、逐次変化する情報に合わせて、非表示領域4に位置する画像を、第1ディスプレイ2または第2ディスプレイ3の表示画面の何れかに表示させることが望ましい。
 該当するコンテンツとしては、図8、図9に示すバックガイドモニタ、フロントガイドモニタ、コーナービューモニタ、サイドガイドモニタの情報など、周辺カメラ23により車両周辺を撮像した撮像画像G1を挙げることができる。
 例えば、周辺カメラ23の撮像画像G1は、図8、図9に例示した非表示領域4に位置する画像を切り取って破棄してしまうと、非表示領域4に重なる位置に障害物が存在していた場合にドライバがバックガイドモニタを確認しても障害物を確認できない虞があり、障害物への衝突の危険性も上がる。このため、撮像画像G1を非表示領域4の中央の位置で分割し半分に分けてそれぞれのディスプレイ2、3に表示させることが望ましい。又は、非表示領域4に重なる部分の撮像画像G1をディスプレイ2、3の何れか一方に寄せて表示処理することが望ましい。
 また例えば、図10Aに示すナビゲーション地図表示画面G2では、車両の現在位置マークM1や目的地マークの表示、目的地に至るまでの分岐案内表示は、ディスプレイ2,3の何れか又は両者に少なくとも一部でも表示させることが望ましい。
 また、一体に構成された現在位置マークM1の記号のように、単に分割すると見にくくなってしまう情報の場合には、図10Bのように、単に現在位置マークM1の記号の中央でナビ画像を単に分割するのではなく、現在位置マークM1の記号をディスプレイ2、3の何れかに一体で表示させるようにナビ画像を割当てることが望ましい。何れのディスプレイ2、3に表示させるかは、非表示領域4の中心に対して現在位置マークM1の記号の中心がディスプレイ2、3の何れの側に位置しているかに応じて定めると良い。または、ドライバからの距離が近い方のディスプレイに表示する等のルールを決めて表示してもよい。また、目的地マークのように記号をナビゲーション地図表示画面G2上で動くように表示させる場合には、記号の中心が非表示領域4に差し掛かった時にディスプレイ2又は3の何れか一方から他方に瞬間的に移動するような表示態様とすることが望ましい。現在位置マークM1や目的地マーク以外でも、ユーザにとって一体であることが望まれる情報であれば、同様に一体の情報として表示されるように分割位置を変更すればよい。
 また、図11Aに示す実速度M2の表示、運転支援又は自動運転時の目標速度M3の表示、方向指示器のターン方向M4の点滅表示、燃料残量M5の表示、警告類M6の表示、シフトレンジポジション状態M7の表示、追従走行による運転支援機能を使用したときの先行車への追従状態M8のコンテンツの表示態様も同様である。
 例えば、図11Aに示したように、表示処理部13は、実速度M2として「57km/h」をディスプレイ2、3に表示しているが、この場合、非表示領域4に位置することが想定される実速度M2について、ディスプレイ2、3の何れかに一部でも実速度M2を表示処理すると良い。また表示処理部13は、実速度M2等を表示させるときに当該実速度M2等のコンテンツを一体のコンテンツと判定した場合、図11Bに示すように、ディスプレイ2又は3の何れか一方に「57」を一体で寄せて表示させるとさらに望ましい表示態様となる。また、ACC時の追従目標速度M3、方向指示器のターン方向M4、燃料残量M5、警告類M6、シフトレンジポジション状態M7、先行車への追従状態M8についても同様である。
 図12や図13に示すように、文章のコンテンツを画像のコンテンツに重畳表示させることがある。このとき、情報処理装置10の判断部11bは、ユーザに必要な情報の重要度のレベルに応じて非表示領域4に位置する表示を切り取るか否かを判断すると良い。
 図12に例示したように、判断部11bによりエンジン異常に関する文章のコンテンツの重要度が所定より高いと判断された場合、表示処理部13は、ディスプレイ2、3の何れかに対し、非表示領域4に重なる部分を表示するように処理すると良い。この場合、ユーザに有用な情報を的確に提供できる。
 「エンジンに異常が見つかりました」という文章のコンテンツをディスプレイ2、3に亘って表示処理する際に、「エンジンに異常」と「見つかりました」の間に「が」という文字が消えてしまう虞があるが、表示処理部13は、「が」という文字をディスプレイ3に寄せて表示しているため、ユーザに理解しやすく有用な情報を的確に提供できる。
 逆に、図13に示すように、判断部11bによりナビゲーション処理による走行場所の文章のコンテンツの重要度が所定より低いと判断された場合、表示処理部13は、非表示領域4に位置する表示を切取り、ディスプレイ2、3の表示画面の何れにも非表示としても良い。
 「只今、XXX付近を走行中です」という文字のコンテンツをディスプレイ2、3に亘って表示するときに、非表示領域4に「を」という文字が位置している。このとき、表示処理部13は、判断部11bの判断結果に基づいて非表示領域4に位置する表示を切り取り非表示とする。必要な情報は表示されているため、ユーザは理解できる。
 図14に示すように、縦2画面にディスプレイ2、3を併設しその間に非表示領域4が位置している場合もある。非表示領域4に文字、文章のコンテンツが重なってしまったときには、非表示領域4に重なった文字を切り取り消去するのではなく、ディスプレイ2、3の何れかに表示することが望ましい。図14に示す例では、「ディーラーで点検をしてください。」の文章のコンテンツが非表示領域4に重なってしまうため、コンテンツを切り取り消去してしまうことなく、ディスプレイ3に表示させている。これにより、「ディーラーで点検をしてください。」という車両の安全性に関わる重要なコンテンツをディスプレイ3に表示できる。
 また、このような表示では、ディスプレイ2の下部、ディスプレイ3の上部近辺にそれぞれ横並びの文章のコンテンツを画像のコンテンツに重畳表示することにより一目で確認できる。この場合、非表示領域4を挟んで表示する際に、ディスプレイ2又は3には一文で表示させると良い。特に判断部11bにより文章の重要度が所定より高いと判断された場合に、表示処理部13は一文で表示させることが望ましい。これによりユーザは、文章のコンテンツを読みやすくなる。
 次に、音声処理部14により文章のコンテンツを音声に変換して読み上げる場合について説明する。また、音声処理部14が文章のコンテンツを同時に音声に変換してスピーカ18から音声出力することがある。
 音声処理部14により文字のコンテンツの音声読み上げする場合にも、情報処理装置10の判断部11bは、ユーザに必要な情報の重要度のレベルに応じて非表示領域4に位置する表示を切り取るか否かを判断すると良い。
 音声処理部14により文章のコンテンツを音声読み上げする場合、前述の図12に例示したように、判断部11bによりエンジン異常に関する文章のコンテンツの重要度が所定より高いと判断された場合には、表示処理部13は、ディスプレイ2、3の何れかの表示画面に表示処理すると良い。この場合、ユーザに有用な情報を的確に提供できる。
 逆に、音声処理部14が、文字のコンテンツの音声読上げをする場合、表示処理部13は、前述の図13に示したように、判断部11bの判断結果に基づいて非表示領域4に位置する表示を切取り、ディスプレイ2、3の表示画面の何れにも非表示としても良い。音声読み上げた場合に、文字表示の煩わしさをなくしたい場合に特に有効である。
 本実施形態によれば、表示処理部13は、判断部11bにより判断されたユーザに必要な情報、ユーザの行動に繋がる情報であるか否かに基づいてコンテンツの表示態様を変化させている。このため、第1ディスプレイ2の第1表示画面及び第2ディスプレイ3の第2表示画面の間に非表示領域4が存在しても、画像の連続性を極力維持しつつ、ユーザにとって重要な情報であるユーザの行動に繋がる情報、ユーザに必要な情報を欠落させることなく的確に提供できる。
 (第2実施形態)
 本実施形態では、車両用途に拘わらない一般的な表示システムに適用した形態について図15から図18をも参照しながら説明する。車両以外の表示システムに適用する場合、第1実施形態における乗員モニタ22等の構成を省くことで実現できる。図示は省略する。
 前述実施形態にて説明したように、制御装置11は、判断部11bによりユーザに必要な情報でないと判断したとき、表示処理部13は、図4のS3において非表示領域4に位置して非表示領域4に重なった部分の画像コンテンツを切取り、S4において各ディスプレイ2、3へ画像のコンテンツを割当て、S5においてディスプレイ2,3に画像のコンテンツを出力する。これにより、第1ディスプレイ2の第1表示画面及び第2ディスプレイ3の第2表示画面の何れにも非表示領域4に重なった部分の画像のコンテンツを非表示にできる。
 一般の公共表示に適用した場合に該当するコンテンツとしては、広告、スタジアム等でのスクリーンに映し出されるプレー再生動画、演奏中の動画、プレーヤーの情報など、緊急性や重要度の比較的低いコンテンツである。タブレット等での小型端末に適用した場合には、該当するコンテンツとしては、風景画、背景、広告など、主コンテンツに付属した副コンテンツなど緊急性や重要度の比較的低いコンテンツである。
 逆に、表示処理部13は、判断部11bの判断結果に基づいてユーザに必要な情報又はユーザの行動に繋がる情報であると判断したときには、図4のS1においてYESと判定し、S10において非表示領域4に位置して非表示領域4に重なる画像のコンテンツを切り取ることなく画像のコンテンツを単に分割し、S11において画像を縮小し、S12において各ディスプレイ2、3に画像のコンテンツを割当て、S13においてディスプレイ2、3に画像のコンテンツを出力する。文章のコンテンツは文字ごとに分割してディスプレイ2、3の何れかの表示画面に表示させると良い。表示処理部13は、非表示領域4に位置するコンテンツを切り取ることなくディスプレイ2、3の表示画面の何れかに表示処理しているため、有用な画像のコンテンツをユーザに提供できる。
 例えば、医療用途に適用した場合、図15に示すように、遠隔手術操作画面、X線CT、MRI等の診断画像について、非表示領域4に位置するコンテンツを複数の表示画面の何れかに表示させることで、医療従事者や看護師などのユーザに有用なコンテンツを提供できる。図15に例示した内容では、4つのディスプレイ2a、2b、3a、3bの4画面を用いて人体の頭部の診断画像を表示させている。
 図15に示したように、「横断面」「axial」による文字コンテンツや、脳内の水平断面画像のコンテンツは、非表示領域4により切断されている。しかし、表示処理部13は、文字のコンテンツも脳内の水平断面画像のコンテンツも、ディスプレイ2a、2b、3a、3bの何れかの表示画面に全て表示処理している。脳内における水平断面画像のコンテンツは全て表示されているため、医療従事者や看護師などのユーザは、この脳内の水平断面画像のコンテンツを細かく観察しても誤認識しにくくなる。
 例えば、図16に示すように、広告用途やスタジアム等でのスクリーン100による一般表示に適用した場合、地震、津波等の災害情報、公共機関の交通情報、テロリズムなどの情報などのコンテンツを、複数のディスプレイ2、3の表示画面の何れかに表示させることでユーザに有用なコンテンツを提供できる。
 例えば、タブレットやスマホ等での表示用途に適用した場合においても、ゲーム画面やECサイトなどの購入画面の金額表示など、ユーザにとって必要な情報である場合に適用できる。ユーザに必要な情報又はユーザの行動に繋がる情報である場合には、画像コンテンツを複数のディスプレイ2、3の表示画面の何れかに表示させることでユーザに有用なコンテンツを表示提供できる。
 次に、ディスプレイ2、3の何れか又は双方が物理的に可動式であるとき、ディスプレイ2、3の何れかを物理的に移動する場合について説明する。図17に示すように、ディスプレイ2、3のうち、ディスプレイ3をディスプレイ2の表面上に重なるように物理的に移動させた場合を考慮する。図17中、ディスプレイ3の外枠3zが黒帯状の非表示領域4に相当している。
 ディスプレイ3を物理的に移動させた場合、制御装置11は、ディスプレイ2、3に搭載された絶対位置検知センサや、各ディスプレイ2、3を物理的に移動させる際の駆動アクチュエータの移動値などを取得し、ディスプレイ2、3の間の相対位置関係を検知する。
 表示処理部13は、この相対位置関係に同期すると共に外枠3zの幅に基づいてディスプレイ3の表示画面に表示させる画像のコンテンツを変化させて表示処理する。このとき、非表示領域4に位置するコンテンツをディスプレイ2、3の表示画面の間で繋げて視認させるように表示処理することが望ましい。
 図17に示す例では、ディスプレイ3のハードウェアを物理的にディスプレイ2の表示画面上に移動させると、表示処理部13がディスプレイ3の表示画面を変化表示させる。ユーザは、ディスプレイ2、3の表示画面を確認したときに山を含む風景があたかもディスプレイ2、3にて接続されているかのように視認できる。本実施形態のように一般表示、ゲーム表示、可動式のディスプレイ2、3に適用した場合についても、第1実施形態と同様の効果を奏する。
 (他の実施形態)
 本開示は、前述した実施形態に限定されるものではなく、種々変形して実施することができ、その要旨を逸脱しない範囲で種々の実施形態に適用可能である。
 前述実施形態にて図4に例示したフローチャートでは、S11にて画像を縮小しているが、画像を縮小しなくても良い。この場合、コンテンツの両端がディスプレイからはみ出し、表示されなくなる。
 前述実施形態では、コンテンツごとにユーザにとって必要な情報かどうかを判断したが、これに限定されるものではない。例えば、1つのコンテンツの中で、非表示領域4に重なる部分に必要な情報が含まれているかどうかを判断し、非表示領域4に重なる部分を切り取るか否かを判断してもよい。例えば、ナビゲーション機能による地図表示画面では、非表示領域4に重要な情報が重なっていなければ非表示領域4を切り取って表示し、非表示領域4に重要な情報が重なったときに非表示領域4に重なった表示を切り取らないように分割して表示してもよい。
 また、前述実施形態では、複数のECUにより表示系のECUを構成した形態を示したが、図18に示すように、表示系のECUを1つのECUによりHCUとして構成しても良い。このときのハードウェア、ソフトウェア構成例を図19に示している。各ECU5にはそれぞれSoC230が搭載され、この搭載されたSoC230にはマイクロコンピュータが組込まれている。ECU5のSoC230に組み込まれたマイクロコンピュータは、ハイパーバイザ231上に汎用OS32及びリアルタイムOS35が構成されている。汎用OS32上には各種の複数のアプリ33が動作するように構成されている。またリアルタイムOS35は、汎用OS32よりもリアルタイム性能高く処理できる。リアルタイムOS35上でメータアプリ36を動作させるように構成されている。このような構成を採用した場合であっても前述実施形態と同様の構成、作用効果を奏する。
 図面中、2は第1ディスプレイ、3は第2ディスプレイ、11bは判断部、13は表示処理部、14は音声処理部、を示す。
 本開示に記載の制御装置11による手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することにより提供された専用コンピュータにより実現されても良い。或いは、本開示に記載の制御装置11及びその手法は、一つ以上の専用ハードウェア論理回路によりプロセッサを構成することにより提供された専用コンピュータにより実現されても良い。若しくは、本開示に記載の制御装置11及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路により構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより実現されても良い。又、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていても良い。
 本開示は、前述した実施形態に準拠して記述したが、本開示は当該実施形態や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。

Claims (14)

  1.  第1ディスプレイ(2)の第1表示画面、及び、前記第1表示画面との間で非表示領域(4)を挟んで併設された第2ディスプレイ(3)の第2表示画面に表示する車両用表示システムであって、
     前記第1表示画面及び前記第2表示画面に亘る一体の画像、文章、文字又は記号のコンテンツを前記非表示領域を跨いで表示させるときに前記コンテンツが前記第1表示画面及び前記第2表示画面を視認するユーザに必要な情報を含むか否かを判断する判断部(11b)と、
     前記判断部の判断結果に基づいて前記第1表示画面及び前記第2表示画面に表示させる前記コンテンツの表示領域を変化させて表示する表示処理部(13)と、
     を備える車両用表示システム。
  2.  前記判断部が、前記ユーザに必要な情報でないと判断したとき、
     前記表示処理部は、前記非表示領域に重なる部分の前記コンテンツを切取り前記第1表示画面及び前記第2表示画面の何れにも前記非表示領域に重なる部分の前記コンテンツを非表示とする請求項1記載の車両用表示システム。
  3.  前記判断部が、前記ユーザに必要な情報であると判断したとき、
     前記表示処理部は、前記非表示領域に位置する前記コンテンツを、前記第1表示画面及び前記第2表示画面の一方に表示するか又は分割して表示する請求項1記載の車両用表示システム。
  4.  前記表示処理部は、車両用途に適用した場合、安全、安心に関係する前記コンテンツについては、逐次変化する情報に合わせて前記非表示領域に位置する前記コンテンツを複数の表示画面の何れかに表示させる請求項3記載の車両用表示システム。
  5.  前記判断部は、前記ユーザに必要な情報の重要度のレベルに応じて前記非表示領域に位置する前記コンテンツを切り取るか否かを判断する請求項1から4の何れか一項に記載の車両用表示システム。
  6.  文章又は文字の前記コンテンツについて音声読み上げする音声処理部(14)と、
     前記文章又は文字の前記コンテンツの音声読上げをする場合、前記判断部は、前記ユーザに必要な情報の重要度のレベルに応じて前記非表示領域に位置する前記コンテンツを切り取るか否かを判断する請求項1から5の何れか一項に記載の車両用表示システム。
  7.  前記ユーザに必要な情報は、前記ユーザの行動に繋がる警告、案内、通知に関する情報である請求項1から6の何れか一項に記載の車両用表示システム。
  8.  前記表示処理部は、前記第1表示画面及び前記第2表示画面が近接する画面端の少なくとも一部をぼかして表示する請求項1から7の何れか一項に記載の車両用表示システム。
  9.  前記非表示領域に所定色により表示する場合、
     前記表示処理部は、前記第1表示画面及び前記第2表示画面が近接する画面端に対し前記非表示領域の所定色と同系色にして表示する請求項1から8の何れか一項に記載の車両用表示システム。
  10.  前記表示処理部は、前記第1表示画面又は前記第2表示画面を物理的に移動させたときに、前記非表示領域に位置する前記コンテンツを前記第1表示画面及び前記第2表示画面の間で繋げて視認させるように表示処理する請求項1から9の何れか一項に記載の車両用表示システム。
  11.  文章又は文字の前記コンテンツについて音声読上げする音声処理部(14)と、
     前記文章又は文字の前記コンテンツの音声読上げをする場合、前記表示処理部は、前記判断部の判断結果に基づいて前記非表示領域に位置する前記コンテンツを切取り前記第1表示画面及び前記第2表示画面の何れにも前記コンテンツを非表示とする請求項1から10の何れか一項に記載の車両用表示システム。
  12.  第1ディスプレイの第1表示画面、及び、前記第1表示画面との間で非表示領域を挟んで併設された第2ディスプレイの第2表示画面に表示する表示システムであって、
     前記第1表示画面及び前記第2表示画面に亘る一体の画像、文章、文字又は記号のコンテンツについて前記非表示領域を跨いで表示させるときに前記コンテンツが前記第1表示画面及び前記第2表示画面を視認するユーザに必要な情報を含むか否かを判断する判断部(11b)と、
     前記判断部の判断結果に基づいて前記第1表示画面及び前記第2表示画面に表示させる前記コンテンツの表示領域を変化させて表示する表示処理部(13)と、
     を備える表示システム。
  13.  第1ディスプレイ(2)の第1表示画面、及び、前記第1表示画面との間で非表示領域を挟んで併設された第2ディスプレイ(2)の第2表示画面に表示する表示方法であって、
     前記第1表示画面及び前記第2表示画面に亘る一体の画像、文章、文字又は記号のコンテンツについて前記非表示領域を跨いで表示させるときに、判断部(11b)により前記コンテンツが前記第1表示画面及び前記第2表示画面を視認するユーザに必要な情報を含むか否かを判断し、
     表示処理部(13)が、前記判断部の判断結果に基づいて前記第1表示画面及び前記第2表示画面に表示させる前記コンテンツの表示領域を変化させて表示する、表示方法。
  14.  第1ディスプレイ(2)の第1表示画面、及び、前記第1表示画面との間で非表示領域を挟んで併設された第2ディスプレイ(2)の第2表示画面に表示する表示プログラムであって、
     前記第1表示画面及び前記第2表示画面に亘る一体の画像、文章、文字又は記号のコンテンツについて前記非表示領域を跨いで表示させるときに、判断部(11b)により前記コンテンツが前記第1表示画面及び前記第2表示画面を視認するユーザに必要な情報を含むか否かを判断する手順を実行させ、
     表示処理部(13)に、前記判断部の判断結果に基づいて前記第1表示画面及び前記第2表示画面に表示させる前記コンテンツの表示領域を変化させて表示する手順を実行させる表示プログラム。
     
PCT/JP2022/015567 2021-04-23 2022-03-29 車両用表示システム、表示システム、表示方法、及び表示プログラム WO2022224752A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/465,552 US20230418541A1 (en) 2021-04-23 2023-09-12 Vehicle display system, display system, display method, and non-transitory computer readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021073378A JP2022167531A (ja) 2021-04-23 2021-04-23 車両用表示システム、表示システム、表示方法、及び表示プログラム
JP2021-073378 2021-04-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/465,552 Continuation US20230418541A1 (en) 2021-04-23 2023-09-12 Vehicle display system, display system, display method, and non-transitory computer readable storage medium

Publications (1)

Publication Number Publication Date
WO2022224752A1 true WO2022224752A1 (ja) 2022-10-27

Family

ID=83722165

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/015567 WO2022224752A1 (ja) 2021-04-23 2022-03-29 車両用表示システム、表示システム、表示方法、及び表示プログラム

Country Status (3)

Country Link
US (1) US20230418541A1 (ja)
JP (1) JP2022167531A (ja)
WO (1) WO2022224752A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006822A (ja) * 2000-06-26 2002-01-11 Minolta Co Ltd 表示装置及びその駆動方法
JP2005227579A (ja) * 2004-02-13 2005-08-25 Seiko Epson Corp 情報表示装置および情報表示プログラム
WO2011074595A1 (ja) * 2009-12-18 2011-06-23 日本電気株式会社 携帯情報端末、表示制御方法、およびプログラム
JP2012243073A (ja) * 2011-05-19 2012-12-10 Nissan Motor Co Ltd 表示システム
US20130021428A1 (en) * 2011-07-20 2013-01-24 Cisco Technology, Inc. Adaptation of video for use with different number of cameras and displays at endpoints
JP2013023081A (ja) * 2011-07-21 2013-02-04 Nippon Seiki Co Ltd 表示システム
JP2017097120A (ja) * 2015-11-20 2017-06-01 シャープ株式会社 表示制御装置、マルチディスプレイシステム、およびマルチディスプレイシステムの表示方法
JP2019047224A (ja) * 2017-08-30 2019-03-22 シャープ株式会社 発光装置、および画像信号供給装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006822A (ja) * 2000-06-26 2002-01-11 Minolta Co Ltd 表示装置及びその駆動方法
JP2005227579A (ja) * 2004-02-13 2005-08-25 Seiko Epson Corp 情報表示装置および情報表示プログラム
WO2011074595A1 (ja) * 2009-12-18 2011-06-23 日本電気株式会社 携帯情報端末、表示制御方法、およびプログラム
JP2012243073A (ja) * 2011-05-19 2012-12-10 Nissan Motor Co Ltd 表示システム
US20130021428A1 (en) * 2011-07-20 2013-01-24 Cisco Technology, Inc. Adaptation of video for use with different number of cameras and displays at endpoints
JP2013023081A (ja) * 2011-07-21 2013-02-04 Nippon Seiki Co Ltd 表示システム
JP2017097120A (ja) * 2015-11-20 2017-06-01 シャープ株式会社 表示制御装置、マルチディスプレイシステム、およびマルチディスプレイシステムの表示方法
JP2019047224A (ja) * 2017-08-30 2019-03-22 シャープ株式会社 発光装置、および画像信号供給装置

Also Published As

Publication number Publication date
JP2022167531A (ja) 2022-11-04
US20230418541A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
US11127373B2 (en) Augmented reality wearable system for vehicle occupants
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP6969509B2 (ja) 車両用表示制御装置、車両用表示制御方法、及び制御プログラム
WO2018163472A1 (ja) モード切替制御装置、モード切替制御システム、モード切替制御方法およびプログラム
CN109789879B (zh) 导航界面的安全可视化
JP2021195124A (ja) 入力としてグレアを使用する注視判定
US20230341235A1 (en) Automatic graphical content recognition for vehicle applications
US20240042857A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program
CN115344117A (zh) 适配的眼睛追踪机器学习模型引擎
JP2020035437A (ja) 車両システム、車両システムで実行される方法、および運転者支援システム
JP2023165721A (ja) 表示制御装置
WO2022224752A1 (ja) 車両用表示システム、表示システム、表示方法、及び表示プログラム
JP7127565B2 (ja) 表示制御装置及び表示制御プログラム
CN116263944A (zh) 针对自主系统和应用程序使用图像对比度分析的眩光减轻
JP7509077B2 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2022224753A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2020008876A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2021113019A (ja) 車両用表示装置
WO2022210172A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP2021037916A (ja) 表示制御装置及び表示制御プログラム
WO2022255409A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP7255443B2 (ja) 表示制御装置及び表示制御プログラム
WO2022210171A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2022244618A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP7310851B2 (ja) 車両用表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22791527

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22791527

Country of ref document: EP

Kind code of ref document: A1