WO2022224753A1 - 車両用表示システム、車両用表示方法、及び車両用表示プログラム - Google Patents

車両用表示システム、車両用表示方法、及び車両用表示プログラム Download PDF

Info

Publication number
WO2022224753A1
WO2022224753A1 PCT/JP2022/015568 JP2022015568W WO2022224753A1 WO 2022224753 A1 WO2022224753 A1 WO 2022224753A1 JP 2022015568 W JP2022015568 W JP 2022015568W WO 2022224753 A1 WO2022224753 A1 WO 2022224753A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
width
displays
image
content
Prior art date
Application number
PCT/JP2022/015568
Other languages
English (en)
French (fr)
Inventor
玲朗 神谷
清貴 田口
康彦 上保
浩之 三村
俊範 水野
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021073380A external-priority patent/JP7509077B2/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2022224753A1 publication Critical patent/WO2022224753A1/ja
Priority to US18/488,688 priority Critical patent/US20240042858A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/182Distributing information between displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions

Definitions

  • the present disclosure relates to a vehicle display system, a vehicle display method, and a vehicle display program.
  • Patent Document 1 in order to eliminate a sense of incongruity in human vision, when displaying one design using two indicators provided with a display unit, an auxiliary display installed between these indicators The device displays an image that complements the images displayed on each display unit. This ensures the continuity of the design connection between these displays, that is, the seamless feeling.
  • An object of the present disclosure is to provide a vehicle display system, a vehicle display method, and a vehicle display program capable of appropriately providing information to vehicle occupants.
  • One aspect of the present disclosure is directed to a vehicular display system that displays integrated image content on the display screens of multiple displays placed side by side with non-display areas interposed therebetween.
  • the setting unit sets a display region including an overlapping region in which the image content is partially overlapped and displayed on the display screens of the plurality of displays.
  • the determination unit determines whether or not the image content includes specific content based on character/symbol information or image recognition character/symbol information.
  • the overlap display processing unit sets the overlap width of the overlap area based on the width of the specific content and displays the image content of the overlap area on both display screens of the plurality of displays when the determination unit determines that the content is included.
  • the image content of the overlapping area corresponding to the overlapping width can be displayed on the display screens of multiple displays, so that the vehicle occupants can understand the specific content that is overlapped and displayed at a glance, and appropriate information is provided to the vehicle occupants. can.
  • FIG. 1A is an external configuration diagram of the cockpit system in the first embodiment
  • FIG. 1B is part 1 of the diagram showing the configuration and control image of the PtoP display
  • FIG. 1C is the second part of the diagram showing the configuration and control image of the PtoP display
  • FIG. 2 is a block diagram schematically showing a vehicle display system
  • FIG. 3 is a configuration diagram schematically showing hardware and software
  • FIG. 4 is a flowchart schematically showing the contents of processing
  • FIG. 5 is an explanatory diagram of image content
  • FIG. 6 is an explanatory diagram of the overlapping width of display areas displayed on adjacent displays
  • FIG. 1A is an external configuration diagram of the cockpit system in the first embodiment
  • FIG. 1B is part 1 of the diagram showing the configuration and control image of the PtoP display
  • FIG. 1C is the second part of the diagram showing the configuration and control image of the PtoP display
  • FIG. 2 is a block diagram schematically showing a vehicle display system
  • FIG. 3 is a configuration diagram schematically showing
  • FIG. 7 is part 1 of a diagram showing an example of a display mode
  • FIG. 8 is part 2 of a diagram showing an example of a display mode
  • FIG. 9 is part 3 of a diagram showing an example of a display mode
  • FIG. 10 is part 4 of a diagram showing an example of a display mode
  • FIG. 11 is part 5 of a diagram showing an example of a display mode
  • FIG. 12 is part 6 of a diagram showing a display mode example in the second embodiment
  • FIG. 13 is part 7 of a diagram showing an example of a display mode
  • FIG. 14 is part 8 of a diagram showing an example of a display mode
  • FIG. 15 is part 9 of a diagram showing an example of a display mode
  • FIG. 16 is a configuration diagram schematically showing hardware and software for the modification.
  • a vehicle display system 1 includes a cockpit system 4 including a plurality of displays such as a pillar-to-pillar display 2 and a center display 3.
  • a cockpit system 4 including a plurality of displays such as a pillar-to-pillar display 2 and a center display 3.
  • FIG. the number of indicators, the installation situation, and the configuration are only examples, and the present invention is not limited to these.
  • the pillar-to-pillar display 2 is hereinafter referred to as the PtoP display 2 .
  • the PtoP display 2 is configured such that a plurality of displays 2a are arranged side by side and become horizontally long.
  • Each display 2a of the PtoP display 2 is composed of a liquid crystal display, an organic EL display, or the like, and is a large display provided on the dashboard between the left pillar and the right pillar of the vehicle.
  • the PtoP display 2 is configured to be able to display various image contents R such as meter images, images captured by the peripheral camera 23, entertainment images such as still images and moving images, and map images around the current position in full graphic display.
  • the center display 3 is composed of, for example, a liquid crystal display or an organic EL display, and is installed between the driver's seat and the passenger's seat and below the PtoP display 2, as shown in FIG. 1A.
  • the center display 3 is provided in the vicinity of the center console so that both the driver and the passenger in the front passenger's seat can easily view it, and is capable of displaying various contents.
  • An operation panel 21 is provided on the center display 3, and allows selection of contents to be displayed on the PtoP display 2, air conditioning operation, audio operation, and input operation of navigation functions.
  • the PtoP display 2 is installed side by side with the center display 3 in the vertical direction. If two screens are installed side by side in the vertical direction, it is possible to increase the area that the occupant can see at once. Further, in the cockpit system 4 , the display screen of each display 2 a of the PtoP display 2 is installed so as to be located in the depth direction from the display screen of the center display 3 .
  • Each display 2a of the PtoP display 2 has a black belt-like frame 2b on its outer frame. Since the frame 2b is provided so as to surround the display screen, it becomes a non-display area Rz (see FIG. 6, etc.).
  • the ECU 5 includes a display system ECU, a surrounding monitoring system ECU, a travel control system ECU, and a DCM that communicates with the outside of the vehicle.
  • DCM is an abbreviation for Data Communication Module.
  • the travel control system ECU includes a well-known vehicle control ECU, engine control ECU, motor control ECU, brake control ECU, steering control ECU, integrated control ECU, and the like.
  • the travel control system ECU includes an automatic driving ECU.
  • the autonomous driving ECU is the Autonomous Driving Electric Control Unit.
  • Level I driving assistance includes automatic braking to avoid collisions with obstacles, follow-up driving that follows the preceding vehicle, and lane-departure prevention driving that controls the vehicle so that it does not stray from the lanes on both sides.
  • level II automated driving a combination of level I driving assistance, or automated driving under specific conditions, such as automatically overtaking a slow vehicle on an expressway or automatically merging on an expressway. You can run an automatic driving mode that In level II automated driving, the driver is obligated to monitor the automated driving.
  • Level III and higher autonomous driving the system performs all driving tasks while being supervised by the system.
  • Each ECU 5 is mainly composed of a microcomputer equipped with a processor, various storage units 6 such as cache memory, RAM and ROM, I/O, and a bus connecting them. Each ECU 5 is communicably connected to other ECUs 5 provided in the vehicle through the communication control unit 7 and the in-vehicle network 25 .
  • a plurality of display system ECUs 5 constitute an HCU as an information processing device 10 .
  • the display system ECU 5 shares the processing capacity of its internal physical resources and performs display processing on the displays 2, 3, etc. For example, as shown in FIG. Display processing is performed separately.
  • HCU is an abbreviation for Human Machine Interface Control Unit.
  • the ECU 5 of the display system is also connected to the in-vehicle network 25, it may be connected by a dedicated line.
  • the storage unit 6 described above indicates a non-transitional material storage medium that non-temporarily stores computer-readable programs and data.
  • a non-transitional material storage medium is implemented by a semiconductor memory or the like.
  • the information processing device 10 includes a control device 11, an arithmetic device 12, a storage unit 6, a display processing unit 13, an audio processing unit 14, and an I/O control unit that manages input or output from various devices. 15, a communication control unit 7 for managing communication with another ECU 5, and a wireless control unit 16 configured by connecting an antenna 16a and capable of wirelessly connecting to another portable terminal 27 via a wireless LAN or Bluetooth (registered trademark).
  • a wireless control unit 16 configured by connecting an antenna 16a and capable of wirelessly connecting to another portable terminal 27 via a wireless LAN or Bluetooth (registered trademark).
  • the output signals of the main components such as the position detector 19, the vehicle interior camera 20, the operation panel 21, the occupant monitor 22, the surrounding camera 23, and the distance detection sensor 24 shown in FIG.
  • a mode of inputting a signal to the information processing apparatus 10 through the unit 15 will be described, but the signal may be input from another ECU 5 such as a perimeter monitoring ECU or a travel control ECU through the in-vehicle network 25 .
  • the wireless control unit 16 establishes a communication link with the mobile terminal 27 possessed by the vehicle occupant.
  • the information processing apparatus 10 waits for an incoming call to the mobile terminal 27 , and when the mobile terminal 27 receives an incoming call from the other party and the incoming call is answered, the information processing apparatus 10 communicates with the other party through the speaker 18 and the microphone 17 via the mobile terminal 27 . You can make free calls. Further, the information processing apparatus 10 can recognize voice input through the microphone 17 .
  • the arithmetic device 12 displays the contents of images, sentences, characters, or symbols (hereinafter referred to as images, etc.) stored in the storage unit 6 on the display screens of the displays 2 and 3.
  • the controller 11 computes the area where the content such as the image should be displayed, computes in which area of the display screens of the displays 2 and 3 the content such as the image is to be displayed, and in which area the content such as the image is to be superimposed and displayed.
  • the symbol is a general term for not only the original meaning of the symbol, but also the contents such as traffic signs that are represented by icons. , indicates information other than text.
  • the display processing unit 13 displays content such as images on the display screens of the displays 2 and 3 under the control of the control device 11 .
  • contents such as images can be superimposed and displayed for each display layer.
  • the voice processing unit 14 Under the control of the control device 11 , the voice processing unit 14 receives the received voice input from the microphone 17 and outputs the transmitted voice from the speaker 18 . When text and character contents are input from the control device 11, the voice processing unit 14 converts them into voice, reads them out through the speaker 18, and outputs them.
  • the position detector 19 detects the position with high accuracy using a well-known GNSS receiver such as GPS (not shown) and an inertial sensor such as an acceleration sensor or a gyro sensor.
  • the position detector 19 outputs a position detection signal to the control device 11 through the I/O control section 15 .
  • the position specifying unit 11a of the control device 11 realizes a function as an ADAS locator that sequentially measures the current position of the vehicle with high accuracy based on the map information input from the map data input device and the position detection signal of the position detector 19. do.
  • ADAS stands for Advanced Driver Assistance Systems.
  • the map data input device is composed of a non-volatile memory or the like, and stores map data including various data such as link data and node data.
  • the link data includes link identification data that identifies links that form roads on the map, link length data that indicates the length of the link, link orientation data that indicates the orientation of the link, and link traveling time data that indicates the time required for traveling the link. , node coordinate data indicating the coordinates of the nodes forming the start and end points of the link, and link attribute data indicating the attributes of the road.
  • the link attribute data includes character symbol information describing prefecture names and city names M1, road symbols M2 by icons including information on national roads and prefectural roads, and town names M4.
  • the node data includes node identification data that identifies a node existing on the map, node coordinate data that indicates the coordinates of the node, node name data that indicates the name of the node, node type data that indicates the type of node such as an intersection, It contains various data such as connecting link data that specifies connecting links.
  • the map data described above is also associated with character/symbol information in which the facility name M3 such as a park is described with identification information such as a character code.
  • the display processing unit 13 can generate the image content R of a map of an arbitrary location based on these map data, and can also generate the image content R so as to include part or all of the aforementioned character/symbol information.
  • the size, vertical width, and horizontal width when the display processing unit 13 displays the character/symbol information is determined to be town name M4 ⁇ facility name M3 ⁇ street symbol M2 ⁇ city name M1. .
  • the vehicle position obtained by navigation processing is expressed in a coordinate system consisting of latitude and longitude.
  • this coordinate system for example, the X axis indicates longitude and the Y axis indicates latitude. It should be noted that positioning of the vehicle position can be performed, for example, on the basis of mileage information obtained based on the sensing results of a vehicle speed sensor mounted on the vehicle. configuration can be adopted.
  • the operation panel 21 is a predetermined display, for example, a touch panel configured on the center display 3 , and the I/O control unit 15 receives an operation input from the passenger and outputs it to the control device 11 .
  • the control device 11 executes control based on operation signals from the operation panel 21 . For example, when a vehicle occupant inputs a destination to the operation panel 21 while a navigation application, which will be described later, is being executed, the control device 11 causes the display processing unit 13 to display a map screen while displaying the current position of the own vehicle. Navigation processing can be executed to guide the user from the position to the destination.
  • the vehicle occupant can, for example, operate the operation panel 21 while the vehicle is stopped to give instructions to move the map display areas R1 and R2 (see FIG. 6) or to change the scale.
  • the display processing unit 13 moves the display areas R1 and R2 in the image content R, and enlarges or reduces the display areas R1 and R2 to change the scale of the map.
  • a map can be set to be displayed in an arbitrary area such as the vicinity of the current position where the vehicle is present or the vicinity of the destination, and the scale of the map display can be changed.
  • the occupant monitor 22 detects the state of the occupant in the vehicle or the operating state.
  • the occupant monitor 22 is configured using, for example, a power switch, occupant state monitor, turn switch, automatic control switch, etc., and outputs various signals to the control device 11 .
  • the occupant monitor 22 includes a steering sensor that detects whether the steering wheel is being gripped or steered by the driver, a seating sensor that detects whether the driver is seated, an accelerator pedal or brake pedal depression sensor, and so on. etc. may also be included.
  • the occupant condition monitor When the power switch is turned on by the user inside the vehicle in order to start the internal combustion engine or the electric motor, it outputs a signal corresponding to the operation.
  • the occupant condition monitor includes a camera that detects the condition of the occupant in the D seat or the P seat by capturing the condition of the occupant with an image sensor and outputs an image signal.
  • the driver's occupant condition monitor is called DSM.
  • DSM is an abbreviation for Driver Status Monitor.
  • the occupant condition monitor acquires an imaging signal obtained by irradiating the head of the driver with near-infrared light and capturing an image, analyzes the image as necessary, and outputs the signal to the control device 11 .
  • An occupant condition monitor is used to detect the condition of an occupant such as a driver, especially during driving assistance or automatic driving.
  • the turn switch is turned on by an occupant inside the vehicle to activate the direction indicator of the vehicle, and outputs a turn signal for turning right or left according to the operation.
  • the automatic control switch outputs an automatic control signal according to the operation when it is turned on by the passenger inside the vehicle, in order to command the automatic control of the running state of the vehicle.
  • the control device 11 can determine the behavior of the vehicle occupant, for example, which direction the line of sight is directed, based on the signal from the occupant monitor 22.
  • the control device 11 can also determine the operation state of the power switch, the operation state of the direction indicator, and the automatic control of the vehicle. Command information can be entered.
  • the peripheral camera 23 includes a front camera that images the front of the vehicle, a back camera that images the rear of the vehicle, a corner camera that images the front and rear sides of the vehicle, a side camera that images the side of the vehicle, an electronic Peripheral monitoring sensors are configured by mirrors and the like, and these are output to the control device 11 through the I/O control unit 15 as imaging signals of the front guide monitor, back guide monitor, corner view monitor, side guide monitor, and electronic mirror, respectively. It is stored in the storage unit 6 .
  • the communication control unit 7 is connected to an in-vehicle network 25 such as CAN or LIN, and controls data communication with other ECUs 5 .
  • a distance detection sensor 24 that detects the distance to obstacles is installed on the vehicle as a peripheral monitoring sensor.
  • the distance detection sensor 24 is composed of clearance sonar, LiDAR, millimeter wave radar, etc., and detects vehicles, people, animals, fallen objects on the road near the front of the vehicle, the front side of the vehicle, the rear side of the vehicle, the rear of the vehicle, or the side of the vehicle. , guardrails, curbs, trees, etc. It can also detect the azimuth to the obstacle and the distance to the obstacle.
  • the peripheral monitoring sensor it is displayed on the road around the vehicle, such as lane lines, stop lines, pedestrian crossings, signs such as "stop” written on the road, and the boundary of the intersection. It can detect road markings such as stop lines.
  • SoCs 30 and 31 are mounted on the respective ECUs 5 and 5a, respectively, and the above-described microcomputers are incorporated in the mounted SoCs 30 and 31, respectively.
  • the microcomputers incorporated in the SoCs 30 and 31 of the ECU 5 are configured so that various applications 33 (hereinafter abbreviated as apps 33) run on a pre-installed general-purpose OS 32, such as LinuxOS (Linux is a registered trademark). It is SoC is an abbreviation for System On Chip.
  • the application 33 includes an image processing application 34, a navigation application, and other applications.
  • a processor incorporated in the SoC 30 performs drawing processing on the display screen of each display 2 a of the PtoP display 2 in response to a drawing request from the image processing application 34 .
  • the ECU 5a is provided with the reference numeral 5a because it is provided for drawing a meter.
  • a microcomputer incorporated in the SoC 31 of the ECU 5 a incorporates a real-time OS 35 capable of processing with higher real-time performance than the general-purpose OS 32 , and is configured to run a meter application 36 on the real-time OS 35 .
  • the applications 33 such as the image processing application 34 and the meter application 36 .
  • the meter application 36 notifies the user of vehicle speed, number of revolutions, warnings, etc., and draws the image content R of the meter in a specific display area of the PtoP display 2 .
  • the meter application 36 draws image content R such as a speedometer, a tachometer, a shift range position state, or a warning light.
  • the speedometer contains speed images whose display needs to be updated in real time to show changes in the speed of the vehicle.
  • the tachometer is also included in the meter image because the display needs to be updated in real time to show changes in rpm.
  • the content drawn by the meter application 36 can also be displayed on another display, here the center display 3.
  • Content rendered by the meter application 36 is required to be relatively more real-time than content rendered by other applications.
  • the application 33 includes a navigation application.
  • the navigation application implements the navigation function described above, and mainly draws image content R such as a map, a navigation screen including the current position of the vehicle, etc. on the PtoP display 2 or the center display 3 .
  • the application 33 also includes an image synthesis application.
  • the image synthesizing application identifies the sizes and types of various image contents R to be displayed on the display device, synthesizes a part of the image contents R in one frame, and displays this synthesized mixed image on the PtoP display 2 or the center. This is an application that outputs to the display 3.
  • the image synthesizing application implements a function as an image synthesizing unit, also called a compositor, and a function as an image output unit.
  • a display layer for drawing the image content R is assigned to the application that draws the image content R among the applications 33 and 36 . These display layers are secured on the storage unit 6 in a size capable of drawing the necessary image content R. FIG.
  • an animation action means a gradual change in the position or size of an image showing content, rotation of an image, overall movement of the user interface with a swipe operation, or gradual fading of an image. This is a display mode in which an image is displayed in or faded out, or the color of the image is changed.
  • the control device 11 executes various processes by executing the application 33.
  • the display processing unit 13 also implements functions as a setting unit 13a, a determination unit 13b, and an overlap display processing unit 13c according to the present application by executing various applications 33.
  • FIG. 13a is a setting unit 13a, a determination unit 13b, and an overlap display processing unit 13c according to the present application by executing various applications 33.
  • the information processing device 10 causes the display processing unit 13 to display various contents on the PtoP display 2 and the center display 3. At this time, the display processing of a single content on the display screen of the display 2a where the PtoP display 2 is located, or the display processing of the center display 2 is performed. It is possible to display a single content on the second display screen of the display 3, or display an integrated image content R across the display screens of a plurality of displays 2a adjacent in the horizontal direction among the PtoP displays 2. be.
  • the information processing device 10 displays the integrated image content R across the display screens of the adjacent multiple displays 2a, the visibility deteriorates due to the frames 2b existing between the display screens of the multiple displays 2a. Refer to the non-display area Rz shown in FIG. At this time, continuous images or sentences cannot be displayed across the plurality of displays 2a, resulting in discontinuous display, and the continuity of display is not maintained. Therefore, the information processing apparatus 10 performs display processing as shown in FIG. 4 so as not to make the vehicle occupant feel uncomfortable.
  • the control device 11 activates the navigation application in S1 of FIG.
  • the control device 11 reads the image content R of the map around the current position from the map data input device and prepares and sets it in the work area of the storage unit 6 in S2 of FIG.
  • the map data read from the map data input device to the work area of the storage unit 6 contains character/symbol information as character/symbol contents.
  • the character symbol information includes identification information such as character codes such as prefecture names and city names M1, road symbols M2 of national roads and prefectural roads, facility names M3 such as parks, and the like.
  • the display processing unit 13 generates image content R including map and character/symbol information based on the map data in S2 of FIG. Further, in S3 of FIG. 4, the display processing unit 13 sets the display regions R1 and R2 based on the operation information (for example, display position and scale) of the operation panel 21 by the vehicle occupant.
  • the display areas R1 and R2 are set so as to partially include an overlapping area Ra where the image content R partially overlaps, as shown in FIG.
  • the overlapping area Ra indicates an area of the image content R that is partially overlapped and displayed on each display screen of the plurality of adjacent displays 2a.
  • the overlapping width W of the overlapping area Ra is set to a predetermined default value in the initial stage.
  • the display processing unit 13 determines whether or not the image content R includes character/symbol content as specific content by the determination unit 13b. If the image content R does not contain the character/symbol content, the display processing unit 13 determines NO in S4, and holds the overlapping width W of the overlapping region Ra in S5. The default values are kept here.
  • the display processing unit 13 divides the image into display areas R1 and R2 so as to include the overlapping area Ra, and outputs the images of the display areas R1 and R2 to the adjacent multiple displays 2a. Then, the image content R of the overlapping area Ra can be displayed on both display screens of the plurality of displays 2a. At this time, in particular, the display processing unit 13 displays the image content R of the overlapping area Ra located in adjacent areas across the non-display area Rz on both displays 2a. Therefore, the continuity of the images displayed on the plurality of displays 2a can be maintained as much as possible, and the discomfort felt by the vehicle occupant can be reduced.
  • the display processing unit 13 causes the overlapping display processing unit 13c to set the overlap width W of the overlap region Ra based on the width of the character/symbol content in S6 to S12. After that, the image content R of the overlapping area Ra is displayed on both display screens of the adjacent displays 2a.
  • the display processing unit 13 determines the width M of the character or symbol in S6. and within a predetermined width equal to or less than the upper limit value Wmax.
  • the lower limit value Wmin is a predetermined width corresponding to the width of one character for representing the facility name M3.
  • the lower limit value Wmin is set, for example, to a width corresponding to the width of each character (eg, "blue") of "Aoyama Park” shown in FIG.
  • the upper limit value Wmax is a predetermined width corresponding to the width of the road symbol M2 such as a national highway, and is set to a width corresponding to the horizontal width of the icon including "(national highway) 23 (line)" shown in FIG. 5, for example. It is
  • the display processing unit 13 sets the overlapping width W of the overlapping area Ra to the width M of the character/symbol content in S8 on the condition that the overlapping display processing unit 13c determines that the width M is within the predetermined width. Then, in S11, the display processing unit 13 outputs the image contents R of the display areas R1 and R2 obtained by dividing the image including the partially overlapped area Ra to the adjacent multiple displays 2a.
  • the display processing unit 13c determines YES in S9, and determines the overlapping width W of the overlapping region Ra in S10. is set as the upper limit value Wmax, and in S11 the image is divided and output to each display 2a. Further, when the overlapping display processing unit 13c determines that the width M is equal to or less than the lower limit value Wmin of the predetermined width, the display processing unit 13 determines NO in S9, and determines the overlapping width W of the overlapping region Ra in S12. The lower limit value Wmin is set, and in S11 the image is divided and output to each display 2a. Then, the overlap width W of the overlap region Ra can be suppressed to a predetermined width Wmin ⁇ W ⁇ Wmax, and the overlap width W is not changed without limit.
  • FIG. 7 exemplifies a display screen displaying image content R including only the town name M4 as character symbol information.
  • FIG. 8 exemplifies a display screen that displays the image content R including the town name M4 and the facility name M3.
  • FIG. 9 illustrates a display screen displaying image content R including a town name M4, a facility name M3, and a road sign M2.
  • FIG. 10 illustrates a display screen displaying image content R including a town name M4, a facility name M3, a street symbol M2, and a city name M1.
  • the upper limit value Wmax is predetermined corresponding to the width of the road symbol M2
  • the lower limit value Wmin is predetermined corresponding to the width of one character of the facility name M3. Therefore, as shown in FIG. 7, when the display processing unit 13 displays a part of the image content R including only the town name M4 as character symbol information on each display 2a, the width M of one character of the town name M4 is Since it is below the lower limit value Wmin, the image content R of the display areas R1 and R2 including the overlap area Ra with the overlap width W set to the lower limit value Wmin is displayed on each display 2a.
  • the display processing unit 13 displays the image content R including the town name M4 and the facility name M3 on each display 2a as shown in FIG. After setting the overlap width W to the width of one character of the name M3 "Aoyama Park", the image content R of the display areas R1 and R2 including the overlap area Ra is displayed on each display 2a. Further, when the display processing unit 13 displays the image content R including the town name M4, the facility name M3 and the road symbol M2 on each display 2a as shown in FIG. After setting the overlap width W to the width of the road symbol M2 having the largest width among them, the image content R of the display areas R1 and R2 including the overlap area Ra is displayed on each display 2a.
  • the display processing unit 13 displays the image content R including the city name M1 on each display 2a
  • the width M of one character of the city name M1 exceeds the upper limit value Wmax. Therefore, after setting the overlap width W to the upper limit value Wmax, the image content R of the display areas R1 and R2 including the overlap area Ra is displayed on each display 2a.
  • the character/symbol content to be set includes all characters and symbols existing in the image content R handled by the vehicle display system 1 .
  • the display processing unit 13 can change the overlapping width W according to the size of the character/symbol content present in the image content R.
  • the determining unit 13b determines whether or not the image content R includes the character/symbol content based on the character/symbol information.
  • the overlapping width W of the overlapping area Ra is set by the processing unit 13c based on the width of the character/symbol content, and the image content R of the overlapping area Ra is displayed on both display screens of a plurality of adjacent displays 2a. Then, since the image contents R of the overlapping area Ra corresponding to the overlapping width W can be displayed on both of the display screens of the plurality of displays 2a, the vehicle occupant can understand the overlappingly displayed character/symbol contents at a glance. Accordingly, information can be appropriately provided to vehicle occupants.
  • the overlapping width W can be changed according to the size of the character/symbol content. It is divided (cut) and is no longer displayed. The divided characters and symbols are no longer displayed on the display 2a, and the vehicle occupants can understand the characters and symbols one by one at a glance. Moreover, since the overlapping width W can be changed according to the character size of one character or the symbol size corresponding to the outer frame of the symbol, for example, two or more character/symbol contents are not redundantly displayed. As a result, it is possible to reduce the uncomfortable feeling of the passenger and appropriately provide information to the vehicle passenger.
  • the overlapping width W is set with an upper limit value Wmax and a lower limit value Wmin, so that the overlapping width W can be adjusted without limit. will be gone. As a result, the sense of discomfort felt by the passenger can be reduced, and information can be appropriately provided to the passenger.
  • the image content R of the same overlapping area Ra is drawn on the display screens of the adjacent displays 2a, the image content R of the same color can be drawn on each display 2a. Accordingly, it is possible to make the occupant aware of the image content R included in the overlapping area Ra.
  • FIG. 11 A second embodiment will be described with reference to FIGS. 11 to 16.
  • FIG. 11 a process for displaying the image content R including the sign M5 captured by the peripheral camera 23 on the adjacent multiple displays 2a will be described.
  • the image content R shown in FIG. 11 is moving image content captured so that the marker M5 approaches as time elapses.
  • the contents of the processing are generally the same as those in FIG. 4 and the description thereof described in the above-described embodiment, and the description will be made below while referring to the step numbers in FIG.
  • the display processing unit 13 performs image recognition on the sign M5 to determine that it is specific content containing characters or symbols (equivalent to image-recognized character/symbol information), and sets the overlapping width W to the width M of the sign M5. , the image is divided and output and displayed on each display 2a. See S1 to S4 ⁇ S6 to S8 ⁇ S11 in FIG. At this time, when the size of the marker M5 reflected in the captured image gradually increases, the overlapping width W also gradually increases accordingly.
  • the marker M5 when the marker M5 approaches the peripheral camera 23, the marker M5 is largely reflected in the image content R of the captured image. Then, even if the display processing unit 13 recognizes the image of the marker M5, the width of the marker M5 exceeds the upper limit Wmax. Output, display. See S1 to S4 ⁇ S6 ⁇ S7 ⁇ S9 to S11 in FIG. That is, as shown in FIGS. 12 to 15, when the marker M5 gradually approaches the peripheral camera 23, the overlap width W gradually increases, but when the width M of the marker M5 increases to the upper limit value Wmax, the overlap width W becomes constant at the upper limit value Wmax.
  • the above-described implementation can be performed. Similar to the form, the image content R of the overlapping area Ra can be displayed on both of the adjacent displays 2a. Therefore, the same effects as those of the above-described embodiment can be obtained.
  • character/symbol information M1 when the marker M5) is included, the overlapping area Ra is always displayed for the display areas R1 and R2, but the overlapping area Ra does not necessarily have to be always displayed.
  • the display processing unit 13 determines whether or not the character/symbol information M1 . If it is determined that the character/symbol information M1, . In the same manner as described above, when the display processing unit 13 determines that the character/symbol information M1 .
  • the overlapping area Ra may be divided and displayed by setting the divided areas as display areas R1 and R2, respectively. As a result, unnecessary redundant display can be suppressed, and the display can be more easily understood by the passenger.
  • the display processing unit 13 determines whether or not the character/symbol information M1 to M5 are included in the position overlapping the non-display area Rz, and determines whether or not to display the overlap area Ra. If the overlapping area Ra includes only the character/symbol information M1 (for example, the city name M1 in FIG. 10) having a width exceeding the upper limit Wmax, the overlapping area Ra does not have to be displayed. This is because the width of the character/symbol information M1 is sufficiently large with respect to the width of the non-display area Rz, so that the occupant can fully understand the information indicated by the character/symbol information M1 without overlapping display by the overlapping area Ra. be. As a result, unnecessary redundant display can be suppressed, and the display can be more easily understood by the passenger.
  • the character/symbol information M1 to M5 are included in the position overlapping the non-display area Rz, and determines whether or not to display the overlap area Ra. If the overlapping area Ra includes only
  • the width M of a character or the like to be compared with the overlap width W may be the width of a single name content instead of the width of one character or symbol of a character or symbol.
  • the width M to be compared in the case of the contents illustrated in FIG. may be used as the width M to be compared.
  • the form in which the width M of one character of the character "yama" in the facility name M3 "Aoyama Park” is compared is illustrated, but the facility name of "Aoyama Park” itself may be used as the width M to be compared.
  • the overlapping width W is set so as to overlap display on the horizontally arranged displays 2a when displaying on a plurality of displays 2a arranged side by side in the horizontal direction, but it is not limited to this.
  • the overlap width W may be set when the display screens of these displays 2 and 3 are overlapped and displayed.
  • the display processing unit 13 may generate the image content R with the changed character size and display it on each display 2a. It can also be applied in such a case. Also in this case, by changing the overlapping width W of the overlapping region Ra, the same effect as in the above-described embodiment can be obtained.
  • the display system ECU 5 is configured by a plurality of ECUs 5, but the display system ECU 5 may be configured by one ECU 5 as an HCU.
  • FIG. 16 shows an example of hardware and software configuration at this time.
  • An SoC 230 is mounted on each ECU 5, and a microcomputer is incorporated in the SoC 230 mounted.
  • a general-purpose OS 32 and a real-time OS 35 are configured on a hypervisor 231 of the microcomputer incorporated in the SoC 230 of the ECU 5 .
  • a plurality of various applications 33 are configured to operate on the general-purpose OS 32 .
  • the real-time OS 35 can perform processing with higher real-time performance than the general-purpose OS 32 .
  • a meter application 36 is configured to operate on the real-time OS 35 . Even if such a configuration is employed, the same configuration and effects as those of the above-described embodiment can be obtained.
  • 2 is a PtoP display
  • 2a is a display
  • 2b is a frame (non-display area)
  • 13 is a display processing unit
  • 13a is a setting unit
  • 13b is a determination unit
  • 13c is an overlap display processing unit
  • R1 and R2 are display areas.
  • Ra denotes the overlapping area
  • Rz denotes the non-display area.
  • the controller 11, display processor 13 approach described in the present disclosure is provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a dedicated computer. Alternatively, the control device 11, display processing unit 13, and techniques described in the present disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the control device 11, display processing unit 13, and techniques described in the present disclosure are configured with a processor and memory and one or more hardware logic circuits programmed to perform one or more functions. It may also be implemented by one or more dedicated computers configured in combination with processors. The computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

車両用表示システムは、非表示領域を跨いで前記複数のディスプレイの表示画面に画像コンテンツを表示させるときに、画像コンテンツの中で複数のディスプレイの表示画面に一部重複表示させる重複領域を含む表示領域(R1、R2)を設定する設定部(13a)と、画像コンテンツに文字記号情報又は画像認識文字記号情報による特定コンテンツを含むか否かを判定する判定部(13b)と、判定部により含むと判定された場合、特定コンテンツの幅に基づいて重複領域の重複幅を設定し複数のディスプレイの表示画面に重複領域の画像コンテンツを表示する重複表示処理部(13c)と、を備える。

Description

車両用表示システム、車両用表示方法、及び車両用表示プログラム 関連出願の相互参照
 本出願は、2021年4月23日に出願された日本出願番号2021-073380号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両用表示システム、車両用表示方法、及び車両用表示プログラムに関する。
 近年、液晶ディスプレイや有機ELディスプレイなどのディスプレイでは、一度に多くの情報を閲覧可能にするため大型化することが求められている。他方、1つの大きな意匠を表示することも求められており、例えば特許文献1記載のように、1つの意匠を分割して2つの表示部を用いて表示させることが行われる。
 特許文献1記載によれば、人の視覚上で違和感をなくすため、表示部を備える2つの表示器を用いて1つの意匠を表示する際に、これらの表示器の間に設置された補助表示器により、それぞれの表示部で表示される映像同士の間を補完する映像を表示している。これにより、これらの表示器の間における意匠のつながりの連続性、すなわちシームレス感を確保するようにしている。
特開2020-8740号公報
 複数のディスプレイを併設して一つの表示器として用いると、構造的な制約によりその複数のディスプレイの間に非表示領域が発生する。文字や図柄が非表示領域に分断されると、一目では文字や記号を理解できない。表示器の画面を見つめる時間が長くなり、画面に描画される文字や記号を想像する時間も長くなる。ドライバが車両を運転する場合、脇見時間が増えると共に運転から意識が逸れるため危険である。
 本開示の目的は、車両乗員に対し適切に情報を提供できるようにした車両用表示システム、車両用表示方法、及び車両用表示プログラムを提供することにある。
 本開示の一態様は、非表示領域を挟んで併設された複数のディスプレイの表示画面に一体の画像コンテンツを表示する車両用表示システムを対象としている。非表示領域を跨いで複数のディスプレイの表示画面に画像コンテンツを表示させるときに、設定部は画像コンテンツの中で複数のディスプレイの表示画面に一部重複表示させる重複領域を含む表示領域を設定する。判定部は、画像コンテンツに文字記号情報又は画像認識文字記号情報による特定コンテンツを含むか否かを判定する。重複表示処理部は、判定部により含むと判定された場合、特定コンテンツの幅に基づいて重複領域の重複幅を設定し複数のディスプレイの表示画面の双方に重複領域の画像コンテンツを表示する。
 すると、重複幅分の重複領域の画像コンテンツを複数のディスプレイの表示画面に表示できるため、車両乗員は重複表示された特定コンテンツを一目で理解できるようになり、車両乗員に対し適切に情報を提供できる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1Aは、第1実施形態におけるコックピットシステムの外観構成図であり、 図1Bは、PtoPディスプレイの構成及び制御イメージを示す図のその1であり、 図1Cは、PtoPディスプレイの構成及び制御イメージを示す図のその2であり、 図2は、車両用表示システムを概略的に示すブロック図であり、 図3は、ハードウェア、ソフトウェアを概略的に示す構成図であり、 図4は、処理内容を概略的に示すフローチャートであり、 図5は、画像コンテンツの説明図であり、 図6は、隣接するディスプレイに表示する表示領域の重複幅の説明図であり、 図7は、表示態様例を示す図のその1であり、 図8は、表示態様例を示す図のその2であり、 図9は、表示態様例を示す図のその3であり、 図10は、表示態様例を示す図のその4であり、 図11は、表示態様例を示す図のその5であり、 図12は、第2実施形態における表示態様例を示す図のその6であり、 図13は、表示態様例を示す図のその7であり、 図14は、表示態様例を示す図のその8であり、 図15は、表示態様例を示す図のその9であり、 図16は、変形例についてハードウェア、ソフトウェアを概略的に示す構成図である。
 以下、車両用表示システム1に係る幾つかの実施形態について図面を参照しながら説明する。なお、各実施形態において実質的に共通する部位には同一の符号を付して説明する。
 (第1実施形態)
 第1実施形態について図1Aから図10を参照しながら説明する。図1A及び図1Bに示すように、車両用表示システム1は、ピラートゥピラーディスプレイ2、及びセンタディスプレイ3など複数の表示器を備えるコックピットシステム4により構成される。ただし、表示器の数や設置状況あるいは構成は一例であり、これらに限定されない。以下、ピラートゥピラーディスプレイ2を、PtoPディスプレイ2と称す。
 図1A及び図1Bに示すように、PtoPディスプレイ2は、複数のディスプレイ2aを隣り合わせて横長になるように構成されている。PtoPディスプレイ2の各ディスプレイ2aは、液晶ディスプレイ又は有機ELディスプレイ等により構成され、車両の左ピラーと右ピラーとの間にかけてダッシュボードに設けられる大型ディスプレイである。PtoPディスプレイ2は、メータ画像、周辺カメラ23の撮像画像、静止画や動画のエンターテインメント画像、現在位置周辺の地図画像などの各種の画像コンテンツRをフルグラフィック表示で表示可能な構成となっている。
 センタディスプレイ3は、例えば液晶ディスプレイや有機ELディスプレイにより構成され、図1Aに示すように、運転席と助手席との間で且つPtoPディスプレイ2の下部に設置されている。センタディスプレイ3は、ドライバや助手席の乗員の両者が視認しやすいセンタコンソール付近に設けられると共に各種のコンテンツを表示可能になっている。センタディスプレイ3の上には操作パネル21が構成されており、PtoPディスプレイ2に表示させるコンテンツの選択や空調操作、オーディオ操作、ナビゲーション機能の入力操作できるようになっている。
 PtoPディスプレイ2は、センタディスプレイ3に対し縦方向に併設して設置されている。縦方向に2画面併設して設置されていると、乗員が一度に視認可能な領域を増やすことができる。また、コックピットシステム4において、PtoPディスプレイ2の各ディスプレイ2aの表示画面は、センタディスプレイ3の表示画面よりも奥方向に位置するように設置されている。PtoPディスプレイ2の各ディスプレイ2aは、それぞれの外枠に黒帯状のフレーム2bを構成している。フレーム2bは、表示画面を囲うように設けられるため非表示領域Rz(図6等参照)となる。
 また車両内には、図1B及び図2に示すように、多数のECU5が構成されており、車内ネットワーク25に接続されている。ECU5は、表示系のECU、周辺監視系のECU、走行制御系のECU、車両外部と通信接続するDCMを含む。DCMは、Data Communication Moduleの略である。走行制御系のECUは、周知の車両制御ECU、エンジン制御ECU、モータ制御ECU、ブレーキ制御ECU、ステアリング制御ECU及び統合制御ECU等である。走行制御系のECUには自動運転ECUが含まれる。自動運転ECUは、Autonomous Driving Electric Control Unitである。
 自動運転ECUは、自動制御信号を入力すると、運転アクチュエータを駆動することで対応した所定レベルの運転支援、自動運転を実行する。例えば、レベルIの運転支援では、障害物への衝突を避ける自動ブレーキ、先行車に追従して走行する追従走行、又は、両脇の車線からはみ出さないように制御するレーンはみ出し防止走行、を実行できる。レベルIIの自動運転では、レベルIの運転支援の組み合わせ、又は、特定条件下での自動運転、例えば高速道路で遅い車両が存在すれば自動で追い越したり、高速道路の分合流を自動で行ったりする自動運転モードを実行できる。なお、レベルIIの自動運転ではドライバによる自動運転時の監視義務がある。レベルIII以上の自動運転では、システムにより監視しながらシステムが全ての運転タスクを実行する。
 各ECU5は、プロセッサ、キャッシュメモリ、RAM、ROMなどの各種の記憶部6、I/O、これらを接続するバスを備えたマイクロコンピュータを主体として構成される。各ECU5は、車両内に設けられる他のECU5と通信制御部7及び車内ネットワーク25を通じて通信可能に接続されている。
 本実施形態では、図1に示すように、複数の表示系のECU5により情報処理装置10としてのHCUを構成している。表示系のECU5は、その内部の物理リソースの処理能力を分担してディスプレイ2、3等に表示処理するもので、例えば図1Cに例示したように、各ECU5がPtoPディスプレイ2の各ディスプレイ2aに対し個別に表示処理する。HCUは、Human Machine Interface Control Unitの略である。表示系のECU5の間も車内ネットワーク25を接続した形態を示しているが専用線により接続しても良い。前述した記憶部6は、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体を示す。非遷移的実体的記憶媒体は、半導体メモリなどにより実現される。
 図2に示すように、情報処理装置10は、制御装置11、演算装置12、記憶部6、表示処理部13、音声処理部14、各種装置からの入力又は出力を管理するI/O制御部15、他のECU5との間で通信管理する通信制御部7、アンテナ16aを接続して構成され無線LANやブルートゥース(登録商標)により他の携帯端末27と無線接続できるようにした無線制御部16を備える。ここでは、図2に図示した、位置検出器19、車室内カメラ20、操作パネル21、乗員モニタ22、周辺カメラ23、及び距離検出センサ24など主要な構成要素の出力信号は、I/O制御部15を通じて情報処理装置10に信号入力する形態を説明するが、車内ネットワーク25を通じて、周辺監視系のECU、走行制御系のECUなどの他のECU5から入力されることもある。
 無線制御部16は、車両乗員が所持する携帯端末27との間で通信リンクする。情報処理装置10は、携帯端末27の着信を待機し、通話相手先から携帯端末27へ着信があり着信応答されると、携帯端末27を通じて通話相手先との間でスピーカ18及びマイク17を通じてハンズフリー通話を実行できる。また情報処理装置10は、マイク17を通じて入力された音声について音声認識できる。
 演算装置12は、制御装置11の制御に基づいて、記憶部6に記憶された画像、文章、文字、又は記号(以下、画像等と称する)のコンテンツについて、ディスプレイ2、3の表示画面に表示させる領域を演算し、画像等のコンテンツをディスプレイ2、3の表示画面の何れの領域に表示させるか、また、何れの領域に重ね合わせて表示させるか演算し、画像等のコンテンツを制御装置11に出力する。ここでいう記号とは、本来の意味の記号の他、交通標識などの標示をアイコンなどで表したコンテンツを総称したものであり、特にナビゲーション機能により各ディスプレイ2、3に標示される画像、文章、文字以外の情報を示している。
 表示処理部13は、制御装置11の制御に基づいて、ディスプレイ2、3の表示画面の中に画像等のコンテンツを表示処理する。各ディスプレイ2、3の表示画面には、表示レイヤ毎に画像等のコンテンツを重ね合わせて表示できる。
 音声処理部14は、制御装置11の制御に基づいて、マイク17から入力された受話音声を入力すると共に、スピーカ18から送話音声を出力する。音声処理部14は、文章、文字のコンテンツを制御装置11から入力すると、音声に変換してスピーカ18を通じて読み上げて出力する。
 位置検出器19は、図示しない周知のGPSなどのGNSS受信機、加速度センサやジャイロセンサなどの慣性センサを用いて高精度に位置を検出する。位置検出器19は、位置検出信号をI/O制御部15を通じて制御装置11に出力する。制御装置11の位置特定部11aは、地図データ入力器から入力される地図情報と位置検出器19の位置検出信号に基づいて車両の現在位置を高精度に逐次測位するADASロケータとしての機能を実現する。ADASはAdvanced Driver Assistance Systemsの略である。
 地図データ入力器は、不揮発性メモリなどにより構成され、リンクデータ、ノードデータなどの各種のデータを含む地図データが格納されている。リンクデータは、地図上の道路を構成するリンクを特定するリンク識別データ、リンクの長さを示すリンク長データ、リンクの方位を示すリンク方位データ、リンクの走行に要する時間を示すリンク走行時間データ、リンクの始点及び終点を構成するノードの座標を示すノード座標データ、道路の属性を示すリンク属性データなどの各種のデータを含んでいる。リンク属性データには県名や市名M1、国道や県道の情報を含むアイコンによる道記号M2、町名M4を記した文字記号情報が含まれている。
 ノードデータは、地図上に存在するノードを特定するノード識別データ、ノードの座標を示すノード座標データ、ノードの名称を示すノード名称データ、例えば交差点などのノードの種別を示すノード種別データ、ノードに接続するリンクを特定する接続リンクデータなどの各種のデータを含んでいる。また、前述の地図データには、公園などの施設名称M3などを文字コード等による識別情報で記した文字記号情報も紐づけられている。表示処理部13は、これらの地図データに基づいて任意の場所の地図の画像コンテンツRを生成できると共に、さらに前述の文字記号情報の一部又は全部を含むように画像コンテンツRを生成できる。なお、表示処理部13が、文字記号情報を表示する際の大きさ、縦幅、横幅の大小関係は、町名M4<施設名称M3<道記号M2<市名M1となるように定められている。
 ナビゲーション処理にて求められる車両位置は、緯度及び経度からなる座標系で表され、この座標系では、例えば、X軸が経度、Y軸が緯度を示す。なお、車両位置の測位は、例えば、自車両に搭載されている車速センサによるセンシング結果に基づき求められる走行距離の情報などに基づいて行うなど、自車両の位置を特定できる構成であれば、種々の構成を採用することができる。
 操作パネル21は、所定のディスプレイ、例えばセンタディスプレイ3の上に構成されたタッチパネルであり、I/O制御部15は、乗員による操作入力があると操作入力を受け付け、制御装置11に出力する。制御装置11は、操作パネル21の操作信号に基づいた制御を実行する。例えば、後述するナビアプリが実行されているときに、車両乗員により目的地が操作パネル21に入力されると、制御装置11は、表示処理部13により地図画面を表示しながら、自車両の現在位置から目的地まで案内するナビゲーション処理を実行できる。
 このとき、車両乗員は、例えば車両停車中に操作パネル21を操作すると地図の表示領域R1、R2(図6参照)を移動指示したり、縮尺を変更指示したりできる。表示処理部13は、制御装置11を通じて指示を受け付けると画像コンテンツRの中の表示領域R1、R2を移動し、また表示領域R1、R2を拡大又は縮小することで地図の縮尺を変更する。これにより、自車両が存在する現在位置周辺や目的地周辺などの任意の領域に地図を表示設定できると共に、地図表示の縮尺も変更できる。
 乗員モニタ22は、車両内に搭乗した乗員の状態又は操作状態を検知する。乗員モニタ22は、例えばパワースイッチ、乗員状態モニタ、ターンスイッチ、自動制御スイッチなどを用いて構成され、各種の信号を制御装置11に出力する。また乗員モニタ22は、ドライバによりステアリングホイールが把持されているか又は操舵されているか否かを検出するステアリングセンサ、シートに着座しているか否かを検出する着座センサ、アクセルペダル又はブレーキペダルの踏込センサなども含んでいても良い。
 パワースイッチは、内燃機関又は電動モータを始動させるために車室内にてユーザによりオン操作されることで、当該操作に応じた信号を出力する。乗員状態モニタは、D席又はP席の乗員の状態を画像センサにより撮影することで当該乗員の状態を検知して撮像信号を出力するカメラを含んで構成される。ドライバの乗員状態モニタはDSMと称されている。DSMは、Driver Status Monitorの略である。乗員状態モニタは、ドライバの頭部に近赤外光を照射して撮影した撮像信号を取得し必要に応じて画像解析して制御装置11に出力する。乗員状態モニタは、特に運転支援中や自動運転中にドライバなどの乗員の状態を検知するために使用される。ターンスイッチは、車両の方向指示器を作動させるために車室内にて乗員によりオン操作されることで、当該操作に応じて右方又は左方にターンするターン信号を出力する。
 自動制御スイッチは、車両の走行状態に対する自動制御を指令するために、車室内にて乗員によりオン操作されることで、当該操作に応じた自動制御信号を出力する。制御装置11は、乗員モニタ22の信号により車両乗員の挙動、例えば視線が何れの方向を向いているかを判定でき、また、パワースイッチの操作状態、方向指示器の作動状態、車両の自動制御の指令情報などを入力できる。
 周辺カメラ23は、車両の前方を撮像するフロントカメラ、車両の後部を撮像するバックカメラ、車両の前側部や後側部を撮像するコーナカメラ、又は、車両の側部を撮像するサイドカメラ、電子ミラーなどによる周辺監視センサを構成し、これらはそれぞれフロントガイドモニタ、バックガイドモニタ、コーナービューモニタ、サイドガイドモニタ、及び電子ミラーの各撮像信号としてI/O制御部15を通じて制御装置11に出力され記憶部6に記憶される。通信制御部7は、CANやLINなどの車内ネットワーク25に接続されており、他のECU5との間でデータを通信制御する。
 また車両には障害物との距離を検出する距離検出センサ24が周辺監視センサとして設置されている。距離検出センサ24は、クリアランスソナー、LiDARやミリ波レーダなどにより構成され、車両前方、車両前側部、車両後側部、車両後方又は車両側部に近接する車両や人、動物、路上の落下物、ガードレール、縁石、樹木などを検知できる。また障害物への方位や障害物までの距離を検出できる。また、上記した周辺監視センサにより、自車両の周辺の道路に設けられている走行区画線、一時停止線、横断歩道、路上に表記された「止まれ」などの標示、交差点の境界に表示される停止線などの路面標示を検出できる。
 情報処理装置10のハードウェア、ソフトウェア構成例を図3に示している。各ECU5、5aにはそれぞれSoC30、31が搭載され、この搭載されたSoC30、31には前述したマイクロコンピュータが組込まれている。ECU5のSoC30、31に組み込まれたマイクロコンピュータは、予めインストールされた汎用OS32、例えばLinuxOS(Linuxは登録商標)上で各種の複数のアプリケーション33(以下、アプリ33と略す)が動作するように構成されている。SoCはSystem On Chipの略である。
 アプリ33は、画像処理アプリ34やナビアプリその他のアプリを含む。画像処理アプリ34の描画要求に応じてSoC30に組み込まれたプロセッサが、PtoPディスプレイ2の各ディスプレイ2aの表示画面に描画処理する。
 他方、ECU5aはメータ描画用途で設けられているため符号5aを付している。ECU5aのSoC31に組み込まれたマイクロコンピュータには、汎用OS32よりもリアルタイム性能高く処理できるリアルタイムOS35が組み込まれており、リアルタイムOS35上でメータアプリ36を動作させるように構成されている。以下の説明では、画像処理アプリ34やメータアプリ36などのアプリ33を主体として説明することがあることに留意する。
 メータアプリ36は、車両の速度や回転数あるいは警告などをユーザに報知するもので、PtoPディスプレイ2の特定の表示エリアにメータの画像コンテンツRを描画する。例えば、メータアプリ36は、速度計や回転数計、シフトレンジポジション状態、又は、警告灯などの画像コンテンツRを描画する。速度計は、車両の速度の変化を示すためにリアルタイムで表示を更新する必要がある速度画像を含む。同様に、回転数計も、回転数の変化を示すためにリアルタイムで表示を更新する必要があるためメータ画像に含まれる。
 また、メータアプリ36により描画されるコンテンツは、他のディスプレイ、ここではセンタディスプレイ3にも表示できる。メータアプリ36によって描画されるコンテンツは、他のアプリによって描画されるコンテンツよりも、相対的にリアルタイム性が要求される。
 アプリ33にはナビアプリが含まれている。ナビアプリは、前述したナビゲーション機能を実現するものであると共に、主にPtoPディスプレイ2又はセンタディスプレイ3に対し、地図や車両の現在位置などを含むナビゲーション画面などの画像コンテンツRを描画する。
 またアプリ33には画像合成アプリも含まれている。画像合成アプリは、表示器に表示する様々な画像コンテンツRの大きさや種類を特定し、画像コンテンツRの一部を1フレーム内に合成し、この合成された混在画像をPtoPディスプレイ2、又はセンタディスプレイ3に出力するアプリである。画像合成アプリは、コンポジッタとも称される画像合成部としての機能や、また画像出力部としての機能を実現する。
 各アプリ33、36のうち画像コンテンツRを描画するアプリには、画像コンテンツRを描画するための表示レイヤが割り当てられている。これらの表示レイヤは、記憶部6上に、必要となる画像コンテンツRを描画できる大きさで確保されている。
 また、PtoPディスプレイ2、センタディスプレイ3に表示される画像コンテンツRは、アニメーション動作可能になっている。ここで、アニメーション動作とは、コンテンツを示す画像の位置や大きさが徐々に変化したり、画像が回転したり、スワイプ操作にともなってユーザインターフェースが全体的に移動したり、画像が徐々にフェードインあるいはフェードアウトしたり、画像の色が変化したりするような表示態様である。
 制御装置11は、アプリ33を実行することで各種の処理を実行する。また表示処理部13もまた、各種のアプリ33を実行することで本願に係る設定部13a、判定部13b、及び重複表示処理部13cとしての機能を実現する。
 上記構成の作用、動作について、図4以降の図面を参照しながら説明する。情報処理装置10は、表示処理部13によりPtoPディスプレイ2及びセンタディスプレイ3に様々なコンテンツを表示させるが、このときPtoPディスプレイ2のあるディスプレイ2aの表示画面に単独のコンテンツを表示処理させたり、センタディスプレイ3の第2表示画面に単独のコンテンツを表示処理させたり、さらには、PtoPディスプレイ2のうち、横方向に隣接する複数のディスプレイ2aの表示画面に亘り一体の画像コンテンツRを表示させることがある。
 情報処理装置10が、隣接する複数のディスプレイ2aの表示画面に亘り一体の画像コンテンツRを表示させると、複数のディスプレイ2aの表示画面間に存在するフレーム2bにより視認性が悪化する。図6に示す非表示領域Rz参照。このとき、複数のディスプレイ2aに亘り、連続的な画像又は文章を表示できず途切れた表示となってしまい、表示の連続性が保たれない。そこで情報処理装置10は、図4に処理内容を示すように表示処理することで、車両乗員に違和感を抱かせないようにする。
 以下、情報処理装置10がナビアプリを起動し複数のディスプレイ2aに大型地図を表示する際の具体例を挙げて説明する。乗員によりパワースイッチが操作されると、制御装置11は、図4のS1においてナビアプリを起動する。制御装置11は、図4のS2において現在位置周辺の地図の画像コンテンツRを地図データ入力器から読み出して記憶部6のワークエリア上に用意、設定する。
 図5に示す画像コンテンツRを用意した場合について説明する。前述したように、地図データ入力器から記憶部6のワークエリアに読み出される地図データには文字記号情報が文字記号コンテンツとして含まれている。文字記号情報は、県名や市名M1、国道や県道の道記号M2、さらに公園などの施設名称M3などを文字コードなどの識別情報で記されている。
 表示処理部13は、図4のS2において地図データに基づいて地図や文字記号情報を含む画像コンテンツRを生成する。また表示処理部13は、図4のS3において、車両乗員による操作パネル21の操作情報(例えば表示位置及び縮尺)に基づいて表示領域R1、R2を設定する。表示領域R1、R2は、図6に示すように、画像コンテンツRの中で一部重複する重複領域Raを一部含むように設定される。重複領域Raは、画像コンテンツRの中で隣接する複数のディスプレイ2aの各表示画面に一部重複表示させる領域を示している。重複領域Raの重複幅Wは、初期段階において所定のデフォルト値に設定されている。
 表示処理部13は、S4において、画像コンテンツRの中に特定コンテンツとして文字記号コンテンツを含むか否かを判定部13bにより判定する。画像コンテンツRの中に文字記号コンテンツを含まない場合、表示処理部13は、S4でNOと判定し、S5において重複領域Raの重複幅Wを保持する。ここではデフォルト値のまま保持される。
 そして表示処理部13は、S11においてそれぞれ重複領域Raを含むように表示領域R1、R2に画像分割し、当該表示領域R1、R2の画像を、隣接した複数のディスプレイ2aにそれぞれ出力する。すると、複数のディスプレイ2aの表示画面の双方に重複領域Raの画像コンテンツRを表示できる。このとき特に、表示処理部13は、非表示領域Rzを挟んで近接する領域に位置して重複領域Raの画像コンテンツRを双方のディスプレイ2aに表示する。このため、複数のディスプレイ2aに表示する画像の連続性を極力保つことができ、車両乗員の感じる違和感を軽減できる。
 他方、表示処理部13は、判定部13bにより文字記号コンテンツを含むと判定された場合、S6~S12において重複表示処理部13cにより文字記号コンテンツの幅に基づいて重複領域Raの重複幅Wを設定した上で、隣り合うディスプレイ2aの表示画面の双方に重複領域Raの画像コンテンツRを表示する。
 具体的には、まず表示処理部13は、S4において画像コンテンツRの中に文字記号コンテンツを含むと判定した場合、S6において文字又は記号の幅Mを判定し、この幅Mが下限値Wmin以上で且つ上限値Wmax以下の所定幅に収まっているか判定する。下限値Wminは、施設名称M3を表すための一文字の幅に対応して予め定められた幅である。下限値Wminは、例えば図5に示す「青山公園」の各一文字(例えば「青」)の横幅に相当する幅に設定されている。上限値Wmaxは、国道などの道記号M2の幅に対応して予め定められた幅であり、例えば図5に示す「(国道)23(号線)」を含むアイコンの横幅に相当する幅に設定されている。
 表示処理部13は、重複表示処理部13cにより幅Mが所定幅内であると判定されたことを条件として、S8において重複領域Raの重複幅Wを文字記号コンテンツの幅Mに設定する。そして、表示処理部13は、S11において、一部重複領域Raを含んで画像分割した表示領域R1、R2の画像コンテンツRを、隣接した複数のディスプレイ2aにそれぞれ出力する。
 他方、表示処理部13は、重複表示処理部13cにより幅Mが所定幅の上限値Wmax以上であると判定された場合にはS9にてYESと判定し、S10において重複領域Raの重複幅Wを上限値Wmaxに設定し、S11において画像分割して各ディスプレイ2aに出力する。また表示処理部13は、重複表示処理部13cにより幅Mが所定幅の下限値Wmin以下であると判定された場合にはS9にてNOと判定し、S12において重複領域Raの重複幅Wを下限値Wminに設定し、S11において画像分割して各ディスプレイ2aに出力する。すると、重複領域Raの重複幅Wを所定幅Wmin≦W≦Wmaxに抑えることができ、際限なく重複幅Wを変更しなくなる。
 図7から図10には具体例を挙げている。図7には、文字記号情報として町名M4のみを含む画像コンテンツRを表示する表示画面を例示している。また図8には、町名M4及び施設名称M3を含む画像コンテンツRを表示する表示画面を例示している。また、図9には、町名M4、施設名称M3及び道記号M2を含む画像コンテンツRを表示する表示画面を例示している。図10には、町名M4、施設名称M3、道記号M2、及び市名M1を含む画像コンテンツRを表示する表示画面を例示している。
 前述したように、上限値Wmaxが道記号M2の横幅に対応して予め定められており、下限値Wminが施設名称M3の一文字の横幅に対応して予め定められている。このため、表示処理部13が、図7に示すように、文字記号情報として町名M4のみを含む画像コンテンツRの一部を各ディスプレイ2aに表示する際には、町名M4の一文字の幅Mが下限値Wminを下回っているため、重複幅Wを下限値Wminに設定した重複領域Raを含む表示領域R1、R2の画像コンテンツRを各ディスプレイ2aに表示する。
 また表示処理部13が、図8に示すように町名M4及び施設名称M3を含む画像コンテンツRを各ディスプレイ2aに表示する際には、町名M4及び施設名称M3の中で幅の一番大きな施設名称M3の「青山公園」の一文字の横幅に重複幅Wを設定した上で、重複領域Raを含む表示領域R1、R2の画像コンテンツRを各ディスプレイ2aに表示する。また表示処理部13が、図9に示すように町名M4、施設名称M3及び道記号M2を含む画像コンテンツRを各ディスプレイ2aに表示する際には、町名M4、施設名称M3及び道記号M2の中で幅の一番大きな道記号M2の横幅に重複幅Wを設定した上で、重複領域Raを含む表示領域R1、R2の画像コンテンツRを各ディスプレイ2aに表示する。
 また、表示処理部13が、図10に示すように、市名M1を含む画像コンテンツRを各ディスプレイ2aに表示する際には、市名M1の一文字の幅Mが上限値Wmaxを上回っているため、重複幅Wを上限値Wmaxに設定した上で、重複領域Raを含む表示領域R1、R2の画像コンテンツRを各ディスプレイ2aに表示する。
 なお図7~図10には本開示内容を理解しやすくするように、重複領域Raの中に文字記号コンテンツの少なくとも一部を含む形態を示しているが、本実施形態において、重複幅Wを設定するための文字記号コンテンツは、車両用表示システム1が取り扱う画像コンテンツRの中に存在する文字や記号の全てを対象としている。表示処理部13は、画像コンテンツRの中に存在する文字記号コンテンツの大きさに合わせて重複幅Wを変更できる。
 以上説明したように、本実施形態によれば、判定部13bにより画像コンテンツRに文字記号情報による文字記号コンテンツを含むか否かを判定し、判定部13bにより含むと判定された場合、重複表示処理部13cにより文字記号コンテンツの幅に基づいて重複領域Raの重複幅Wを設定し、隣り合う複数のディスプレイ2aの表示画面の双方に重複領域Raの画像コンテンツRを表示するようにした。すると、重複幅W分の重複領域Raの画像コンテンツRを複数のディスプレイ2aの表示画面の双方に表示できるため、車両の乗員は重複表示された文字記号コンテンツを一目で理解できる。これにより、車両乗員に対し適切に情報を提供できる。
 また画像コンテンツRに含まれる文字や記号の幅Mが所定幅内である場合、その文字記号コンテンツのサイズに合わせて重複幅Wを変更できるため、例えば文字記号コンテンツの各一文字をその中心部分で分断(カット)して表示しなくなる。分断された文字や記号をディスプレイ2aに表示することがなくなり、車両乗員は、文字や記号を一つずつ一目で理解できる。また一文字の文字サイズ、又は、記号の外枠に対応した記号サイズに応じて重複幅Wを変更できるため、例えば二つ以上の文字記号コンテンツを無駄に重複表示させることもなくなる。これにより、乗員の違和感を軽減でき、車両乗員に対し適切に情報を提供できる。
 また画像コンテンツRに含まれる文字や記号の幅Mが所定幅を超えるときにも重複幅Wに上限値Wmax、下限値Wminを設けて設定しているため、際限なく重複幅Wを調整することもなくなる。これにより、乗員の違和感を軽減でき、乗員に対し適切に情報を提供できる。
 また同一の重複領域Raの画像コンテンツRを、隣り合うディスプレイ2aの表示画面に描画しているため、同色の画像コンテンツRを各ディスプレイ2aに描画できる。これにより、重複領域Raに含まれる画像コンテンツRを乗員に意識付けることもできる。
 (第2実施形態)
 第2実施形態について図11から図16を参照しながら説明する。第2実施形態では、周辺カメラ23により撮像された標識M5を含む画像コンテンツRを、隣接する複数のディスプレイ2aに表示させる際の処理を説明する。図11に示す画像コンテンツRは、標識M5が時間経過に伴って近づくように撮像される動画コンテンツである。処理内容は前述実施形態で説明した図4及びその説明と概ね同一であり、以下では図4のステップ番号を示しながら説明を行う。
 図12から図15には、時間経過に伴い変化する画像コンテンツRと、隣り合うディスプレイ2aの表示画面の変化を示している。図12に示すように、標識M5までの距離が遠く、画像コンテンツRの中に標識M5が小さく映り込んでいる場合には、画像コンテンツRの中でも標識M5の大きさも比較的小さくなる。このため、表示処理部13は、図4のS4において画像コンテンツRの中に特定コンテンツとなる標識M5を認識しない、又は、S9において標識M5を認識しても幅Mが下限値Wminより短いと判定する。このため、表示処理部13は、重複幅Wをデフォルト値に保持、又は、下限値Wminに設定した上で、画像分割して、各ディスプレイ2aに出力、表示する。図4のS1~S5→S11、又は、S1~S4→S6→S7→S9→S12→S11参照。
 また図13、図14に示すように、標識M5が徐々に近づくにしたがって、撮像画像の画像コンテンツRの中に標識M5が徐々に大きく映り込む。すると、表示処理部13は、S4において標識M5を画像認識することで文字又は記号を含む特定コンテンツ(画像認識文字記号情報相当)と判定し、重複幅Wを標識M5の幅Mに設定した上で、画像分割し、各ディスプレイ2aに出力、表示する。図4のS1~S4→S6~S8→S11参照。このとき、撮像画像に映り込む標識M5の大きさが徐々に大きくなると、これに伴い、重複幅Wも徐々に大きくなる。
 また図15に示すように、周辺カメラ23に標識M5が接近すると、撮像画像の画像コンテンツRの中に標識M5が大きく映り込む。すると表示処理部13が、標識M5を画像認識したとしても標識M5の幅が上限値Wmaxを超えているため、重複幅Wを上限値Wmaxに設定した上で、画像分割し、各ディスプレイ2aに出力、表示する。図4のS1~S4→S6→S7→S9~S11参照。すなわち、図12から図15に示したように、周辺カメラ23に標識M5が徐々に近づく場合、重複幅Wは徐々に大きくなるもののある上限値Wmaxまで標識M5の幅Mが大きくなると、重複幅Wは上限値Wmaxで一定となる。
 本実施形態に示したように、周辺カメラ23により撮像された画像を画像認識し、画像認識された撮像画像に含まれる文字や記号による画像認識文字記号を特定コンテンツとして扱った場合でも、前述実施形態と同様に、隣り合うディスプレイ2aの双方に重複領域Raの画像コンテンツRを表示できる。このため、前述実施形態と同様の作用効果を奏する。
 (他の実施形態)
 本開示は、前述した実施形態に限定されるものではなく、種々変形して実施することができ、その要旨を逸脱しない範囲で種々の実施形態に適用可能である。
 第1実施形態では、画像コンテンツRに文字記号情報M1…M4(例えば、町名M4、施設名称M3、道記号M2、又は市名M1)、第2実施形態では画像コンテンツRに文字記号情報M5(例えば、標識M5)が含まれる場合、表示領域R1及びR2に対し重複領域Raを常に表示していたが、必ずしも重複領域Raを常に表示しなくてもよい。
 例えば、表示処理部13が、画像コンテンツRの中で非表示領域Rzと重なる位置に文字記号情報M1…M4又はM5が含まれるか否かを判断し、画像コンテンツRの中で非表示領域Rzと重なる位置に文字記号情報M1…M4又はM5が含まれると判断した場合には、表示領域R1又はR2の何れか一方に重複領域Raを表示するようにしても良い。
 また前述同様に、表示処理部13が、画像コンテンツRの中で非表示領域Rzと重なる位置に文字記号情報M1…M4又はM5が含まれると判断した場合には、重複領域Raの幅を中央などで分割した領域をそれぞれ表示領域R1及びR2として設定することで重複領域Raを分割表示しても良い。これにより、不要な重複表示を抑制でき、乗員に対してより分かりやすく表示できる。
 また、上記のように、表示処理部13が、非表示領域Rzと重なる位置に文字記号情報M1~M5が含まれるか否かを判断し、重複領域Raを表示するか否かを決定する場合、重複領域Raに上限値Wmaxを超えた幅を持つ文字記号情報M1(例えば、図10の市名M1)のみが含まれる場合、重複領域Raの重複表示を行わなくても良い。これは、非表示領域Rzの幅に対して文字記号情報M1の幅が十分に大きいため、重複領域Raによる重複表示せずとも、乗員が文字記号情報M1の示す情報を十分に理解できるためである。これにより、不要な重複表示を抑制でき、乗員に対してより分かりやすく表示できる。
 重複幅Wと比較するための文字等の幅Mは、文字や記号の1文字又は1つの幅でなく一体の名称コンテンツの幅としても良い。例えば、前述実施形態では、図7に例示した内容の場合、町名M4の「池端1」のうち「池」の字の一文字の幅Mを比較対象とした形態を例示したが、「池端1」の町名自体を比較対象の幅Mとしても良い。同様に、図8に例示した内容の場合、施設名称M3の「青山公園」のうち「山」の字の一文字の幅Mを比較対象とした形態を例示したが、「青山公園」の施設名称自体を比較対象の幅Mとしても良い。道記号M2や市名M1なども同様である。
 前述実施形態では、横方向に併設した複数のディスプレイ2aに表示させる際に横並びのディスプレイ2aに重複表示させる重複幅Wを設定する実施形態を示したが、これに限定されるものではない。例えば、図1Aに示したように、縦方向に併設した複数のディスプレイ2、3の間は離間しているため非表示領域が存在する。このため、これらのディスプレイ2、3の表示画面に重複表示させる場合に重複幅Wを設定するようにしても良い。
 第2実施形態では、画像コンテンツRの中で大きさが徐々に変化する標識M5を特定コンテンツとして扱った形態を説明したが、これに限定されるものではない。例えば、乗員による操作パネル21の操作に基づいて地図画面の縮尺を変更したときに、表示処理部13が文字サイズを変更した画像コンテンツRを生成して各ディスプレイ2aに表示することがあるが、このような場合にも適用できる。このときも、重複領域Raの重複幅Wを変更することで、前述実施形態と同様の効果を得られる。
 前述実施形態では、複数のECU5により表示系のECU5を構成した形態を示したが、表示系のECU5を1つのECU5によりHCUとして構成しても良い。このときのハードウェア、ソフトウェア構成例を図16に示している。各ECU5にはそれぞれSoC230が搭載され、この搭載されたSoC230にはマイクロコンピュータが組込まれている。ECU5のSoC230に組み込まれたマイクロコンピュータは、ハイパーバイザ231上に汎用OS32及びリアルタイムOS35が構成されている。汎用OS32上には各種の複数のアプリ33が動作するように構成されている。またリアルタイムOS35は、汎用OS32よりもリアルタイム性能高く処理できる。リアルタイムOS35上でメータアプリ36を動作させるように構成されている。このような構成を採用した場合であっても前述実施形態と同様の構成、作用効果を奏する。
 図面中、2はPtoPディスプレイ、2aはディスプレイ、2bはフレーム(非表示領域)、13は表示処理部、13aは設定部、13bは判定部、13cは重複表示処理部、R1、R2は表示領域、Raは重複領域、Rzは非表示領域、を示す。
 本開示に記載の制御装置11、表示処理部13による手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することにより提供された専用コンピュータにより実現されても良い。或いは、本開示に記載の制御装置11、表示処理部13及びその手法は、一つ以上の専用ハードウェア論理回路によりプロセッサを構成することにより提供された専用コンピュータにより実現されても良い。若しくは、本開示に記載の制御装置11、表示処理部13及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路により構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより実現されても良い。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていても良い。
 本開示は、前述した実施形態に準拠して記述したが、本開示は当該実施形態や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。

Claims (7)

  1.  非表示領域を挟んで併設された複数のディスプレイ(2a;2,3)の表示画面に一体の画像コンテンツを表示する車両用表示システムであって、
     前記非表示領域を跨いで前記複数のディスプレイの表示画面に前記画像コンテンツを表示させるときに、前記画像コンテンツの中で前記複数のディスプレイの表示画面に一部重複表示させる重複領域を含む表示領域(R1、R2)を設定する設定部(13a)と、
     前記画像コンテンツに文字記号情報又は画像認識文字記号情報による特定コンテンツを含むか否かを判定する判定部(13b)と、
     前記判定部により含むと判定された場合、前記特定コンテンツの幅に基づいて前記重複領域の重複幅を設定し前記複数のディスプレイの表示画面に前記重複領域の前記画像コンテンツを表示する重複表示処理部(13c)と、
     を備える車両用表示システム。
  2.  前記重複表示処理部は、前記特定コンテンツの幅が所定幅内であることを条件として前記重複領域の重複幅を前記特定コンテンツの幅に設定する請求項1記載の車両用表示システム。
  3.  前記判定部が、前記画像コンテンツに複数の前記特定コンテンツを含むと判定した場合、前記重複表示処理部は、複数の前記特定コンテンツの中で一番幅が大きな前記特定コンテンツの幅を前記重複領域の重複幅として設定する請求項2記載の車両用表示システム。
  4.  前記特定コンテンツは、文字記号情報に基づく文字記号コンテンツである請求項1記載の車両用表示システム。
  5.  前記重複表示処理部は、前記特定コンテンツの幅が所定幅の上限値以上である場合、前記重複領域の重複幅を前記所定幅の前記上限値に設定し、前記所定幅の下限値以下である場合、前記重複領域の重複幅を前記所定幅の前記下限値に設定する請求項1記載の車両用表示システム。
  6.  非表示領域を挟んで併設された複数のディスプレイ(2a;2,3)の表示画面に一体の画像コンテンツを表示する車両用表示方法であって、
     前記非表示領域を跨いで前記複数のディスプレイの表示画面に前記画像コンテンツを表示させるときに、設定部(13a)により前記画像コンテンツの中で前記複数のディスプレイの表示画面に一部重複表示させる重複領域を含む表示領域(R1、R2)を設定する過程と、
     判定部(13b)により前記重複領域に文字記号情報又は画像認識文字記号情報による特定コンテンツを含むか否かを判定する過程と、
     前記判定部により含むと判定された場合、重複表示処理部(13c)により前記特定コンテンツの幅に基づいて前記重複領域の重複幅を設定し前記複数のディスプレイの表示画面に前記重複領域の前記画像コンテンツを表示する過程と、
     を備える車両用表示方法。
  7.  非表示領域を挟んで併設された複数のディスプレイ(2a;2,3)の表示画面に一体の画像コンテンツを表示する車両用表示プログラムであって、
     前記非表示領域を跨いで前記複数のディスプレイの表示画面に前記画像コンテンツを表示させるときに、設定部(13a)により前記画像コンテンツの中で前記複数のディスプレイの表示画面に一部重複表示させる重複領域を含む表示領域(R1、R2)を設定する手順と、
     判定部(13b)により前記重複領域に文字記号情報又は画像認識文字記号情報による特定コンテンツを含むか否かを判定する手順と、
     前記判定部により含むと判定された場合、重複表示処理部(13c)により前記特定コンテンツの幅に基づいて前記重複領域の重複幅を設定し前記複数のディスプレイの表示画面に前記重複領域の前記画像コンテンツを表示する手順と、
     を実行させる車両用表示プログラム。
     
PCT/JP2022/015568 2021-04-23 2022-03-29 車両用表示システム、車両用表示方法、及び車両用表示プログラム WO2022224753A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/488,688 US20240042858A1 (en) 2021-04-23 2023-10-17 Vehicle display system, vehicle display method, and storage medium storing vehicle display program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-073380 2021-04-23
JP2021073380A JP7509077B2 (ja) 2021-04-23 車両用表示システム、車両用表示方法、及び車両用表示プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/488,688 Continuation US20240042858A1 (en) 2021-04-23 2023-10-17 Vehicle display system, vehicle display method, and storage medium storing vehicle display program

Publications (1)

Publication Number Publication Date
WO2022224753A1 true WO2022224753A1 (ja) 2022-10-27

Family

ID=83722181

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/015568 WO2022224753A1 (ja) 2021-04-23 2022-03-29 車両用表示システム、車両用表示方法、及び車両用表示プログラム

Country Status (2)

Country Link
US (1) US20240042858A1 (ja)
WO (1) WO2022224753A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184187A (ja) * 1999-12-24 2001-07-06 Minolta Co Ltd 情報表示装置
JP2007122649A (ja) * 2005-10-31 2007-05-17 Casio Comput Co Ltd 電子機器
JP2009244587A (ja) * 2008-03-31 2009-10-22 Railway Technical Res Inst マルチ・ディスプレイ・システムの表示制御方法
JP2012243073A (ja) * 2011-05-19 2012-12-10 Nissan Motor Co Ltd 表示システム
JP2015146027A (ja) * 2010-11-25 2015-08-13 京セラ株式会社 電子機器
JP2017058972A (ja) * 2015-09-16 2017-03-23 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示方法、及びコンピュータが実行可能なプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184187A (ja) * 1999-12-24 2001-07-06 Minolta Co Ltd 情報表示装置
JP2007122649A (ja) * 2005-10-31 2007-05-17 Casio Comput Co Ltd 電子機器
JP2009244587A (ja) * 2008-03-31 2009-10-22 Railway Technical Res Inst マルチ・ディスプレイ・システムの表示制御方法
JP2015146027A (ja) * 2010-11-25 2015-08-13 京セラ株式会社 電子機器
JP2012243073A (ja) * 2011-05-19 2012-12-10 Nissan Motor Co Ltd 表示システム
JP2017058972A (ja) * 2015-09-16 2017-03-23 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示方法、及びコンピュータが実行可能なプログラム

Also Published As

Publication number Publication date
JP2022167533A (ja) 2022-11-04
US20240042858A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
US11008016B2 (en) Display system, display method, and storage medium
JP5983547B2 (ja) ヘッドアップディスプレイ及びプログラム
JP6515519B2 (ja) 車両用表示制御装置及び車両用表示制御方法
JP6969509B2 (ja) 車両用表示制御装置、車両用表示制御方法、及び制御プログラム
JP7480894B2 (ja) 車両用表示装置
WO2019239709A1 (ja) 移動体用表示制御装置、移動体用表示制御方法、及び制御プログラム
US20240042857A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program
JP2020085688A (ja) 表示システム、表示制御方法、およびプログラム
JP2004258900A (ja) 周辺車両情報提供装置
WO2022224753A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2022168540A1 (ja) 表示制御装置及び表示制御プログラム
JP6620775B2 (ja) 表示装置および表示方法
JP7509077B2 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2022224752A1 (ja) 車両用表示システム、表示システム、表示方法、及び表示プログラム
WO2022210171A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2022210172A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
WO2022255409A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP7310851B2 (ja) 車両用表示装置
WO2022244618A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP7294091B2 (ja) 表示制御装置および表示制御プログラム
WO2023002797A1 (ja) 制御装置
JP7428161B2 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP2018144690A (ja) 車両用表示装置
JP2023010340A (ja) 運転支援方法、運転支援装置及び通信システム
JP2022121370A (ja) 表示制御装置及び表示制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22791528

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22791528

Country of ref document: EP

Kind code of ref document: A1