WO2024070645A1 - 部品変更システム、車両システムおよび車両 - Google Patents

部品変更システム、車両システムおよび車両 Download PDF

Info

Publication number
WO2024070645A1
WO2024070645A1 PCT/JP2023/033122 JP2023033122W WO2024070645A1 WO 2024070645 A1 WO2024070645 A1 WO 2024070645A1 JP 2023033122 W JP2023033122 W JP 2023033122W WO 2024070645 A1 WO2024070645 A1 WO 2024070645A1
Authority
WO
WIPO (PCT)
Prior art keywords
control unit
vehicle
user
information
image
Prior art date
Application number
PCT/JP2023/033122
Other languages
English (en)
French (fr)
Inventor
古和宗高
志田隼人
松本未希
伊藤大貴
小島琢人
Original Assignee
テイ・エス テック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022152313A external-priority patent/JP2024046931A/ja
Application filed by テイ・エス テック株式会社 filed Critical テイ・エス テック株式会社
Publication of WO2024070645A1 publication Critical patent/WO2024070645A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/32Cooling devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/04Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/04Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable the whole seat being movable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N3/00Arrangements or adaptations of other passenger fittings, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • B60S1/06Wipers or the like, e.g. scrapers characterised by the drive
    • B60S1/08Wipers or the like, e.g. scrapers characterised by the drive electrically driven
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]

Definitions

  • This disclosure relates to a part change system, a vehicle system, and a vehicle.
  • a user's preferences may change and the user may later request a different design.
  • a parts changing system includes a control unit capable of communicating with a terminal used by a subscriber of a subscription service that allows a user to change vehicle parts after purchasing the vehicle.
  • the control unit determines that the user is a subscriber to the subscription service based on information sent from the terminal, it sends a selection image for selecting parts to the terminal.
  • the vehicle part may also be an interior part of the vehicle.
  • the control unit may also transmit to the terminal an image for inputting preference discrimination information for discriminating the user's preferences, and when the control unit acquires preference discrimination information selected by the user from the terminal, it may select an interior part based on the preference discrimination information and transmit to the terminal a proposal image proposing the selected interior part to the user.
  • control unit when the control unit acquires the user's behavioral history, the control unit may select an interior part based on the behavioral history and transmit to the terminal a proposal image proposing the selected interior part to the user.
  • interior parts are suggested to the user according to the user's behavior history, eliminating the need for the user to select a preferred interior part from a wide variety of interior parts.
  • the control unit can obtain the user's behavior history from a storage unit in which the user's behavior history is updated on a case-by-case basis, the user can eliminate the need for the user to select preference discrimination information compared to a configuration in which the user selects preference discrimination information that suits him or her.
  • the control unit can also execute a suggestion mode that suggests interior parts to the user and an individual selection mode that allows the user to select interior parts individually, and can transmit a mode selection image that allows the user to select between the suggestion mode and the individual selection mode to the terminal, and when mode information selected by the user is obtained from the terminal, can execute the suggestion mode or the individual selection mode based on the mode information.
  • This configuration allows the user to select a mode suited to the current situation. For example, if the user has not yet decided which interior part they wish to change, they can select the suggestion mode, which allows them to narrow down the wide range of interior parts to those that suit the user's preferences. Also, for example, if the user has already decided which interior part they wish to change, they can select the individual selection mode, which allows them to quickly select the interior part.
  • the part change system may further include a storage unit that stores owned vehicle information, which is information about the user's owned vehicle, and when suggesting interior parts, the control unit may suggest interior parts that are suitable for the owned vehicle based on the owned vehicle information.
  • owned vehicle information which is information about the user's owned vehicle
  • the control unit may suggest interior parts that are suitable for the owned vehicle based on the owned vehicle information.
  • This configuration prevents the user from mistakenly selecting interior parts that are not compatible with the user's vehicle.
  • the control unit may also transmit an installation image, which is an image of the interior part installed in the vehicle, to the terminal.
  • This configuration allows the user to see an image of the interior parts installed on the vehicle, so the user can get an idea of what the overall interior will look like after changing the interior parts.
  • a vehicle system includes an in-vehicle device and a control unit that operates the in-vehicle device.
  • the control unit acquires user behavior information related to the user's behavior from a mobile terminal carried by the user.
  • the control unit determines whether or not to set the in-vehicle device to a specified mode based on the user behavior information. If the control unit determines that the in-vehicle device should be set to the specified mode, it transmits selection information to the mobile terminal to allow the user to select whether or not to set the in-vehicle device to the specified mode.
  • the control unit Upon receiving permission information transmitted from the mobile terminal when the user selects to set the in-vehicle device to the specified mode based on the selection information, the control unit sets the in-vehicle device to the specified mode.
  • control unit determines that the in-vehicle device should be set to a specified mode
  • the control unit transmits selection information to the mobile terminal to allow the user to select whether or not to set the in-vehicle device to the specified mode, so that the user can select whether or not to set the in-vehicle device to the specified mode by operating the mobile terminal. Therefore, in a vehicle system equipped with a control unit that controls the in-vehicle device based on user behavior information, control that reflects the user's intentions can be realized.
  • the in-vehicle device may also include a seat arrangement device that changes at least one of the posture and position of the seat to change the seat into a plurality of states.
  • the seat arrangement device may be switchable between a first mode in which the seat is in a first state and a second mode in which the seat is in a second state in which the storage space in the vehicle interior is increased compared to the first state, the user behavior information may include payment information indicating that the user has purchased an item, the predetermined mode may include the second mode, and the control unit may determine whether or not to switch the seat arrangement device to the second mode based on the payment information.
  • the user behavior information may also include schedule information indicating the user's schedule, and the control unit may determine whether to set the seat arrangement device to the second mode based on the schedule information.
  • the seat arrangement device may be switchable between a third mode in which the angle of the seat back of the seat is a predetermined angle and a fourth mode in which the seat back is more reclined than in the third mode, the user behavior information includes the user's behavior history or physical information that changes depending on the user's behavior, the predetermined mode includes the fourth mode, and the control unit may determine whether to switch the seat arrangement device to the fourth mode based on the behavior history or the physical information.
  • the vehicle system may further include an obstacle detection sensor that detects an obstacle on a path of the seat moved by the seat arrangement device.
  • an obstacle detection sensor that detects an obstacle on a path of the seat moved by the seat arrangement device.
  • the control unit sends unchangeable information to the mobile device, so the user can know that the seat cannot be moved by the seat arrangement device.
  • control unit may set the in-vehicle device to a specified mode if permission information is received within a specified time after sending the selection information to the mobile terminal, and may not set the in-vehicle device to the specified mode if permission information is not received within the specified time after sending the selection information to the mobile terminal.
  • the in-vehicle equipment may include an air conditioner, and the air conditioner may be switchable between a first air conditioning mode in which the temperature in the vehicle interior is set to a first temperature and a second air conditioning mode in which the temperature in the vehicle interior is set to a second temperature higher than the first temperature;
  • the user behavior information may include a behavioral history of the user or physical information that changes depending on the user's behavior;
  • the predetermined mode may include the first air conditioning mode; and the control unit may determine whether to switch the air conditioner to the first air conditioning mode based on the behavioral history or the physical information.
  • a vehicle system includes an on-board device that affects the perception of the situation outside the vehicle, and a control unit that controls the on-board device.
  • the on-board device is switchable between a first state and a second state in which the situation outside the vehicle is easier to perceive than in the first state.
  • the control unit changes the on-board device to the second state upon acquiring warning information indicating that the situation requires the occupants to pay attention to the situation outside the vehicle.
  • control unit acquires warning information, it changes the in-vehicle device to the second state, thereby improving visibility outside the vehicle when the occupants need to pay attention to the area outside the vehicle.
  • the in-vehicle device may be a wiper that can be switched between a stopped state and an operating state.
  • the control unit may change the wipers to an operating state.
  • control unit may stop the wipers when the operation mode is switched from manual to automatic.
  • the in-vehicle device may be an electric shade that can be switched between a shielded state in which the occupant's view is blocked and an open state in which the occupant's view is not blocked.
  • the control unit may change the motorized shade to an open state.
  • the warning information is accident information that notifies the occurrence of an accident involving a vehicle other than the vehicle itself
  • the control unit may obtain the accident information from a server.
  • control unit changes the in-vehicle device to the second state based on the accident information, allowing the occupants to understand the situation outside the vehicle that changes as a result of the accident.
  • the warning information may also be disaster information that notifies of the occurrence of a disaster.
  • the control unit may acquire disaster information from the server.
  • the control unit changes the in-vehicle device to the second state based on the disaster information, allowing the occupants to grasp the situation outside the vehicle that changes as a result of the disaster.
  • control unit when the control unit acquires the warning information, it may notify the occupant of the reason for putting the in-vehicle device into the second state before putting the in-vehicle device into the second state.
  • This configuration can prevent occupants from feeling uncomfortable when the in-vehicle device switches to the second state by itself.
  • a vehicle that includes a partition member, a drive device, a sensor, and a control unit.
  • the partition member is capable of dividing the interior space of the vehicle.
  • the drive device moves the partition member between a first position where the partition member divides the interior space of the vehicle and a second position where the partition member does not divide the interior space.
  • the sensor detects the presence or absence of an object on the movement trajectory of the partition member.
  • the control unit controls the drive device based on information obtained from the sensor.
  • control unit can control the operation of the partition member based on the presence or absence of an object on the movement trajectory of the partition member, thereby preventing the partition member from interfering with the object.
  • the vehicle may further include two adjacent seats.
  • the partition member may provide a partition between the two sheets.
  • the drive unit may also be located under the floor of the vehicle.
  • This configuration allows for effective use of the space under the vehicle floor.
  • the floor may also have holes through which the partition members can pass.
  • the partition member housed in the space under the vehicle floor can be advanced into the vehicle interior space through the hole.
  • the vehicle may further include two batteries located under the floor.
  • the drive unit may be located between the two batteries.
  • the sensor may also be installed on the floor.
  • the sensor may also be located on the roof of the vehicle.
  • the sensor may also be provided on the seat.
  • the control unit may also perform sensor sensing when switching from manual driving mode to automatic driving mode, and if the sensor sensing determines that there is no object on the movement trajectory, may inquire of the occupant as to whether or not to move the partition member from the second position to the first position, and if the sensor sensing determines that there is an object on the movement trajectory, may suggest to the occupant that the object be removed from the movement trajectory.
  • the control unit will suggest to the occupant that they remove the object, so the occupant can know why the partition member is not operating.
  • a vehicle that includes a projection device capable of projecting an image onto an object outside the vehicle, a control unit that controls the projection device, and at least one interior functional part.
  • the control unit determines that an image is to be projected by the projection device, it activates the interior functional part before projecting the image.
  • control unit when the control unit decides to project an image using the projection device, it activates the interior functional parts before projecting the image, so the activation of the interior functional parts makes the occupants aware that something is about to happen. This prevents the occupants from being surprised by suddenly projecting an image onto an object outside the vehicle, further improving safety.
  • the interior functional parts may also be capable of notifying the occupant of semantic information indicating the meaning of the image projected by the projection device, and the control unit may notify the occupant of the semantic information by the interior functional parts.
  • This configuration allows the occupants to know the meaning of the image projected onto an object outside the vehicle, allowing them to take appropriate action.
  • the interior functional parts may also be a monitor or a speaker.
  • the projection device may be capable of projecting a first image corresponding to a first danger level indicating the danger level of the occupant and a second image corresponding to a second danger level higher than the first level
  • the interior functional parts may be switchable between a first state corresponding to the first image and a second state corresponding to the second image
  • the control unit may set the interior functional parts to the first state when it has determined that the projection device is to project the first image, and set the interior functional parts to the second state when it has determined that the projection device is to project the second image.
  • the state of the interior functional parts differs depending on the danger level, allowing the occupant to understand the danger level based on the state of the interior functional parts.
  • the interior functional part may be an interior light
  • the control unit may change the color or intensity of the light emitted from the interior light in accordance with the image projected by the projection device.
  • the interior functional part may be a vibration device provided on the seat, and the control unit may change the movement of the vibration device according to the image projected by the projection device.
  • the interior functional part may be a seat arrangement device that can change the state of the seat between a normal state in which the occupant can sit facing forward and a state other than the normal state by changing at least one of the posture and position of the seat, and when the control unit determines to project an image using the projection device, it may operate the seat arrangement device to change the state of the seat to the normal state.
  • the control unit may also decide to project an image when a predetermined condition is met, and operate the projection device when the predetermined condition is met for a predetermined time after deciding to project the image.
  • control unit does not need to operate the projection device during automatic operation.
  • This configuration makes it possible to prevent the projection device from operating unnecessarily when the occupant is not looking at objects outside the vehicle during autonomous driving.
  • FIG. 1 is a diagram illustrating a part changing system according to a first embodiment.
  • 5 is a flowchart showing an operation of a control unit of the part changing system according to the first embodiment.
  • 13 is a flowchart showing a proposed mode. 13 is a flowchart showing an individual selection mode.
  • FIG. 13 is a diagram showing a login image of an interior modification site.
  • FIG. 13 is a diagram showing a mode selection image.
  • FIG. 13 is a diagram showing an image on which an image for inputting preference determination information is displayed.
  • FIG. 13 is a diagram showing an image on which a proposed image is displayed.
  • FIG. 13 is a diagram showing an image of a parts list.
  • FIG. 11 is a diagram illustrating a vehicle system according to a second embodiment.
  • FIG. 13 is a diagram showing a state in which the seat has been switched from a first state to a second state.
  • 13 is a flowchart showing an operation of a smartphone in a vehicle system according to a second embodiment.
  • 10 is a flowchart showing the operation of a control unit of the vehicle system according to the second embodiment.
  • FIG. 1A shows a scene in which a user makes a payment using a smartphone
  • FIG. 1B shows a screen of the smartphone on which selected information is displayed.
  • FIG. 13 is a diagram showing a screen of a smartphone on which unchangeable information is displayed.
  • 13 is a flowchart showing an operation of a smartphone in a vehicle system according to a third embodiment.
  • 13 is a flowchart showing an operation of a control unit of the vehicle system according to the third embodiment.
  • 13A shows the state of the seat when the seat arrangement device of the vehicle system according to the fourth embodiment is in a third mode
  • FIG. 13B shows the state of the seat when the seat arrangement device is in a fourth mode.
  • 13 is a flowchart showing an operation of a smartphone in a vehicle system according to a fourth embodiment.
  • 13 is a flowchart showing an operation of a control unit of a vehicle system according to a fourth embodiment.
  • 13 is a flowchart showing an operation of a smartphone in a vehicle system according to a fifth embodiment.
  • 13 is a flowchart showing the operation of a control unit of a vehicle system according to a fifth embodiment.
  • FIG. 13 is a diagram showing a vehicle system according to a sixth embodiment.
  • 13 is a flowchart showing the operation of a control unit of a vehicle system according to a sixth embodiment.
  • 13A and 13B are diagrams showing an electric shade as an in-vehicle device of a vehicle system according to a seventh embodiment, in which FIG. 13A shows an open state and
  • FIG. 23 is a flowchart showing the operation of a control unit of the vehicle system according to the seventh embodiment.
  • FIG. 23 is a diagram showing a vehicle according to an eighth embodiment, in which the partition member is located in a first position.
  • 13 is a diagram showing a state in which the partition member is located at a second position.
  • FIG. 23 is a flowchart showing the operation of a control unit of a vehicle according to the eighth embodiment.
  • FIG. 13 is a diagram showing modified examples of the position of the sensor.
  • FIG. 13 is a diagram showing a vehicle according to a ninth embodiment.
  • 4A and 4B are diagrams showing a pantograph mechanism in a contracted state and an extended state, respectively.
  • FIG. 23 is a perspective view showing a vehicle according to a tenth embodiment.
  • 1A to 1E are diagrams showing types of images projected by a projection device.
  • FIG. 13 is a diagram showing an image displayed on a monitor.
  • 23 is a flowchart showing the operation of a control unit of a vehicle according to a tenth embodiment.
  • FIG. 23 is a flowchart showing the operation of a control unit of a vehicle according to an eleventh embodiment.
  • FIG. 23 is a diagram showing a seat arrangement device which is one of the interior functional parts of a vehicle relating to a twelfth embodiment.
  • 23 is a flowchart showing the operation of a control unit of a vehicle according to a twelfth embodiment.
  • 23 is a flowchart showing the operation of a control unit of a vehicle according to a thirteenth embodiment.
  • the part changing system 1 is a system for providing a subscription service (hereinafter, also referred to as "interior change subscription") that allows interior parts of a vehicle to be changed after the vehicle is purchased.
  • the interior change subscription in this embodiment is a service that can be subscribed to after purchasing a new car, and allows parts to be replaced for a predetermined period of time by paying a predetermined amount.
  • consumption points corresponding to the price of the interior part are added each time an interior part is changed, and the service is stopped when the consumption points reach the point upper limit value.
  • the part change system 1 includes a server 3.
  • the server 3 is capable of communicating with a terminal 2.
  • the terminal 2 is a terminal that is owned and used by a user who is a subscriber to the interior change subscription, and is, for example, a smartphone.
  • the terminal 2 has a display unit DS.
  • the display unit DS is a touch panel that can display images and input information.
  • the terminal 2 also has a CPU, ROM, RAM, rewritable non-volatile memory, etc., which are not shown.
  • the server 3 is installed, for example, at a car dealer.
  • the server 3 has a control unit CT1 and a memory unit M.
  • the control unit CT1 has a CPU, etc.
  • the memory unit M has a ROM, RAM, a rewritable non-volatile memory, etc.
  • the memory unit M stores owned car information, which is information about the user's owned car, and subscriber information for the interior modification subscription.
  • the owned vehicle information includes information about the interior parts of the user's owned vehicle.
  • the owned vehicle information includes, for example, information such as the color and pattern of the seat upholstery.
  • the information on the quote at the time of deciding to purchase may be stored in the memory unit M as owned vehicle information.
  • the owned vehicle information may be stored in the memory unit M by, for example, a dealer's employee or a user inputting information using a PC or the like.
  • information on the interior parts selected by the user in the design proposal system may be stored in the memory unit M as owned car information.
  • the subscriber information includes information about the interior modification subscription subscriber.
  • the subscriber information is, for example, a user name and a password.
  • the subscriber information of a specific user is associated with the vehicle information owned by the specific user and stored in the memory unit M.
  • the control unit CT1 can communicate with the terminal 2 via the Internet or the like.
  • the control unit CT1 can transmit a website for changing interior parts (hereinafter referred to as the "interior change site") to the terminal 2.
  • the user can use the interior change site by accessing the interior change site with the terminal 2 and inputting subscriber information into the interior change site.
  • control unit CT1 When terminal 2 accesses the interior change site, control unit CT1 displays the login image shown in FIG. 5 on terminal 2 and starts the process shown in FIG. 2.
  • the login image has an image for inputting a user name, an image for inputting a password, and an image of a login button B1 for sending the user name and password to control unit CT1.
  • control unit CT1 first determines whether or not the user is a subscriber to the interior change subscription based on the subscriber information sent from the terminal 2 (S1). In more detail, the control unit CT1 determines whether or not the user name and password entered in the login image match the user name and password stored in the memory unit M, and if it determines that they match, it determines that the user is a subscriber to the interior change subscription.
  • step S1 If, in step S1, the user name and password do not match and it is determined that the user is not a subscriber to the interior change subscription (No), the control unit CT1 displays a message indicating that the user name and password are incorrect and ends this process.
  • step S1 If it is determined in step S1 that the user is a subscriber to the interior change subscription (Yes), the control unit CT1 enables the use of the interior change site and sends the mode selection image shown in FIG. 6 to the terminal 2 (S2).
  • the mode selection image is an image for allowing the user to select a mode, and has an image of a suggestion button B2 for selecting a suggested mode, and an image of an individual selection button B3 for selecting an individual selection mode.
  • the proposal mode is a mode in which interior parts are proposed to the user.
  • the control unit CT1 proposes to the user an interior design that includes a plurality of interior parts and that matches the user's preferences.
  • the individual selection mode is a mode in which the user is allowed to select interior parts individually.
  • suggestion mode information indicating that the suggestion mode has been selected is sent to the control unit CT1.
  • individual selection mode information indicating that the individual selection mode has been selected is sent to the control unit CT1.
  • control unit CT1 acquires the mode information selected by the user from the terminal 2, and executes the suggested mode or the individual selection mode based on the mode information. In detail, after step S2, the control unit CT1 determines whether the suggested mode has been selected based on the mode information from the terminal 2 (S3).
  • step S3 if the mode information from the terminal 2 is suggested mode information, the control unit CT1 determines that the suggested mode has been selected (Yes) and executes the suggested mode (S4). If it is determined in step S3 that the suggested mode has not been selected (No), the control unit CT1 determines whether or not the individual selection mode has been selected (S5).
  • step S5 if the mode information from the terminal 2 is individual selection mode information, the control unit CT1 determines that the individual selection mode has been selected (Yes) and executes the individual selection mode (S6). If it is determined in step S5 that the individual selection mode has not been selected (No), the control unit CT1 determines whether or not the user has selected to end the interior change site (S7).
  • the interior change site is ended, for example, when the user selects an image of a button labeled with the words "Exit" or "Logout.”
  • step S7 If it is determined in step S7 that end has not been selected (No), the control unit CT1 returns to the process of step S3. If it is determined in step S7 that end has been selected (Yes), or after steps S4 and S6 are completed, the control unit CT1 ends this process.
  • control unit CT1 when the control unit CT1 starts the proposal mode, it first transmits an image for inputting the preference discrimination information shown in FIG. 7 to the terminal 2 (S21).
  • the preference discrimination information is information for discriminating the user's preferences.
  • the preference discrimination information is gender, hobbies, and personality.
  • the control unit CT1 causes the terminal 2 to display the preference discrimination image shown in FIG. 7.
  • the preference discrimination image has an image of a gender selection button B4 for selecting a gender, an image of a hobby selection button B5 for selecting a hobby, a personality selection button B6 for selecting a personality, and a decision button B7 for deciding a preference.
  • the gender selection button B4, hobby selection button B5, and personality selection button B6 are buttons that display multiple items in a pull-down menu. The user can select the appropriate item from among the items.
  • the options male and female are displayed in a pull-down menu. If the user selects male, the control unit CT1 extracts an interior design that men prefer (stylish, cool, etc.) from the multiple interior designs stored in the memory unit M. If the user selects female, the control unit CT1 extracts an interior design that women prefer (cute, etc.) from the multiple interior designs.
  • a pull-down menu is displayed with items such as music, mountain climbing, and marine sports.
  • the control unit CT1 extracts, for example, an interior design equipped with high-grade speakers from among the multiple interior designs.
  • the control unit CT1 extracts, for example, a natural-style interior design with a green base from among the multiple interior designs.
  • the control unit CT1 extracts, for example, a marine-style interior design with a blue base from among the multiple interior designs.
  • a pull-down menu is displayed with options such as bright, dark, neat, etc. If the user selects bright, the control unit CT1 extracts, for example, an interior design with a relatively flashy color from among the multiple interior designs. If the user selects dark, the control unit CT1 extracts, for example, an interior design with a relatively subdued color from among the multiple interior designs. If the user selects neat, the control unit CT1 extracts, for example, an interior design with seats that are easy to remove (changeable seats) or interior parts that have been antibacterial treated from among the multiple interior designs.
  • the control unit CT1 determines whether the preference discrimination information has been acquired from the terminal 2, thereby determining whether the preference discrimination information has been selected by the user (S22).
  • the control unit CT1 selects an interior design based on the preference discrimination information and the owned car information (S23). Specifically, in step S23, the control unit CT1 selects, from among the multiple interior designs, multiple interior designs that are suitable for the user's owned car and that meet the user's gender, hobbies, and personality conditions.
  • the control unit CT1 After step S23, the control unit CT1 generates a number of proposed images G1, G2, G3, G4 to propose the selected interior designs to the user, and transmits the generated number of proposed images G1 to G4 to the terminal 2 (S24).
  • the multiple proposed images G1 to G4 are displayed on the display unit DS of the terminal 2.
  • the proposed images G1 to G4 are selection images for selecting interior parts.
  • the proposed images G1 to G4 are images showing the entire interior of the vehicle, and are also installation images, which are images of the interior parts installed on the vehicle.
  • the proposed images G1-G4 may be still images, or may be videos in which a three-dimensional image rotates as if a camera were looking around the interior from a viewpoint inside the vehicle. Note that in the figure, only seats are shown in the proposed images G1-G4, but other interior parts such as door panels and handles can also be displayed. Also, while the figure shows only four proposed images G1-G4, five or more proposed images may be proposed to the user by scrolling the screen. Furthermore, the multiple proposed images may be the same design but with different colors or patterns, or may be different designs of the same color or pattern.
  • the image containing multiple proposed images G1-G4 also contains an image of a decision button B8 for deciding on the interior.
  • a decision button B8 for deciding on the interior.
  • the control unit CT1 determines whether the interior has been decided by determining whether information on the interior design selected by the user has been transmitted from the terminal 2 (S25). If it is determined in step S25 that the interior has been decided (Yes), the control unit CT1 compares each interior part that constitutes the decided interior design with the owned vehicle information (each interior part that constitutes the current interior design), generates a parts list showing the interior parts to be changed, and transmits an image of the generated parts list to the terminal 2 (S26).
  • the parts list image shows the names of the interior parts to be changed (part names) and the consumption points corresponding to the part names.
  • the consumption points correspond to the price of the interior parts, and for example, 1 point corresponds to 1 yen.
  • the control unit CT1 may display an error message if the total number of points consumed exceeds the upper point limit.
  • the control unit CT1 may also display interior parts that are within the upper point limit in black text, and interior parts that exceed the upper point limit in red text.
  • the image of the parts list also includes an image of an order button B9 for placing an order for interior parts.
  • order button B9 for placing an order for interior parts.
  • control unit CT1 determines whether an order has been placed by determining whether order information has been sent from the terminal 2 (S27). If it is determined in step S27 that an order has been placed (Yes), the control unit CT1 sends the parts list information together with the user's contact information such as telephone number and address to the computer of the dealer closest to the user (S28), and ends this process.
  • the information and contact information of the dealer nearest to the user can be stored in the memory unit M as owned vehicle information, for example.
  • the control unit CT1 may search for a dealer near the address in the contact information based on the contact information stored in the memory unit M as owned vehicle information, and transmit information on the parts list to the searched dealer.
  • the parts selection image has an installation image G11 that is an image of the interior part installed on the vehicle, a number of selection images G12 for selecting the seat cover, a number of selection images G13 for selecting the door panel, and an image of a decision button B10 for deciding the selection of the interior part.
  • the installation image G11 may be a still image or a video.
  • the initial installation image G11 before the selected image is selected is an image of the current interior design based on the owned vehicle information. Note that in the figure, only selection images G12 and G13 for selecting the upholstery and door panel are displayed, but by scrolling the screen, selection images for selecting other interior parts can also be displayed. Other interior parts include door armrests, door lighting, door speakers, instrument panels, pillar decorative panels, steering wheels, console boxes, seats (upholstery, padding, armrests, headrests, sensors built into the seats, etc.), and car navigation systems.
  • selection information which is information about the selected interior part
  • the installation image G11 is updated each time a selection image is selected. Specifically, for example, if the upholstery color is selected as blue, the seat upholstery color of the installation image G11 is updated to blue and displayed.
  • the user selects parts while looking at the installation image G11, and when they have finished selecting the parts they want to change, they select the decision button B7 to decide the interior.
  • decision button B7 decision information indicating that the interior has been decided is sent from the terminal 2 to the control unit CT1.
  • step S41 the control unit CT1 determines whether or not a part to be changed has been selected based on the selection information transmitted from the terminal 2 (S42). If it is determined in step S42 that a part has been selected (Yes), the control unit CT1 updates the wearing image G11 based on the selected part and transmits the updated wearing image G11 to the terminal 2 (S43).
  • step S43 the control unit CT1 determines whether the interior has been decided by determining whether decision information has been transmitted from the terminal 2 (S44). If it is determined in step S44 that the interior has not been decided (No), the control unit CT1 returns to the process of step S42 and waits for the selection of another part.
  • step S44 determines that the interior design has been decided (Yes)
  • the control unit CT1 executes steps S45 to S47, which are substantially the same as steps S26 to S28 described above, and ends this process.
  • the control unit CT1 sends an image showing the parts list shown in FIG. 9 to the terminal 2 (S45), and if it determines that an order has been placed (S46: Yes), it sends the parts list information and contact information to the computer of the dealer nearest to the user (S47).
  • the login image shown in Fig. 5 is displayed on the terminal 2.
  • the mode selection image shown in Fig. 6 is displayed on the terminal 2.
  • the control unit CT1 sends the parts list information and the user's contact information to the computer of the user's nearest dealer. Based on the parts list information and the user's contact information sent to the computer, the dealer's staff will contact the user and confirm various dates with the user, such as the date when the user's car will be taken in and the date when the interior changes will be completed. The actual work of changing the interior parts is carried out at the dealer.
  • the parts selection image shown in FIG. 10 is displayed on the terminal 2.
  • the user selects a predetermined number of selection images in the parts selection image and selects the Confirm button B10 an image showing the parts list shown in FIG. 9 is displayed on the terminal 2. The operation thereafter is the same as in the proposed mode, so a description thereof will be omitted.
  • a user who is a subscriber to the interior modification subscription can select interior parts using his/her own terminal 2, so that the interior parts can be easily modified after purchasing a vehicle.
  • the suggested mode and individual selection mode can be selected, allowing the user to choose the mode that best suits the current situation. For example, if the user has not yet decided which interior part they wish to change, they can select the suggested mode, which allows them to narrow down the interior parts that match their preferences from the wide range of interior parts available. Also, for example, if the user has already decided which interior part they wish to change, they can select the individual selection mode, which allows them to quickly select the interior part.
  • control unit CT1 suggests interior parts, it suggests interior parts that are suitable for the owned vehicle based on the owned vehicle information, thereby preventing the user from mistakenly selecting interior parts that are not suitable for the user's owned vehicle.
  • the user can view the image showing the interior parts installed on the vehicle, allowing the user to check the overall image of the interior with the changes made to the interior parts.
  • control unit CT1 may select an interior part based on the user's behavior history, and transmit to the terminal 2 a suggestion image that suggests the selected interior part to the user.
  • the control unit CT1 acquires the user's behavior history from a device owned by the user, such as a vehicle control unit of the user's vehicle or the terminal 2, via the Internet, and stores the history in the memory unit M.
  • Examples of the user's behavior history include the following histories. 1. The driving history of the user's vehicle that can be obtained from the navigation system of the user's vehicle. 2. Music and video viewing history and genres stored in the vehicle's memory. 3. The movement history of the terminal 2 that can be acquired from the GPS transmitter of the terminal 2. 4. Site search history on device 2. 5. Health condition history that changes depending on the user's behavior, such as blood pressure, obtained by a wearable device.
  • control unit CT1 executes the proposal mode shown in FIG. 11.
  • the control unit CT1 starts the proposal mode, it acquires the user's behavior history and owned vehicle information from the memory unit M, and selects an interior design based on the behavior history and owned vehicle information (S61). For example, if the control unit CT1 determines based on the behavior history that the user frequently listens to music, it selects an interior design that emphasizes music, such as an interior design equipped with high-grade speakers.
  • control unit CT1 determines based on the behavioral history that the user frequently watches the in-car television, it selects an interior design that emphasizes visuals, such as an interior design with a high-grade monitor. If the control unit CT1 determines based on the behavioral history that the user frequently goes to the sea, it selects a marine-style interior design with a blue base.
  • control unit CT1 determines based on the behavior history that the user frequently goes mountain climbing, it selects a natural style interior design with a green base. If the control unit CT1 determines based on the behavior history that the user frequently searches for clothes with a red base, it selects an interior design with a red base.
  • control unit CT1 determines that the user's blood pressure is high based on the behavioral history, it selects an interior design that includes a seat that can measure the user's blood pressure using a biosensor. After step S61, the control unit CT1 executes the same processes as in steps S24 to S28 in the previous embodiment.
  • interior parts are suggested to the user according to the user's behavior history, eliminating the need for the user to select a preferred interior part from a wide variety of interior parts.
  • the control unit CT1 acquires the user's behavior history from the memory unit M, which updates the user's behavior history on a case-by-case basis, eliminating the need for the user to select preference discrimination information compared to a form in which the user selects preference discrimination information that suits him or her.
  • the behavior history may not be stored in the memory unit M, but may be acquired from a device such as the terminal 2 when the control unit CT1 executes the proposed mode.
  • Preference discrimination information is not limited to gender, hobbies, and personality. Preference discrimination information may also be color, pattern (e.g. no pattern, polka dots, leopard print, etc.), design (e.g. stylish, cool, cute, etc.), desired functions (e.g. music lover, neatness lover, etc.), etc. Preference discrimination information is not limited to the three types of gender, hobbies, and personality, but may be one type, or two or four or more types.
  • the control unit may use AI (artificial intelligence) to learn the obtained user information through machine learning and reflect this in the content of the suggestions.
  • AI artificial intelligence
  • Interior change subscriptions may be ranked according to the amount. For example, the user may be able to choose between plans that cost 10,000 yen per year, 50,000 yen per year, and 100,000 yen per year. In this case, the contents of the plan may vary depending on the rank. For example, a 10,000 yen per year plan may be a plan that only allows the color of interior parts to be changed once a year. A 100,000 yen per year plan may be a plan that allows the replacement of all interior parts three times a year.
  • the server's control unit may be configured to determine the rank and present only services that are available to the user.
  • the control unit may be configured to stop the service.
  • the user may be able to check the points consumed at any time by accessing the server from his/her own terminal.
  • the points consumed and the upper limit of points may be displayed on the mode selection image shown in FIG. 6, which is the screen displayed after logging in.
  • the part change system 1 only needs to include a server, and does not need to include a user terminal.
  • the proposed image and the installation image may be displayed on something other than the terminal.
  • a selection image still image
  • a video of the installation image may be displayed on a monitor separate from the terminal.
  • the terminal may be a tablet, a personal computer, etc.
  • the subscription service may be a service that allows you to change vehicle parts after purchasing the vehicle.
  • a subscription may be a service that you can join after purchasing a used car.
  • a subscription may be a service that allows you to change exterior parts.
  • a control unit acquires behavioral information, such as a user's payment information at a shopping mall, from the user's mobile device, and the control unit controls in-vehicle equipment, such as seat arrangement, based on the behavioral information (see JP 2020-157943 A).
  • control unit controls the in-vehicle equipment when it receives behavioral information from the mobile device, which means that there is a risk that the in-vehicle equipment may be operated without the user's consent.
  • control that reflects the user's intentions in a vehicle system equipped with a control unit that controls in-vehicle equipment based on user behavior information.
  • the vehicle system 100 includes a seat 10, an obstacle detection sensor SN1, a seat arrangement device AD as an example of an in-vehicle device, and a control unit CT2.
  • the seat 10 is located in front of the luggage compartment 52 located at the rear of the vehicle 50.
  • the seat 10 is located behind the front row seats FS, such as the driver's seat and passenger seat.
  • the vehicle 50 is a five-door vehicle, and has a total of four doors (not shown) located on the left and right sides of the vehicle 50, and a back door 53 located behind the luggage compartment 52.
  • the seat 10 includes a seat cushion 11, a seat back 12, and a headrest 13.
  • the seat cushion 11, the seat back 12, and the headrest 13 each have a frame that forms a framework, a pad that covers the frame, and a skin that covers the pad.
  • the seat back 12 is rotatably supported by the seat cushion 11.
  • the seat 10 can move in the front-rear direction by means of a slide rail (not shown).
  • the seat arrangement device AD is a device that changes at least one of the posture and position of the seat 10 to change the seat 10 into a plurality of states.
  • the seat arrangement device AD has a first drive source such as a motor (not shown) that rotates the seat back 12.
  • the seat arrangement device AD or the vehicle 50 has a second drive source such as a motor (not shown) that moves the seat 10 in the fore-and-aft direction.
  • the first drive source and the second drive source are controlled by the control unit CT2.
  • the seat 10 can be switched between a first state shown in FIG. 12 and a second state shown in FIG. 13.
  • the first state is a state in which a user can sit, that is, a state in which the seat back 12 is upright relative to the seat cushion 11, and the seat 10 is positioned in a position other than the forwardmost position.
  • the second state is a state in which the storage space in the vehicle cabin is larger than in the first state.
  • the second state is a state in which the seat back 12 is folded so as to face the seat cushion 11, and the seat 10 is positioned in the forwardmost position.
  • the seat arrangement device AD can be switched between a first mode in which the seat 10 is in a first state and a second mode in which the seat 10 is in a second state.
  • the second mode is an example of a predetermined mode.
  • the obstacle detection sensor SN1 is a sensor that detects obstacles on the trajectory of the seat 10 that is moved by the seat arrangement device AD.
  • the obstacle detection sensor SN1 is disposed between the cover and pad of the seat cushion 11, and detects the presence or absence of an object on the seat surface of the seat cushion 11.
  • the obstacle detection sensor SN1 is capable of detecting obstacles on the rotation trajectory of the seat back 12 until it switches from the first state to the second state.
  • the obstacle detection sensor SN1 is, for example, a pressure sensor. In this embodiment, the obstacle detection sensor SN1 is also used as a sensor for a seat belt reminder that detects whether or not the user is sitting in the seat.
  • the control unit CT2 has a CPU, ROM, RAM, rewritable non-volatile memory, etc. (not shown), and executes processing based on pre-stored programs.
  • the control unit CT2 is capable of communicating with a smartphone SP, which is an example of a mobile terminal carried by a user.
  • the control unit CT2 may be provided in the vehicle 50 or in the seat 10. It is assumed that the user has previously configured the control unit CT2 and the smartphone SP to enable communication between the control unit CT2 and the smartphone SP.
  • the control unit CT2 acquires user behavior information related to the user's behavior from the smartphone SP.
  • the user behavior information is payment information indicating that the user has purchased an item.
  • the control unit CT2 determines whether or not to set the seat arrangement device AD to the second mode based on the payment information. If the control unit CT2 determines that the seat arrangement device AD should be set to the second mode, it sends selection information to the smartphone SP to allow the user to select whether or not to set the seat arrangement device AD to the second mode. When the control unit CT2 receives permission information sent from the smartphone SP when the user has selected to set the seat arrangement device AD to the second mode based on the selection information, it sets the seat arrangement device AD to the second mode. In the following description, the process of setting the seat arrangement device AD to the second mode is also referred to as the "seat storage process".
  • the control unit CT2 After acquiring the payment information from the smartphone SP, the control unit CT2 determines whether or not there is an obstacle on the trajectory of the seat 10 based on the information from the obstacle detection sensor SN1. If the control unit CT2 determines that there is an obstacle, it sends unchangeable information to the smartphone SP, indicating that the state of the seat 10 cannot be changed.
  • the smartphone SP determines whether or not the user has purchased an item (S101). Specifically, the smartphone SP determines whether or not a payment has been made using a payment application program that performs payment using electronic money.
  • the "application program” is also simply referred to as an "app.”
  • step S101 If it is determined in step S101 that an item has been purchased (Yes), the smartphone SP sends payment information indicating that payment has been made to the control unit CT2 (S102). After step S102, or if it is determined in step S101 that an item has not been purchased (No), the smartphone SP determines whether or not it has received selection information from the control unit CT2 (S103).
  • step S103 If it is determined in step S103 that the selection information has been received (Yes), the smartphone SP displays the selection information on the screen (S104). After step S104, the smartphone SP determines whether or not the user has selected to change the state of the seat 10 to the second state within a first predetermined time period after the selection information is displayed (S105).
  • step S105 If it is determined in step S105 that changing the state of the seat 10 to the second state has been selected (Yes), the smartphone SP determines whether or not it has received no-change information from the control unit CT2 (S106). If it is determined in step S106 that no-change information has been received (No), it transmits permission information to the control unit CT2 to permit changing the state of the seat 10 to the second state (S107).
  • step S106 If it is determined in step S106 that unchangeable information has been received (Yes), the smartphone SP displays the unchangeable information on the screen (S108) and ends this process. If it is determined in step S103 or step S105 as No, the smartphone SP ends this process.
  • control unit CT2 determines whether or not payment information has been received from the smartphone SP (S121). If it is determined in step S121 that payment information has been received (Yes), the control unit CT2 determines whether or not the maximum length of the item purchased by the user is greater than a predetermined value based on the payment information (S122).
  • the predetermined value may be the cargo compartment length when the seat 10 is in the first state and the seat 10 is in the rearmost position, or it may be the cargo compartment width, or it may be the length of the diagonal of the cubic cargo compartment space.
  • step S122 If it is determined in step S122 that the maximum length of the object is greater than the predetermined value (Yes), the control unit CT2 decides to execute the sheet storage process (S123). After step S123, the control unit CT2 determines whether or not there is an obstacle on the trajectory of the sheet 10 based on information from the obstacle detection sensor SN1 (S124).
  • step S124 If it is determined in step S124 that an obstacle is present (Yes), the control unit CT2 transmits the selection information and the unchangeable information to the smartphone SP (S125) and ends this process. If it is determined in step S124 that no obstacle is present (No), the control unit CT2 transmits the selection information to the smartphone SP (S126).
  • step S126 the control unit CT2 judges whether or not permission information has been received from the smartphone SP within a second predetermined time after the selection information was sent (S127). If it is judged in step S127 that permission information has been received (Yes), the control unit CT2 executes the seat storage process, that is, sets the seat arrangement device AD to the second mode (S128), and ends this process.
  • step S127 If it is determined in step S127 that the permission information has not been received within the second predetermined time (No), the control unit CT2 does not set the seat arrangement device AD to the second mode and ends this process. If it is determined in step S121 or step S122 as No, the control unit CT2 ends this process.
  • the smartphone SP transmits payment information to the control unit CT2 of the vehicle 50 (S101: Yes ⁇ S102).
  • control unit CT2 when the control unit CT2 receives the payment information, it judges whether the maximum length of the skis is greater than a predetermined value based on the payment information (S121: Yes ⁇ S122). If the control unit CT2 judges that the maximum length of the skis is greater than the predetermined value, it decides to execute the seat storage process (S122: Yes ⁇ S123).
  • control unit CT2 determines whether or not there is an obstacle on the trajectory of the seat 10 (S124). If there is no obstacle, the control unit CT2 transmits the selection information to the smartphone SP (S126).
  • the smartphone SP When the smartphone SP receives the selection information, it displays the selection information on the screen as shown in FIG. 16(b) (S103: Yes ⁇ S104). Specifically, the smartphone SP displays, as the selection information, an image of the message "Do you want to store the sheet?", an image of a diagram showing the state of the sheet 10 when the sheet storage process is executed, and an image of a switch marked with the letters "Yes” or "No” for selecting whether or not to store the sheet on the screen.
  • the smartphone SP sends permission information to the control unit CT2 (S105: Yes ⁇ S106: No ⁇ S107).
  • the control unit CT2 executes the sheet storage process (S127: Yes ⁇ S128).
  • the seat 10 switches from the first state to the second state.
  • the control unit CT2 may control the seat arrangement device AD in response to a request from the user.
  • the user's request may be output to the control unit CT2 by the user operating an operation unit provided in the vehicle, or may be output to the control unit CT2 by the user operating the smartphone SP.
  • the smartphone SP may be operated by the user's voice.
  • the user may also manually return the seat 10 from the second state to the first state by operating a lever that activates the reclining mechanism or a lever that unlocks the sliding movement.
  • control unit CT2 determines in step S124 that an obstacle is present (Yes), it transmits the selection information and the unchangeable information to the smartphone SP (S125).
  • smartphone SP receives the unchangeable information, it displays the unchangeable information on the screen as shown in FIG. 17 (S106: Yes ⁇ S108).
  • the smartphone SP displays an image of a message on the screen as unchangeable information, for example, "The seat cannot be stored because there is something on it.”
  • control unit CT2 determines that the seat arrangement device AD should be set to the second mode
  • selection information for allowing the user to select whether or not to set the seat arrangement device AD to the second mode is transmitted to the smartphone SP, so that the user can select whether or not to set the seat arrangement device AD to the second mode by operating the smartphone SP. Therefore, in the vehicle system 100 equipped with the control unit CT2 that controls the seat arrangement device AD based on the user's behavior information, control that reflects the user's intention can be realized.
  • the user can allow the execution of the seat storage process to make the luggage compartment larger in advance. Also, for example, if a user has purchased skis for a friend and wants to give them to the friend on the spot, the user can leave the state of the seat 10 in the first state by not allowing the execution of the seat storage process.
  • control unit CT2 sends change-prohibited information to the smartphone SP, so that the user can know that the seat 10 cannot be moved by the seat arrangement device AD.
  • the user behavior information is schedule information indicating a schedule of the user.
  • the control unit CT2 according to the third embodiment determines whether to set the seat arrangement device to the second mode based on the schedule information.
  • the smartphone SP executes the process of FIG. 18, and the control unit CT2 executes the process of FIG. 19.
  • the processes of steps S101 and S102 in FIG. 14 are replaced with new processes of steps S141 and S142.
  • the processes of steps S121 and S122 in FIG. 15 are replaced with new processes of steps S151 and S152.
  • the same processes as in the second embodiment are denoted by the same reference numerals, and the description thereof will be omitted.
  • the smartphone SP determines whether or not the user has input a schedule using a schedule application for managing schedules (S141). If it is determined in step S141 that a schedule has been input (Yes), the smartphone SP transmits the input schedule information to the control unit CT2 (S142).
  • schedule information includes, for example, the date, location, and details of the event.
  • schedule information is the date and details of the event.
  • step S142 or if the result of the determination in step S141 is No, the smartphone SP appropriately executes the processes in steps S103 to S108 described above.
  • the control unit CT2 stores the schedule information every time the schedule information is sent from the smartphone SP.
  • the control unit CT2 determines whether there is an event the next day based on the stored schedule information (S151). If it is determined in step S151 that there is an event (Yes), the control unit CT2 determines whether the event the next day is an event that requires large luggage or a lot of luggage, such as skiing, fishing, or camping (S152). In the following description, events that require large luggage or a lot of luggage, such as skiing, are also referred to as "big events.”
  • the details of the major event may be pre-stored in the control unit CT2, or may be registered in the control unit CT2 by inputting them by the user. Also, in step S151, the date may be changed arbitrarily, such as two days later, three days later, etc., instead of "the next day.”
  • step S152 If it is determined in step S152 that the next day's event is a major event (Yes), the control unit CT2 decides to execute the sheet storage process in step S123. After step S123, the control unit CT2 appropriately executes the processes in steps S124 to S128 described above. If it is determined No in step S151 or step S152, the control unit CT2 ends this process.
  • the user's smartphone SP will receive an inquiry about whether to execute the seat storage process, and the user can decide whether to enlarge the luggage compartment depending on the situation. For example, if the user wants to store a large amount of luggage in the luggage compartment for a big event such as skiing, the user can select to enlarge the luggage compartment. Also, for example, if the luggage such as ski equipment has already been sent to the destination by courier and multiple friends are going to the destination in the vehicle, the user can select not to enlarge the luggage compartment.
  • the seat arrangement device AD can be switched between a third mode shown in Fig. 20(a) and a fourth mode shown in Fig. 20(b).
  • the third mode is a mode in which the angle of the seat back 12 of the seat 10 is set to a predetermined angle.
  • the fourth mode is a mode in which the seat back 12 is reclined further than in the third mode.
  • the fourth mode is an example of a predetermined mode.
  • the process of switching the seat arrangement device AD to the fourth mode is also referred to as a "reclining process.”
  • An obstacle detection sensor SN2 is provided on the rear surface of the seat back 12 of the seat 10 according to the fourth embodiment.
  • an infrared sensor or a laser sensor can be used as the obstacle detection sensor SN2.
  • the user behavior information is the user's behavior history.
  • the behavior history is a history of location information obtained from a GPS transmitter provided in the smartphone SP.
  • the control unit CT2 determines whether or not to set the seat arrangement device AD to the fourth mode based on the behavior history.
  • the smartphone SP executes the process in FIG. 21, and the control unit CT2 executes the process in FIG. 22.
  • the processes in steps S101 and S102 in FIG. 14 are replaced with new processes in step S161, and the process in step S105 is replaced with new processes in step S162.
  • the processes in steps S121 to S123 in FIG. 15 are replaced with new processes in steps S171 to S173, and the process in step S128 is replaced with new processes in step S174.
  • the same processes as in the second embodiment are denoted by the same reference numerals, and the description thereof will be omitted.
  • the smartphone SP transmits the action history to the control unit CT2 (S161). After step S161, the smartphone SP executes the processes of steps S103 and S104 described above as appropriate.
  • the selection information in the fourth embodiment is information for allowing the user to select whether or not to set the seat arrangement device AD to the fourth mode, that is, information for allowing the user to select whether or not to perform the reclining process.
  • step S104 the smartphone SP determines whether or not the user has selected to execute the reclining process (S162). If it is determined in step S162 that the user has selected to execute the reclining process (Yes), the smartphone SP appropriately executes the processes of steps S106 to S108 described above.
  • the control unit CT2 stores the behavior history every time the behavior history is sent from the smartphone SP.
  • the control unit CT2 determines whether or not the user has approached the vehicle 50 (S171).
  • the determination of whether or not the user has approached the vehicle 50 may be made based on, for example, radio waves from a key remote control of the vehicle 50 carried by the user, or based on the user's behavioral history.
  • step S171 determines whether the user has exercised for a predetermined period of time or more based on the behavioral history (S172). If it is determined in step S172 that the user has exercised (Yes), the control unit CT2 decides to execute the reclining process (S173).
  • control unit CT2 executes the processes of steps S124 to S127 described above as appropriate. If the control unit CT2 determines in step S127 that permission information has been received (Yes), it executes the reclining process (S174). After step S174, or if the control unit CT2 determines No in either step S171 or S172, the control unit CT2 ends this process.
  • the following effects can be obtained.
  • the user's smartphone SP is asked whether to execute the reclining process, and the user can recline the seat back 12 depending on the situation. For example, if the user is tired from exercising, the user can select to execute the reclining process, thereby reclining the seat back 12 in advance before the user gets into the vehicle 50. Also, for example, if the user is not tired from exercising, the user can select not to execute the reclining process, thereby leaving the seat back 12 in an upright position and sitting in the seat 10 as usual.
  • the control unit CT2 may determine whether the user has exercised or is feeling unwell based on the physical information.
  • the in-vehicle equipment is an air conditioning device.
  • the air conditioning device may be an air conditioner provided in the vehicle, or a seat air conditioning device provided in a seat.
  • the air conditioning device is switchable between a first air conditioning mode in which the temperature in the passenger compartment is set to a first temperature, and a second air conditioning mode in which the temperature in the passenger compartment is set to a second temperature higher than the first temperature.
  • the first air conditioning mode is an example of a predetermined mode.
  • the process of setting the air conditioning device to the first air conditioning mode is also referred to as a "cooling process.”
  • the user behavior information is the user's behavior history.
  • the control unit CT2 determines whether to set the air conditioner to the first air conditioning mode based on the behavior history.
  • the smartphone SP executes the process in FIG. 23, and the control unit CT2 executes the process in FIG. 24.
  • the process in step S162 in FIG. 21 is replaced with a new process in step S181.
  • a new process in step S191 is added between the processes in steps S171 and S172 in FIG. 22, the process in step S173 is replaced with a new process in step S192, and the process in step S174 is replaced with a new process in step S193.
  • the same processes as in the fourth embodiment are denoted by the same reference numerals and will not be described.
  • the smartphone SP appropriately executes the processes of steps S161, S103, and S104 described above.
  • the smartphone SP determines whether or not the user has selected to execute the cooling process within a first predetermined time (S181). If execution of the cooling process has been selected in step S181 (Yes), the smartphone SP appropriately executes the processes of steps S106 to S108 described above. If not execution of the cooling process has been selected in step S181 (No), the smartphone SP ends this process.
  • control unit CT2 executes the process of step S171 described above. If the determination in step S171 is Yes, the control unit CT2 determines whether the outside air temperature is equal to or higher than a predetermined temperature based on information from the temperature sensor (S191). If the control unit CT2 determines in step S191 that the outside air temperature is equal to or higher than a predetermined temperature (Yes), the control unit CT2 executes the process of step S172 described above.
  • step S172 If the result of step S172 is Yes, the control unit CT2 decides to execute the cooling process (S192). After step S192, the control unit CT2 appropriately executes the processes of steps S124 to S127 described above.
  • step S127 If the result of step S127 is Yes, the control unit CT2 executes the cooling process (S193). After step S193, or if the result of step S191 is No, the control unit CT2 ends this process.
  • the following effects can be obtained.
  • the user's smartphone SP is asked whether to execute the cooling process, so that the user can lower the temperature in the vehicle cabin according to the situation. For example, if the user is sensitive to heat, the user can select to execute the cooling process to lower the temperature in the vehicle cabin in advance. Also, for example, if the user is sensitive to air conditioning, the user can select not to execute the cooling process to allow the user to spend time comfortably in the vehicle cabin.
  • the aforementioned physical information may be used as user behavior information instead of the behavior history.
  • the control unit CT2 may determine in step S172 whether the user has exercised or not, or whether the user is feeling unwell, based on the physical information. In the method for determining whether the user is feeling unwell, if it is determined that the user is not feeling unwell, it may decide to execute the cooling process, and if it is determined that the user is feeling unwell, this process may be terminated.
  • the control unit may obtain the number and size of purchased items from the payment information, and based on the number and size of the items, judge whether all purchased items can be stored in the luggage compartment when the seat is positioned at the rearmost position.
  • the types of seat arrangements made by the seat arrangement device may be, for example, fall down, dive down, tip up, rotation, etc.
  • Processing by a smartphone may be performed by installing a dedicated app on the smartphone, or may be performed by a program that is originally built into the smartphone itself.
  • the recommendation function in which the control unit allows the user to select a specific mode for the in-vehicle device, can be turned off if not required.
  • Machine learning could be used to learn where the user regularly goes (for example, going to the supermarket once a week) and how often seat arrangements are used, and seat arrangements could be implemented without recommendations (suggestions from the control unit to the user via a mobile device) only in certain situations.
  • the timing of sending the unchangeable information from the control unit to the smartphone may be such that the user is notified before or immediately after leaving the vehicle.
  • control unit may notify the smartphone and limit or prohibit the seat arrangement function.
  • the user behavior information may be a communication history obtained from a social networking service (SNS).
  • SNS social networking service
  • the control unit may suggest a seat arrangement based on the destination and number of people known from the communication history. For example, the control unit may suggest diving down the rear seats when it is expected that there will be a lot of luggage for camping or fishing, or may suggest a seat arrangement from four-person mode to six-person mode (for example, returning the third seat that had been dived down) according to the number of people going out.
  • the control unit may suggest activities and seat arrangements based on holidays in the schedule information. For example, the control unit may send a message to the smartphone saying, "It's a holiday, why don't you go fishing?" along with selection information for selecting a seat arrangement with a larger luggage compartment for fishing, based on holidays in the schedule information.
  • the control unit may suggest seat arrangements based on the number of people and relationships determined from the behavioral history and communication history. For example, if the control unit determines that the person riding in the user's car is a romantic partner, it may suggest rotating at least one of the two seats so that the two seats face each other.
  • the control unit may also suggest a combination of air conditioning and seat arrangements. For example, if the control unit determines that the user is carrying large luggage in summer based on temperature and payment information, it may suggest seat arrangements and air conditioning to the user at the same time.
  • the in-vehicle device may be a seat heater.
  • the control unit may suggest to the user whether to turn on the seat heater when it determines, for example, based on the temperature and behavioral history that the user is returning to the vehicle from fishing in winter.
  • the control unit may also suggest heating with the air conditioner in addition to turning on the seat heater.
  • the control unit may set the strength of the heating or cooling based on the number of passengers in the vehicle, which is determined from the communication history. For example, if the control unit determines that multiple people will be in the vehicle in summer, based on the temperature and communication history, it may suggest to the user that the cooling temperature be set to a higher level. In other words, the control unit may be configured to set the cooling temperature lower the higher the outside temperature, and to set the cooling temperature lower the more passengers there are. The control unit may also be configured to set the heating temperature higher the lower the outside temperature, and to set the heating temperature higher the fewer the number of passengers there are.
  • the control unit may predict the destination from schedule information and search history entered into the smartphone and suggest actions that should be taken. For example, if the control unit determines that the user will be traveling far away from the schedule information and search history, it may suggest to the user that they fill up with gas the day before.
  • the control unit may also work with the car navigation system to suggest gas stations near the vehicle.
  • the control unit may suggest destinations to the user by determining the user's preferences from the user's behavioral history and search history. For example, if the control unit determines that there are many sports-related searches, it may suggest to the user a ranking of sports facilities, gyms, and sports spectator facilities near the user's home on the day before a holiday.
  • the mobile device may be a tablet, a wearable device, etc.
  • a vehicle system that can ensure comfort during autonomous driving while increasing visibility outside the vehicle when the occupant is interested in the information outside the vehicle (see JP 2022-074455 A).
  • the control unit of this vehicle system restricts the operation of the wipers when the vehicle is autonomously driven, and when it is determined that the occupant is interested in information outside the vehicle, it lifts the restriction and operates the wipers.
  • the control unit determines whether or not the occupant is interested in information outside the vehicle based on at least one of the occupant's line of sight and a specified operation by the occupant.
  • a vehicle system 200 includes a wiper W as an example of an in-vehicle device, and a control unit CT3.
  • the wiper W is, for example, a member that wipes off water droplets on the windshield 31 of the vehicle 30.
  • the wiper W can be switched between a stopped state and an operating state in which it oscillates on the windshield 31.
  • the wiper W affects the perception of the situation outside the vehicle. More specifically, on a rainy day, when the wiper W is stopped, it is difficult to perceive the situation outside the vehicle, and when the wiper W is operating, it is easier to perceive the situation outside the vehicle than when the wiper W is stopped.
  • the stopped state is an example of the first state
  • the operating state is an example of the second state.
  • the vehicle 30 is equipped with a rain detection sensor 32 for detecting rain.
  • the control unit CT3 has a CPU, ROM, RAM, rewritable non-volatile memory, etc. (not shown), and executes processing based on pre-stored programs.
  • the control unit CT3 can execute a manual driving mode and an automatic driving mode.
  • the manual driving mode is a mode in which the vehicle runs by the driver operating the accelerator, brake, steering wheel, and other controls.
  • the automatic driving mode is a mode in which the vehicle runs without the driver operating the controls.
  • control unit CT3 performs processes such as using sensors such as a camera mounted on the vehicle to keep the vehicle in the driving lane and to keep the distance between the vehicle and the vehicle ahead of the vehicle at a predetermined value or more.
  • the vehicle 30 is equipped with an automatic driving switch (not shown) for executing the automatic driving mode.
  • an automatic driving switch (not shown) for executing the automatic driving mode.
  • the control unit CT3 executes the automatic driving mode.
  • the control unit CT3 executes the manual driving mode.
  • the control unit CT3 controls the wiper W. More specifically, when the wiper switch operated by the occupant is ON, the control unit CT3 operates the wiper W, and when the wiper switch is OFF, the control unit CT3 stops the wiper W.
  • the control unit CT3 stops the wiper W when the vehicle switches from manual driving to automatic driving. Specifically, when the occupant turns on the wiper switch to operate the wiper W during manual driving in the rain, and then switches the automatic driving switch to ON, the control unit CT3 stops the wiper W that was in an operating state. This makes it possible to mute the operating sound of the wiper W during automatic driving, allowing the occupant to enjoy a comfortable ride.
  • the control unit CT3 is capable of communicating with the server SV.
  • the server SV is a server that can acquire accident information that notifies the occurrence of accidents other than involving the vehicle itself.
  • the server SV acquires information about an accident that has occurred in the vicinity of the vehicle 30, it transmits the accident information to the control unit CT3.
  • the accident information is an example of warning information.
  • the control unit CT3 changes the wiper W to an operating state upon receiving accident information from the server SV.
  • the control unit CT3 changes the wiper W to an operating state.
  • control unit CT3 judges whether the current mode is the automatic driving mode or not (S201). When it is judged that the current mode is not the automatic driving mode in step S201 (No), the control unit CT3 ends this process.
  • step S201 If it is determined in step S201 that the vehicle is in the automatic driving mode (Yes), the control unit CT3 determines whether or not accident information has been acquired from the server SV (S202). If it is determined in step S202 that accident information has been acquired (Yes), the control unit CT3 determines whether or not it is raining based on information from the rain detection sensor 32 (S203).
  • step S202 or step S203 If the result of step S202 or step S203 is No, the control unit CT3 stops the wiper W (S204) and ends this process. If the control unit CT3 determines that it is raining in step S203 (Yes), the control unit CT3 notifies the occupant of the reason for operating the wiper W before operating the wiper W (S205).
  • the wipers W may be operated, for example, if an accident has occurred in the direction in which the vehicle 30 is heading.
  • the notification method may be, for example, a voice notification, or a warning sound and a notification with text displayed on a screen.
  • a vibration device or air cell in the seat may be activated at the same time as the voice or text notification.
  • control unit CT3 activates the wipers W (S206) and ends this process.
  • control unit CT3 determines Yes in step S201.
  • step S202 If no accident information has been acquired in step S202 (No), the control unit CT3 stops the wipers W (S204). This makes it possible to eliminate the operating noise of the wipers W during automatic driving.
  • control unit CT3 When the control unit CT3 acquires accident information during autonomous driving (S202: Yes), it determines whether it is raining or not (S203). If it determines that it is raining, the control unit CT3 notifies the occupant of the reason for operating the wipers W, and then operates the wipers W (S205 to S206).
  • control unit CT3 notifies the occupant by voice or text a message such as, for example, "An accident has occurred ahead, so the wipers will be activated," and then activates the wipers W.
  • the control unit CT3 operates the wipers W when it acquires accident information, thereby improving the visibility outside the vehicle when the occupants need to pay attention to the outside of the vehicle. This allows the occupants to grasp the outside situation that changes due to the occurrence of an accident.
  • the control unit CT3 Before activating the wiper W, the control unit CT3 notifies the occupant of the reason for activating the wiper W, preventing the occupant from feeling uncomfortable that the wiper W has been activated without permission.
  • control unit may determine whether the wipers were in an operating state during manual operation, and determine that it is raining if it is determined that the wipers were in an operating state.
  • control unit may store a history of the wiper states during manual operation.
  • the on-board device of the vehicle system according to the seventh embodiment is an electric shade 41.
  • the electric shade 41 has, for example, a light-controlling glass.
  • the electric shade 41 is switchable between a shielded state in which the driver's view is blocked and an open state in which the driver's view is not blocked.
  • the shielded state is an example of a first state
  • the open state is an example of a second state.
  • the electric shade 41 constitutes, for example, a window of a front door 42.
  • the front door 42 is provided with an electric shade switch 43 that switches the state of the electric shade 41 .
  • the control unit CT3 sets the motorized shade 41 to a closed state.
  • the control unit CT3 sets the motorized shade 41 to an open state.
  • the control unit CT3 changes the motorized shade 41 to an open state upon acquiring warning information.
  • control unit CT3 judges whether or not the current mode is the automatic driving mode (S221). If it is judged in step S221 that the current mode is the automatic driving mode (Yes), the control unit CT3 judges whether or not the electric shade switch 43 is ON (S222).
  • step S222 If it is determined in step S222 that the motorized shade switch 43 is ON (Yes), the control unit CT3 sets the motorized shade 41 to a shielded state (S223). After step S223, the control unit CT3 determines whether or not accident information has been acquired from the server SV (S224).
  • step S224 If it is determined in step S224 that accident information has been acquired (Yes), the control unit CT3 opens the motorized shade 41 (S225) and ends this process. If it is determined in step S221, step S222, or step S224 that the result is No, the control unit CT3 ends this process.
  • control unit CT3 switches the electric shade 41 to the shielding state in step S223. This allows the occupant to be comfortable during automatic driving without being affected by sunlight.
  • control unit CT3 acquires accident information from the server SV while automatic operation continues with the motorized shade 41 closed, the control unit CT3 opens the motorized shade 41 (S225). This allows the occupants to understand the situation outside the vehicle that changes due to the occurrence of an accident. Note that before opening the motorized shade 41, a notice of the reason for opening the motorized shade 41 may be given.
  • the warning information may be any information that indicates a situation in which occupants should pay attention to the area outside the vehicle.
  • the warning information may be disaster information that notifies of the occurrence of a disaster.
  • the control unit may obtain the disaster information from a server.
  • the control unit changes the in-vehicle device to the second state based on the disaster information, allowing the occupants to grasp the situation outside the vehicle that changes as a result of the disaster.
  • the warning information may be information indicating that there is a dangerous object near the vehicle (e.g., an obstacle that has fallen onto the road), or information indicating that there is a pedestrian, bicycle, etc. near the vehicle.
  • the method of obtaining warning information may be to obtain information about the surrounding area using a sensing unit of the vehicle (e.g., an on-board radar or on-board camera).
  • a sensing unit of the vehicle e.g., an on-board radar or on-board camera.
  • the in-vehicle equipment may be, for example, an electronic mirror, an exterior light, an interior light, a seat, a seat arrangement device (a device that changes at least one of the posture and position of the seat to change the seat into a number of states), a monitor for a car navigation system, a speaker, a projector, etc.
  • the in-vehicle device is an electronic mirror
  • the state in which the electronic mirror is OFF and does not function as a mirror corresponds to the first state
  • the state in which the electronic mirror is ON and functions as a mirror corresponds to the second state.
  • the in-vehicle device is an exterior light
  • the state in which the exterior light is off corresponds to the first state
  • the state in which the exterior light is on corresponds to the second state.
  • the in-vehicle device is a seat arrangement device, for example, the reclined state with the seat back reclined corresponds to the first state, and the driving state with the seat back upright corresponds to the second state.
  • control unit determines that the occupant is asleep based on information from sensors installed in the seat, an in-car camera, a wearable device of the occupant, etc., it may perform an action to wake up the occupant.
  • Actions to wake up the occupant include, for example, vibrating a vibration device in the seat, inflating an air cell in the seat, rocking the seat by reclining, and emitting sound from an in-car speaker or a speaker installed in the seat.
  • control unit determines that the surrounding situation is serious enough that manual driving is required, it may notify the occupant and switch to manual driving.
  • the motorized shade is not limited to those equipped with dimming glass, but may be configured as curtains, blinds, shutters, etc. that move along the window.
  • control unit may notify the occupant to manually return them to their original state.
  • the wiper may be a rear wiper that swings over the rear window.
  • This vehicle further includes a motor for moving the partition member and a control unit that controls the motor, and when certain conditions are met, the control unit controls the motor to move the partition member between the deployed position and the stored position.
  • the vehicle 300 includes a partition member P, a drive unit 20, a sensor SN3, and a control unit CT4.
  • the partition member P is a member capable of dividing the interior space of the vehicle. In this embodiment, the partition member P divides the space between two adjacent seats S on the left and right.
  • the partition member P is made of, for example, paper, cloth, or resin.
  • the partition member P can be wound around a reel 21 in the drive device 20.
  • the partition member P is movable between a first position shown in FIG. 29 and a second position shown in FIG. 30. When the partition member P is located in the first position, it divides the interior space of the vehicle. When the partition member P is located in the second position, it does not divide the interior space of the vehicle.
  • the drive device 20 is a device that moves the partition member P between the first position and the second position.
  • the drive device 20 includes a reel 21, a motor 22, and a case 23.
  • the reel 21 is rotatably supported by the case 23.
  • the motor 22 is fixed to the case 23 and connected to the reel 21.
  • the motor 22 can rotate forward and backward, and rotates the reel 21 forward or backward.
  • the case 23 houses the reel 21 and the motor 22.
  • the case 23 is fixed to the roof R of the vehicle 300.
  • the case 23 has a hole 23A through which the partition member P can pass.
  • the hole 23A is located in the bottom wall of the case 23.
  • Sensor SN3 is a sensor that detects the presence or absence of an object on the movement path of partition member P.
  • an infrared sensor or a laser sensor can be used as sensor SN3.
  • Sensor SN3 is fixed to the underside of case 23 and emits infrared rays downward. In other words, sensor SN3 is provided on roof R via case 23.
  • the control unit CT4 has a CPU, ROM, RAM, rewritable non-volatile memory, etc. (not shown), and executes pre-stored programs.
  • the control unit CT4 has a function of controlling the drive unit 20. More specifically, the control unit CT4 activates or stops the motor 22 of the drive unit 20 based on information acquired from the sensor SN3.
  • the control unit CT4 can execute a manual driving mode and an automatic driving mode.
  • the manual driving mode is a mode in which the vehicle runs by the driver operating the controls such as the accelerator, brake, and steering wheel.
  • the automatic driving mode is a mode in which the vehicle runs without the driver operating the controls.
  • control unit CT4 performs processes such as using sensors such as a camera mounted on the vehicle to keep the vehicle in the driving lane and to keep the distance between the vehicle and the vehicle ahead of the vehicle at a predetermined value or more.
  • the vehicle 300 is equipped with an automatic driving switch (not shown) for executing the automatic driving mode.
  • an automatic driving switch (not shown) for executing the automatic driving mode.
  • the control unit CT4 executes the automatic driving mode.
  • the control unit CT4 executes the manual driving mode.
  • control unit CT4 judges whether or not the driving mode has been switched from the manual driving mode to the automatic driving mode based on a signal from the automatic driving switch (S301). If the control unit CT4 judges in step S301 that the driving mode has not been switched to the automatic driving mode, that is, that the automatic driving switch is OFF (No), the control unit CT4 ends this process.
  • step S301 If it is determined in step S301 that the mode has been switched to automatic driving mode, i.e., that the automatic driving switch is ON (Yes), the control unit CT4 performs sensing using the sensor SN3 (S302).
  • control unit CT4 determines whether or not there is an obstacle on the movement trajectory of the partition member P (S303). If it is determined in step S303 that there is an obstacle on the movement trajectory (Yes), the control unit CT4 suggests to the occupant that the obstacle be removed from the movement trajectory (S304).
  • One method of making such suggestions is to inform the occupants by voice or text, for example, of a message such as "There is an obstacle under the partition member P. If you wish to lower the partition member P, please remove the obstacle.”
  • the vehicle 300 is equipped with devices for making suggestions, such as a speaker and a display.
  • the control unit CT4 performs sensing again using the sensor SN3 a first predetermined time after suggesting to the occupant that the obstacle be removed (S305).
  • the first predetermined time is set appropriately taking into account the time required to remove the obstacle.
  • the control unit CT4 again determines whether or not there is an obstacle on the movement trajectory of the partition member P (S306).
  • step S306 If it is determined in step S306 that there is an obstacle on the movement trajectory (Yes), the control unit CT4 ends this process. If it is determined in step S303 or step S306 that there is no object on the movement trajectory (No), the control unit CT4 inquires of the occupant whether or not to partition the space with the partition member P, i.e., whether or not to move the partition member P from the second position to the first position (S307).
  • One method of making an inquiry is to inform the occupant by voice or text, for example, of a message such as "Do you want to lower the partition member P?".
  • the vehicle 300 is equipped with devices for making inquiries, such as a speaker and a display.
  • the control unit CT4 determines whether or not an instruction to partition the space with the partition member P has been received from an occupant within the second predetermined time (S308).
  • the instruction to partition the space can be, for example, the occupant's voice or the selection of a switch on the display screen.
  • the vehicle 300 is equipped with devices for receiving instructions from the occupant, such as a microphone and a display.
  • the second predetermined time is set appropriately taking into account the time it takes for the occupant to issue an instruction.
  • step S308 If it is determined in step S308 that an instruction has been received (Yes), the control unit CT4 moves the partition member P to the first position (S309), divides the space with the partition member P, and then ends this process. If it is determined in step S308 that an instruction has not been received (No), the control unit CT4 ends this process without lowering the partition member P.
  • the timing for returning the partition member P from the first position to the second position can be set arbitrarily. For example, it can be when the driving mode is switched from automatic to manual, or when the occupant presses a switch to return the partition member P to the second position.
  • the partition member P When an obstacle is present on the moving path of the partition member P, the partition member P does not operate, so that the partition member P is prevented from interfering with the obstacle.
  • control unit CT4 will suggest to the occupant how to remove the obstacle, so that the occupant can know why the partition member P is not operating.
  • the position of the sensor SN3 is not limited to the underside of the drive unit 20. As shown in FIG. 32, the sensor SN3 may be provided directly on the roof R. The sensor SN3 may also be provided on the seat S. In this case, the sensor SN3 may be provided on the side of the seat cushion S1 or on the side of the seat back S2.
  • the sensor SN3 may be provided on the floor F.
  • the sensor SN3 may be provided on the door D.
  • An example of the sensor SN3 provided on the door D is a distance sensor.
  • the distance sensor may be placed in a position that does not overlap with the sheet S when viewed from the left and right.
  • the control unit CT4 may determine that an obstacle is present when the distance detected by the distance sensor is within the range between the two sheets S.
  • the location of the sensor is not limited to the example shown in FIG. 32.
  • the sensor may be provided on the back of the seat, or on an interior component such as an instrument panel.
  • the vehicle 300 according to the ninth embodiment includes two batteries BT.
  • the drive unit 20 and each battery BT are provided under a floor F of the vehicle 300.
  • the drive unit 20 is located between the two batteries BT.
  • the floor F has a hole H1 through which the partition member P can pass.
  • the drive device 20 further includes a pantograph mechanism 60 for supporting the partition member P made of cloth or the like.
  • the sensor SN3 is provided on the floor F.
  • the pantograph mechanism 60 has multiple four-bar links 61 and multiple torsion springs 62.
  • Each four-bar link 61 can be switched between a first state shown in Figure 34(a) and a second state shown in Figure 34(b).
  • the four-bar link 61 has a larger vertical dimension in the second state than in the first state.
  • the torsion spring 62 is a spring that biases the four-bar link 61 toward the second state.
  • the torsion spring 62 is provided at at least one node of each four-bar link 61.
  • the lower end of the pantograph mechanism 60 is fixed to the case 23 of the drive unit 20.
  • the upper end of the pantograph mechanism 60 is fixed to the upper end of the partition member P.
  • the pantograph mechanism 60 is switchable between a contracted state shown in FIG. 34(a) and an extended state shown in FIG. 34(b).
  • pantograph mechanism 60 When the pantograph mechanism 60 is in the contracted state, it is located below the floor F. When the pantograph mechanism 60 goes from the contracted state to the extended state, it passes through a hole H1 in the floor F. When the pantograph mechanism 60 is in the extended state, it protrudes above the floor F.
  • the partition member P When the pantograph mechanism 60 is in a contracted state, the partition member P is located in the second position. When the pantograph mechanism 60 is in an extended state, the partition member P is located in the first position.
  • each torsion spring 62 when the pantograph mechanism 60 is in a contracted state, each torsion spring 62 is in a contracted state.
  • the control unit CT4 receives an instruction to divide the space with the partition member P, it rotates the motor 22 in a direction in which the partition member P wound around the reel 21 is unwound.
  • rotating the motor 22 in the direction in which the partition member P is unwound is also referred to as "forward rotation”
  • rotating the motor 22 in the direction opposite to the forward rotation is also referred to as "reverse rotation.”
  • control unit CT4 rotates the motor 22 in the reverse direction. This causes the partition member P to move to the second position against the biasing force of each torsion spring 62.
  • the following effects can be obtained. Since the drive unit 20 and the batteries BT are provided in the space below the floor F, the space below the floor F can be effectively utilized.
  • the partition member P housed in the space below the floor F can be advanced into the vehicle interior space through the hole H1.
  • the structure for moving the partition member P from bottom to top when dividing a space with the partition member P is not limited to the form shown in FIG. 34, and may be any form as long as it includes a biasing member that biases the partition member toward the first position.
  • This structure can also be used as a structure for moving the partition member P from side to side when dividing a space with the partition member P.
  • the partition member may separate two adjacent seats in the front and rear, or may separate a seat from a window.
  • the partition member may be a foldable structure like a blind, or may be a flexible plate-like member. If the partition member is a flexible plate-like member, it may be configured, for example, as follows.
  • the partition member When the partition member is in the second position, it is positioned horizontally under the floor. When the partition member moves from the second position to the first position, it moves horizontally and is then guided by a guide having an arc-shaped surface that guides the partition member upward. The partition member, guided by the guide, bends and moves to the first position with its tip pointing upward. When the partition member is in the first position, it is positioned vertically.
  • the drive device may be disposed on the floor. If the drive device is provided on the floor, the battery may be provided under the floor. Also, the drive device and the battery may overlap when viewed from the top-bottom direction.
  • the drive unit may be provided on the seat, door, etc.
  • the partition member may move in the front-back direction or the left-right direction.
  • the partition member may move in a direction that is inclined with respect to the up-down direction, the front-back direction, or the left-right direction.
  • the movement trajectory of the partition member is not limited to a straight line and may be an arc.
  • the control unit does not need to inquire as to whether or not to move the partition member from the second position to the first position.
  • the sensor is not limited to a sensor that detects objects on the movement path of the partition member while the partition member is stopped, but may be a sensor that detects objects on the movement path of the partition member while it is moving.
  • the sensor may be a pressure sensor provided at the tip of the partition member.
  • the control unit After stopping the partition member, the control unit notifies the occupant to remove the obstacle.
  • the control unit determines whether or not the occupant has removed the obstacle by re-sensing. If it determines that the obstacle has been removed, the control unit moves the partition member from the stopped position to the first position. If it determines that the obstacle has not been removed, the control unit reverses the rotation of the motor to return the partition member to the second position.
  • the sensor that detects an object on the movement path of the partition member while it is moving may be, for example, a current sensor that detects the current flowing through the motor that moves the partition member.
  • the control unit may determine whether the load on the motor has changed based on the current value from the current sensor, and if there is a change, determine that the partition member has come into contact with an obstacle.
  • the sensor that detects objects on the path of movement of the partition member while it is moving may be, for example, a short-range sensor such as a capacitance sensor.
  • the short-range sensor is provided at the tip of the partition member.
  • the control unit stops or reverses the motor to stop the partition member or return it to the second position.
  • control unit may perform sensing to determine whether an obstacle is present after receiving an instruction from an occupant to partition the space.
  • the number of resensings is not limited to one, but may be multiple.
  • an automobile is used as an example of a vehicle, but the vehicle may also be, for example, a train.
  • a vehicle 400 includes an on-board sensor 70, an interior functional part 80, a projection device PJ, and a control unit CT5.
  • the on-board sensor 70 has a brightness sensor 71, a temperature sensor 72, and a camera 73.
  • the brightness sensor 71 detects the brightness outside the vehicle.
  • the temperature sensor 72 detects the temperature outside the vehicle.
  • the camera 73 captures images of the area in front of the vehicle.
  • the interior functional parts 80 include a monitor 81, a speaker 82, and interior lighting 83.
  • the monitor 81 is, for example, a monitor that constitutes a car navigation system.
  • the speaker 82 is, for example, a door speaker provided in the door.
  • the interior lighting 83 is, for example, located above the first row of seats in the vehicle.
  • Projection device PJ is a device capable of projecting an image onto an object outside the vehicle. Projection device PJ projects an image, for example, onto the road surface in front of the vehicle or onto the vehicle itself. Projection device PJ is incorporated into the headlights of vehicle 400.
  • the projection device PJ can project a frozen road image shown in FIG. 36(a), a collision warning image shown in FIG. 36(b), a wrong-way driving image shown in FIG. 36(c), and lane keeping images shown in FIG. 36(d) and (e).
  • the frozen road image is an image that indicates that the road surface is frozen.
  • the collision warning image is an image that indicates that there is a possibility of a collision with a vehicle ahead.
  • the wrong-way driving image is an image that indicates that the vehicle 400 is driving the wrong way down a road.
  • the lane keeping image is an image that notifies the driver to steer to the right or left if the vehicle 400 is about to deviate from the lane, so as to avoid deviating from the right or left lane that defines the roadway.
  • Each image projected by the projection device PJ is set with a danger level indicating the danger level to the occupants.
  • the danger level corresponding to the frozen road image or lane keeping image can be, for example, a first level.
  • the danger level corresponding to the collision warning image can be, for example, a second level that is higher than the first level.
  • the danger level corresponding to the wrong-way driving image can be, for example, a third level that is higher than the second level.
  • a road surface freezing image or a lane keeping image corresponds to the first image
  • a collision warning image or a wrong-way driving image corresponds to the second image
  • a collision warning image is the first image
  • a wrong-way driving image corresponds to the second image.
  • the control unit CT5 is configured with, for example, a CPU, RAM, ROM, input/output circuits, etc.
  • the control unit CT5 controls the interior functional parts 80 and the projection device PJ.
  • the control unit CT5 obtains information from the on-board sensors 70 and the car navigation system, and also obtains information from an external server via the Internet, etc.
  • the control unit CT5 decides to project an image using the projection device PJ when certain conditions are met.
  • the certain conditions vary for each image to be projected, but a common condition for each image is that it is dark outside the vehicle (night or inside a tunnel).
  • the control unit CT5 determines whether it is dark outside the vehicle or not based on information from the brightness sensor 71.
  • the control unit CT5 decides to project a frozen road image if a first predetermined condition is met.
  • the first predetermined condition is a condition under which the road surface freezes while driving, such as the temperature outside the vehicle being below 0 degrees, the weather at the current location being snowy, the current location being on a bridge, etc.
  • the control unit CT5 determines whether the first predetermined condition is met based on information obtained from the temperature sensor 72, the car navigation system, an external server, etc.
  • the control unit CT5 decides to project a collision warning image if a second predetermined condition is met.
  • the second predetermined condition is that the distance between the vehicle and the vehicle ahead, taking into account the speed difference, is equal to or less than a predetermined value.
  • the control unit CT5 determines whether the second predetermined condition is met based on the information obtained from the camera 73.
  • the control unit CT5 decides to project a reverse driving image if a third predetermined condition is met.
  • the third predetermined condition is, for example, a condition indicating that the vehicle is driving in the opposite lane on the map of the car navigation system.
  • the control unit CT5 determines whether the third predetermined condition is met based on information obtained from the car navigation system.
  • the control unit CT5 decides to project a lane keeping image if a fourth specified condition is met.
  • the fourth specified condition is a condition indicating that the distance between the host vehicle and the right or left lane of the road on which the host vehicle is traveling is less than a specified distance.
  • the control unit CT5 determines whether the fourth specified condition is met based on information obtained from the camera 73. If the distance between the left lane and the host vehicle is less than the specified distance, the control unit CT5 selects the lane keeping image of FIG. 36(d). If the distance between the right lane and the host vehicle is less than the specified distance, the control unit CT5 selects the lane keeping image of FIG. 36(e).
  • control unit CT5 decides to project an image using the projection device PJ, it has the function of alerting the occupants that an image is about to be projected by activating the interior functional parts 80 before projecting the image.
  • the monitor 81 and the speaker 82 can inform the occupants of semantic information indicating the meaning of the image projected by the projection device PJ.
  • control unit CT5 When the control unit CT5 decides to project an image using the projection device PJ, it notifies the occupants of the meaning information through the monitor 81 and the speaker 82. For example, when the control unit CT5 decides to project an image of a frozen road surface, as shown in FIG. 37, it displays on the monitor 81 an image of the same image as the frozen road surface image to be projected onto the road surface, and an image of the words "Watch out for frozen road surface! indicating the meaning of the frozen road surface image. In addition, when the control unit CT5 decides to project an image of a frozen road surface, it outputs a voice or warning sound from the speaker 82, such as "Watch out for frozen road surface.”
  • the interior lighting 83 can be switched between a first state corresponding to a frozen road image or a lane keeping image, a second state corresponding to a collision warning image, and a third state corresponding to a wrong-way driving image.
  • the interior lighting 83 emits white light.
  • the interior lighting 83 emits yellow light.
  • the interior lighting 83 emits red light.
  • the color of the light emitted from the interior lighting 83 is white when the danger level is at the first level, yellow when the danger level is at the second level, and red when the danger level is at the third level.
  • control unit CT5 decides to project a road surface freezing image or a lane keeping image using the projection device PJ, it sets the interior lighting 83 to a first state.
  • control unit CT5 decides to project a collision warning image using the projection device PJ, it sets the interior lighting 83 to a second state.
  • control unit CT5 decides to project a wrong-way driving image using the projection device PJ, it sets the interior lighting 83 to a third state.
  • the color of the light is changed in each state of the interior lighting 83, but for example, the intensity of the light may be changed in each state of the interior lighting 83.
  • the higher the danger level the greater the light intensity may be.
  • the interval between the blinking of the light may be changed in each state of the interior lighting 83. For example, the higher the danger level, the shorter the blinking interval may be.
  • the control unit CT5 does not operate the projection device PJ for a predetermined time after deciding to project an image.
  • the control unit CT5 operates the projection device if a predetermined condition is satisfied for a predetermined time after deciding to project an image.
  • control unit CT5 determines that it is dark outside the vehicle based on the information from the brightness sensor 71, it executes the process shown in FIG.
  • the control unit CT5 first determines whether the conditions for projecting an image are met (S401).
  • the "conditions for projecting an image” in step S401 are conditions other than the darkness outside the vehicle, and refer to any of the first to fourth predetermined conditions.
  • the "conditions for projecting an image” are also simply referred to as the "projection conditions.”
  • step S401 If it is determined in step S401 that the projection conditions are not satisfied (No), the control unit CT5 ends this process. If it is determined in step S401 that the projection conditions are satisfied (Yes), the control unit CT5 selects an image to project according to the satisfied projection condition, and decides to project the selected image (S402). For example, if the first predetermined condition is satisfied in step S401, the control unit CT5 selects an image of a frozen road surface, and decides to project the image of a frozen road surface (S402).
  • control unit CT5 After step S402, the control unit CT5 outputs semantic information corresponding to the selected image from the monitor 81 and the speaker 82 (S403). After step S403, the control unit CT5 outputs light of a color corresponding to the danger level of the image selected in step S402 from the interior lighting 83 (S404).
  • step S404 the control unit CT5 determines whether the projection conditions are still satisfied (S405). If it is determined in step S405 that the projection conditions are satisfied (Yes), the control unit CT5 determines whether a predetermined time has elapsed since the decision to project the image in step S402 (S406).
  • step S406 If it is determined in step S406 that the predetermined time has not elapsed (No), the control unit CT5 returns to the processing of step S405. If it is determined in step S406 that the predetermined time has elapsed (Yes), the control unit CT5 projects the image selected in step S402 by the projection device PJ (S407).
  • step S407 the control unit CT5 determines whether the projection conditions are no longer satisfied (S408). If it is determined in step S408 that the projection conditions are still satisfied (No), the control unit CT5 returns to the processing of step S407.
  • step S408 If it is determined in step S408 that the projection conditions are no longer satisfied (Yes), the control unit CT5 turns off the projection device PJ (S409). After step S409, or if it is determined No in step S405, the control unit CT5 stops the display of the image diagram and semantic information on the monitor 81, turns off the interior lighting 83 (S410), and ends this process.
  • control unit CT5 selects the icy road image, and as shown in Fig. 37, displays a diagram of the icy road image and text indicating the meaning of the icy road image on the monitor 81, and outputs the meaning of the icy road image by voice from the speaker 82.
  • the control unit CT5 also irradiates white light corresponding to the danger level (first level) of the icy road image from the interior lighting 83, thereby letting the occupants know that there is a risk of icy road.
  • the control unit CT5 projects the frozen road image onto the road surface using the projection device PJ. This allows the occupants to know that there is a high possibility of the road surface being frozen.
  • control unit CT5 decides to project an image by the projection device PJ, it activates the interior functional parts 80 before projecting the image, so that the activation of the interior functional parts 80 makes the occupants aware that something is about to happen. This makes it possible to prevent the occupants from being surprised by the sudden projection of an image onto an object outside the vehicle, thereby further improving safety.
  • the control unit CT5 notifies the occupant of the meaning of the image via the monitor 81 and speaker 82, so that the occupant can understand the meaning of the image projected onto an object outside the vehicle and can take appropriate action.
  • the color of the light from the interior lighting 83 varies depending on the danger level, so passengers can understand the danger level from the color of the light.
  • the interior functional component 80 has a vibration device 84.
  • the vibration device 84 is provided on the seat 90.
  • the seat 90 includes a seat cushion 91, a seat back 92, and a headrest 93.
  • the vibration device 84 is provided, for example, in the seat back 92. Note that the vibration device 84 may be provided in the seat cushion 91 or in the headrest 93.
  • the control unit CT5 changes the movement of the vibration device 84 according to the image projected by the projection device PJ.
  • the control unit CT5 according to the 11th embodiment changes the movement of the vibration device 84 according to the danger level, instead of controlling the interior lighting 83 described above. Note that the state of the interior lighting 83 and the vibration device 84 may be changed according to the danger level.
  • the control unit CT5 executes the process shown in FIG. 40.
  • the process in FIG. 40 is the same as that in the 10th embodiment, but is just a replacement of steps S404 and S410 in the process in FIG. 38 with new steps S421 and S422. Therefore, the same steps as in the 10th embodiment are denoted by the same reference numerals and will not be described.
  • the control unit CT5 turns on the vibration device 84 for a period of time according to the danger level of the selected image (S421). For example, the higher the danger level, the longer the time that the control unit CT5 turns on the vibration device 84.
  • the vibration period of the vibration device 84 may be changed depending on the danger level. For example, the higher the danger level, the smaller the vibration period may be.
  • step S409 the control unit CT5 executes the process of step S422.
  • step S422 the control unit CT5 stops displaying the semantic information on the monitor 81, and turns off the vibration device 84 if it is ON.
  • the ON time of the vibration device 84 is changed according to the danger level, so that the occupant can grasp the degree of danger based on the length of time the vibration lasts.
  • the interior functional component 80 has a seat arrangement device 85.
  • the seat arrangement device 85 is a device that can change the position of the seat 90 to change the state of the seat 90 between a normal state in which the occupant can sit facing forward and a state other than the normal state.
  • the seat arrangement device 85 tilts the seat back 92 to change the state of the seat 90 between the normal state shown in FIG. 41(a) and the reclined state shown in FIG. 41(b).
  • the seat arrangement device may be a device that changes at least one of the posture and position of the seat 90.
  • the seat arrangement device may rotate the seat 90 around a vertical axis.
  • control unit CT5 When the control unit CT5 decides to project an image using the projection device PJ, it operates the seat arrangement device 85 to set the seat 90 to the normal state. Specifically, the control unit CT5 executes the process shown in FIG. 42.
  • the process in FIG. 42 simply replaces step S404 in the process in FIG. 38 with new steps S431 and S432, and step S410 in FIG. 38 with new step S433. Therefore, the same processes as in the tenth embodiment are denoted by the same reference numerals and will not be described.
  • control unit CT5 determines whether the seat 90 is not in the normal state (S431). If it is determined in step S431 that the seat 90 is not in the normal state (Yes), the control unit CT5 changes the state of the seat 90 to the normal state by the seat arrangement device 85 (S432).
  • step S432 or if step S431 is judged as No, the control unit CT5 executes the process of step S405. If step S405 is judged as No, or after step S409, the control unit CT5 stops displaying the semantic information on the monitor 81 (S433).
  • the seat 90 when an image is projected by the projection device PJ, the seat 90 is in a normal state, so that the occupant can more reliably see the image projected by the projection device PJ. In addition, when an image is projected by the projection device PJ, the seat 90 is in a normal state, so that the safety of the occupant can be ensured in the event of a danger.
  • the control unit CT5 does not operate the projection device PJ during automatic operation. Specifically, the control unit CT5 executes the process shown in FIG. 43.
  • the process in FIG. 43 is simply the same as the process in FIG. 38 except that a new step S441 is added between steps S406 and S407, and therefore the same steps as in the 10th embodiment are denoted by the same reference numerals and will not be described.
  • control unit CT5 determines whether or not the vehicle is in manual operation (S441). Note that the determination of whether or not the vehicle is in manual operation can be made, for example, by determining whether or not a switch for executing automatic operation is OFF.
  • step S441 determines whether the vehicle is in manual operation (Yes) or not in manual operation (No). If it is determined in step S441 that the vehicle is not in manual operation, that is, that the vehicle is in automatic operation (No), the control unit CT5 executes the process of step S410 without executing the processes of steps S407 to S409, that is, without operating the projection device PJ.
  • the vehicle of the thirteenth embodiment can prevent the projection device PJ from operating unnecessarily when the occupant is not looking at an object outside the vehicle during autonomous driving.
  • the image projected by the projection device may be, for example, an image showing a speeding warning, a vehicle malfunction warning, or the like. Furthermore, the projected image does not have to be an image related to a warning to be notified to the occupants, but may be, for example, an image related to a warning to a person outside the vehicle. This image may be, for example, an image indicating a sudden change in the physical condition of the occupant.
  • the notification of semantic information may be combined with an alarm sound, etc.
  • the speaker may be a headrest speaker, etc.
  • a driver's headrest speaker it is possible to convey semantic information only to the driver (without disturbing other passengers).
  • Semantic information may be transmitted by voice alone or by text images alone, but it is more effective to transmit both voice and text simultaneously. Semantic information may also be transmitted using a personal mobile device such as a smartphone or tablet.
  • the mobile device may be connected to the vehicle's control unit via short-range communication such as Bluetooth (registered trademark), or may be connected to the control unit via a server.
  • the interior functional part may be a seat belt device that pulls the seat belt.
  • the control unit may notify the occupant in advance by pulling the seat belt before projecting the projection image.
  • control unit may notify the occupant that a projection image will be projected.
  • the control unit may notify the occupant through a speaker of information such as "The road surface is frozen. Caution information will now be projected onto the road surface.”
  • the way the interior lighting is turned on may be changed.
  • the interior lighting may be installed anywhere in the vehicle, such as on the instrument panel, door, or roof.
  • the vibration device may be provided on the steering wheel.
  • the location where the projected image will be projected may be displayed on the screen, or a warning may be given by voice.
  • a warning may be given by voice.
  • the occupants may be notified of information such as, "There is a vehicle involved in an accident stopped 5 km ahead. The lane keeping assist warning will be turned on 1 km ahead.”
  • the occupants may be notified by speaker, monitor, mobile device, etc.
  • an alarm or warning voice may be continuously sounded through the speaker.
  • a warning display may also be continuously displayed on the monitor.
  • the warning voice or display may be provided by a mobile terminal.
  • the seat state may be set to the normal state. Specifically, if the control unit determines to project an image (e.g., a wrong-way driving image) corresponding to a risk level higher than the first level, the control unit may operate the seat arrangement device to set the seat state to the normal state.
  • an image e.g., a wrong-way driving image
  • the occupants may be tightly restrained with movable bolsters or seat belts.
  • the use of entertainment equipment (televisions, projectors, music players, etc.) that distract the driver when projecting a projected image may be restricted.
  • the type of entertainment equipment to be restricted may also be changed depending on the level of danger. For example, only televisions may be restricted when the level of danger is low, and all entertainment equipment may be restricted when the level of danger is high. Restrictions may include turning off the power, lowering the volume, etc.
  • the occupant can turn off the function that activates the projection device (hereinafter also referred to as the "projection function") using the control unit.
  • the projection function may also be turned off automatically depending on the vehicle's situation. For example, if the projection function is broken or if a problem occurs with the headlights themselves, the projection function may be turned off automatically. In such a case, the control unit notifies the occupant by voice or image that a problem has occurred and that the projection function will be limited or stopped.
  • the control unit may also automatically turn off the projection function if the distance between the leading vehicle and the vehicle itself is too close to display the projected image on the road.
  • an automobile is used as an example of a vehicle, but other vehicles such as trains, ships, and aircraft may also be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Thermal Sciences (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

車両購入後に車両の部品の変更を簡単に行うことができる部品変更システムを提供する。部品変更システム(1)は、車両購入後に車両の部品の変更を行うことを可能とするサブスクリプションサービスの加入者が使用する端末(2)と通信可能な制御部(CT1)を備える。制御部(CT1)は、端末(2)から送信されてくる情報に基づいて、ユーザがサブスクリプションサービスの加入者であると判定した場合、部品の選択を行うための選択画像を端末(2)に送信する。

Description

部品変更システム、車両システムおよび車両
 本開示は、部品変更システム、車両システムおよび車両に関する。
 従来、ユーザの嗜好に応じて車両の内装のデザインを提案する技術が知られている(特開2017-182560号公報参照)。
 しかしながら、車両の購入後に、ユーザの嗜好が変化したことによって、ユーザが後から違うデザインを求めることがある。
 車両購入後に車両の部品の変更を簡単に行うことができる部品変更システムを提供することが望まれている。
 一態様として、車両購入後に車両の部品の変更を行うことを可能とするサブスクリプションサービスの加入者が使用する端末と通信可能な制御部を備える部品変更システムを開示する。制御部は、端末から送信されてくる情報に基づいて、ユーザがサブスクリプションサービスの加入者であると判定した場合、部品の選択を行うための選択画像を端末に送信する。
 この構成によれば、サブスクリプションサービスの加入者であるユーザは、端末を用いて部品の選択を行うことができるので、車両購入後に車両の部品の変更を簡単に行うことができる。
 また、車両の部品は、車両の内装部品であってもよい。
 また、制御部は、ユーザの嗜好性を判別するための嗜好性判別情報を入力するための画像を端末に送信し、ユーザによって選択された嗜好性判別情報を端末から取得した場合、嗜好性判別情報に基づいて内装部品を選択し、選択した内装部品をユーザに提案する提案画像を端末に送信してもよい。
 この構成によれば、ユーザが自分に合った嗜好性判別情報を選択するだけで、ユーザの嗜好性に応じた内装部品がユーザに提案されるので、多種にわたる内装部品からユーザが好みの内装部品を選ぶ手間を省くことができる。
 また、制御部は、ユーザの行動履歴を取得した場合、行動履歴に基づいて内装部品を選択し、選択した内装部品をユーザに提案する提案画像を端末に送信してもよい。
 この構成によれば、ユーザの行動履歴に応じた内装部品がユーザに提案されるので、多種にわたる内装部品からユーザが好みの内装部品を選ぶ手間を省くことができる。また、例えばユーザの行動履歴が逐一アップデートされる記憶部から制御部が行動履歴を取得可能な場合には、ユーザが自分に合った嗜好性判別情報を選択する形態と比べ、ユーザが嗜好性判別情報を選択する手間を省くことができる。
 また、制御部は、内装部品をユーザに提案する提案モードと、内装部品をユーザに個別に選択させる個別選択モードと、を実行可能であり、提案モードと個別選択モードをユーザに選択させるモード選択画像を端末に送信し、ユーザによって選択されたモード情報を端末から取得した場合、モード情報に基づいて、提案モードまたは個別選択モードを実行してもよい。
 この構成によれば、ユーザが現在の状況に合わせたモードを選択することができる。例えば、ユーザが変更しようとする内装部品が決まっていない場合には、提案モードを選択することで、多種にわたる内装部品の中から、ユーザの嗜好性に合わせた内装部品を絞り込むことができる。また、例えば、ユーザが変更しようとする内装部品が決まっている場合には、個別選択モードを選択することで、スピーディに内装部品を選択することができる。
 また、部品変更システムは、ユーザの所有車の情報である所有車情報が記憶された記憶部をさらに備え、制御部は、内装部品を提案する場合、所有車情報に基づいて所有車に適合する内装部品を提案してもよい。
 この構成によれば、ユーザの所有車に適合しない内装部品をユーザが誤って選択するのを抑制することができる。
 また、制御部は、内装部品が車両に装着された状態の画像である装着画像を端末に送信してもよい。
 この構成によれば、内装部品が車両に装着された状態の画像をユーザが見ることができるので、内装部品の変更による内装全体のイメージをユーザが認識することができる。
 他の例として、車載機器と、車載機器を作動させる制御部と、を備える車両システムを開示する。制御部は、ユーザが所持する携帯端末から、ユーザの行動に関するユーザ行動情報を取得する。制御部は、ユーザ行動情報に基づいて車載機器を所定モードにするか否かを判定する。制御部は、車載機器を所定モードにすると判定した場合、車載機器を所定モードにするか否かをユーザに選択させるための選択情報を携帯端末に送信する。制御部は、ユーザが選択情報に基づいて車載機器を所定モードにすることを選択した場合に携帯端末から送信される許可情報を受けると、車載機器を所定モードにする。
 この構成によれば、制御部は、車載機器を所定モードにすると判定した場合、車載機器を所定モードにするか否かをユーザに選択させるための選択情報を携帯端末に送信するので、ユーザは、携帯端末を操作することで、車載機器を所定モードにするかどうか選択することができる。そのため、ユーザの行動情報に基づいて車載機器を制御する制御部を備えた車両システムにおいて、ユーザの意思が反映された制御を実現できる。
 また、車載機器は、シートの姿勢および位置の少なくとも一方を変更することでシートを複数の状態に変更するシートアレンジ装置を含んでいてもよい。
 また、シートアレンジ装置は、シートを第1状態にする第1モードと、シートを第1状態よりも車室内の収納空間を大きくする第2状態にする第2モードと、に切替可能であり、ユーザ行動情報は、ユーザが物を購入したことを示す決済情報を含み、所定モードは、第2モードを含み、制御部は、決済情報に基づいてシートアレンジ装置を第2モードにするか否かを判定してもよい。
 また、ユーザ行動情報は、ユーザのスケジュールを示すスケジュール情報を含み、制御部は、スケジュール情報に基づいてシートアレンジ装置を第2モードにするか否かを判定してもよい。
 また、シートアレンジ装置は、シートのシートバックの角度が所定角度となる第3モードと、第3モードよりもシートバックが倒れた第4モードと、に切替可能であり、ユーザ行動情報は、ユーザの行動履歴またはユーザの行動によって変化する身体情報を含み、所定モードは、第4モードを含み、制御部は、行動履歴または身体情報に基づいて、シートアレンジ装置を第4モードにするか否かを判定してもよい。
 また、車両システムは、シートアレンジ装置によって動くシートの軌跡上にある障害物を検出する障害物検出センサをさらに備えていてもよい。
 この場合、制御部は、携帯端末からユーザ行動情報を取得した後、障害物検出センサからの情報に基づいて軌跡上に障害物があると判定した場合、シートの状態が変更できないことを示す変更不可情報を携帯端末に送信してもよい。
 この構成によれば、シートの軌跡上に障害物がある場合には、制御部が、変更不可情報を携帯端末に送信するので、ユーザは、シートアレンジ装置によってシートを動かすことができないことを知ることができる。
 また、制御部は、携帯端末に選択情報を送信してから所定時間以内に許可情報を受けた場合、車載機器を所定モードにし、携帯端末に選択情報を送信してから所定時間以内に許可情報を受けなかった場合、車載機器を所定モードにしなくてもよい。
 また、車載機器は、空調装置を含み、空調装置は、車室の温度を第1温度にする第1空調モードと、車室の温度を第1温度よりも高い第2温度にする第2空調モードと、に切替可能であり、ユーザ行動情報は、ユーザの行動履歴またはユーザの行動によって変化する身体情報を含み、所定モードは、第1空調モードを含み、制御部は、行動履歴または身体情報に基づいて、空調装置を第1空調モードにするか否かを判定してもよい。
 また、他の例として、車外状況の把握に影響を与える車載機器と、車載機器を制御する制御部と、を備える車両システムを開示する。車載機器は、第1状態と、第1状態よりも車外状況を把握しやすい第2状態とに切替可能である。制御部は、車載機器が第1状態であり、かつ、自動運転中である場合に、乗員が車外に注意を払うべき状況であることを示す注意情報を取得すると、車載機器を第2状態に変更する。
 この構成によれば、車載機器が第1状態となっている自動運転中において、制御部は、注意情報を取得すると、車載機器を第2状態に変更するので、乗員が車外に注意を払うべき状況である場合に車外の視認性を高めることができる。
 また、車載機器は、停止状態と作動状態とに切替可能なワイパであってもよい。
 この場合、制御部は、降雨時の自動運転中にワイパが停止状態である場合に、注意情報を取得すると、ワイパを作動状態に変更してもよい。
 また、制御部は、ワイパが作動状態である場合に、手動運転から自動運転に切り替わると、ワイパを停止状態にしてもよい。
 また、車載機器は、乗員の視界を遮る遮蔽状態と、乗員の視界を遮らない開放状態とに切替可能な電動シェードであってもよい。
 この場合、制御部は、電動シェードが遮蔽状態で、かつ、自動運転中である場合に、注意情報を取得すると、電動シェードを開放状態に変更してもよい。
 また、注意情報は、自車両以外の事故の発生を知らせる事故情報であり、制御部は、サーバから事故情報を取得してもよい。
 この構成によれば、事故が発生した場合には、制御部が事故情報に基づいて車載機器を第2状態に変更するので、事故の発生により変化する車外状況を乗員が把握することができる。
 また、注意情報は、災害の発生を知らせる災害情報であってもよい。
 この場合、制御部は、サーバから災害情報を取得してもよい。
 この構成によれば、災害が発生した場合には、制御部が災害情報に基づいて車載機器を第2状態に変更するので、災害の発生により変化する車外状況を乗員が把握することができる。
 また、制御部は、注意情報を取得すると、車載機器を第2状態にする前に、車載機器を第2状態にする理由を乗員に報知してもよい。
 この構成によれば、車載機器が勝手に第2状態になったと乗員が不快に感じるのを抑制できる。
 また、他の例として、仕切部材と、駆動装置と、センサと、制御部と、を備える車両を開示する。仕切部材は、車内空間を仕切ることが可能である。駆動装置は、仕切部材を、車内空間を仕切る第1位置と、車内空間を仕切らない第2位置との間で移動させる。センサは、仕切部材の移動軌跡上における物の有無を検知する。制御部は、センサから取得した情報に基づいて駆動装置を制御する。
 この構成によれば、制御部は、仕切部材の移動軌跡上の物の有無に基づいて、仕切部材の動作を制御することができるので、仕切部材が物と干渉するのを抑制できる。
 また、車両は、隣接する2つのシートをさらに備えていてもよい。
 仕切部材は、2つのシートの間を仕切ってもよい。
 また、駆動装置は、車両のフロアの下に設けられていてもよい。
 この構成によれば、車両のフロアの下の空間を有効活用できる。
 また、フロアは、仕切部材が通過可能な孔を有していてもよい。
 この構成によれば、車両のフロアの下の空間に収容した仕切部材を、孔を通して車内空間に進出させることができる。
 また、車両は、フロアの下に設けられる2つのバッテリをさらに備えていてもよい。
 駆動装置は、2つのバッテリの間に位置していてもよい。
 また、センサは、フロアに設けられていてもよい。
 また、センサは、車両のルーフに設けられていてもよい。
 また、センサは、シートに設けられていてもよい。
 また、制御部は、手動運転モードから自動運転モードに切り替わった場合に、センサによるセンシングを行い、センサによるセンシングによって移動軌跡上に物がないと判定した場合、乗員に対して、仕切部材を第2位置から第1位置に移動させるか否かの問い合わせを行い、センサによるセンシングによって移動軌跡上に物があると判定した場合、乗員に対して、物を移動軌跡上から除去することを提案してもよい。
 この構成によれば、仕切部材の移動軌跡上に物がある場合には、制御部が、物の除去を乗員に提案するので、仕切部材が作動しない理由を乗員が知ることができる。
 また、他の例として、車外の対象物に対して画像を投影することが可能な投影装置と、投影装置を制御する制御部と、少なくとも1つの内装機能部品を備える車両を開示する。制御部は、投影装置によって画像を投影することを決定した場合、画像を投影する前に、内装機能部品を作動させる。
 この構成によれば、制御部が、投影装置によって画像を投影することを決定すると、画像を投影する前に、内装機能部品を作動させるので、内装機能部品の作動によって乗員がこれから何かが起こると意識することができる。そのため、車外の対象物にいきなり画像が投影されることによって乗員が驚くのを抑えることができるので、さらなる安全性の向上を図ることができる。
 また、内装機能部品は、投影装置によって投影される画像の意味を示す意味情報を乗員に報知可能であり、制御部は、内装機能部品によって意味情報を乗員に報知してもよい。
 この構成によれば、車外の対象物に投影された画像の意味を、乗員が知ることができるので、乗員が適切な処置を行うことができる。
 また、内装機能部品は、モニタであってもよいし、スピーカであってもよい。
 また、投影装置は、乗員の危険度を示す危険度レベルが第1レベルに対応した第1画像と、危険度レベルが第1レベルより高い第2レベルに対応した第2画像と、を投影可能であり、内装機能部品は、第1画像に対応した第1状態と、第2画像に対応した第2状態と、に切替可能であり、制御部は、投影装置によって第1画像を投影することを決定した場合、内装機能部品を第1状態とし、投影装置によって第2画像を投影することを決定した場合、内装機能部品を第2状態としてもよい。
 この構成によれば、危険度レベルに応じて内装機能部品の状態が異なるので、乗員が内装機能部品の状態によって危険度を把握することができる。
 また、内装機能部品は、車内照明であり、制御部は、投影装置によって投影する画像に応じて、車内照明から照射される光の色、または、光の強さを変更してもよい。
 また、内装機能部品は、シートに設けられる振動デバイスであり、制御部は、投影装置によって投影する画像に応じて、振動デバイスの動きを変更してもよい。
 また、内装機能部品は、シートの姿勢および位置の少なくとも一方を変更することで、シートの状態を、乗員が前方を向いた状態で着座可能な通常状態と、通常状態以外の状態とに変更可能なシートアレンジ装置であり、制御部は、投影装置によって画像を投影することを決定した場合、シートアレンジ装置を作動して、シートの状態を通常状態にしてもよい。
 この構成によれば、投影装置によって画像を投影する場合に、シートの状態が通常状態となるので、乗員が、投影装置によって投影された画像をより確実に見ることができる。
 また、制御部は、所定条件を満たす場合に、画像を投影することを決定し、画像の投影を決定してから所定時間の間、所定条件が満たされている場合に、投影装置を作動させてもよい。
 また、制御部は、自動運転中の場合には、投影装置を作動させなくてもよい。
 この構成によれば、自動運転中において乗員が車外の対象物を見ていない場合に、投影装置が無駄に作動するのを抑制することができる。
第1実施形態に係る部品変更システムを示す図である。 第1実施形態に係る部品変更システムの制御部の動作を示すフローチャートである。 提案モードを示すフローチャートである。 個別選択モードを示すフローチャートである。 内装変更サイトのログイン画像を示す図である。 モード選択画像を示す図である。 嗜好性判別情報を入力するための画像が表示された画像を示す図である。 提案画像が表示された画像を示す図である。 パーツリストの画像を示す図である。 パーツ選択画像を示す図である。 提案モードの変形例を示すフローチャートである。 第2実施形態に係る車両システムを示す図である。 シートが第1状態から第2状態に切り替わった状態を示す図である。 第2実施形態に係る車両システムのスマートフォンの動作を示すフローチャートである。 第2実施形態に係る車両システムの制御部の動作を示すフローチャートである。 ユーザがスマートフォンで決済を行う場面を示す図(a)と、選択情報が表示されたスマートフォンの画面を示す図(b)である。 変更不可情報が表示されたスマートフォンの画面を示す図である。 第3実施形態に係る車両システムのスマートフォンの動作を示すフローチャートである。 第3実施形態に係る車両システムの制御部の動作を示すフローチャートである。 第4実施形態に係る車両システムのシートアレンジ装置が第3モードであるときのシートの状態を示す図(a)と、第4モードであるときのシートの状態を示す図(b)である。 第4実施形態に係る車両システムのスマートフォンの動作を示すフローチャートである。 第4実施形態に係る車両システムの制御部の動作を示すフローチャートである。 第5実施形態に係る車両システムのスマートフォンの動作を示すフローチャートである。 第5実施形態に係る車両システムの制御部の動作を示すフローチャートである。 第6実施形態に係る車両システムを示す図である。 第6実施形態に係る車両システムの制御部の動作を示すフローチャートである。 第7実施形態に係る車両システムの車載機器としての電動シェードを示す図であり、開放状態を示す図(a)と、遮蔽状態を示す図(b)である。 第7実施形態に係る車両システムの制御部の動作を示すフローチャートである。 第8実施形態に係る車両を示す図であり、仕切部材が第1位置に位置する状態を示す図である。 仕切部材が第2位置に位置する状態を示す図である。 第8実施形態に係る車両の制御部の動作を示すフローチャートである。 センサの位置の変形例を示す図である。 第9実施形態に係る車両を示す図である。 パンタグラフ機構を示す図であり、収縮状態を示す図(a)と、伸長状態を示す図(b)である。 第10実施形態に係る車両を示す斜視図である。 投影装置で投影する画像の種類を示す図(a)~(e)である。 モニタに表示された画像を示す図である。 第10実施形態に係る車両の制御部の動作を示すフローチャートである。 第11実施形態に係る車両の内装機能部品の1つである振動デバイスを示す図である。 第11実施形態に係る車両の制御部の動作を示すフローチャートである。 第12実施形態に係る車両の内装機能部品の1つであるシートアレンジ装置を示す図である。 第12実施形態に係る車両の制御部の動作を示すフローチャートである。 第13実施形態に係る車両の制御部の動作を示すフローチャートである。
[第1実施形態]
 以下、図面を参照しながら、第1実施形態に係る部品変更システムについて説明する。
 図1に示すように、部品変更システム1は、車両購入後に車両の内装部品の変更を行うことを可能とするサブスクリプションサービス(以下、「内装変更サブスク」ともいう。)を提供するためのシステムである。本実施形態における内装変更サブスクは、新車の購入後に加入できるサービスであり、所定金額の支払いを行えば、所定期間の間、部品の交換を行うことができるサービスである。本実施形態における内装変更サブスクでは、内装部品を変更するたびに、内装部品の値段に対応した消費ポイントが加算されていき、消費ポイントがポイント上限値になると、サービスが停止されるものとする。
 部品変更システム1は、サーバ3を備える。サーバ3は、端末2と通信可能である。端末2は、内装変更サブスクの加入者であるユーザが所持して使用する端末であり、例えばスマートフォンである。端末2は、表示部DSを有する。表示部DSは、画像の表示と情報の入力が可能なタッチパネルである。端末2は、図示しないCPU、ROM、RAM、書換可能な不揮発性メモリ等も有する。
 サーバ3は、例えば車のディーラなどに設置される。サーバ3は、制御部CT1と、記憶部Mとを有する。制御部CT1は、CPU等を有する。記憶部Mは、ROM、RAM、書換可能な不揮発性メモリ等を有する。記憶部Mは、ユーザの所有車の情報である所有車情報と、内装変更サブスクの加入者情報とを記憶している。
 所有車情報は、ユーザの所有車の内装部品に関する情報を含んでいる。所有車情報は、例えば、シートの表皮の色や柄などといった情報を含んでいる。所有車情報は、例えばユーザが新車を購入する際に、パーソナルコンピュータ(以下、「パソコン」ともいう。)の画面上で見積もりを行った上で購入を決めた場合には、購入決定時の見積もりの情報を所有車情報として記憶部Mに記憶してもよい。また、所有車情報は、例えばディーラの従業員またはユーザなどがパソコンなどによって情報を入力することで記憶部Mに記憶されてもよい。
 また、ユーザが、新車購入時において、従来技術に示したデザイン提案システム(特開2017-182560号公報)と同様のシステムを利用して、内装のデザインを決めた場合には、デザイン提案システムにおいてユーザが選択した内装部品の情報を、所有車情報として記憶部Mに記憶してもよい。
 加入者情報は、内装変更サブスクの加入者に関する情報を含んでいる。加入者情報は、例えば、ユーザ名、パスワードなどである。所定のユーザの加入者情報は、所定のユーザの所有車情報と関連付けられて記憶部Mに記憶されている。
 制御部CT1は、端末2とインターネット等を介して通信可能である。制御部CT1は、内装部品の変更を行うためのwebサイト(以下、「内装変更サイト」)を端末2に送信可能である。ユーザは、端末2で内装変更サイトにアクセスし、内装変更サイトに加入者情報を入力することで、内装変更サイトの利用が可能となる。
 制御部CT1は、端末2が内装変更サイトにアクセスすると、図5に示すログイン画像を端末2に表示し、図2に示す処理を開始する。ログイン画像は、ユーザ名を入力するための画像と、パスワードを入力するための画像と、ユーザ名およびパスワードを制御部CT1に送信するためのログインボタンB1の画像とを有する。
 図2の処理において、制御部CT1は、まず、端末2から送信されてくる加入者情報に基づいて、ユーザが内装変更サブスクの加入者であるか否かを判定する(S1)。詳しくは、制御部CT1は、ログイン画像に入力されたユーザ名およびパスワードが、記憶部Mに記憶されているユーザ名およびパスワードと一致するか否かを判定し、一致すると判定した場合にユーザが内装変更サブスクの加入者であると判定する。
 ステップS1において、ユーザ名およびパスワードが一致せず、ユーザが内装変更サブスクの加入者でないと判定した場合には(No)、制御部CT1は、ユーザ名およびパスワードが間違っていることを示すメッセージを表示して、本処理を終了する。
 ステップS1において、ユーザが内装変更サブスクの加入者であると判定した場合には(Yes)、制御部CT1は、内装変更サイトの利用を可能とし、図6に示すモード選択画像を端末2に送信する(S2)。モード選択画像は、ユーザにモードを選択させるための画像であり、提案モードを選択するための提案ボタンB2の画像と、個別選択モードを選択させるための個別選択ボタンB3の画像とを有する。
 提案モードは、内装部品をユーザに提案するモードである。本実施形態では、制御部CT1は、提案モードにおいて、複数の内装部品を含む内装デザインであって、ユーザの嗜好に合わせた内装デザインをユーザに提案する。
 個別選択モードは、内装部品をユーザに個別に選択させるモードである。
 ユーザが提案ボタンB2を選択すると、提案モードが選択されたことを示す提案モード情報が制御部CT1に送信される。ユーザが個別選択ボタンB3を選択すると、個別選択モードが選択されたことを示す個別選択モード情報が制御部CT1に送信される。
 ステップS2の後、制御部CT1は、ユーザによって選択されたモード情報を端末2から取得し、モード情報に基づいて、提案モードまたは個別選択モードを実行する。詳しくは、ステップS2の後、制御部CT1は、端末2からのモード情報に基づいて、提案モードが選択されたか否かを判定する(S3)。
 ステップS3において、端末2からのモード情報が提案モード情報である場合、制御部CT1は、提案モードが選択されたと判定して(Yes)、提案モードを実行する(S4)。ステップS3において提案モードが選択されていないと判定した場合には(No)、制御部CT1は、個別選択モードが選択されたか否かを判定する(S5)。
 ステップS5において、端末2からのモード情報が個別選択モード情報である場合、制御部CT1は、個別選択モードが選択されたと判定して(Yes)、個別選択モードを実行する(S6)。ステップS5において個別選択モードが選択されていないと判定した場合には(No)、制御部CT1は、ユーザにより内装変更サイトの終了が選択されたか否かを判定する(S7)。なお、内装変更サイトの終了は、例えば、終了やログアウトの文字が付されたボタンの画像をユーザが選択することで終了する。
 ステップS7において終了が選択されていないと判定した場合には(No)、制御部CT1は、ステップS3の処理に戻る。ステップS7において終了が選択されたと判定した場合(Yes)、または、ステップS4,S6の終了後、制御部CT1は、本処理を終了する。
 図3に示すように、制御部CT1は、提案モードを開始すると、まず、図7に示す嗜好性判別情報を入力するための画像を端末2に送信する(S21)。嗜好性判別情報は、ユーザの嗜好性を判別するための情報である。本実施形態では、嗜好性判別情報として、性別、趣味、性格とする。
 制御部CT1は、図7に示す嗜好性判別画像を端末2に表示させる。嗜好性判別画像は、性別を選択させるための性別選択ボタンB4の画像と、趣味を選択させるための趣味選択ボタンB5の画像と、性格を選択させるための性格選択ボタンB6と、嗜好性を決定するための決定ボタンB7とを有する。
 性別選択ボタンB4、趣味選択ボタンB5および性格選択ボタンB6は、複数の項目をプルダウンメニューにより表示するボタンである。ユーザは、各項目の中から該当する項目を選ぶことが可能である。
 ユーザが性別選択ボタンB4を選択すると、男性、女性の項目がプルダウンメニューにより表示される。ユーザが男性を選択した場合、制御部CT1は、記憶部Mに記憶されている複数の内装デザインの中から、男性が好む内装デザイン(スタイリッシュ、クールなど)を抽出する。ユーザが女性を選択した場合、制御部CT1は、複数の内装デザインの中から、女性が好む内装デザイン(キュートなど)を抽出する。
 ユーザが趣味選択ボタンB5を選択すると、音楽、山登り、マリンスポーツなどの項目がプルダウンメニューにより表示される。ユーザが音楽を選択した場合、制御部CT1は、複数の内装デザインの中から、例えば、グレードの高いスピーカが取り付けられた内装デザインなどを抽出する。ユーザが山登りを選択した場合、制御部CT1は、複数の内装デザインの中から、例えば、緑を基調とする自然スタイルの内装デザインなどを抽出する。ユーザがマリンスポーツを選択した場合、制御部CT1は、複数の内装デザインの中から、例えば、青を基調とするマリンスタイルの内装デザインなどを抽出する。
 ユーザが性格選択ボタンB6を選択すると、明るい、暗い、綺麗好きなどの項目がプルダウンメニューにより表示される。ユーザが明るいを選択した場合、制御部CT1は、複数の内装デザインの中から、例えば、比較的派手な色の内装デザインなどを抽出する。ユーザが暗いを選択した場合、制御部CT1は、複数の内装デザインの中から、例えば、比較的落ち着いた色の内装デザインなどを抽出する。ユーザが綺麗好きを選択した場合、制御部CT1は、複数の内装デザインの中から、例えば、表皮の着脱が容易なシート(着せ替えシート)が取り付けられた内装デザインや、抗菌処理された内装部品が取り付けられた内装デザインなどを抽出する。
 ユーザが決定ボタンB7を選択すると、ユーザが選んだ性別、趣味および性格の情報が嗜好性判別情報として制御部CT1に送信される。図3に戻って、制御部CT1は、ステップS21の後、端末2から嗜好性判別情報を取得したかを判定することで、嗜好性判別情報がユーザによって選択されたかを判定する(S22)。
 ステップS22においてユーザによって選択された嗜好性判別情報を端末2から取得したと判定すると、制御部CT1は、嗜好性判別情報と所有車情報に基づいて内装デザインを選択する(S23)。具体的には、制御部CT1は、ステップS23において、複数の内装デザインの中から、ユーザの所有車に適合し、かつ、ユーザの性別、趣味および性格の条件に合った複数の内装デザインを選択する。
 ステップS23の後、制御部CT1は、選択した複数の内装デザインをユーザに提案するための複数の提案画像G1,G2,G3,G4を生成し、生成した複数の提案画像G1~G4を端末2に送信する(S24)。これにより、図8に示すように、複数の提案画像G1~G4が、端末2の表示部DSに表示される。提案画像G1~G4は、内装部品の選択を行うための選択画像である。また、提案画像G1~G4は、車両の内装全体を示す画像であり、内装部品が車両に装着された状態の画像である装着画像でもある。
 提案画像G1~G4は、静止画であってもよいし、車内の視点から撮影カメラで内部を見回すように3次元画像を回動させる動画であってもよい。なお、図では、提案画像G1~G4において、シートのみを図示しているが、ドアパネルやハンドルなどのその他の内装部品も表示することができる。また、図では、提案画像G1~G4を4つのみ表示しているが、画面をスクロールすることで、5つ以上の提案画像をユーザに提案できるようにしてもよい。また、複数の提案画像は、同一のデザインの色違い、模様違いであってもよいし、同じ色または模様のデザイン違いであってもよい。
 複数の提案画像G1~G4を含む画像には、内装を決定するための決定ボタンB8の画像も含まれている。提案画像G1~G4のいずれかをユーザが選択すると、選択した提案画像が、例えば色の反転などによって強調表示される。この状態で、ユーザが決定ボタンB8を選択すると、選択された提案画像が示す内装デザインの情報が端末2から制御部CT1に送信される。
 図3に戻って、制御部CT1は、ステップS24の後、ユーザによって選択された内装デザインの情報が端末2から送信されてきたかを判定することで、内装が決定したか否かを判定する(S25)。ステップS25において内装が決定したと判定した場合には(Yes)、制御部CT1は、決定した内装デザインを構成する各内装部品と、所有車情報(現在の内装デザインを構成する各内装部品)とを比較し、変更する内装部品を表示したパーツリストを生成し、生成したパーツリストの画像を端末2に送信する(S26)。
 図9に示すように、パーツリストの画像では、変更する内装部品の名前(パーツ名)と、パーツ名に対応した消費ポイントが、複数表示されている。ここで、消費ポイントは、内装部品の値段に対応したポイントであり、例えば1ポイントが1円に対応している。
 制御部CT1は、消費ポイントの合計が、ポイント上限値を超えた場合、エラーメッセージを表示してもよい。また、制御部CT1は、ポイント上限値以内の内装部品については黒文字で表示し、ポイント上限値を超える内装部品については赤文字で表示してもよい。
 パーツリストの画像には、内装部品の注文を行うための注文ボタンB9の画像も含まれている。ユーザが注文ボタンB9を選択すると、ユーザが注文したことを示す注文情報が端末2から制御部CT1に送信される。
 図3に戻って、制御部CT1は、ステップS26の後、注文情報が端末2から送信されてきたかを判定することで、注文が行われたか否かを判定する(S27)。ステップS27において注文が行われたと判定した場合には(Yes)、制御部CT1は、ユーザの最寄りのディーラのパソコンに、パーツリストの情報を、ユーザの電話番号や住所などの連絡先情報ととともに送信して(S28)、本処理を終了する。
 ユーザの最寄りのディーラの情報および連絡先情報は、例えば、所有車情報として記憶部Mに記憶しておくことができる。なお、制御部CT1は、所有車情報として記憶部Mに記憶された連絡先情報に基づいて、連絡先情報の住所の近くにあるディーラを検索し、検索したディーラにパーツリストの情報を送信してもよい。
 図4に示すように、制御部CT1は、個別選択モードを開始すると、まず、図10に示すパーツ選択画像を端末2に送信する(S41)。パーツ選択画像は、内装部品が車両に装着された状態の画像である装着画像G11と、シートの表皮の選択を行うための複数の選択画像G12と、ドアパネルの選択を行うための複数の選択画像G13と、内装部品の選択を決定するための決定ボタンB10の画像とを有する。
 装着画像G11は、前述した提案画像G1~G4と同様に、静止画であってもよいし、動画であってもよい。選択画像が選択される前の初期の装着画像G11は、所有車情報に基づいた現在の内装デザインの画像となっている。なお、図では、表皮とドアパネルを選択するための選択画像G12,G13のみを表示しているが、画面をスクロールすることで、その他の内装部品を選択するための選択画像も表示可能となっている。その他の内装部品としては、ドアアームレスト、ドア照明、ドアスピーカ、インストルメントパネル、ピラーの化粧板、ハンドル、コンソールボックス、シート(表皮、パッド、アームレスト、ヘッドレスト、シート内蔵のセンサなど)、カーナビゲーションシステムなどがある。
 ユーザが選択画像を選択すると、選択された内装部品の情報である選択情報が端末2から制御部CT1に送信される。また、装着画像G11は、選択画像が選択されるたびに、更新されるようになっている。具体的には、例えば、表皮の色が青に選択された場合には、装着画像G11のシートの表皮の色が青に更新されて表示される。ユーザは、装着画像G11を見ながら、パーツの選択を行い、変更したいパーツの選択が終了した場合、決定ボタンB7を選択することで、内装を決定する。ユーザが決定ボタンB7を選択すると、内装が決定されたことを示す決定情報が端末2から制御部CT1に送信される。
 図4に戻って、制御部CT1は、ステップS41の後、端末2から送信されてくる選択情報に基づいて、変更するパーツが選択されたか否かを判定する(S42)。ステップS42においてパーツが選択されたと判定した場合には(Yes)、制御部CT1は、選択されたパーツに基づいて装着画像G11を更新し、更新した装着画像G11を端末2に送信する(S43)。
 ステップS43の後、制御部CT1は、端末2から決定情報が送信されてきたかを判定することで、内装が決定したか否かを判定する(S44)。ステップS44において内装が決定していないと判定した場合には(No)、制御部CT1は、ステップS42の処理に戻り、他のパーツの選択を待つ。
 ステップS44において内装が決定したと判定した場合には(Yes)、制御部CT1は、前述したステップS26~S28と略同様の処理であるステップS45~S47を実行して、本処理を終了する。つまり、制御部CT1は、内装が決定した場合には、図9に示すパーツリストを示す画像を端末2に送信し(S45)、注文が行われたと判定すると(S46:Yes)、ユーザの最寄りのディーラのパソコンに、パーツリストの情報と連絡先情報を送信する(S47)。
 次に、部品変更システム1の具体的な動作の一例を詳細に説明する。
 内装変更サブスクの加入者であるユーザが、自身の端末2で内装変更サイトにアクセスすると、図5に示すログイン画像が端末2に表示される。ログイン画像において、ユーザがユーザ名とパスワードを入力し、ログインボタンB1を選択すると、図6に示すモード選択画像が端末2に表示される。
 モード選択画像において、ユーザが提案ボタンB2を選択すると、図7に示す嗜好性判別情報を選択するための画像が端末2に表示される。ユーザが各選択ボタンB4~B6から自身の嗜好に合った項目を選択し、決定ボタンB7を選択すると、図8に示すように、ユーザの嗜好に合った内装デザインを示す提案画像G1~G4が端末2に表示される。
 具体的に、ユーザが、例えば、性別を男性、趣味を音楽、性格を綺麗好きと選択した場合、例えば、グレードの高いスピーカや表皮の着脱が容易なシートが取り付けられたスタイリッシュなデザインの複数種類の提案画像G1~G4が端末2に表示される。ユーザが提案画像G1~G4を選んだ後、決定ボタンB8を選択すると、図9に示すパーツリストを示す画像が端末2に表示される。
 ユーザが、変更するパーツや消費ポイントをパーツリストで確認した後、注文ボタンB9を選択すると、制御部CT1は、ユーザの最寄りのディーラのパソコンに、パーツリストの情報とユーザの連絡先情報を送信する。なお、ディーラの社員は、パソコンに送信されてきたパーツリストの情報とユーザの連絡先情報に基づいて、ユーザに連絡し、ユーザの所有車を預かる日や内装変更が完了する日などの各種日程をユーザと確認する。内装部品の変更の実作業はディーラにおいて行われる。
 図6に示すモード選択画像において、ユーザが個別選択ボタンB3を選択すると、図10に示すパーツ選択画像が端末2に表示される。パーツ選択画像において、ユーザが所定数の選択画像を選択し、決定ボタンB10を選択すると、図9に示すパーツリストを示す画像が端末2に表示される。その後の動作は、提案モードと同じであるため、説明は省略する。
 以上、本実施形態によれば以下のような効果を得ることができる。
 内装変更サブスクの加入者であるユーザは、自身の端末2を用いて内装部品の選択を行うことができるので、車両購入後に内装部品の変更を簡単に行うことができる。
 ユーザが自分に合った嗜好性判別情報を選択するだけで、ユーザの嗜好性に応じた内装部品がユーザに提案されるので、多種にわたる内装部品からユーザが好みの内装部品を選ぶ手間を省くことができる。
 提案モードと個別選択モードが選択可能であるので、ユーザが現在の状況に合わせたモードを選択することができる。例えば、ユーザが変更しようとする内装部品が決まっていない場合には、提案モードを選択することで、多種にわたる内装部品の中から、ユーザの嗜好性に合わせた内装部品を絞り込むことができる。また、例えば、ユーザが変更しようとする内装部品が決まっている場合には、個別選択モードを選択することで、スピーディに内装部品を選択することができる。
 制御部CT1が、内装部品を提案する場合、所有車情報に基づいて所有車に適合する内装部品を提案するので、ユーザの所有車に適合しない内装部品をユーザが誤って選択するのを抑制することができる。
 内装部品が車両に装着された状態の画像である装着画像が端末2に送信されることにより、内装部品が車両に装着された状態の画像をユーザが見ることができるので、内装部品の変更による内装全体のイメージをユーザが確認することができる。
 なお、本開示は、以下に例示するように様々な形態で利用できる。以下の説明においては、前記実施形態と略同様の構成には同一の符号を付し、その説明は省略する。
 前記実施形態では、提案モードにおいてユーザに嗜好性判別情報を選択させたが、提案モードにおいてユーザに嗜好性判別情報を選択させなくてもよい。具体的には、制御部CT1は、ユーザの行動履歴に基づいて内装部品を選択し、選択した内装部品をユーザに提案する提案画像を端末2に送信してもよい。
 制御部CT1は、例えば、ユーザの所有車の車両制御部や端末2などのユーザが所持するデバイスからインターネットを介してユーザの行動履歴を取得して記憶部Mに記憶する。ユーザの行動履歴としては、例えば、以下の履歴が挙げられる。
1.ユーザの所有車のナビゲーションシステムから取得可能な所有車の走行履歴。
2.車両の記憶部に記憶された音楽や動画の視聴履歴やジャンルなど。
3.端末2のGPS発信機から取得可能な端末2の移動履歴。
4.端末2でのサイトの検索履歴。
5.ウェアラブルデバイスで取得された血圧などのユーザの行動によって変化する健康状態の履歴。
 この場合、制御部CT1は、図11に示す提案モードを実行する。制御部CT1は、提案モードを開始すると、記憶部Mからユーザの行動履歴と所有車情報とを取得し、行動履歴と所有車情報に基づいて内装デザインを選択する(S61)。例えば、制御部CT1は、行動履歴に基づいて、ユーザが音楽を頻繁に聞いていることを判定した場合、グレードの高いスピーカが取り付けられた内装デザインなどの音楽が重視された内装デザインを選択する。
 また、制御部CT1は、行動履歴に基づいて、ユーザが車内テレビを頻繁に見ていることを判定した場合、グレードの高いモニタが取り付けられた内装デザインなどの映像が重視された内装デザインを選択する。また、制御部CT1は、行動履歴に基づいて、ユーザが海に行く頻度が高いと判定した場合、青を基調とするマリンスタイルの内装デザインを選択する。
 また、制御部CT1は、行動履歴に基づいて、ユーザが山登りに行く頻度が高いと判定した場合、緑を基調とする自然スタイルの内装デザインを選択する。また、制御部CT1は、行動履歴に基づいて、ユーザが赤系統の服を検索する頻度が高いと判定した場合、赤を基調とする内装デザインを選択する。
 また、制御部CT1は、行動履歴に基づいて、ユーザの血圧が高いと判定した場合、生体センサによりユーザの血圧を計測できるシートが取り付けられた内装デザインを選択する。ステップS61の後、制御部CT1は、前記実施形態と同様のステップS24~S28の処理を実行する。
 この形態によれば、ユーザの行動履歴に応じた内装部品がユーザに提案されるので、多種にわたる内装部品からユーザが好みの内装部品を選ぶ手間を省くことができる。また、ユーザの行動履歴が逐一アップデートされる記憶部Mから制御部CT1が行動履歴を取得するので、ユーザが自分に合った嗜好性判別情報を選択する形態と比べ、ユーザが嗜好性判別情報を選択する手間を省くことができる。
 なお、行動履歴は、記憶部Mに記憶させずに、制御部CT1が提案モードを実行するときに端末2等のデバイスから取得してもよい。
 嗜好性判別情報は、性別、趣味、性格に限らない。嗜好性判別情報は、色、柄(例:柄なし、水玉、ヒョウ柄など)、デザイン(例:スタイリッシュ、クール、キュート等)、求める機能(例:音楽好き、綺麗好きなど)などであってもよい。嗜好性判別情報は、性別、趣味、性格の3種類に限らず、1種類であってもよいし、2または4以上の種類であってもよい。
 制御部は、入手したユーザの情報をAI(人工知能)で機械学習して提案内容に反映させてもよい。
 内装変更サブスクには金額によるランクがあってもよい。例えば、年額1万円、年額5万円、年額10万円のプランをユーザが選択可能であってもよい。この場合、ランクによってプランの内容を変えてもよい。例えば、年額1万円のプランを、年に1回だけ内装部品の色変更のみが可能なプランとすることができる。また、年額10万円のプランを、年3回すべての内装部品の交換が可能なプランとすることができる。サーバの制御部は、ランクを判定し、ユーザが利用可能なサービスのみを提示する構成とすることができる。
 内装変更サブスクの利用に制限回数がある場合、制限回数に達したことをユーザに通知してもよい。例えば、制御部は、ユーザの利用回数が制限回数に達したと判定した場合、制限回数に達したことをユーザの端末に通知することができる。また、このように制限回数に達した場合、制御部は、サービスを停止する構成とすることができる。
 消費ポイントは、ユーザが自分の端末からサーバにアクセスしていつでも確認できるようになっていてもよい。例えば、ログイン後の画面である、図6のモード選択画像に、消費ポイントとポイント上限値を表示してもよい。
 部品変更システム1は、サーバを備えていればよく、ユーザの端末は備えていなくてもよい。
 提案画像や装着画像は、端末以外のものに表示してもよい。例えば、端末の画面に、内装部品を選択するための選択画像(静止画)を表示し、端末とは別のモニタに、装着画像(提案画像)の動画を表示することもできる。
 端末は、タブレットやパーソナルコンピュータなどであってもよい。
 サブスクリプションサービス(以下、「サブスク」ともいう。)は、車両購入後に車両の部品の変更を行うことが可能なサービスであればよい。サブスクは、例えば、中古車の購入後に加入できるサービスであってもよい。また、サブスクは、外装部品の変更を行うことが可能なサービスであってもよい。
 前記した実施形態および変形例で説明した各要素を、任意に組み合わせて実施してもよい。
 次に、第2~第5実施形態に係る、車載機器を作動させる制御部を備えた車両システムについて説明する。
 従来、ショッピングモールにおけるユーザの決済情報などの行動情報を、制御部がユーザの携帯端末から取得し、制御部が行動情報に基づいて、シートアレンジなどの車載機器の制御を実行する車両システムが知られている(特開2020-157943号公報参照)。
 しかしながら、従来技術では、制御部が携帯端末から行動情報を取得すると車載機器の制御を実行するので、ユーザが求めていないのに勝手に車載機器が作動してしまうおそれがある。
 そこで、ユーザの行動情報に基づいて車載機器を制御する制御部を備えた車両システムにおいて、ユーザの意思が反映された制御を実現可能とすることが望まれている。
[第2実施形態]
 以下、添付の図面を参照しながら第2実施形態に係る車両システムについて説明する。
 図12に示すように、車両システム100は、シート10と、障害物検出センサSN1と、車載機器の一例としてのシートアレンジ装置ADと、制御部CT2とを備えている。
 シート10は、車両50の後部に位置する荷室52の前に配置されている。シート10は、運転席や助手席などの前列シートFSの後ろに配置されている。車両50は、5ドアタイプの車両であり、車両50の左右に位置する合計4つの図示せぬドアと、荷室52の後ろに位置するバックドア53とを備えている。
 シート10は、シートクッション11と、シートバック12と、ヘッドレスト13とを備えている。シートクッション11、シートバック12およびヘッドレスト13は、それぞれ、骨格を構成するフレームと、フレームを覆うパッドと、パッドを覆う表皮とを有している。
 シートバック12は、シートクッション11に回動可能に支持されている。シート10は、図示せぬスライドレールにより、前後方向に移動可能となっている。
 シートアレンジ装置ADは、シート10の姿勢および位置の少なくとも一方を変更することでシート10を複数の状態に変更する装置である。シートアレンジ装置ADは、シートバック12を回動させる図示せぬモータ等の第1駆動源を備えている。シートアレンジ装置ADまたは車両50は、シート10を前後方向に移動させる図示せぬモータ等の第2駆動源を備えている。第1駆動源および第2駆動源は、制御部CT2によって制御される。
 シート10は、図12に示す第1状態と、図13に示す第2状態とに切替可能となっている。第1状態は、ユーザが着座可能な状態、つまり、シートクッション11に対してシートバック12が起立した状態であり、シート10が最も前方の位置以外の位置に位置している状態をいう。第2状態は、第1状態よりも車室内の収納空間を大きくする状態である。本実施形態では、第2状態は、シートバック12がシートクッション11と対面するように折り畳まれ、かつ、シート10が最も前方の位置に配置された状態をいう。
 シートアレンジ装置ADは、シート10を第1状態にする第1モードと、シート10を第2状態にする第2モードと、に切替可能である。第2モードは、所定モードの一例である。
 障害物検出センサSN1は、シートアレンジ装置ADによって動くシート10の軌跡上にある障害物を検出するセンサである。本実施形態では、障害物検出センサSN1は、シートクッション11の表皮とパッドの間に配置され、シートクッション11の座面上の物の有無を検出する。つまり、障害物検出センサSN1は、第1状態から第2状態に切り替わるまでのシートバック12の回動軌跡上にある障害物を検出可能となっている。
 障害物検出センサSN1は、例えば、圧力センサである。本実施形態では、障害物検出センサSN1は、シートにユーザが座っているか否かを検出するシートベルトリマインダ用のセンサとしても利用されている。
 制御部CT2は、図示しないCPU、ROM、RAM、書換可能な不揮発性メモリ等を有し、予め記憶されたプログラムに基づいて処理を実行する。制御部CT2は、ユーザが所持する携帯端末の一例としてのスマートフォンSPと通信可能となっている。
 制御部CT2は、車両50に設けられていてもよいし、シート10に設けられていてもよい。なお、制御部CT2とスマートフォンSPとを通信可能にする設定は、ユーザによって制御部CT2およびスマートフォンSPに対して予め行われているものとする。
 制御部CT2は、スマートフォンSPから、ユーザの行動に関するユーザ行動情報を取得する。本実施形態では、ユーザ行動情報は、ユーザが物を購入したことを示す決済情報であることとする。
 制御部CT2は、決済情報に基づいてシートアレンジ装置ADを第2モードにするか否かを判定する。制御部CT2は、シートアレンジ装置ADを第2モードにすると判定した場合、シートアレンジ装置ADを第2モードにするか否かをユーザに選択させるための選択情報をスマートフォンSPに送信する。制御部CT2は、ユーザが選択情報に基づいてシートアレンジ装置ADを第2モードにすることを選択した場合にスマートフォンSPから送信される許可情報を受けると、シートアレンジ装置ADを第2モードにする。以下の説明では、シートアレンジ装置ADを第2モードにする処理を、「シート収納処理」ともいう。
 制御部CT2は、スマートフォンSPから決済情報を取得した後、障害物検出センサSN1からの情報に基づいてシート10の軌跡上に障害物があるか否かを判定する。制御部CT2は、障害物があると判定した場合、シート10の状態が変更できないことを示す変更不可情報をスマートフォンSPに送信する。
 次に、スマートフォンSPおよび制御部CT2の動作について詳細に説明する。
 図14に示すように、スマートフォンSPは、ユーザが物を購入したか否かを判定する(S101)。具体的には、スマートフォンSPは、電子マネーによる支払いを行う決済アプリケーションプログラムによって決済がされたか否かを判定する。なお、以下の説明では、「アプリケーションプログラム」を、単に「アプリ」ともいう。
 ステップS101において物を購入したと判定した場合には(Yes)、スマートフォンSPは、決済したことを示す決済情報を制御部CT2に送信する(S102)。ステップS102の後、または、ステップS101において物を購入していないと判定した場合には(No)、スマートフォンSPは、制御部CT2から選択情報を受信したか否を判定する(S103)。
 ステップS103において選択情報を受信したと判定した場合には(Yes)、スマートフォンSPは、選択情報を画面に表示する(S104)。ステップS104の後、スマートフォンSPは、選択情報を表示してから第1所定時間以内に、シート10の状態を第2状態にすることがユーザによって選択されたか否かを判定する(S105)。
 ステップS105においてシート10の状態を第2状態にすることが選択されたと判定した場合には(Yes)、スマートフォンSPは、制御部CT2から変更不可情報を受信したか否かを判定する(S106)。ステップS106において変更不可情報を受信していないと判定した場合には(No)、シート10の状態を第2状態にすることを許可するための許可情報を制御部CT2に送信する(S107)。
 ステップS106において変更不可情報を受信したと判定した場合には(Yes)、スマートフォンSPは、画面に変更不可情報を表示して(S108)、本処理を終了する。また、ステップS103またはステップS105でNoと判定した場合には、スマートフォンSPは、本処理を終了する。
 図15に示すように、制御部CT2は、スマートフォンSPから決済情報を受信したか否かを判定する(S121)。ステップS121において決済情報を受信したと判定した場合には(Yes)、制御部CT2は、決済情報に基づいて、ユーザが購入した物の最大長さが所定値より大きいか否かを判定する(S122)。
 ここで、所定値は、シート10の状態が第1状態であり、シート10の位置が最も後方の位置であるときの荷室長であってもよいし、荷室幅であってもよいし、立方体状の荷室空間の対角線の長さであってもよい。
 ステップS122において物の最大長さが所定値より大きいと判定した場合には(Yes)、制御部CT2は、シート収納処理を実行することを決定する(S123)。ステップS123の後、制御部CT2は、障害物検出センサSN1からの情報に基づいて、シート10の軌跡上に障害物があるか否かを判定する(S124)。
 ステップS124において障害物があると判定した場合には(Yes)、制御部CT2は、選択情報と変更不可情報をスマートフォンSPに送信して(S125)、本処理を終了する。ステップS124において障害物がないと判定した場合には(No)、制御部CT2は、選択情報をスマートフォンSPに送信する(S126)。
 ステップS126の後、制御部CT2は、選択情報を送信してから第2所定時間以内にスマートフォンSPから許可情報を受信したか否かを判定する(S127)。ステップS127において許可情報を受信したと判定した場合には(Yes)、制御部CT2は、シート収納処理を実行、つまりシートアレンジ装置ADを第2モードにして(S128)、本処理を終了する。
 ステップS127において第2所定時間以内に許可情報を受信しなかったと判定した場合には(No)、制御部CT2は、シートアレンジ装置ADを第2モードにしないで、本処理を終了する。ステップS121またはステップS122でNoと判定した場合には、制御部CT2は、本処理を終了する。
 次に、スマートフォンSPおよび制御部CT2の動作の具体例を説明する。
 図16(a)に示すように、ユーザがスマートフォンSPの決済アプリを使ってスキー板を購入すると、スマートフォンSPは、決済情報を、車両50の制御部CT2に送信する(S101:Yes→S102)。
 図15に示すように、制御部CT2は、決済情報を受信すると、決済情報に基づいてスキー板の最大長さが所定値より大きいか否かを判定する(S121:Yes→S122)。制御部CT2は、スキー板の最大長さが所定値より大きいと判定すると、シート収納処理の実行を決定する(S122:Yes→S123)。
 シート収納処理の実行を決定した後、制御部CT2は、シート10の軌跡上に障害物があるか否かを判定する(S124)。障害物がない場合、制御部CT2は、選択情報をスマートフォンSPに送信する(S126)。
 スマートフォンSPは、選択情報を受信すると、図16(b)に示すように、選択情報を画面に表示する(S103:Yes→S104)。具体的には、スマートフォンSPは、例えば、「シートを収納しますか?」というメッセージの画像と、シート収納処理を実行したときのシート10の状態を示す図の画像と、シートを収納するか否かを選択するための「はい」、「いいえ」の文字が付されたスイッチの画像とを、選択情報として画面に表示する。
 ユーザが「はい」のスイッチを選択した場合、スマートフォンSPは、許可情報を制御部CT2に送信する(S105:Yes→S106:No→S107)。制御部CT2は、許可情報を受信すると、シート収納処理を実行する(S127:Yes→S128)。制御部CT2がシート収納処理を実行すると、シート10が第1状態から第2状態に切り替わる。
 なお、シート10を第2状態から第1状態へ戻す場合には、例えば、制御部CT2が、ユーザからの要求によって、シートアレンジ装置ADを制御すればよい。ユーザからの要求は、例えば、車内に設けられた操作部をユーザが操作することで制御部CT2に出力されてもよいし、ユーザがスマートフォンSPを操作することで制御部CT2に出力されてもよい。なお、スマートフォンSPの操作は、ユーザの声による操作であってもよい。また、ユーザが、リクライニング機構を動作させるレバーやスライド移動のロックを解除するレバーなどを操作することで、手動で第2状態から第1状態へ戻してもよい。
 制御部CT2は、ステップS124において障害物があると判定した場合(Yes)、選択情報と変更不可情報をスマートフォンSPに送信する(S125)。スマートフォンSPは、変更不可情報を受信すると、図17に示すように、変更不可情報を画面に表示する(S106:Yes→S108)。
 具体的には、スマートフォンSPは、例えば、「シート上に物があるため、シートを収納できません。」というメッセージの画像を、変更不可情報として画面に表示する。
 以上、本実施形態によれば以下のような効果を得ることができる。
 制御部CT2が、シートアレンジ装置ADを第2モードにすると判定した場合、シートアレンジ装置ADを第2モードにするか否かをユーザに選択させるための選択情報をスマートフォンSPに送信するので、ユーザは、スマートフォンSPを操作することで、シートアレンジ装置ADを第2モードにするかどうか選択することができる。そのため、ユーザの行動情報に基づいてシートアレンジ装置ADを制御する制御部CT2を備えた車両システム100において、ユーザの意思が反映された制御を実現できる。
 例えば、ユーザが購入したスキー板を車両50の荷室に積み込みたい場合には、ユーザが、シート収納処理の実行を許可することで、事前に荷室を大きくしておくことができる。また、例えば、ユーザが友人のためにスキー板を購入し、その場でスキー板を友人に渡す場合には、ユーザが、シート収納処理の実行を許可しないことで、シート10の状態を第1状態のままにすることができる。
 シート10の軌跡上に障害物がある場合には、制御部CT2が、変更不可情報をスマートフォンSPに送信するので、ユーザは、シートアレンジ装置ADによってシート10を動かすことができないことを知ることができる。
 なお、本開示は、以下に例示するように様々な形態で利用できる。以下の説明においては、前記実施形態と略同様の構造となる部材には同一の符号を付し、その説明は省略する。
[第3実施形態]
 第3実施形態に係る車両システムにおいて、ユーザ行動情報は、ユーザのスケジュールを示すスケジュール情報である。第3実施形態に係る制御部CT2は、スケジュール情報に基づいてシートアレンジ装置を第2モードにするか否かを判定する。
 具体的には、第3実施形態において、スマートフォンSPは、図18の処理を実行し、制御部CT2は、図19の処理を実行する。図18の処理は、図14のステップS101,S102の処理を、新たなステップS141,S142の処理に置き換えたものである。図19の処理は、図15のステップS121,S122の処理を、新たなステップS151,S152の処理に置き換えたものである。図18および図19において、第2実施形態と同様の処理については同一符号を付して説明を省略する。
 図18に示すように、スマートフォンSPは、スケジュールを管理するためのスケジュールアプリを利用してユーザがスケジュールを入力したか否かを判定する(S141)。ステップS141においてスケジュールが入力されたと判定した場合には(Yes)、スマートフォンSPは、入力されたスケジュール情報を制御部CT2に送信する(S142)。
 ここで、スケジュール情報としては、例えば、日付、場所、イベントの内容などが含まれる。本実施形態では、スケジュール情報は、日付およびイベントの内容とする。
 ステップS142の後、または、ステップS141でNoと判定した場合、スマートフォンSPは、前述したステップS103~S108の処理を適宜実行する。
 制御部CT2は、スマートフォンSPからスケジュール情報が送られてくるたびに、スケジュール情報を記憶する。
 図19に示すように、制御部CT2は、記憶したスケジュール情報に基づいて、翌日にイベントがあるか否かを判定する(S151)。ステップS151においてイベントがあると判定した場合には(Yes)、制御部CT2は、翌日のイベントが、スキー、釣り、キャンプなどの大きな荷物または多くの荷物が必要なイベントであるか否かを判定する(S152)。以下の説明では、スキーなどの大きな荷物または多くの荷物が必要なイベントを、「大イベント」ともいう。
 なお、大イベントの内容は、制御部CT2に予め記憶されていてもよいし、ユーザが入力することで制御部CT2に登録されてもよい。また、ステップS151において、「翌日」ではなく、2日後、3日後など、日にちは任意に変更してもよい。
 ステップS152において翌日のイベントが大イベントであると判定した場合には(Yes)、制御部CT2は、ステップS123にてシート収納処理の実行を決定する。ステップS123の後、制御部CT2は、前述したステップS124~S128の処理を適宜実行する。ステップS151またはステップS152においてNoと判定した場合、制御部CT2は、本処理を終了する。
 以上、第3実施形態に係る車両システムによれば、以下の効果を得ることができる。
 翌日のイベントが大イベントである場合には、ユーザのスマートフォンSPに、シート収納処理を実行するかの問い合わせがくるので、ユーザが、状況に応じて、荷室を大きくするかを決定することができる。例えば、スキーなどの大イベントにおいてユーザが荷室に多量の荷物を収容したい場合には、荷室を大きくすることをユーザが選択することができる。また、例えば、スキー用具などの荷物については宅配便で先に目的地に送っており、複数の友達を自車に乗せて目的地に行く場合には、荷室を大きくしないことを選択することができる。
[第4実施形態]
 第4実施形態に係る車両システムにおいて、シートアレンジ装置ADは、図20(a)に示す第3モードと、図20(b)に示す第4モードと、に切替可能となっている。第3モードは、シート10のシートバック12の角度を所定角度とするモードである。第4モードは、第3モードよりもシートバック12を倒すモードである。第4モードは、所定モードの一例である。以下の説明では、シートアレンジ装置ADを第4モードにする処理を、「リクライニング処理」ともいう。
 第4実施形態に係るシート10のシートバック12の背面には、障害物検出センサSN2が設けられている。障害物検出センサSN2としては、例えば赤外線センサやレーザーセンサなどを用いることができる。
 第4実施形態において、ユーザ行動情報は、ユーザの行動履歴である。本実施形態では、行動履歴として、スマートフォンSPに設けられるGPS発信機から取得される位置情報の履歴とする。制御部CT2は、行動履歴に基づいて、シートアレンジ装置ADを第4モードにするか否かを判定する。
 具体的には、第4実施形態において、スマートフォンSPは、図21の処理を実行し、制御部CT2は、図22の処理を実行する。図21の処理は、図14のステップS101,S102の処理を、新たなステップS161の処理に置き換え、ステップS105の処理を、新たなステップS162の処理に置き換えたものである。図22の処理は、図15のステップS121~S123の処理を、新たなステップS171~S173の処理に置き換え、ステップS128の処理を、新たなステップS174の処理に置き換えたものである。図21および図22において、第2実施形態と同様の処理については同一符号を付して説明を省略する。
 図21に示すように、スマートフォンSPは、行動履歴を制御部CT2に送信する(S161)。ステップS161の後、スマートフォンSPは、前述したステップS103,S104の処理を適宜実行する。ここで、第4実施形態における選択情報は、シートアレンジ装置ADを第4モードにするか否かをユーザに選択させるための情報、つまりリクライニング処理を実行するか否かをユーザに選択させるための情報である。
 ステップS104の後、スマートフォンSPは、ユーザによってリクライニング処理の実行が選択されたか否かを判定する(S162)。ステップS162においてリクライニング処理の実行が選択されたと判定した場合には(Yes)、スマートフォンSPは、前述したステップS106~S108の処理を適宜実行する。
 制御部CT2は、スマートフォンSPから行動履歴が送られてくるたびに、行動履歴を記憶する。
 図22に示すように、制御部CT2は、ユーザが車両50に近づいたか否かを判定する(S171)。ここで、車両50にユーザが近づいたか否かの判定は、例えば、ユーザが所持する車両50のキーリモコンの電波に基づいて車両50に近づいたか否かを判定してもよいし、行動履歴に基づいて判定してもよい。
 ステップS171において車に近づいたと判定した場合には(Yes)、制御部CT2は、行動履歴に基づいて、ユーザが所定時間以上運動したか否かを判定する(S172)。ステップS172において運動したと判定した場合には(Yes)、制御部CT2は、リクライニング処理を実行することを決定する(S173)。
 ステップS173の後、制御部CT2は、前述したステップS124~S127の処理を適宜実行する。制御部CT2は、ステップS127において許可情報を受信したと判定した場合には(Yes)、リクライニング処理を実行する(S174)。ステップS174の後、または、ステップS171,S172のいずれかにおいてNoと判定した場合、制御部CT2は、本処理を終了する。
 以上、第4実施形態に係る車両システムによれば、以下の効果を得ることができる。
 ユーザが運動した後に車両50に乗る場合には、ユーザのスマートフォンSPに、リクライニング処理を実行するかの問い合わせがくるので、ユーザが、状況に応じて、シートバック12を倒すことができる。例えば、ユーザが運動により疲れている場合には、リクライング処理を実行することをユーザが選択することで、ユーザが車両50に乗る前に予めシートバック12を倒しておくことができる。また、例えば、ユーザが運動で疲れていない場合には、リクライング処理を実行しないことをユーザが選択することで、シートバック12を起立状態のままにして、通常通りシート10に着座することができる。
 なお、第4実施形態において、行動履歴の代わりに、ユーザの行動によって変化する身体情報をユーザ行動情報として利用してもよい。ここで、身体情報は、例えば、体温、脈拍、発汗量、心拍数などの情報を含む。この場合、制御部CT2は、ステップS172において、身体情報に基づいて、ユーザが運動したか否かや、ユーザの具合が悪いか否かを判定してもよい。
[第5実施形態]
 第5実施形態に係る車両システムにおいて、車載機器は、空調装置である。空調装置は、車両に設けられるエアコンであってもよいし、シートに設けられるシート空調であってもよい。空調装置は、車室の温度を第1温度にする第1空調モードと、車室の温度を第1温度よりも高い第2温度にする第2空調モードと、に切替可能となっている。第1空調モードは、所定モードの一例である。以下の説明では、空調装置を第1空調モードにする処理を、「クーリング処理」ともいう。
 第5実施形態において、ユーザ行動情報は、ユーザの行動履歴である。制御部CT2は、行動履歴に基づいて、空調装置を第1空調モードにするか否かを判定する。
 具体的には、第5実施形態において、スマートフォンSPは、図23の処理を実行し、制御部CT2は、図24の処理を実行する。図23の処理は、図21のステップS162の処理を、新たなステップS181の処理に置き換えたものである。図24の処理は、図22のステップS171の処理とステップS172の処理の間に、新たなステップS191の処理を加え、ステップS173の処理を、新たなステップS192の処理に置き換え、ステップS174の処理を、新たなステップS193の処理に置き換えたものである。図23および図24において、第4実施形態と同様の処理については同一符号を付して説明を省略する。
 図23に示すように、スマートフォンSPは、前述したステップS161,S103,S104の処理を適宜実行する。ステップS104の後、スマートフォンSPは、第1所定時間以内にユーザによってクーリング処理を実行することが選択されたか否かを判定する(S181)。ステップS181においてクーリング処理の実行が選択された場合には(Yes)、スマートフォンSPは、前述したステップS106~S108の処理を適宜実行する。ステップS181においてクーリング処理を実行しないことが選択された場合には(No)、スマートフォンSPは、本処理を終了する。
 図24に示すように、制御部CT2は、前述したステップS171の処理を実行する。ステップS171でYesと判定した場合には、制御部CT2は、温度センサの情報に基づいて、外気温が所定温度以上であるか否かを判定する(S191)。ステップS191において外気温が所定温度以上であると判定した場合には(Yes)、制御部CT2は、前述したステップS172の処理を実行する。
 ステップS172でYesと判定した場合には、制御部CT2は、クーリング処理を実行することを決定する(S192)。ステップS192の後、制御部CT2は、前述したステップS124~S127の処理を適宜実行する。
 ステップS127でYesと判定した場合には、制御部CT2は、クーリング処理を実行する(S193)。ステップS193の後、または、ステップS191でNoと判定した場合には、制御部CT2は、本処理を終了する。
 以上、第5実施形態に係る車両システムによれば、以下の効果を得ることができる。
 外気温が所定温度以上となる環境下でユーザが運動した後に車両50に乗る場合には、ユーザのスマートフォンSPに、クーリング処理を実行するかの問い合わせがくるので、ユーザが、状況に応じて、車室の温度を下げることができる。例えば、ユーザが暑がりである場合には、クーリング処理を実行することをユーザが選択することで、車室の温度を予め下げておくことができる。また、例えば、ユーザが空調の風に弱い人である場合には、クーリング処理を実行しないことをユーザが選択することで、ユーザが車室内で快適にすごすことができる。
 なお、第5実施形態において、行動履歴の代わりに、前述した身体情報をユーザ行動情報として利用してもよい。この場合、制御部CT2は、ステップS172において、身体情報に基づいて、ユーザが運動したか否かや、ユーザの具合が悪いか否かを判定してもよい。なお、ユーザの具合が悪いか否かを判定する方法では、ユーザの具合が悪くないと判定した場合に、クーリング処理を実行することを決定し、ユーザの具合が悪いと判定した場合に、本処理を終了してもよい。
 第2実施形態では、シート収納処理を実行するかを決めるための判定処理において、物の最大長さが所定値より大きいかを判定したが、例えば、制御部は、決済情報から、購入した物の数と大きさを取得し、物の数と大きさに基づいて、購入したすべての物が、シートの位置が最も後方の位置であるときの荷室に収納できるかを判定してもよい。
 シートアレンジ装置によるシートアレンジの種類は、例えば、フォールダウン、ダイブダウン、チップアップ、回転などであってもよい。
 図14の処理等のスマートフォンによる処理は、専用のアプリをスマートフォンにインストールして実施されてもよいし、スマートフォン自体にもともと組み込まれているプログラムで行ってもよい。
 制御部が車載機器を所定モードにすることをユーザに選択させるリコメンド機能は、不要な場合にはオフにすることができる。
 シートアレンジを複数提案してユーザに選択させることもできる。例えば、フォールダウンがよいか、チップアップがよいか、などをユーザに選択させることができる。また、荷物に応じたユーザの好みのアレンジを機械学習して提案することもできる。
 ユーザが日常的に出かける場所(例えば、週一回のスーパーへの買い出し)とシートアレンジの使用頻度を機械学習し、特定の状況のときのみリコメンド(制御部から携帯端末を介したユーザへの提案)なしでシートアレンジを実施してもよい。
 制御部からスマートフォンへの変更不可情報の送信のタイミングは、ユーザが車外へ出る前や出た直後にその旨を通知してもよい。
 シートアレンジ装置などに故障が発生した場合には、その旨を制御部がスマートフォンに通知し、シートアレンジの機能を制限または禁止してもよい。
 ユーザ行動情報は、SNS(Social Networking Service)から得られるコミュニケーション履歴であってもよい。制御部は、コミュニケーション履歴から分かる行先や人数に基づいて、シートアレンジを提案してもよい。例えば、制御部は、キャンプや釣りで荷物が多いと予想される場合には、リアシートのダイブダウンを提案してもよいし、出かける人数に合わせて4人モードから6人モードへのシートアレンジ(例えば、ダイブダウンされていたサードシートを復帰)を提案してもよい。
 制御部は、スケジュール情報の休日に基づいて、アクティビティとシートアレンジを提案してもよい。例えば、制御部は、スケジュール情報の休日に基づいて、「休日なので釣りに行きませんか?」というメッセージと、釣り用に荷室を大きくしたシートアレンジを選択させる選択情報をスマートフォンに送信してもよい。
 制御部は、行動履歴やコミュニケーション履歴からわかる人数や関係性に基づいてシートアレンジを提案してもよい。例えば、制御部は、ユーザの車に同乗する人が恋人であると判定した場合、2つのシートのうち少なくとも一方を回転させて、2つのシートを向かい合わせることを提案してもよい。
 制御部は、空調とシートアレンジを組み合わせて提案することもできる。例えば、制御部は、温度や決済情報に基づいて、ユーザが夏に大きな荷物を持っていると判定した場合には、シートアレンジと空調を同時にユーザに提案してもよい。
 車載機器は、シートヒータであってもよい。この場合、制御部は、例えば、温度と行動履歴に基づいて、ユーザが冬に釣りから車両に戻ってくると判定した場合に、シートヒータをONにするかをユーザに提案してもよい。なお、制御部は、シートヒータのONとともにエアコンによる暖房を提案してもよい。
 制御部は、コミュニケーション履歴からわかる車両に乗る人数に基づいて、暖房または冷房の強弱を設定してもよい。例えば、制御部は、温度とコミュニケーション履歴に基づいて、夏に複数人が車両に乗ると判定した場合、強めの冷房をユーザに提案してもよい。つまり、制御部は、外気温が高いほど冷房の温度を低く設定し、乗車人数が多いほど冷房の温度を低く設定するように構成されていてもよい。また、制御部は、外気温が低いほど暖房の温度を高く設定し、乗車人数が少ないほど暖房の温度を高く設定するように構成されていてもよい。
 制御部は、スマートフォンに入力されるスケジュール情報や検索履歴から行先を予測し、やっておいたほうが良い行動を提案してもよい。例えば、制御部は、スケジュール情報や検索履歴からユーザが遠出すると判定した場合には、前日に給油しておくことをユーザに提案してもよい。また、制御部は、カーナビゲーションシステムと連携して車両の近くにあるガソリンスタンドを提示してもよい。
 制御部は、行動履歴や検索履歴からユーザの好みを割り出して行先を提案してもよい。例えば、制御部は、スポーツ系の検索が多いと判定した場合、休日の前日にユーザの家の近くのスポーツ施設やジムやスポーツ観戦施設などをランキングでユーザに提案してもよい。
 携帯端末は、タブレットやウェアラブルデバイスなどであってもよい。
 前記した第2~第5実施形態および変形例で説明した各要素を、任意に組み合わせて実施してもよい。
 続いて、第6、第7実施形態に係る、自動運転を実行可能な制御部を備えた車両システムについて説明する。
 従来、自動運転時における快適性を確保しつつ、乗員が車外に関心がある場合に車外の視認性を高めることができる車両システムが知られている(特開2022-074455号公報参照)。具体的に、この車両システムの制御部は、例えば、車両の自動運転時にワイパの作動を制限し、乗員が車外の情報に関心が有ると判定した場合に、制限を解除してワイパを作動させる。制御部は、乗員の視線方向および乗員による所定の操作の少なくとも一方に基づいて、乗員が車外の情報に関心が有るか否かを判定する。
 しかしながら、自動運転中の車両が通過する予定の地点で事故が発生した場合など、乗員が車外に注意を払うべき状況である場合には、乗員の関心がなくても、車外の視認性を高めた方がよい場合がある。
 そこで、乗員が車外に注意を払うべき状況である場合に、車外の視認性を高めることができる車両システムを提供することが望まれている。
[第6実施形態]
 以下、図面を参照しながら、第6実施形態に係る車両システムについて説明する。
 図25に示すように、車両システム200は、車載機器の一例としてのワイパWと、制御部CT3とを備える。
 ワイパWは、例えば、車両30のフロントウインド31上の水滴を払う部材である。ワイパWは、停止状態と、フロントウインド31上で揺動する作動状態と、に切替可能となっている。ワイパWは、車外状況の把握に影響を与える。詳しくは、雨の日において、ワイパWが停止状態であるとき車外状況が把握しにくくなり、ワイパWが作動状態であるとき停止状態よりも車外状況が把握しやすくなる。本実施形態では、停止状態は、第1状態の一例であり、作動状態は、第2状態の一例である。
 車両30は、雨を検知するための雨検知センサ32を備えている。
 制御部CT3は、図示しないCPU、ROM、RAM、書換可能な不揮発性メモリ等を有し、予め記憶されたプログラムに基づいて処理を実行する。制御部CT3は、手動運転モードと自動運転モードを実行可能である。手動運転モードは、アクセル、ブレーキ、ハンドル等の操作子を運転者が操作することで車両が走行するモードである。自動運転モードは、操作子を運転者が操作することなく車両が走行するモードである。
 制御部CT3は、自動運転モードにおいて、例えば、車両に搭載したカメラ等のセンサを用いて、走行レーンから外れないように車両を走行させる処理や、自車両の前方を走る車両と自車両との間隔を所定値以上に保つ処理などを実行する。
 車両30は、自動運転モードを実行するための、図示せぬ自動運転スイッチを備えている。制御部CT3は、自動運転スイッチがONになると、自動運転モードを実行する。制御部CT3は、自動運転スイッチがOFFになると、手動運転モードを実行する。
 制御部CT3は、ワイパWを制御する。詳しくは、制御部CT3は、乗員によって操作されるワイパスイッチがONの場合、ワイパWを作動状態にし、ワイパスイッチがOFFの場合、ワイパWを停止状態にする。
 制御部CT3は、ワイパWが作動状態である場合に、手動運転から自動運転に切り替わると、ワイパWを停止状態にする。具体的には、降雨時の手動運転において乗員がワイパスイッチをONにしてワイパWを作動させ、その後に乗員が自動運転スイッチをONに切り替えると、制御部CT3は、作動状態であったワイパWを停止状態にする。これにより、自動運転中においてワイパWの動作音を消すことができ、乗員が快適に過ごすことが可能となっている。
 制御部CT3は、サーバSVと通信可能となっている。サーバSVは、自車両以外の事故の発生を知らせる事故情報を取得可能なサーバである。サーバSVは、車両30の周辺で起きた事故情報を取得すると、事故情報を制御部CT3に送信する。ここで、事故情報は、注意情報の一例である。
 制御部CT3は、ワイパWが停止状態であり、かつ、自動運転中である場合に、サーバSVから事故情報を取得すると、ワイパWを作動状態に変更する。詳しくは、制御部CT3は、降雨時の自動運転中にワイパWが停止状態である場合に、サーバSVから事故情報を取得すると、ワイパWを作動状態に変更する。
 次に、制御部CT3の動作について詳細に説明する。
 図26に示すように、制御部CT3は、現在のモードが自動運転モードであるか否かを判定する(S201)。ステップS201において自動運転モードでないと判定した場合には(No)、制御部CT3は、本処理を終了する。
 ステップS201において自動運転モードであると判定した場合には(Yes)、制御部CT3は、サーバSVから事故情報を取得したか否かを判定する(S202)。ステップS202において事故情報を取得したと判定した場合には(Yes)、制御部CT3は、雨検知センサ32からの情報に基づいて、雨が降っているか否かを判定する(S203)。
 ステップS202またはステップS203でNoと判定した場合、制御部CT3は、ワイパWを停止状態にして(S204)、本処理を終了する。ステップS203において雨が降っていると判定した場合には(Yes)、制御部CT3は、ワイパWを作動状態にする前に、ワイパWを作動させる理由を乗員に報知する(S205)。
 なお、ワイパWを作動させる理由としては、例えば、車両30が向かう先に事故が起こっていることなどが挙げられる。また、報知の方法は、例えば、音声による報知であってもよいし、警告音と画面に表示する文字による報知などであってもよい。また、音声または文字による報知と同時に、シートの振動デバイスやエアセルを作動させてもよい。
 ステップS205の後、制御部CT3は、ワイパWを作動状態にして(S206)、本処理を終了する。
 次に、制御部CT3の動作の具体例について説明する。
 降雨時の手動運転中に乗員がワイパスイッチをONにすると、ワイパWが作動状態になる。乗員が自動運転スイッチをONにして手動運転から自動運転に切り替えると、制御部CT3は、ステップS201でYesと判定する。
 ステップS202で事故情報を取得していない場合(No)、制御部CT3は、ワイパWを停止させる(S204)。これにより、自動運転中におけるワイパWの作動音をなくすことができる。
 制御部CT3は、自動運転中に事故情報を取得すると(S202:Yes)、雨が降っているか否かを判定する(S203)。雨が降っていると判定すると、制御部CT3は、ワイパWを作動させる理由を乗員に報知した後、ワイパWを作動させる(S205~S206)。
 具体的には、制御部CT3は、例えば、「前方で事故が発生したので、ワイパを作動させます。」といったメッセージを音声や文字などで乗員に報知した後、ワイパWを作動させる。
 以上、本実施形態によれば以下のような効果を得ることができる。
 ワイパWが停止状態となっている自動運転中において、制御部CT3は、事故情報を取得すると、ワイパWを作動状態に変更するので、乗員が車外に注意を払うべき状況である場合に車外の視認性を高めることができる。そして、事故の発生により変化する車外状況を乗員が把握することができる。
 制御部CT3が、ワイパWを作動状態にする前に、ワイパWを作動状態にする理由を乗員に報知するので、ワイパWが勝手に作動したと乗員が不快に感じるのを抑制できる。
 なお、本開示は、以下に例示するように様々な形態で利用できる。以下の説明においては、前記実施形態と略同様の構造となる部材には同一の符号を付し、その説明は省略する。
 雨検知センサからの情報を用いずに、雨が降っているかを間接的に判定してもよい。例えば、制御部は、ステップS203において、手動運転中のワイパの状態が作動状態であったか否かを判定し、ワイパの状態が作動状態であったと判定した場合に雨が降っていると判定してもよい。この場合、制御部は、手動運転中におけるワイパの状態の履歴を記憶すればよい。
[第7実施形態]
 図27(a),(b)に示すように、第7実施形態に係る車両システムの車載機器は、電動シェード41である。電動シェード41は、例えば調光ガラスを有する。電動シェード41は、乗員の視界を遮る遮蔽状態と、乗員の視界を遮らない開放状態とに切替可能となっている。遮蔽状態は、第1状態の一例であり、開放状態は、第2状態の一例である。電動シェード41は、例えば、フロントドア42の窓を構成する。
 フロントドア42は、電動シェード41の状態を切り替える電動シェードスイッチ43を備えている。
 制御部CT3は、電動シェードスイッチ43がONの場合、電動シェード41を遮蔽状態にする。制御部CT3は、電動シェードスイッチ43がOFFの場合、電動シェード41を開放状態にする。制御部CT3は、電動シェード41が遮蔽状態で、かつ、自動運転中である場合に、注意情報を取得すると、電動シェード41を開放状態に変更する。
 次に、制御部CT3の動作について詳細に説明する。
 図28に示すように、制御部CT3は、現在のモードが自動運転モードであるか否かを判定する(S221)。ステップS221において自動運転モードであると判定した場合には(Yes)、制御部CT3は、電動シェードスイッチ43がONであるか否かを判定する(S222)。
 ステップS222において電動シェードスイッチ43がONであると判定した場合には(Yes)、制御部CT3は、電動シェード41を遮蔽状態にする(S223)。ステップS223の後、制御部CT3は、サーバSVから事故情報を取得したか否かを判定する(S224)。
 ステップS224において事故情報を取得したと判定した場合には(Yes)、制御部CT3は、電動シェード41を開放状態にして(S225)、本処理を終了する。ステップS221、ステップS222またはステップS224においてNoと判定した場合、制御部CT3は、本処理を終了する。
 次に、制御部CT3の動作の具体例について説明する。
 自動運転中に乗員が電動シェードスイッチ43がONにすると、制御部CT3は、ステップS223において電動シェード41を遮蔽状態にする。これにより、乗員は、自動運転中において日差しの影響を受けずに、快適に過ごすことができる。
 電動シェード41を遮蔽状態で自動運転が継続されている場合に、制御部CT3がサーバSVから事故情報を取得すると、電動シェード41を開放状態にする(S225)。これにより、乗員は、事故の発生により変化する車外状況を把握することができる。なお、電動シェード41を開放状態にする前に、電動シェード41を開放状態にする理由を報知してもよい。
 注意情報は、乗員が車外に注意を払うべき状況であることを示す情報であればよい。例えば、注意情報は、災害の発生を知らせる災害情報であってもよい。この場合、制御部は、サーバから災害情報を取得してもよい。
 この構成によれば、災害が発生した場合には、制御部が災害情報に基づいて車載機器を第2状態に変更するので、災害の発生により変化する車外状況を乗員が把握することができる。
 注意情報は、車両の近辺に危険物(例:道路上に落ちた障害物)があることを示す情報であってもよいし、車両の近辺に歩行者や自転車などが存在することを示す情報であってもよい。
 注意情報の入手方法としては、車両のセンシング部(例えば、車載レーダや車載カメラ)によって近辺の情報を入手する方法であってもよい。
 車載機器は、例えば、電子ミラー、車外ライト、車内ライト、シート、シートアレンジ装置(シートの姿勢および位置の少なくとも一方を変更することでシートを複数の状態に変更する装置)、カーナビゲーションシステムのモニタ、スピーカ、プロジェクタなどであってもよい。
 車載機器が電子ミラーである場合、電子ミラーをOFFにしてミラーとして機能させない状態が第1状態に相当し、電子ミラーをONにしてミラーとして機能させる状態が第2状態に相当する。車載機器が車外ライトである場合、車外ライトが消灯した状態が第1状態に相当し、車外ライトが点灯した状態が第2状態に相当する。
 車載機器がシートアレンジ装置である場合、例えば、シートバックを倒したリクライニング状態が第1状態に相当し、シートバックを起こしたドライビング状態が第2状態に相当する。
 制御部は、シートに設けたセンサ、車内カメラ、乗員のウェアラブルデバイス等からの情報で乗員が寝ていると判定した場合、乗員を起こす動作を実施してもよい。起こす動作としては、例えば、シートの振動デバイスを振動させる、シートのエアセルを膨らませる、リクライニングで揺さぶる、車載スピーカやシートに設けられたスピーカで音を出すなどの動作が含まれる。
 周辺の状況が深刻で手動運転にすべき状況であると制御部が判断したとき、その旨を乗員に通知して手動運転に切り替えてもよい。
 電動シェードは、調光ガラスを備えるものに限らず、窓に沿って移動するカーテン、ブラインド、または、シャッタなどを備える構成であってもよい。
 シェードやシートアレンジなどが電動ではない場合には、制御部は、手動で元の状態に戻すように乗員に通知してもよい。
 ワイパは、リアウインド上で揺動するリアワイパであってもよい。
 前記した第6、第7実施形態および変形例で説明した各要素を、任意に組み合わせて実施してもよい。
 次に、第8、第9実施形態に係る、車内空間を仕切る仕切部材を備える車両について説明する。
 従来、自動運転時においてプライベート空間を確保するために、2人の乗員の間を仕切る仕切部材を備えた車両が知られている(特開2022-042324号公報参照)。この車両は、仕切部材を動かすためのモータと、モータを制御する制御部とをさらに備え、所定条件を満たした場合に、制御部がモータを制御して、仕切部材を展開位置と収納位置とに移動させている。
 しかしながら、従来技術では、2人の乗員の間に障害物がある場合に、制御部が仕切部材を展開位置に移動させると、仕切部材が障害物と干渉してしまうという問題がある。
 そこで、仕切部材が物と干渉するのを抑制することが望まれている。
[第8実施形態]
 以下、図面を参照しながら、第8実施形態に係る車両について説明する。
 図29に示すように、車両300は、仕切部材Pと、駆動装置20と、センサSN3と、制御部CT4とを備える。
 仕切部材Pは、車内空間を仕切ることが可能な部材である。本実施形態では、仕切部材Pは、左右に隣接する2つのシートSの間を仕切る。仕切部材Pは、例えば紙、布、樹脂などからなる。仕切部材Pは、駆動装置20内のリール21に巻取可能となっている。
 仕切部材Pは、図29に示す第1位置と、図30に示す第2位置との間で移動可能である。仕切部材Pは、第1位置に位置するとき、車内空間を仕切る。仕切部材Pは、第2位置に位置するとき、車内空間を仕切らない。
 駆動装置20は、仕切部材Pを第1位置と第2位置との間で移動させる装置である。駆動装置20は、リール21と、モータ22と、ケース23とを備えている。
 リール21は、ケース23に回転可能に支持されている。モータ22は、ケース23に固定され、リール21に接続されている。モータ22は、正逆回転可能であり、リール21を正転または逆転させる。
 ケース23は、リール21およびモータ22を収容するケースである。ケース23は、車両300のルーフRに固定されている。ケース23は、仕切部材Pが通過可能な孔23Aを有する。孔23Aは、ケース23の下壁に位置する。
 センサSN3は、仕切部材Pの移動軌跡上における物の有無を検知するセンサである。センサSN3としては、例えば赤外線センサやレーザーセンサなどを用いることができる。センサSN3は、ケース23の下面に固定され、下に向けて赤外線などを出射する。言い換えると、センサSN3は、ケース23を介してルーフRに設けられている。
 制御部CT4は、図示しないCPU、ROM、RAM、書換可能な不揮発性メモリ等を有し、予め記憶されたプログラムを実行する。制御部CT4は、駆動装置20を制御する機能を有する。詳しくは、制御部CT4は、センサSN3から取得した情報に基づいて、駆動装置20のモータ22を作動または停止させる。
 制御部CT4は、手動運転モードと自動運転モードを実行可能である。手動運転モードは、アクセル、ブレーキ、ハンドル等の操作子を運転者が操作することで車両が走行するモードである。自動運転モードは、操作子を運転者が操作することなく車両が走行するモードである。
 制御部CT4は、自動運転モードにおいて、例えば、車両に搭載したカメラ等のセンサを用いて、走行レーンから外れないように車両を走行させる処理や、自車両の前方を走る車両と自車両との間隔を所定値以上に保つ処理などを実行する。
 車両300は、自動運転モードを実行するための、図示せぬ自動運転スイッチを備えている。制御部CT4は、自動運転スイッチがONになると、自動運転モードを実行する。制御部CT4は、自動運転スイッチがOFFになると、手動運転モードを実行する。
 次に、制御部CT4の動作について詳細に説明する。
 図31に示すように、制御部CT4は、自動運転スイッチからの信号に基づいて、手動運転モードから自動運転モードに切り替わったか否かを判定する(S301)。ステップS301において自動運転モードに切り替わっていない、つまり自動運転スイッチがOFFであると判定した場合には(No)、制御部CT4は、本処理を終了する。
 ステップS301において自動運転モードに切り替わった、つまり自動運転スイッチがONであると判定した場合には(Yes)、制御部CT4は、センサSN3によるセンシングを行う(S302)。
 ステップS302の後、制御部CT4は、仕切部材Pの移動軌跡上に障害物があるか否かを判定する(S303)。ステップS303において移動軌跡上に障害物があると判定した場合には(Yes)、制御部CT4は、乗員に対して、障害物を移動軌跡上から除去することを提案する(S304)。
 提案の方法としては、例えば、「仕切部材Pの下に障害物があるので、仕切部材Pを降ろしたい場合には、障害物をどかしてください。」といったメッセージを、音声や文字などで乗員に報知する方法が挙げられる。車両300は、提案を行うための機器、例えば、スピーカ、ディスプレイなどを備えている。
 制御部CT4は、障害物の除去を乗員に提案してから第1所定時間後に、再びセンサSN3によるセンシングを行う(S305)。第1所定時間は、障害物の除去にかかる時間を考慮して適宜設定される。ステップS305の後、制御部CT4は、仕切部材Pの移動軌跡上に障害物があるか否かを再度判定する(S306)。
 ステップS306において移動軌跡上に障害物があると判定した場合には(Yes)、制御部CT4は、本処理を終了する。ステップS303またはステップS306において移動軌跡上に物がないと判定した場合には(No)、制御部CT4は、乗員に対して、仕切部材Pで空間を仕切るか否か、つまり仕切部材Pを第2位置から第1位置に移動させるか否かの問い合わせを行う(S307)。
 問い合わせの方法としては、例えば、「仕切部材Pを降ろしますか?」といったメッセージを、音声や文字などで乗員に報知する方法が挙げられる。車両300は、問い合わせを行うための機器、例えば、スピーカ、ディスプレイなどを備えている。
 ステップS307の後、制御部CT4は、仕切部材Pで空間を仕切る指示を、第2所定時間の間に乗員から受けたか否かを判定する(S308)。なお、空間を仕切る指示は、例えば、乗員の声、ディスプレイの画面上にあるスイッチの選択などとすることができる。車両300は、乗員からの指示を受けるための機器、例えば、マイク、ディスプレイなどを備えている。また、第2所定時間は、乗員が指示を出すためにかかる時間を考慮して適宜設定される。
 ステップS308において指示を受けたと判定した場合には(Yes)、制御部CT4は、仕切部材Pを第1位置に移動させて(S309)、空間を仕切部材Pで仕切った後、本処理を終了する。ステップS308において指示を受けていないと判定した場合には(No)、制御部CT4は、仕切部材Pを降ろすことなく、本処理を終了する。
 なお、仕切部材Pを第1位置から第2位置に戻すタイミングは、任意に設定すればよい。例えば、自動運転モードから手動運転モードに切り替わったときや、乗員が仕切部材Pを第2位置に戻すためのスイッチを押したときなどとすることができる。
 以上、本実施形態によれば以下のような効果を得ることができる。
 仕切部材Pの移動軌跡上に障害物がある場合には、仕切部材Pが作動しないので、仕切部材Pが障害物と干渉するのを抑制できる。
 仕切部材Pの移動軌跡上に障害物がある場合には、制御部CT4が、障害物の除去を乗員に提案するので、仕切部材Pが作動しない理由を乗員が知ることができる。
 なお、本開示は、以下に例示するように様々な形態で利用できる。以下の説明においては、前記実施形態と略同様の構造となる部材には同一の符号を付し、その説明は省略する。
 センサSN3の位置は、駆動装置20の下面に限定されない。図32に示すように、センサSN3は、ルーフRに直接設けられていてもよい。また、センサSN3は、シートSに設けられていてもよい。この場合、センサSN3は、シートクッションS1の側面に設けられていてもよいし、シートバックS2の側面に設けられていてもよい。
 センサSN3は、フロアFに設けられていてもよい。センサSN3は、ドアDに設けられていてもよい。なお、ドアDに設けるセンサSN3としては、例えば、距離センサが挙げられる。この場合、距離センサは、左右方向から見て、シートSと重ならない位置に配置すればよい。制御部CT4は、距離センサで検出した距離が、2つのシートS間の範囲内にある場合に、障害物があると判定すればよい。
 センサの位置は、図32の例に限らない。例えば、センサは、シートの背面に設けられていてもよいし、インストルメントパネルなどの内装部材に設けられていてもよい。
[第9実施形態]
 図33に示すように、第9実施形態に係る車両300は、2つのバッテリBTを備えている。駆動装置20と各バッテリBTは、車両300のフロアFの下に設けられている。駆動装置20は、2つのバッテリBTの間に位置する。
 フロアFは、仕切部材Pが通過可能な孔H1を有する。駆動装置20は、布などからなる仕切部材Pを支えるためのパンタグラフ機構60をさらに備える。センサSN3は、フロアFの上に設けられている。
 図34(a),(b)に示すように、パンタグラフ機構60は、複数の四節リンク61と、複数のトーションバネ62とを有する。各四節リンク61は、図34(a)に示す第1状態と、図34(b)に示す第2状態とに切替可能となっている。四節リンク61は、第1状態のときよりも第2状態のときの方が、上下方向の寸法が大きい。
 トーションバネ62は、四節リンク61を第2状態に向けて付勢するバネである。トーションバネ62は、各四節リンク61の少なくとも一つの節に設けられる。
 パンタグラフ機構60の下端部は、駆動装置20のケース23に固定されている。パンタグラフ機構60の上端部は、仕切部材Pの上端部に固定されている。パンタグラフ機構60は、図34(a)に示す収縮状態と、図34(b)に示す伸長状態とに切替可能となっている。
 パンタグラフ機構60は、収縮状態のとき、フロアFより下に位置する。パンタグラフ機構60は、収縮状態から伸長状態になる過程において、フロアFの孔H1を通る。パンタグラフ機構60は、伸長状態のとき、フロアFよりも上に突出する。
 パンタグラフ機構60が収縮状態のとき、仕切部材Pは、第2位置に位置する。パンタグラフ機構60が伸長状態のとき、仕切部材Pは、第1位置に位置する。
 この構造では、パンタグラフ機構60が収縮状態のとき、各トーションバネ62は縮められた状態となっている。制御部CT4は、仕切部材Pで空間を仕切る指示を受けると、リール21に巻かれた仕切部材Pが解かれる方向にモータ22を回転させる。以下、仕切部材Pが解かれる方向にモータ22を回転させることを、「正回転」とも称し、正回転とは逆方向にモータ22を回転させることを、「逆回転」とも称する。
 モータ22が正回転すると、各トーションバネ62の付勢力によって、パンタグラフ機構60の上端部が上に移動する。これにより、仕切部材Pが第2位置から第1位置に向けて移動し、空間が仕切部材Pで仕切られる。
 仕切部材Pを第2位置に戻す場合、制御部CT4は、モータ22を逆回転させる。これにより、仕切部材Pが各トーションバネ62の付勢力に抗して第2位置に移動する。
 以上、第9実施形態に係る車両によれば、以下の効果を得ることができる。
 フロアFの下の空間に駆動装置20と各バッテリBTが設けられるので、フロアFの下の空間を有効活用できる。
 フロアFが孔H1を有するので、フロアFの下の空間に収容した仕切部材Pを、孔H1を通して車内空間に進出させることができる。
 なお、空間を仕切部材Pで仕切る場合に仕切部材Pを下から上に移動させる構造は、図34の形態に限定されず、仕切部材を第1位置に向けて付勢する付勢部材を備える構造であれば、どのような形態であってもよい。また、この構造は、空間を仕切部材Pで仕切る場合に仕切部材Pを左右に移動させる構造としても利用できる。
 仕切部材は、前後に隣接する2つのシートの間を仕切ってもいいし、窓とシートの間を仕切ってもよい。
 仕切部材は、ブラインドのような折り畳み可能な構造であってもよいし、可撓性を有する板状部材であってもよい。仕切部材が、可撓性を有する板状部材の場合、例えば、以下のように構成することができる。
 仕切部材は、第2位置に位置するとき、フロアの下に横向きに配置される。仕切部材は、第2位置から第1位置に移動する場合、水平方向に移動した後、仕切部材を上に向けて案内する円弧状の面を有するガイドでガイドされる。ガイドで案内された仕切部材は、撓みながら先端を上に向け、第1位置に移動する。仕切部材は、第1位置に位置するとき、縦向きに配置される。
 駆動装置は、フロアの上に配置されていてもよい。駆動装置がフロアの上に設けられる場合、フロアの下にバッテリが設けられていてもよい。また、上下方向から見て、駆動装置とバッテリが重なっていてもよい。
 駆動装置は、シートやドアなどに設けられていてもよい。
 仕切部材は、前後方向または左右方向に移動してもよい。仕切部材は、上下方向、前後方向または左右方向に対して傾斜する方向に移動してもよい。仕切部材の移動軌跡は、直線に限らず円弧であってもよい。
 制御部は、仕切部材を第2位置から第1位置に移動させるか否かの問い合わせを行わなくてもよい。
 センサは、仕切部材の停止中に仕切部材の移動軌跡上の物を検知するセンサに限らず、仕切部材の移動中に移動軌跡上の物を検知するセンサであってもよい。例えば、センサは、仕切部材の先端に設けられる感圧センサであってもよい。この場合、制御部は、仕切部材で空間を仕切る指示を乗員から受けると、仕切部材を第2位置から第1位置に移動させる。制御部は、仕切部材の移動中において、仕切部材が障害物に触れたことを感圧センサで検知すると、モータを停止させて、仕切部材を停止させる。
 仕切部材を停止させた後、制御部は、乗員に対して障害物を除去するように通知する。制御部は、再センシングによって乗員が障害物を除去したか否かを判定する。障害物が除去されたと判定すると、制御部は、仕切部材を停止した位置から第1位置に移動させる。障害物が除去されていないと判定すると、制御部は、モータを逆回転させて、仕切部材を第2位置に戻す。
 また、仕切部材の移動中に移動軌跡上の物を検知するセンサは、例えば、仕切部材を移動させるモータに流れる電流を検知する電流センサであってもよい。この場合、制御部は、電流センサからの電流値に基づいてモータにかかる負荷が変化したかを判定し、変化した場合に、仕切部材が障害物と接触したと判定してもよい。
 また、仕切部材の移動中に移動軌跡上の物を検知するセンサは、例えば、静電容量センサなどの短距離センサであってもよい。この場合、短距離センサは、仕切部材の先端に設けられる。制御部は、短距離センサで仕切部材の先端近傍に障害物があると検知すると、モータを停止または逆回転させて、仕切部材を停止または第2位置に戻す。
 センシングのタイミングは、前記実施形態に限定されない。例えば、制御部は、乗員から空間を仕切る指示を受けた後、センシングして、障害物の有無を判定してもよい。
 再センシングの回数は、1回に限らず、複数回であってもよい。
 前記実施形態では、車両として、自動車を例示したが、車両は、例えば、電車などであってもよい。
 前記した第8、第9実施形態および変形例で説明した各要素を、任意に組み合わせて実施してもよい。
 続いて、第10~第13実施形態に係る、車外の対象物に対して画像を投影する投影装置を備える車両について説明する。
 従来、自動車のヘッドライトに組み込んだ投影装置よって道路上に、図柄を映す技術が知られている(特開2019-83128号公報参照)。図柄を見た乗員は、図柄に対応した情報(例えば路面凍結)を把握することができるので、運転時の安全性の向上に寄与する。
 しかしながら、さらなる安全性の向上やその他の有益な効果が求められている。
 そこで、投影装置を備える車両において、さらなる安全性の向上を図ることが望まれている。
[第10実施形態]
 以下、図面を参照しながら、第10実施形態に係る車両について説明する。
 図35に示すように、車両400は、車載センサ70と、内装機能部品80と、投影装置PJと、制御部CT5とを備える。
 車載センサ70は、明度センサ71と、温度センサ72と、カメラ73とを有する。明度センサ71は、車外の明るさを検出する。温度センサ72は、車外の温度を検出する。カメラ73は、車両前方を撮影する。
 内装機能部品80は、モニタ81と、スピーカ82と、車内照明83とを有する。モニタ81は、例えばカーナビゲーションシステムを構成するモニタである。スピーカ82は、例えば、ドアに設けられるドアスピーカである。車内照明83は、例えば、車両の一列目のシートの上方に位置する。
 投影装置PJは、車外の対象物に対して画像を投影することが可能な装置である。投影装置PJは、例えば、車両前方の路面または車両に画像を投影する。投影装置PJは、車両400のヘッドライトに組み込まれている。
 投影装置PJは、図36(a)に示す路面凍結画像と、図36(b)に示す衝突注意画像と、図36(c)に示す逆走画像と、図36(d),(e)に示す車線維持画像とを投影可能である。路面凍結画像は、路面が凍結していることを示す画像である。衝突注意画像は、前方の車両と衝突の可能性があることを示す画像である。
 逆走画像は、車両400が道路を逆走していることを示す画像である。車線維持画像は、車両400が車道を規定する右側または左側の車線から外れないように車線から外れそうな場合に右または左へのハンドルの操作を運転者に知らせるための画像である。
 投影装置PJで投影する各画像には、乗員の危険度を示す危険度レベルが設定されている。路面凍結画像または車線維持画像に対応した危険レベルは、例えば第1レベルとすることができる。衝突注意画像に対応した危険レベルは、例えば、第1レベルより高い第2レベルとすることができる。逆走画像に対応した危険レベルは、例えば、第2レベルより高い第3レベルとすることができる。
 このように危険レベルを設定した場合、例えば、路面凍結画像または車線維持画像
は、第1画像に相当し、衝突注意画像または逆走画像は、第2画像に相当する。また、衝突注意画像を第1画像とした場合、逆走画像は第2画像に相当する。
 制御部CT5は、例えば、CPU、RAM、ROM、入出力回路などを備えて構成されている。制御部CT5は、内装機能部品80および投影装置PJを制御する。制御部CT5は、車載センサ70やカーナビゲーションシステムから情報を取得するとともに、インターネット等を介して外部サーバから情報を取得する。
 制御部CT5は、所定条件を満たす場合に、投影装置PJによって画像を投影することを決定する。所定条件は、投影する画像ごとに異なるが、各画像の共通の条件として、車外が暗いこと(夜またはトンネル内)の条件を含む。制御部CT5は、車外が暗いか否かを、明度センサ71からの情報に基づいて判定する。
 制御部CT5は、第1所定条件を満たす場合、路面凍結画像を投影することを決定する。第1所定条件は、走行中の路面が凍結する条件であり、例えば、車外の温度が0度以下、現在地の天気が雪、現在地が橋の上などといった条件である。制御部CT5は、温度センサ72、カーナビゲーションシステム、外部サーバ等から取得した情報に基づいて、第1所定条件を満たすかを判定する。
 制御部CT5は、第2所定条件を満たす場合、衝突注意画像を投影することを決定する。第2所定条件は、前方の車両との速度差を考慮した車間距離が所定値以下という条件である。制御部CT5は、カメラ73から取得した情報に基づいて、第2所定条件を満たすかを判定する。
 制御部CT5は、第3所定条件を満たす場合、逆走画像を投影することを決定する。第3所定条件は、例えば、カーナビゲーションシステムの地図上で自車両が反対車線を走行していることを示す条件である。制御部CT5は、カーナビゲーションシステムから取得した情報に基づいて、第3所定条件を満たすかを判定する。
 制御部CT5は、第4所定条件を満たす場合、車線維持画像を投影することを決定する。第4所定条件は、自車両が走行している車道の右側の車線または左側の車線と自車両の間隔が所定距離以下になっていることを示す条件である。制御部CT5は、カメラ73から取得した情報に基づいて、第4所定条件を満たすかを判定する。制御部CT5は、左側の車線と自車両の間隔が所定距離以下になった場合、図36(d)の車線維持画像を選択する。制御部CT5は、右側の車線と自車両の間隔が所定距離以下になった場合、図36(e)の車線維持画像を選択する。
 制御部CT5は、投影装置PJによって画像を投影することを決定した場合、画像を投影する前に、内装機能部品80を作動させることで、これから画像が投影されることを乗員に注意喚起する機能を有する。ここで、モニタ81およびスピーカ82は、投影装置PJによって投影される画像の意味を示す意味情報を乗員に報知可能である。
 制御部CT5は、投影装置PJによって画像を投影することを決定した場合、モニタ81およびスピーカ82によって意味情報を乗員に報知する。例えば、制御部CT5は、路面凍結画像を投影することを決定した場合、図37に示すように、モニタ81に、路面に投影する路面凍結画像と同じ図の画像と、路面凍結画像の意味を示す「路面凍結注意!」という文字の画像を表示する。また、制御部CT5は、路面凍結画像を投影することを決定した場合、スピーカ82から、例えば「路面凍結にご注意ください。」といった音声や警告音などを出力する。
 車内照明83は、路面凍結画像または車線維持画像に対応した第1状態と、衝突注意画像に対応した第2状態と、逆走画像に対応した第3状態とに切替可能である。車内照明83は、第1状態において、白色の光を照射する。車内照明83は、第2状態において、黄色の光を照射する。車内照明83は、第3状態において、赤色の光を照射する。つまり、車内照明83から照射される光の色は、危険レベルが第1レベルの場合には、白色となり、第2レベルの場合には、黄色となり、第3レベルの場合には、赤色となる。
 制御部CT5は、投影装置PJによって路面凍結画像または車線維持画像を投影することを決定した場合、車内照明83を第1状態とする。制御部CT5は、投影装置PJによって衝突注意画像を投影することを決定した場合、車内照明83を第2状態とする。制御部CT5は、投影装置PJによって逆走画像を投影することを決定した場合、車内照明83を第3状態とする。
 なお、本実施形態では、車内照明83の各状態において光の色を変更したが、例えば、車内照明83の各状態において光の強さを変更してもよい。この場合、例えば、危険レベルが高いほど、光の強さを大きくしてもよい。また、車内照明83の各状態において光の点滅の間隔を変更してもよい。例えば、危険レベルが高いほど、点滅の間隔を短くしてもよい。
 制御部CT5は、画像の投影を決定してから所定時間の間、投影装置PJを作動させない。制御部CT5は、画像の投影を決定してから所定時間の間、所定条件が満たされている場合に、投影装置を作動させる。
 次に、制御部CT5の動作について詳細に説明する。
 制御部CT5は、明度センサ71からの情報に基づいて、車外が暗いと判定すると、図38に示す処理を実行する。
 図38に示す処理において、制御部CT5は、まず、画像を投影するための条件を満たすか否かを判定する(S401)。ここで、ステップS401における「画像を投影するための条件」は、車外の暗さ以外の条件であって、第1所定条件から第4所定条件のいずれかの条件をいう。以下の説明では、「画像を投影するための条件」を、単に「投影条件」ともいう。
 ステップS401において投影条件を満たさないと判定した場合には(No)、制御部CT5は、本処理を終了する。ステップS401において投影条件を満たすと判定した場合には(Yes)、制御部CT5は、条件が満たされた投影条件に応じて、投影する画像を選択し、選択した画像を投影することを決定する(S402)。例えば、ステップS401で第1所定条件が満たされた場合、制御部CT5は、路面凍結画像を選択し、路面凍結画像を投影することを決定する(S402)。
 ステップS402の後、制御部CT5は、選択した画像に応じた意味情報を、モニタ81およびスピーカ82から出力する(S403)。ステップS403の後、制御部CT5は、ステップS402で選択した画像の危険レベルに応じた色の光を、車内照明83から出力する(S404)。
 ステップS404の後、制御部CT5は、投影条件がまだ満たされているか否かを判定する(S405)。ステップS405において投影条件が満たされていると判定した場合には(Yes)、制御部CT5は、ステップS402において画像の投影を決定してから所定時間が経過したか否かを判定する(S406)。
 ステップS406において所定時間が経過していないと判定した場合には(No)、制御部CT5は、ステップS405の処理に戻る。ステップS406において所定時間が経過したと判定した場合には(Yes)、制御部CT5は、ステップS402で選択した画像を、投影装置PJによって投影する(S407)。
 ステップS407の後、制御部CT5は、投影条件が満たされなくなったか否かを判定する(S408)。ステップS408において投影条件がまだ満たされていると判定した場合には(No)、制御部CT5は、ステップS407の処理に戻る。
 ステップS408において投影条件が満たされなくなったと判定した場合には(Yes)、制御部CT5は、投影装置PJをOFFにする(S409)。ステップS409の後、または、ステップS405でNoと判定した場合、制御部CT5は、モニタ81での画像の図および意味情報の表示を停止させるとともに、車内照明83をOFFにして(S410)、本処理を終了する。
 次に、制御部CT5の動作の一例について説明する。
 車両400の夜間走行時において、第1所定条件が満たされると、制御部CT5は、路面凍結画像を選択し、図37に示すように、モニタ81に、路面凍結画像の図と、路面凍結画像の意味を示す文字を表示するとともに、スピーカ82から音声により路面凍結画像の意味を出力する。また、制御部CT5は、路面凍結画像の危険レベル(第1レベル)に対応した白色の光を、車内照明83から照射する。これにより、乗員は、路面凍結のおそれがあることを知ることができる。
 路面凍結画像を選択してから所定時間の間、第1所定条件が満たされ続けている場合、制御部CT5は、投影装置PJによって、路面凍結画像を路面に投影する。これにより、乗員は、路面凍結の可能性が高いことを知ることができる。
 以上、本実施形態によれば以下のような効果を得ることができる。
 制御部CT5が、投影装置PJによって画像を投影することを決定すると、画像を投影する前に、内装機能部品80を作動させるので、内装機能部品80の作動によって乗員がこれから何かが起こると意識することができる。そのため、車外の対象物にいきなり画像が投影されることによって乗員が驚くのを抑えることができるので、さらなる安全性の向上を図ることができる。
 制御部CT5が、モニタ81およびスピーカ82によって画像の意味情報を乗員に報知するので、車外の対象物に投影された画像の意味を、乗員が知ることができ、乗員が適切な処置を行うことができる。
 危険度レベルに応じて車内照明83の光の色が異なるので、乗員が光の色によって危険度を把握することができる。
[第11実施形態]
 次に、第11実施形態に係る車両について、適宜図面を参照しながら詳細に説明する。なお、第11実施形態において、第10実施形態と同様の構成要素については、同一符号を付し、その説明を省略することとする。
 図39に示すように、第11実施形態に係る内装機能部品80は、振動デバイス84を有する。振動デバイス84は、シート90に設けられている。
 シート90は、シートクッション91と、シートバック92と、ヘッドレスト93とを備える。振動デバイス84は、例えばシートバック92に設けられている。なお、振動デバイス84は、シートクッション91に設けられていてもよいし、ヘッドレスト93に設けられていてもよい。
 制御部CT5は、投影装置PJによって投影する画像に応じて、振動デバイス84の動きを変更する。詳しくは、第11実施形態に係る制御部CT5は、前述した車内照明83を制御する代わりに、危険レベルに応じて振動デバイス84の動きを変更する。なお、危険レベルに応じて、車内照明83と振動デバイス84の状態を変更してもよい。
 第11実施形態に係る制御部CT5は、図40に示す処理を実行する。図40の処理は、図38の処理におけるステップS404,S410を、新たなステップS421,S422に置き換えただけなので、第10実施形態と同じ処理については同一符号を付して説明を省略する。
 図40に示すように、制御部CT5は、ステップS403の後、選択した画像の危険レベルに応じた時間だけ、振動デバイス84をONにする(S421)。例えば、制御部CT5は、危険レベルが高いほど、振動デバイス84をONにする時間を長くする。
 なお、危険レベルに応じて、振動デバイス84の振動の周期を変更してもよい。例えば、危険レベルが高いほど、振動の周期を小さくしてもよい。
 ステップS409の後、または、ステップS405でNoと判定した場合、制御部CT5は、ステップS422の処理を実行する。ステップS422において、制御部CT5は、モニタ81での意味情報の表示を停止するとともに、振動デバイス84がONである場合には振動デバイス84をOFFにする。
 第11実施形態に係る車両によれば、危険レベルに応じて振動デバイス84のON時間を変更するため、乗員が振動する時間の長さによって危険度を把握することができる。
[第12実施形態]
 次に、第12実施形態に係る車両について、適宜図面を参照しながら詳細に説明する。なお、第12実施形態において、第10実施形態と同様の構成要素については、同一符号を付し、その説明を省略することとする。
 図41に示すように、第12実施形態に係る内装機能部品80は、シートアレンジ装置85を有する。シートアレンジ装置85は、シート90の姿勢を変更することで、シート90の状態を、乗員が前方を向いた状態で着座可能な通常状態と、通常状態以外の状態とに変更可能な装置である。第12実施形態では、シートアレンジ装置85は、シートバック92を傾動させることで、シート90の状態を、図41(a)に示す通常状態と、図41(b)に示すリクライニング状態とに変更する。
 なお、シートアレンジ装置は、シート90の姿勢および位置の少なくとも一方を変更する装置あればよい。例えば、シートアレンジ装置は、シート90を鉛直軸中心に回転させるものであってもよい。
 制御部CT5は、投影装置PJによって画像を投影することを決定した場合、シートアレンジ装置85を作動して、シート90の状態を通常状態にする。具体的に、制御部CT5は、図42に示す処理を実行する。図42の処理は、図38の処理におけるステップS404を、新たなステップS431,S432に置き換え、図38のステップS410を、新たなステップS433に置き換えただけなので、第10実施形態と同じ処理については同一符号を付して説明を省略する。
 図42に示すように、制御部CT5は、ステップS403の後、シート90が通常状態でないか否かを判定する(S431)。ステップS431においてシート90が通常状態でないと判定した場合には(Yes)、制御部CT5は、シートアレンジ装置85によってシート90を通常状態に変更する(S432)。
 ステップS432の後、または、ステップS431でNoと判定した場合、制御部CT5は、ステップS405の処理を実行する。ステップS405でNoと判定した場合、または、ステップS409の後、制御部CT5は、モニタ81での意味情報の表示を停止する(S433)。
 第12実施形態の車両によれば、投影装置PJによって画像を投影する場合に、シート90の状態が通常状態となるので、乗員が、投影装置PJによって投影された画像をより確実に見ることができる。また、投影装置PJによって画像を投影する場合に、シート90の状態が通常状態となることで、危険が生じた場合の乗員の安全を確保できる。
[第13実施形態]
 次に、第13実施形態に係る車両について、適宜図面を参照しながら詳細に説明する。なお、第13実施形態において、第10実施形態と同様の構成要素については、同一符号を付し、その説明を省略することとする。
 第13実施形態に係る制御部CT5は、自動運転中の場合には、投影装置PJを作動させない。具体的に、制御部CT5は、図43に示す処理を実行する。図43の処理は、図38の処理におけるステップS406とステップS407の間に、新たなステップS441を設けただけなので、第10実施形態と同じ処理については同一符号を付して説明を省略する。
 ステップS406の後、制御部CT5は、手動運転中であるか否かを判定する(S441)。なお、手動運転中であるかの判定は、例えば、自動運転を実行するためのスイッチがOFFであるかを判定することで行うことができる。
 ステップS441において手動運転中であると判定した場合には(Yes)、制御部CT5は、ステップS407の処理を実行する。ステップS441において手動運転中でない、つまり自動運転中であると判定した場合には(No)、制御部CT5は、ステップS407~S409の処理を実行せずに、つまり投影装置PJを作動させずに、ステップS410の処理を実行する。
 第13実施形態の車両によれば、自動運転中において乗員が車外の対象物を見ていない場合に、投影装置PJが無駄に作動するのを抑制することができる。
 なお、本開示は、以下に例示するように様々な形態で利用できる。
 投影装置で投影する画像(以下、「投影画像」ともいう。)は、例えば、速度超過警告、車両故障警告などを示す画像であってもよい。また、投影画像は、乗員に通知する警告に関する画像でなくてもよく、例えば、車両の外にいる人に向けての警告に関する画像であってもよい。この画像としては、例えば、乗員の体調が急変したことを示す画像などであってもよい。
 意味情報の通知は、アラーム音などと組み合わせて通知してもよい。
 スピーカは、ヘッドレストスピーカなどであってもよい。運転席のヘッドレストスピーカの場合、運転手のみに意味情報を伝えることができる(他の乗員の邪魔にならない)。
 意味情報は、音声のみで伝達してもよいし、文字の画像のみで伝達してもよいが、音声と文字を同時に伝達することで効果が上がる。意味情報を、個人のスマートフォンやタブレットなどの携帯端末を使って伝達してもよい。携帯端末は、車両の制御部とブルートゥース(登録商標)などの短距離通信で接続してもよいし、サーバを介して制御部と接続してもよい。
 内装機能部品は、シートベルトを引っ張るシートベルト装置などであってもよい。この場合、制御部は、投影画像を投影する前に、シートベルトを引っ張ることで乗員に事前通知をしてもよい。
 意味情報の通知に加え、投影画像を投影することを乗員に通知してもよい。例えば、制御部は、スピーカによって「路面が凍結しています。これから注意喚起情報を路面に投影します」といった情報を乗員に通知してもよい。
 投影画像の投影前の動作として、車内照明の光の点灯の仕方を変更してもよい。
 車内照明の設置個所は、インストルメントパネル、ドア、ルーフなど、どこであってもよい。振動デバイスは、ハンドルに設けられていてもよい。
 ナビゲーション画面と連動して、投影画像を投影する地点を画面上に表示してもよいし、音声で予告してもよい。例えば、「5km先で事故車両が止まっています。1km手前から車線維持支援警告を点灯します」といった情報を乗員に通知してもよい。乗員への通知は、スピーカ、モニタ、携帯端末などで行うことができる。
 危険度が高い場合には、スピーカでアラーム音または警告音声を鳴らし続けてもよい。また、モニタに警告表示を出し続けてもよい。警告音声または警告表示は、携帯端末によって行ってもよい。
 危険度が高い場合に、シートの状態を通常状態にしてもよい。具体的には、制御部は、危険レベルが第1レベルよりも高いレベルに対応した画像(例えば、逆走画像)を投影することを決定した場合に、シートアレンジ装置を作動して、シートの状態を通常状態にしてもよい。
 投影画像が示す危険に備えて(危険の度合いに応じて)、可動ボルスタやシートベルトで乗員を強く拘束してもよい。
 投影画像を投影するときに運転手の注意を散漫にさせる娯楽装備(テレビ、プロジェクタ、音楽再生装置など)の使用を制限してもよい。また、危険の程度に合わせて制限する娯楽装備の種類を変えてもよい。例えば、危険度が低いときはテレビのみを制限し、危険度が高いときはすべての娯楽装備の使用を制限してもよい。制限の種類としては、電源をオフにする、音声を小さくするなどがある。
 乗員は、制御部によって投影装置を作動させる機能(以下、「プロジェクション機能」ともいう。)をオフにすることができる。また、車両の状況に応じて自動でプロジェクション機能がオフにされてもよい。例えば、プロジェクション機能が故障している場合や、ヘッドライト自体に問題が発生した場合には、自動でプロジェクション機能がオフにされてもよい。そのようなときには、制御部は、問題が発生したのでプロジェクション機能を制限または停止する旨を音声や画像で乗員に通知する。また、先行車両と自車両との距離が近くて路上に投影画像を表示できない場合も、制御部が、プロジェクション機能を自動でオフにしてもよい。
 前記実施形態では、車両として、自動車を例示したが、その他の車両、例えば、電車、船舶、航空機などであってもよい。
 前記した実施形態および変形例で説明した各要素を、任意に組み合わせて実施してもよい。

Claims (7)

  1.  車両購入後に車両の部品の変更を行うことを可能とするサブスクリプションサービスの加入者が使用する端末と通信可能な制御部を備えた部品変更システムであって、
     前記制御部は、前記端末から送信されてくる情報に基づいて、ユーザが前記サブスクリプションサービスの加入者であると判定した場合、前記部品の選択を行うための選択画像を前記端末に送信することを特徴とする部品変更システム。
  2.  前記車両の部品は、車両の内装部品であることを特徴とする請求項1に記載の部品変更システム。
  3.  前記制御部は、
      ユーザの嗜好性を判別するための嗜好性判別情報を入力するための画像を前記端末に送信し、
      ユーザによって選択された前記嗜好性判別情報を前記端末から取得した場合、前記嗜好性判別情報に基づいて内装部品を選択し、選択した内装部品をユーザに提案する提案画像を前記端末に送信することを特徴とする請求項2に記載の部品変更システム。
  4.  前記制御部は、ユーザの行動履歴を取得した場合、前記行動履歴に基づいて内装部品を選択し、選択した内装部品をユーザに提案する提案画像を前記端末に送信することを特徴とする請求項2に記載の部品変更システム。
  5.  前記制御部は、
      前記内装部品をユーザに提案する提案モードと、前記内装部品をユーザに個別に選択させる個別選択モードと、を実行可能であり、
      前記提案モードと前記個別選択モードをユーザに選択させるモード選択画像を前記端末に送信し、
      ユーザによって選択されたモード情報を前記端末から取得した場合、前記モード情報に基づいて、前記提案モードまたは前記個別選択モードを実行することを特徴とする請求項3または請求項4に記載の部品変更システム。
  6.  ユーザの所有車の情報である所有車情報が記憶された記憶部をさらに備え、
     前記制御部は、前記内装部品を提案する場合、前記所有車情報に基づいて前記所有車に適合する内装部品を提案することを特徴とする請求項3または請求項4に記載の部品変更システム。
  7.  前記制御部は、前記内装部品が車両に装着された状態の画像である装着画像を前記端末に送信することを特徴とする請求項3または請求項4に記載の部品変更システム。
PCT/JP2023/033122 2022-09-26 2023-09-12 部品変更システム、車両システムおよび車両 WO2024070645A1 (ja)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP2022-152313 2022-09-26
JP2022152313A JP2024046931A (ja) 2022-09-26 2022-09-26 部品変更システム
JP2023033334 2023-03-06
JP2023-033333 2023-03-06
JP2023-033335 2023-03-06
JP2023033333 2023-03-06
JP2023033335 2023-03-06
JP2023-033334 2023-03-06
JP2023047499 2023-03-24
JP2023-047499 2023-03-24

Publications (1)

Publication Number Publication Date
WO2024070645A1 true WO2024070645A1 (ja) 2024-04-04

Family

ID=90477532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/033122 WO2024070645A1 (ja) 2022-09-26 2023-09-12 部品変更システム、車両システムおよび車両

Country Status (1)

Country Link
WO (1) WO2024070645A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029957A (ja) * 2002-06-21 2004-01-29 Trytex:Kk 車両部品装着シミュレータ
US20140188526A1 (en) * 2012-09-07 2014-07-03 The Travelers Indemnity Company Systems and methods for vehicle rental insurance
JP2021105881A (ja) * 2019-12-26 2021-07-26 カメラブ株式会社 情報処理装置、方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029957A (ja) * 2002-06-21 2004-01-29 Trytex:Kk 車両部品装着シミュレータ
US20140188526A1 (en) * 2012-09-07 2014-07-03 The Travelers Indemnity Company Systems and methods for vehicle rental insurance
JP2021105881A (ja) * 2019-12-26 2021-07-26 カメラブ株式会社 情報処理装置、方法及びプログラム

Similar Documents

Publication Publication Date Title
CN109866657B (zh) 提供用于车辆中的自动乘客座椅调节的系统、方法和装置
US10322675B2 (en) Safety control system for vehicles
US9524034B2 (en) Communication control system
US20240075851A1 (en) Autonomous vehicle adapted for sleeping or resting in a reclined posture
JP2018537332A (ja) 人物の顔認証に基づく車両制御システム
JP6083441B2 (ja) 車両用乗員感情対応制御装置
US10311693B1 (en) Vehicle and a method for controlling the same
JP2018177188A (ja) 制御装置
Fleming Advances in automotive electronics [automotive electronics]
JP2016137204A (ja) 車両用乗員感情対応制御装置
US11701984B2 (en) Apparatus and method for controlling interior of vehicle
JP2016137203A (ja) 車両用乗員感情対応制御装置
JP2016137200A (ja) 車両用乗員感情対応制御装置
CN113561774A (zh) 车辆的显示装置、控制方法、控制器及存储介质
WO2024070645A1 (ja) 部品変更システム、車両システムおよび車両
KR102508511B1 (ko) 자율주행 시스템
JP2004217188A (ja) 車載表示装置および表示方法
CN107070979B (zh) 车内信息系统及其应用
CN110962926B (zh) 一种多模式乘用车转向模式选择系统
JP2020189618A (ja) 車両用体験装置
JP2016137202A (ja) 車両用乗員感情対応制御装置
US11485389B2 (en) Vehicle control method
JP6213488B2 (ja) 車両用乗員感情対応制御装置
CN116160980A (zh) 一种用于亲子出行的智能座舱系统及控制方法
DE102018220646B4 (de) Verfahren zum Anpassen der Fahrtroute eines autonom fahrenden Kraftfahrzeuges

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23871880

Country of ref document: EP

Kind code of ref document: A1