WO2023166644A1 - 配光制御装置、配光制御システム、及び配光制御方法 - Google Patents

配光制御装置、配光制御システム、及び配光制御方法 Download PDF

Info

Publication number
WO2023166644A1
WO2023166644A1 PCT/JP2022/009041 JP2022009041W WO2023166644A1 WO 2023166644 A1 WO2023166644 A1 WO 2023166644A1 JP 2022009041 W JP2022009041 W JP 2022009041W WO 2023166644 A1 WO2023166644 A1 WO 2023166644A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
vehicle
light distribution
distribution control
unit
Prior art date
Application number
PCT/JP2022/009041
Other languages
English (en)
French (fr)
Inventor
光生 下谷
悟 井上
良孝 大西
弘毅 中本
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2024504117A priority Critical patent/JP7511787B2/ja
Priority to PCT/JP2022/009041 priority patent/WO2023166644A1/ja
Publication of WO2023166644A1 publication Critical patent/WO2023166644A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/11Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light

Definitions

  • the present disclosure relates to a light distribution control device, a light distribution control system, and a light distribution control method.
  • the vehicle lighting control system described in Patent Document 1 which is common to the light distribution control device according to the present disclosure in that it controls the lighting of the lighting equipment of the vehicle, responds to the driving scene observed by the driver, for example, In addition to switching the lighting equipment based on a preset driving scene, the system stores the driving scenes in which the driver manually turns on the lighting equipment, and then stores the driving scenes in which the driver manually turns on the lighting equipment. be used to switch the lighting equipment.
  • the time when the driver manually switches the lighting equipment is not the time when the driver feels that he/she wants to switch the lighting equipment, but the lighting equipment is switched while the driver feels that he/she wants to switch the lighting equipment. After continuing to run without switching the lighting equipment, it is often the time when you feel that it is difficult to run without switching the lighting equipment and take action. Therefore, even if the vehicle lighting control system described above controls the switching of the lighting devices based on the driving scene at the time when the driver manually switches the lighting devices, it is not appropriate for the driver. .
  • An object of the present disclosure is to provide a light distribution control device, a light distribution control system, and a light distribution control method that can avoid a situation in which the driver travels in a situation where visibility is not suitable for the driver and perform switching control that does not give stress to the driver. Regarding.
  • the light distribution control device includes an environment information reception unit that receives environment information indicating the environment in which the vehicle is placed, and a driver of the vehicle that switches the illumination lamp of the vehicle.
  • a switching instruction receiving unit that receives an instruction, an intention estimating unit that estimates whether or not the driver has an intention to switch the lighting based on the driver's behavior, and a lighting of the own vehicle based on the environmental information.
  • a learning unit that learns a driving scene in which the illumination light of the own vehicle should be switched using the obtained environmental information.
  • the light distribution control device According to the light distribution control device according to the present disclosure, it is possible to avoid a situation in which the driver travels in a situation where the visibility is not suitable for the driver.
  • FIG. 4 is a state transition diagram of the irradiation lamp ST of Embodiment 1.
  • FIG. 4 shows schematic operations of a learning unit GS and a lamp control unit SS of Embodiment 1.
  • FIG. 2 shows a hardware configuration of a light distribution control device HSD of Embodiment 1.
  • FIG. 4 is a flowchart showing the operation of the light distribution control device HSD of Embodiment 1; 4 is a time chart showing the operation of the light distribution control device HSD of Embodiment 1 (No. 1); 4 is a time chart showing the operation of the light distribution control device HSD of Embodiment 1 (No.
  • FIG. 10 shows the recognition, endurance, and operation times of the driver US in Modification 10 of Embodiment 1.
  • FIG. 10 shows the recognition, endurance, and operation times of the driver US in Modification 10 of Embodiment 1.
  • FIG. 7 is a functional block diagram of a light distribution control system HSS of Embodiment 2; 9 is a flow chart showing the operation of the light distribution control device HSD of Embodiment 2; 10 shows an image GZ of the light distribution control device HSD of Embodiment 2.
  • FIG. 9 is a time chart showing the operation of the light distribution control device HSD of Embodiment 2;
  • FIG. 11 shows an area ER of Modification 1 of Embodiment 2.
  • FIG. FIG. 11 shows an area ER of Modification 2 of Embodiment 2.
  • FIG. FIG. 11 shows an area ER of Modified Example 3 of Embodiment 2.
  • FIG. Here is an example of an urban area.
  • FIG. 11 is a functional block diagram of a light distribution control system HSS of Embodiment 3;
  • FIG. 11 is a flow chart showing an operation of obtaining environmental information EJ of the light distribution control system HSS of the third embodiment;
  • a single code may collectively refer to multiple names, for example, a single code "ER” may refer to multiple areas ER (A), ER (B1), may be collectively referred to as
  • Embodiment 1 A light distribution control device according to the first embodiment will be described.
  • FIG. 1 is a functional block diagram of the light distribution control system HSS of Embodiment 1.
  • FIG. 1 is a functional block diagram of the light distribution control system HSS of Embodiment 1.
  • the light distribution control device HSD of Embodiment 1 includes a KU, an intention estimation unit IS, an environment information reception unit EU, a learning unit GS, and a lamp control unit SS.
  • the environment information reception unit EU corresponds to the "environment information reception unit”
  • the switching instruction reception unit KU corresponds to the "switch instruction reception unit”
  • the intention estimation unit IS corresponds to the "intention estimation unit”.
  • the part GS corresponds to the "learning part”
  • the irradiation lamp control part SS corresponds to the "irradiation lamp control part”.
  • the light distribution control system HSS includes, as shown in FIG. and including.
  • the switching instruction input unit KN is used by the driver US of the own vehicle JS (not shown) to switch the lamps ST.
  • the switching instruction input unit KN is, for example, a lever switch for switching between low beam and high beam.
  • the driver's state detection unit UK detects the state of the driver US, for example, the behavior of the driver US (expression including line of sight, face direction, degree of eye opening, etc.).
  • the driver state detection unit UK is, for example, an interior camera directed into the vehicle interior.
  • the environment detection unit EK detects the environment in which the vehicle JS is placed, for example, the illuminance at the position of the vehicle JS and information in front of the vehicle JS.
  • the environment detection unit EK is, for example, an illuminance sensor, a front camera for capturing an image of the front, or the like.
  • the illumination lamp ST is, for example, a headlight.
  • a headlight is a headlight that illuminates the front of the own vehicle, and includes an auxiliary light that illuminates an arbitrary area.
  • FIG. 2 is a state transition diagram of the irradiation lamp ST of Embodiment 1.
  • FIG. 2 is a state transition diagram of the irradiation lamp ST of Embodiment 1.
  • the illumination lamp ST transitions (eg, transition 1, transition 2) among three states of extinguished (OFF), low beam lighting (LOW), and high beam lighting (HIGH). I do.
  • transition 1 transition 2 between the low beam lighting (LOW) and high beam lighting (HIGH) states
  • the switching instruction receiving unit KU receives an instruction of the lamp ST by the driver US from the switching instruction input unit KN, that is, a switching instruction KS (hereinafter also referred to as "switching operation KS").
  • the intention estimating unit IS Based on the driver state UJ, which is the state of the driver US detected by the driver state detection unit UK, the intention estimating unit IS, for example, when the illuminance of the position where the own vehicle JS is placed makes the driver feel uncomfortable. Based on the behavior indicated by the US, it is estimated whether or not the driver US has an intention to switch the lamp ST.
  • the environment information reception unit EU receives the environment in which the vehicle JS is placed detected by the environment detection unit EK, that is, the environment information EJ, for example, the illuminance at the position of the vehicle JS.
  • the learning unit GS learns a lighting switching control model (also referred to as a switching condition) using the environment information EJ when the intention estimating unit IS estimates that the driver US has an intention to switch the lamps ST. do.
  • a lighting switching control model also referred to as a switching condition
  • the illumination lamp control unit SS controls switching of the illumination lamp ST based on the environment information EJ using the illumination switching control model learned by the learning unit GS.
  • FIG. 3 shows schematic operations of the learning unit GS and the lamp control unit SS of the first embodiment.
  • the learning part GS and the lamp control part SS perform the following operations under the switching condition KJ.
  • the learning unit GS and the illumination lamp control unit SS are essentially designed to determine in advance the environment indicated by the environmental information EJ received by the environmental information receiving unit EU, for example, the illuminance at the position where the own vehicle JS is placed.
  • the switching control KC switches from low beam lighting (LOW) to high beam lighting (HIGH). switch. This is due to, for example, an automatic lighting switching control model stored in the learning section GS at the time of shipment from the factory.
  • the learning unit GS and the irradiation lamp control unit SS Prior to switching by the lighting switching control model described above, the learning unit GS and the irradiation lamp control unit SS, when receiving a switching instruction KS for the irradiation lamp ST from the driver US, turn on the irradiation lamp ST in low beam by the switching control KC. (LOW) to high beam lighting (HIGH). This means that the driver US was dissatisfied with the lighting switching control model stored in the learning unit GS and manually switched the lighting state.
  • the learning unit GS and the lamp control unit SS Prior to the above-described switching by the driver US, the learning unit GS and the lamp control unit SS, when it is estimated that the driver US has an intention KI to switch the lamp ST, switch the lamp ST to low beam by the switching control KC.
  • a lighting switching control model is learned so as to switch from lighting (LOW) with high beams to lighting (HIGH) with high beams. This corresponds to the fact that the driver US intends to switch the lighting state before switching the lighting state manually, as described above.
  • the learning unit GS uses the environmental information EJ at a time before the driver US's instruction KS to switch the lamps ST and at a time when it is estimated that the driver US has a switching intention KI as the switching condition KJ.
  • the lamp controller SS switches the lamp ST when the environment (illuminance, etc.) in which the vehicle JS is placed reaches the environmental information EJ indicated by the stored switching condition KJ.
  • FIG. 4 shows the hardware configuration of the light distribution control device HSD of the first embodiment.
  • the light distribution control device HSD of Embodiment 1 includes a processor PR, a memory ME, and a storage medium KB, as shown in FIG. 4, in order to achieve the functions described above. and an output section SY.
  • the processor PR is the core of a well-known computer that operates hardware according to software.
  • the memory ME is composed of, for example, a DRAM (Dynamic Random Access Memory) and an SRAM (Static Random Access Memory).
  • the storage medium KB is composed of, for example, a hard disk drive (HDD: Hard Disk Drive), a solid state drive (SSD: Solid State Drive), and a ROM (Read Only Memory).
  • a storage medium KB stores a program PRG.
  • the program PRG is a group of instructions that define the content of processing to be executed by the processor PR.
  • the input unit NY is composed of, for example, an interface as a signal input unit.
  • the output section SY is composed of, for example, an interface as a signal output section.
  • the processor PR executes the program PRG stored in the storage medium KB on the memory ME.
  • the functions of the switching instruction reception unit KU to the lamp control unit SS are realized.
  • FIG. 5 is a flow chart showing the operation of the light distribution control device HSD of the first embodiment.
  • FIG. 6 is a time chart showing the operation of the light distribution control device HSD of Embodiment 1 (No. 1).
  • FIG. 6 shows the environment in which the vehicle JS is placed, that is, the surrounding environment when the driver US is driving the vehicle JS while the lamp ST is in a low beam lighting (LOW) state. Indicates that the illuminance is gradually decreasing.
  • LOW low beam lighting
  • Step ST11 It is assumed that the irradiation lamp ST continues lighting (LOW) in low beam in advance. Then, as shown in FIG. 6, it is assumed that the illuminance around the own vehicle JS gradually decreases from EH to EL, that is, it becomes darker.
  • Step ST12 If the driver US does not perform the switching operation KS and continues to drive with the low beam lighting (LOW), the process proceeds to step ST16.
  • Step ST16 For example, information such as an image of the driver US captured by the indoor camera is accepted as the driver status UJ.
  • Step ST17 Determine whether or not there is a switching intention KI to switch the lamp ST based on the received driver state UJ.
  • the explanation will proceed assuming that there is no switching intention KI.
  • Step ST20 Here, it is determined whether or not the switching condition KJ as the lighting switching control model is met. Assume that in the factory-shipped illumination switching control model, the irradiation lamp ST is switched from low beam lighting (LOW) to high beam lighting (HIGH) when the illuminance falls below EL. If it is time t0, it is determined that the switching condition KJ is not met because the illuminance is EH, which is higher than EL, and low beam lighting (LOW) is continued.
  • LOW low beam lighting
  • step ST20 if the illuminance around the vehicle JS is below EL in step ST20, the process proceeds to step ST21 to switch from low beam lighting (LOW) to high beam lighting (HIGH). Also, although detailed explanation is omitted, switching from high beam lighting (HIGH) to low beam lighting (LOW) is similarly determined based on whether or not the illuminance meets the switching condition KJ, and high beam lighting (HIGH ) or switch to low beam lighting (LOW).
  • step ST22 If the instruction to turn off the lamp ST is not given in step ST22, the process returns to step ST12.
  • FIG. 7 is a time chart showing the operation of the light distribution control device HSD of the first embodiment (No. 2).
  • the driver US is driving the own vehicle JS with the illumination lamp ST in the high beam state (HIGH), and
  • the light distribution control device HSD follows the flowchart shown in FIG. lighting (HIGH) to low beam lighting (LOW)).
  • Step ST12 Since the switching operation KS of the lamp ST has not yet been performed here, the process proceeds to step ST16.
  • the driver's condition UJ is received in the same manner as described above.
  • Step ST17 Here, regarding a case where it is determined that there is a characteristic behavior in the driver and that there is a switching intention KI to switch the illumination lamp ST from low beam lighting (LOW) to high beam lighting (HIGH). explain.
  • the intention estimating unit IS instructs the driver US to turn on the high beam when, for example, the driver US exhibits the following behavior. Assume that there is an intention KI to switch to (HIGH).
  • the intention estimating unit IS estimates whether or not the driver US is looking into the distance using, for example, at least one gesture having the same meaning as the gestures exemplified below.
  • the intention estimating unit IS may indicate to the driver US that, for example, if the driver US shows the behavior shown below, It is assumed that there is an intention KI to switch to low beam lighting (LOW).
  • the intention estimating unit IS estimates whether or not the driver US is dazzled by, for example, using at least one of the gestures having the same meaning as the gestures exemplified below.
  • Step ST18 The environment information reception unit EU receives the environment information EJ at time t2 in FIG. 6, more specifically, the environment information EJ when it is estimated that there is a switching intention KI, that is, the illuminance E2.
  • the time t2 corresponds to the "second point in time”.
  • Step ST19 The learning section GS memorizes and retains the environment information EJ at time t2, ie, the illuminance E2, as the switching condition KJ, but does not learn it yet. Was this done because the action (A) was putting up with wanting to turn the irradiation lamp ST into a high beam (HIGH), or was it just a coincidence that such action (A) was done? because it is unknown.
  • the process proceeds to step ST20, executes the above-described process, and returns to step ST12.
  • Step ST12 The switching instruction receiving unit KU (shown in FIG. 1) receives, at time t1, the driver US operating the switching instruction input unit KN to issue a switching instruction KS for the irradiation lamp ST, and performs processing. to step ST13.
  • step ST17 since there is a predetermined action in step ST17 and then a switching operation KS in step ST12, it is presumed that the action detected in step ST17 was the switching intention KI.
  • Step ST13 The irradiation lamp controller SS (shown in FIG. 1) switches the irradiation lamp ST from low beam lighting (LOW) to high beam lighting in response to the switching operation KS at time t1 in FIG. (HIGH).
  • LOW low beam lighting
  • KS high beam lighting
  • Step ST14 The learning unit GS (shown in FIG. 1) acquires the environment information EJ stored in step ST19, that is, the environment information at time t2 at which the driver US is presumed to have the intention KI to switch the lamps ST.
  • the EJ is used to learn the illumination switching control model of the irradiator ST and update the illumination switching control model stored in the lighting controller SS.
  • time t1 corresponds to the "first time point” and the time t2 corresponds to the "second time point”.
  • the learning unit GS learns the environment information EJ at time t1, that is, the illuminance E1 as teacher data, and updates the lighting switching control model. Learning by the learning unit GS is performed using, for example, an adaptive filter, CNN (Convolutional Neural Network), fuzzy control, threshold adjustment, and the like.
  • CNN Convolutional Neural Network
  • the lighting switching control model that has been learned and updated is reflected in the switching conditions KJ in step ST20 thereafter.
  • step ST14 the process returns to step ST12 via step ST22, and continues the process in the same manner.
  • the simplest learning is to directly replace the value of the latest environment information EJ stored in step ST19 as the switching condition KJ. In that case, "when the illuminance drops to E2 at time t2 at which the driver US is presumed to have indicated the switching intention KI, the illumination lamp ST is switched from low beam lighting (LOW) to high beam lighting (HIGH). ).
  • the illumination lamp ST is not necessarily switched according to the latest stored environment information EJ.
  • the latest stored environmental information EJ does not always switch the illumination lamp ST. Therefore, "when the illuminance decreases to a value closer to E2 than the illuminance E1, which is learned using the illuminance E2 at time t2 at which the driver US is estimated to indicate the switching intention KI, turn on the illumination lamp ST. This is an operation of switching from low beam lighting (LOW) to high beam lighting (HIGH).
  • adopting a method of learning using a plurality of values in step ST14 means learning using a plurality of values stored in the past step ST19.
  • the driver US is driving the own vehicle JS with the illumination lamp ST in the low beam lighting (LOW) state, and the own vehicle JS is positioned.
  • the lamp control unit SS determines that the illuminance, which is the environment in which the vehicle JS is placed, is at time t1 when the driver US performs the switching operation KS.
  • the illumination lamp ST is switched from low beam lighting (LOW) to high beam lighting (HIGH). This can prevent the driver US from continuing to drive the vehicle JS in a situation where the visibility is not suitable for the driver US.
  • ⁇ Modification 2> instead of the "illuminance at time t2" which is the environment indicated by the environment information EJ in the first embodiment, "an image in front of the vehicle JS taken at time t2" may be used.
  • the image may be used as it is, or the image may be subjected to some image processing (eg, image filtering processing, averaging processing). 10,000 parameters obtained by performing image filtering processing on each of the divided image regions may be used as learning data, or a combination of the above-described illuminance and the image may be used.
  • Other information for example, the position of the own vehicle JS, the type of road on which the own vehicle JS travels, the speed at which the own vehicle JS travels) may be used together.
  • the lighting switching control model is not limited to learning some threshold value (for example, illuminance) obtained at the time when it is estimated that the switching intention KI was indicated, but the time when the switching intention KI is estimated to be indicated.
  • the driving scene that is, the image of the front obtained in the first step may be used as teacher data for learning.
  • driving scene at time t2 instead of “driving scene at time t2", “driving scene in unit time including time t2" and “change amount of driving scene” may be used.
  • types such as illuminance and driving scenes exemplified as teacher data, timing and period for acquiring these teacher data, methods of processing these teacher data, etc. can be read and modified in this specification. .
  • the following premises will be used in this specification.
  • intention estimating unit IS may use the following to estimate whether or not driver US is looking far away.
  • voice communication such as "Is it dark?" can be used. By making such an inquiry when the estimation is uncertain, the estimation accuracy can be ensured.
  • intention estimating unit IS may use the following to estimate whether or not driver US is looking at a bright object. (B4) Whether or not the driver US covers his/her face with his/her hands (B5) Whether or not the pupil diameter of the driver US has decreased
  • FIG. 8 is a time chart showing the operation of the light distribution control device HSD of Modification 5 of Embodiment 1 (No. 1).
  • FIG. 9 is a time chart showing the operation of the light distribution control device HSD of Modification 5 of Embodiment 1 (No. 2).
  • illumination E2 at time t2 for example, "illuminance at time t5 between time t2 and time t1" is used as shown in FIGS. may It is desirable to adopt a time closer to the time t2 in order to improve followability to the driver's US indicating the switching intention KI.
  • Time t5 corresponds to the "third point in time”.
  • Time t6 corresponds to the "third point in time”.
  • illuminance at t5 and t6 may be used together. Even if illuminance that is greatly different from the normal illuminance occurs by accident, it is possible to prevent the occurrence of a situation in which the intention estimating unit IS estimates the switching intention KI to be unstable.
  • Time t5 and time t6 correspond to the "third point in time”.
  • FIG. 10 is a time chart showing the operation of the light distribution control device HSD of the eighth modification of the first embodiment.
  • the illuminance which is the environment in which the vehicle JS is placed, generally changes while moving up and down, and decreases while moving up and down, for example, as shown in FIG. Therefore, it is desirable to use the lowest illuminance, the average illuminance, and a plurality of illuminances within a predetermined time T1 (for example, one second) including time t2. Accordingly, the same effects as in Modification 7 can be obtained.
  • a time within time T1 is the time when the illuminance reaches its lowest value, and corresponds to the "third time”.
  • FIG. 11 is a time chart showing the operation of the HSD of Modification 9 of Embodiment 1;
  • time tTH is the point in time when the illuminance at the position where the vehicle JS is placed reaches illuminance Eth, which is lower than the maximum illuminance EH by a predetermined illuminance change difference dE.
  • the illuminance change difference dE may be, for example, 10% (EH*0.1) of the highest illuminance EH, or the difference between the highest illuminance EH and the illuminance E1 at time t1. It may be 10% ((EH-E1)*0.1).
  • the intention estimating unit IS determines that the illuminance at which the vehicle JS is placed is before the time t1 at which the driver US issues the switching instruction KS and is the current maximum illuminance among the times t2a to t2e.
  • the illuminance after time tTH which is the illuminance Eth decreased by the illuminance change difference dE from the initial illuminance EH, that is, when the illuminance reaches the illuminance at time t2d or the illuminance at time t2e
  • the driver US has the switching intention KI. presume.
  • the intention estimating unit IS performs the above estimation based on the illuminance at the time t2d, which is farther from the time t1, in other words, when the driver US has the switching intention KI earlier. is desirable.
  • any illuminance within the range from the illuminance Eth at time tTH to the illuminance E1 at time t1 may be adopted.
  • the time after time tTH corresponds to the "third point in time”.
  • FIG. 12 is a time chart showing the operation of the light distribution control device HSD of the tenth modification of the first embodiment.
  • FIG. 13 shows the recognition, patience, and operation times of the driver US in Modification 10 of Embodiment 1.
  • time tTH is the point in time preceding time t1 by a predetermined time T2.
  • the driver US actually performs the switching operation KS from the time when the driver US feels uncomfortable with the illuminance, that is, the brightness of the environment of the vehicle JS (in other words, when the driver US has the switching intention KI). is the time until the As shown in FIG. 13, the time T2 is defined as a time of cognition (the driver US feels that it is dark), a time of endurance (the driver US is squinting his eyes), and an operation (the driver US moves his hand from the steering wheel). is released and the lever of the irradiation lamp ST is operated), and is fixedly around 4 seconds, for example.
  • the above total time it is desirable to take into consideration the personal characteristics of the driver US, such as the personality and age of the driver US, and the degree of tension and arousal when the driver US is driving.
  • the above total time is shorter the higher the tension and arousal mentioned above.
  • the intention estimating unit IS determines that the illuminance, which is the environment in which the vehicle JS is placed, is before the time t1 at which the driver US issues the switching instruction KS, among the times t2a to t2e, and from the time t1. It is estimated that the driver US has the switching intention KI when the illuminance reaches the illuminance at time t2d or time t2e after time tTH, which is time T2.
  • the intention estimation unit IS makes the above estimation based on the illuminance at time t2e out of the illuminance at time t2d and the illuminance at time t2e.
  • the time after time tTH corresponds to the "third point in time”.
  • the time T2 may be variable, and may be changed according to the running speed of the host vehicle JS, for example.
  • the time T2 may be determined by using, for example, the low beam irradiation range of the lamp ST (eg, 40 m), the running speed of the own vehicle JS (eg, 60 km/hour), and some coefficient. .
  • Tv the required time Tv required for the vehicle JS to travel within the range that can be illuminated by the lamp ST may be multiplied by an appropriate coefficient ⁇ .
  • Time t5, time 6, etc. in Modification 5 to Modification 10, which correspond to the "third time point”, are time points before time t1 (time point of switching instruction KS), when the driver US is willing to switch. It can be regarded as equivalent to time t2 (time of switching intention KI) described above in that there is room for a basis for estimating whether or not KI is present.
  • ⁇ Modification 11> Instead of switching between low beam lighting (LOW) and high beam lighting (HIGH) in Embodiment 1, switching between low beam lighting (LOW) and turning off (OFF) and high beam It is also possible to switch between lighting (HIGH) and lighting (OFF) at .
  • the switching instruction input unit KN of the first embodiment may use, for example, gesture-based operation and voice-based command input instead of the above-described lever switch operation.
  • the driver US grips the steering wheel with both hands ⁇ (2) the driver US releases one hand from the steering wheel ⁇ (3) the one hand released from the steering wheel inputs a switching instruction.
  • the driver US performs the switching operation KS using the switching instruction input unit KN (lever switch, etc.), the point of (2) is also good. (3) may be used.
  • ⁇ Modification 14> Unlike the first embodiment in which the light distribution control device HSD and the light distribution control device ST are separate (shown in FIG. 1), the light distribution control device HSD and the light distribution control device HSD may be integrated.
  • the lamp ST may include the light distribution control device HSD.
  • the light distribution control device HSD differs from the first embodiment in that it does not include the switching instruction input unit KN, the driver state detection unit UK, and the environment detection unit EK. At least one of the state detector UK and the environment detector EK may be included.
  • the switching instruction reception unit KU receives the switching instruction KS from the switching instruction input unit KN
  • the switching instruction KS from the switching instruction input unit KN is directly received by the irradiation lamp control unit SS or the irradiation lamp ST, for example.
  • the illumination lamp ST may be switched according to the switching instruction KS without referring to the learning by the learning section GS.
  • the learning unit GS acquires the illuminance, which is the environment at time t2 (for example, shown in FIG. 6) estimated for each of a plurality of drivers (for example, family members of the driver US) including the driver US. Learning is desirable.
  • Embodiment 2 A light distribution control device according to the second embodiment will be described.
  • the light distribution control device HSD of the second embodiment differs from the light distribution control device HSD of the first embodiment, which uses "illuminance" as the environment information EJ. is used as training data.
  • the "brightness" of each of a plurality of areas divided from the image is used.
  • FIG. 14 is a functional block diagram of the light distribution control system HSS of the second embodiment.
  • the light distribution control system of the second embodiment is basically the same as the light distribution control system HSS of the first embodiment. have a function.
  • the light distribution control system HSS of the second embodiment differs from the light distribution control system HSS of the first embodiment in that the environment detector EK of the second embodiment has a function different from that of the environment detector EK of the first embodiment. and further includes a vehicle speed detector SK.
  • the environment detection unit EK captures an image in front of the own vehicle JS as the environment information EJ.
  • the vehicle speed detection unit SK detects the vehicle speed of the own vehicle JS.
  • the environment information reception unit EU receives an image from the environment detection unit EK, and also receives the vehicle speed SV from the driver state detection unit UK.
  • the configuration of the light distribution control device HSD of the second embodiment is the same as the hardware configuration of the light distribution control device HSD of the first embodiment (shown in FIG. 4).
  • FIG. 15 is a flow chart showing the operation of the light distribution control device HSD of the second embodiment.
  • FIG. 16 shows an image GZ of the light distribution control device HSD of the second embodiment.
  • FIG. 17 is a time chart showing the operation of the light distribution control device HSD of the second embodiment.
  • Step ST31 The environment detection unit EK captures an image GZ (shown in FIG. 16) in front of the own vehicle JS.
  • Step ST32 The environment information reception unit EU receives the image GZ captured by the environment detection unit EK, more precisely, a plurality of images GZ, that is, collects a plurality of images GZ.
  • Step ST33 The learning unit GS divides each of the multiple images GZ into multiple areas ER(A) to ER(CR) as shown in FIG.
  • the area ER (A) is, for example, an image of a location on the near side in front of the own vehicle JS.
  • the area ER (B1) is, for example, an image of a place near the own vehicle JS.
  • Area ER (B3) is, for example, an image of a place far from host vehicle JS.
  • Area ER(B2) is an image of a location between area ER(B1) and area ER(B3).
  • Area ER is an image of a location (for example, the shoulder) on the left side of own vehicle JS.
  • Area ER (CR) is an image of a place on the right side of own vehicle JS (same left).
  • Step ST34 The learning unit GS calculates the brightness of each of the areas ER(A) to ER(CR) for each image of the plurality of images GZ.
  • Step ST35 The learning unit GS averages the calculated brightness for each area ER.
  • the learning unit GS calculates the arithmetic mean based on the brightness of pixels (not shown) included in each area ER.
  • the learning unit GS adjusts, for example, the number of images GZ to be processed, in other words, the number of images GZ to be processed, by considering the vehicle speed SV of the own vehicle JS when performing the averaging process. You may
  • Step ST36 The learning unit GS generates a brightness index MS.
  • the brightness index MS is, for example, the ratio of the brightness of the other areas ER(B1) to ER(CR) to the brightness of the area ER(A) whose brightness changes little over time (for example, the brightness of ER(B2)/ Brightness of ER(A), hereinafter sometimes abbreviated or illustrated as ER(B2)/ER(A)).
  • ER(B1)/ER(A), ER(B2)/ER(A), and ER(B3)/ER(A) may all be used with the same weight.
  • the weight may be changed, or one of them may be selected and used as teacher data. The relationship between speed and gaze distance is used for weighting and selection.
  • ER(B3) is divided so that the image of the road ahead has a viewing distance corresponding to a speed of 60 km/h
  • ER(B2) is divided so that the image of the road ahead is at a speed of 40 km/h or more and less than 60 km/h
  • B1) is divided so as to be a forward road image at a speed of 20 km/h or more and less than 40 km/h
  • ER(A) is divided so as to be a road image in front of ER(B1).
  • ER(B1) is divided so as to obtain a road image in front of 16.5 m or more and less than 33 m
  • ER(A) is divided so as to obtain a road image in front of less than 16.5 m.
  • the weight of ER(B3)/ER(A) may be maximized for learning, or the weights other than ER(B3)/ER(A) may be set to 0.
  • the weight of ER(B2)/ER(A) should be maximized for learning.
  • FIG. 18 shows the area ER of modification 1 of the second embodiment.
  • the areas ER(A) to ER(CR) are, as shown in FIG. It has a shape that matches the shape of the road on which it runs.
  • the image GZ is divided into areas ER(A) to ER(CR) having a shape that matches the shape of the road on which the vehicle JS travels. Area division may be performed, for example, by performing image recognition processing on an image captured in front and extracting the portion of the road ahead.
  • the boundary between the road shoulder and the road surface can be made clearer.
  • the brightness calculated for each area ER more precisely, the brightness ratio (for example, ER(B2)/ER(A)) becomes more accurate.
  • the value of the lightness index MS at time t2 in each curve of the graph of FIG. 17, for example, ER(B2)/ER(A) becomes more accurate.
  • FIG. 19 shows the area ER of modification 2 of the second embodiment.
  • the image GZ is divided into the sides of the own vehicle JS. are divided using four areas ER (CL1), ER (CL2), ER (CR1), and ER (CR2).
  • the brightness of the side strip of the road on which the vehicle JS travels is calculated.
  • lightness affected by streetlights installed along the road on which the vehicle JS travels is calculated from the areas ER (CL2) and ER (CR2) that are relatively far from the vehicle JS.
  • Areas ER(CL2) and ER(CR2) are set in areas where streetlights and the like are reflected in the image GZ.
  • FIG. 20 shows the area ER of Modification 3 of Embodiment 2.
  • Modification 3 uses ER(A) to ER(CR) having curved shapes corresponding to the shape of the road on which JS travels, particularly the curving shape of the road. Thereby, the brightness calculated for each of the areas ER(A) to ER(CR) can be made more accurate, and as a result, the accuracy of the value of the brightness index MS can be made higher.
  • the shape of the road on which the own vehicle JS travels can be determined, for example, by using a map database and positioning device (e.g., GPS (Global Positioning System), HDL (High Definition Locator)), using a car navigation device, or It can be obtained by specifying the shape of the white line, etc. from the image taken in front of the vehicle JS.
  • a map database and positioning device e.g., GPS (Global Positioning System), HDL (High Definition Locator)
  • HDL High Definition Locator
  • ⁇ Modification 4> Unlike the second embodiment that uses both the image GZ and the vehicle speed SV, only the image GZ may be used.
  • Embodiment 2 that uses three areas ER (B1), ER (B2), and ER (B3), for example, only one area ER (B1) may be used, and two areas ER (B1), ER(B2) may be used, and four areas ER(B1), ER(B2), ER(B3), ER(B4) (not shown) may be used, in summary, the number used is not limited at all.
  • ER (A) to ER (CR) for example, only areas ER (A) and ER (B1) to ER (B3) may be used, and areas ER ( A), ER(CL), and ER(CR) may be used alone.
  • illuminance (explained in the first embodiment) may be used, and map information may also be used.
  • Embodiment 3 The light distribution control system HSS and the light distribution control device HSD of the third embodiment are different from the light distribution control system HSS and the light distribution control device HSD of the first embodiment, which use "illuminance" as the environment information EJ. "Urban area” is used.
  • Fig. 21 shows an example of an urban area.
  • the "urban degree” is, for example, buildings (eg, general residences, commercial stores, buildings) TB1 to TB6, public facilities for traffic (eg, pedestrian crossings, traffic lights, street lights, Lane) Refers to the extent to which TB7 to TB13 are congested.
  • buildings eg, general residences, commercial stores, buildings
  • public facilities for traffic eg, pedestrian crossings, traffic lights, street lights, Lane
  • objects buildings, public facilities for transportation, etc.”
  • the driver US when the driver US is driving near Nihonbashi, which is an urban area, the driver US switches between the low beam and the high beam depending on the brightness near the own vehicle JS.
  • the degree of built-up area is, for example, an index indicated by the density of buildings having lighting equipment (hereinafter also referred to as objects) existing within a predetermined range in front.
  • FIG. 22 is a functional block diagram of the light distribution control system HSS of the third embodiment.
  • the functions of the light distribution control system HSS of the third embodiment are basically the same as those of the light distribution control system HSS of the first embodiment. and the function of the light distribution control device HSD.
  • the light distribution control system HSS of Embodiment 3 differs from the light distribution control system HSS of Embodiment 1 and further includes a map database CD and a locator LK.
  • the map database CD stores the attributes of the target object TB and the position where the target object exists.
  • the map database CD outputs information on objects within a predetermined range when position information is specified. For example, FIG. 21 shows the presence of objects TB1 to TB13 within a predetermined range while traveling in a specific position "near Nihonbashi".
  • the locator LK measures the position of the own vehicle JS.
  • the hardware configuration of the light distribution control device HSD of the third embodiment is the same as the hardware configuration of the light distribution control device HSD of the first embodiment (shown in FIG. 4).
  • the operation of the light distribution control device HSD of the third embodiment is basically the same as the operation of the light distribution control device HSD of the first embodiment (shown in FIG. 5).
  • the operation of the light distribution control device HSD of the third embodiment is similar to that of the light distribution control device HSD of the first embodiment. Acquisition of urban area is different.
  • FIG. 23 is a flowchart showing the operation of acquiring the environmental information EJ of the light distribution control system HSS of the third embodiment.
  • the acquisition of the degree of urban area which is the acquisition of the environment information EJ, is performed in steps ST14 and ST18. Specifically, the following steps ST41 to ST44 are performed in steps ST14 and ST18.
  • Step ST41 The locator LK measures the position of the own vehicle JS, that is, the own vehicle position JI.
  • Step ST42 The environmental information reception unit EU determines the range in front of the own vehicle JS.
  • the environmental information reception unit EU determines the range in front of the host vehicle JS to be, for example, a circular range with a radius of 100m to 400m.
  • the length of the radius is calculated, for example, from the distance traveled by the vehicle JS during several seconds to several tens of seconds at the speed when the vehicle JS is traveling.
  • the range in front of the own vehicle JS is determined to be the range of a circle with a radius of 100m.
  • Step ST43 The environmental information reception unit EU obtains from the map database CD that the objects TB1 to TB13 exist based on the own vehicle position JI.
  • the environmental information reception unit EU further selects objects, such as objects TB1, TB2, TB9, and TB10, which are in the range in front of the host vehicle JS, that is, the range of a circle with a radius of 100 m, among the acquired objects TB1 to TB13. , TB7, TB14, .
  • Step ST44 The learning unit GS calculates the degree of urban area as the environment information EJ based on the above extracted objects TB1, TB2, TB9, TB10, TB7, TB14, etc., that is, acquires the environment information EJ. .
  • the learning unit GS calculates the degree of built-up area by calculating the number of target objects TB existing per unit area.
  • the degree of urban area is used as the environment information EJ.
  • the target object TB may have a correlation with the urban environment, in addition to the above-mentioned buildings and public facilities for transportation. Also, the degree of urban area may be calculated by assigning weights according to the types of objects (buildings, private houses, road lighting, traffic lights, etc.).
  • the anterior extent may be of other shapes (eg, square, rectangle, ellipse) instead of the circle described above.
  • the urban density may be calculated in advance and stored in the map database CD instead of being calculated by the learning unit GS.
  • ⁇ Modification 4> Instead of calculating the degree of built-up area based on the number of objects TB stored in the map database CD, the You may perform based on the target object TB to carry out.
  • the illuminance of the first embodiment and the image of the second embodiment may be used.
  • the light distribution control device can prevent the driver from driving in a situation where the visibility is not suitable for the driver.
  • CD map database dE illuminance change difference, E illuminance, EJ environment information, EK environment detection unit, ER area, EU environment information reception unit, GS learning unit, GZ image, HSD light distribution control device, HSS light distribution control system, IS Intention estimation unit, JI own vehicle position, JS own vehicle, KC switching control, KI switching intention, KB storage medium, KJ switching condition, KN switching instruction input unit, KS switching instruction, KS switching operation, KU switching instruction receiving unit, LK Locator, ME memory, MS brightness index, NY input unit, PR processor, PRG program, SK vehicle speed detection unit, SS lighting control unit, ST lighting unit, SV vehicle speed, SY output unit, TB object, UJ driver state, UK driver status detector, US driver.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

配光制御装置(HSD)は、自車両(JS)が置かれた環境を示す環境情報(EJ)を受け付ける環境情報受付部(EU)と、前記自車両(JS)の運転者(US)が前記自車両(JS)の照射灯(ST)を切り換える指示を受け付ける切換指示受付部(KU)と、前記運転者(US)の所作に基づき、前記運転者(US)に前記照射灯(ST)を切り換える意思が存在するか否かを推定する意思推定部(IS)と、前記環境情報(EJ)を基に自車両(JS)の前記照射灯(ST)を切り換える照射灯制御部(SS)と、前記切換指示受付部(KU)により前記指示が受け付けられた第1の時点より前でありかつ前記意思推定部(IS)により前記意思が存在することが推定された第2の時点で前記環境情報受付部(EU)により受け付けられた前記環境情報(EJ)を用いて前記自車両の照射灯を切り換えるべき運転シーンを学習する学習部(GS)と、を含む。

Description

配光制御装置、配光制御システム、及び配光制御方法
 本開示は、配光制御装置、配光制御システム、及び配光制御方法に関する。
 本開示に係る配光制御装置と車両の照明機器の照明を制御する点で共通する特許文献1に記載された車両の照明制御システムは、運転者が観察する運転シーンに対応すべく、例えば、予め初期設定された運転シーンに基づき照明機器を切り換えることに加え、運転者が手動により照明機器を点灯させた運転シーンを記憶し、以後、運転者が手動により照明機器を点灯させた運転シーンを用いて、照明機器を切り換えるようにする。
特開2020-181310号公報
 しかしながら、上記した運転者が手動により照明機器を切り換えた時点は、運転者が照明機器を切り換えたいと感じた時点ではなく、運転者が照明機器を切り換えたいと感じつつも、照明機器を切り換えることなく走行し続けた後に、照明機器を切り換えることなく走行することが困難であると感じて行動を起こした時点であることが多い。従って、上記した車両の照明制御システムが、上記した運転者が手動により照明機器を切り換えた時点の運転シーンに基づいて照明機器を切り換え制御しても、運転者にとって適切でないとの課題があった。
 本開示の目的は、視界が運転者にとって適切でない状況で運転者が走行する事態を回避し運転者にストレスを与えない切り換え制御ができる配光制御装置、配光制御システム、及び配光制御方法に関する。
 上記した課題を解決すべく、本開示に係る配光制御装置は、自車両が置かれた環境を示す環境情報を受け付ける環境情報受付部と、自車両の運転者が自車両の照射灯を切り換える指示を受け付ける切換指示受付部と、運転者の所作に基づき、運転者に照射灯を切り換える意思が存在するか否かを推定する意思推定部と、前記環境情報を基に自車両の照射灯を切り換える照射灯制御部と、切換指示受付部により指示が受け付けられた第1の時点より前でありかつ意思推定部により意思が存在することが推定された第2の時点で環境情報受付部により受け付けられた環境情報を用いて前記自車両の照射灯を切り換えるべき運転シーンを学習する学習部と、を含む。
 本開示に係る配光制御装置によれば、視界が運転者にとって適切でない状況で運転者が走行する事態を回避することができる。
実施形態1の配光制御システムHSSの機能ブロック図である。 実施形態1の照射灯STの状態遷移図である。 実施形態1の学習部GS及び照射灯制御部SSの概略的動作を示す。 実施形態1の配光制御装置HSDのハードウェア構成を示す。 実施形態1の配光制御装置HSDの動作を示すフローチャートである。 実施形態1の配光制御装置HSDの動作を示すタイムチャートである(その1)。 実施形態1の配光制御装置HSDの動作を示すタイムチャートである(その2)。 実施形態1の変形例5の配光制御装置HSDの動作を示すタイムチャートである(その1)。 実施形態1の変形例5の配光制御装置HSDの動作を示すタイムチャートである(その2)。 実施形態1の変形例8の配光制御装置HSDの動作を示すタイムチャートである。 実施形態1の変形例9のHSDの動作を示すタイムチャートである。 実施形態1の変形例10の配光制御装置HSDの動作を示すタイムチャートである。 実施形態1の変形例10の運転者USの認知、我慢、操作の時間を示す。 実施形態2の配光制御システムHSSの機能ブロック図である。 実施形態2の配光制御装置HSDの動作を示すフローチャートである。 実施形態2の配光制御装置HSDの画像GZを示す。 実施形態2の配光制御装置HSDの動作を示すタイムチャートである。 実施形態2の変形例1のエリアERを示す。 実施形態2の変形例2のエリアERを示す。 実施形態2の変形例3のエリアERを示す。 市街地の例を示す。 実施形態3の配光制御システムHSSの機能ブロック図である。 実施形態3の配光制御システムHSSの環境情報EJの取得の動作を示すフローチャートである。
 本開示に係る配光制御装置の実施形態について説明する。
 説明及び理解を容易にすべく、1つの符号により複数の名称を総称することがあり、例えば、1つの符号「ER」により、複数のエリアER(A)、エリアER(B1)、、、、を総称することがある。
実施形態1.
〈実施形態1〉
 実施形態1の配光制御装置について説明する。
〈実施形態1の機能〉
 図1は、実施形態1の配光制御システムHSSの機能ブロック図である。
 実施形態1の配光制御装置HSDは、図1に示されるように、照射灯STの切り換え(例えば、ロービーム及びハイビーム間の切り換え、点灯及び消灯間の切り換え)を制御すべく、切換指示受付部KUと、意思推定部ISと、環境情報受付部EUと、学習部GSと、照射灯制御部SSと、を含む。
 環境情報受付部EUは、「環境情報受付部」に対応し、切換指示受付部KUは、「切換指示受付部」に対応し、意思推定部ISは、「意思推定部」に対応し、学習部GSは、「学習部」に対応し、照射灯制御部SSは、「照射灯制御部」に対応する。
 配光制御システムHSSは、図1に示されるように、上記した配光制御装置HSDと、上記した照射灯STと、切換指示入力部KNと、運転者状態検出部UKと、環境検出部EKと、を含む。
 切換指示入力部KNは、自車両JS(図示せず。)の運転者USが、照射灯STの切り換えを行うために用いられる。切換指示入力部KNは、例えば、ロービーム及びハイビーム間の切り換えを行うためのレバースイッチである。
 運転者状態検出部UKは、運転者USの状態、例えば、運転者USの所作(視線や顔向き及び目の開口の度合いを含む表情等)を検出する。運転者状態検出部UKは、例えば、車室内に向けられた室内カメラである。
 環境検出部EKは、自車両JSが置かれた環境、例えば、自車両JSの位置における照度や自車両JSの前方の情報を検出する。環境検出部EKは、例えば、照度センサや前方を撮影する前方カメラなどである。
 照射灯STは、例えば、ヘッドライトである。ヘッドライトとは自車両の前方を照射する前照灯であり、これには任意の領域を照射する補助灯も含むものとする。
 図2は、実施形態1の照射灯STの状態遷移図である。
 照射灯STは、図2に示されるように、消灯(OFF)、ロービームでの点灯(LOW)、及びハイビームでの点灯(HIGH)の3つの状態間で遷移(例えば、遷移1、遷移2)を行う。
 以下では、説明及び理解を容易にすべく、ロービームでの点灯(LOW)及びハイビームでの点灯(HIGH)の両状態間の遷移(遷移1、遷移2)を中心に説明する。
 切換指示受付部KUは、切換指示入力部KNからの運転者USによる照射灯STの指示、即ち、切換指示KS(以下、「切換操作KS」ともいう。)を受け付ける。
 意思推定部ISは、運転者状態検出部UKにより検出された運転者USの状態である運転者状態UJに基づき、例えば、自車両JSが置かれた位置の照度に違和感を持つときに運転者USが示す所作に基づき、運転者USに照射灯STを切り換える意思が存在するか否かを推定する。
 環境情報受付部EUは、環境検出部EKにより検出された自車両JSが置かれた環境、即ち、環境情報EJ、例えば、自車両JSの位置における照度を受け付ける。
 学習部GSは、意思推定部ISにより運転者USによる照射灯STの切り換えの意思が存在すると推定されたときの環境情報EJを用いて照明切り換え制御モデル(切換条件と称することもある)を学習する。
 照射灯制御部SSは、学習部GSにより学習された照明切り換え制御モデルにより環境情報EJに基づき、照射灯STの切り換えを制御する。
 図3は、実施形態1の学習部GS及び照射灯制御部SSの概略的動作を示す。
 学習部GS及び照射灯制御部SSは、切換条件KJの下で、以下の動作を行う。
 学習部GS及び照射灯制御部SSは、本来的には、環境情報受付部EUにより受け付けられた環境情報EJにより示される環境、例えば、自車両JSが置かれた位置の照度が、予め定められた照度(例えば、工場から新車を出荷する段階で設定された照度。例えば後述する照度EL。)より小さくなると、切換制御KCにより、ロービームでの点灯(LOW)からハイビームでの点灯(HIGH)へ切り換える。これは例えば工場出荷時に学習部GSに格納された自動的な照明切り換え制御モデルによるものである。
 学習部GS及び照射灯制御部SSは、上記した照明切り換え制御モデルによる切り換えに先立ち、運転者USから照射灯STの切換指示KSを受け付けると、切換制御KCにより、照射灯STをロービームでの点灯(LOW)からハイビームでの点灯(HIGH)へ切り換える。これは運転者USが、学習部GSに格納された照明切り換え制御モデルに不満を持っており手動で点灯状態を切り換えたということである。
 学習部GS及び照射灯制御部SSは、上記した運転者USによる切り換えに先立ち、運転者USに照射灯STの切換意思KIが存在すると推定されると、切換制御KCにより、照射灯STをロービームでの点灯(LOW)からハイビームでの点灯(HIGH)へ切り換えるように照明切り換え制御モデルを学習する。これは上述したように運転者USは、手動で点灯状態を切り換えるよりも前に切り換え意思があることに対応するものである。
 詳しくは、学習部GSは、運転者USによる照射灯STの切換指示KSよりも前であり、かつ運転者USに切換意思KIが存在すると推定される時点での環境情報EJを切換条件KJとして記憶しておき、照射灯制御部SSは、自車両JSが置かれた環境(照度等)が、前記記憶された切換条件KJにより示される環境情報EJに至ったとき、照射灯STを切り換える。
〈実施形態1のハードウェア構成〉
 図4は、実施形態1の配光制御装置HSDのハードウェア構成を示す。
 実施形態1の配光制御装置HSDは、上述した機能を果たすべく、図4に示されるように、プロセッサPRと、メモリMEと、記憶媒体KBと、を含み、必要に応じて、入力部NYと、出力部SYと、更に含む。
 プロセッサPRは、ソフトウェアに従ってハードウェアを動作させる、よく知られたコンピュータの中核である。メモリMEは、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)から構成される。記憶媒体KBは、例えば、ハードディスクドライブ(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)、ROM(Read Only Memory)から構成される。記憶媒体KBは、プログラムPRGを記憶する。プログラムPRGは、プロセッサPRが実行すべき処理の内容を規定する命令群である。
 入力部NYは、例えば、信号入力部としてのインターフェイスから構成される。出力部SYは、例えば、信号出力部としてのインターフェイスから構成される。
 配光制御装置HSDにおける機能とハードウェア構成との関係については、ハードウェア上で、プロセッサPRが、記憶媒体KBに記憶されたプログラムPRGを、メモリME上で実行すると共に、必要に応じて、入力部NY及び出力部SYの動作を制御することにより、切換指示受付部KU~照射灯制御部SSの各部の機能を実現する。
〈実施形態1の動作〉
 図5は、実施形態1の配光制御装置HSDの動作を示すフローチャートである。
 図6は、実施形態1の配光制御装置HSDの動作を示すタイムチャートである(その1)。図6は、運転者USが、照射灯STがロービームでの点灯(LOW)の状態でありつつ、自車両JSを運転しているときに、自車両JSが置かれた環境、即ち、周囲の照度が徐々に低下していることを示す。
〈工場出荷時の照明切り換え制御モデルによる動作説明〉
 ステップST11:照射灯STが、予め、ロービームでの点灯(LOW)を継続している状態を想定する。そして図6に示されるように、自車両JSの周囲の照度はEHからELに向かって徐々に小さく、すなわち暗くなっているものとする。
 ステップST12:運転者USが切換操作KSを行わずそのままロービームでの点灯(LOW)で走行している場合は、ステップST16に進む。
 ステップST16:例えば、室内カメラで取得した運転者USの撮影画像等の情報を運転者状態UJとして受け付ける。
 ステップST17:受け付けた運転者状態UJに基づき照射灯STを切り換えたいという切換意思KIの有無を判断する。ここでは、切換意思KIは無かったものとして説明を進める。
 ステップST20:ここでは照明切り換え制御モデルとしての切換条件KJに合致するかどうか判断する。工場出荷時の照明切り換え制御モデルでは、照度がEL以下になったときに照射灯STをロービームでの点灯(LOW)からハイビームでの点灯(HIGH)に切り換えるものであったとする。ここで時刻t0であった場合は、照度がELよりも大きいEHであるため切換条件KJに合致しないと判断しロービームでの点灯(LOW)を継続する。
 他方、ステップST20において自車両JSの周囲の照度がEL以下であった場合は、ステップST21に進みロービームでの点灯(LOW)からハイビームでの点灯(HIGH)に切り換える。また詳細な説明は割愛するが、同様にハイビームでの点灯(HIGH)からロービームでの点灯(LOW)への切り換えも照度が切換条件KJに合致するかどうかで判断され、ハイビームでの点灯(HIGH)を継続するかあるいはロービームでの点灯(LOW)への切り換えが行われる。
 ステップST22で照射灯STを消灯する指示がなされていなければ、処理をステップST12に戻す。
〈ハイビームでの点灯(HIGH)からロービームでの点灯(LOW)への切り換え〉
 図7は、実施形態1の配光制御装置HSDの動作を示すタイムチャートである(その2)。
 図6と図7との比較から明らかであるように、運転者USが、照射灯STがハイビームでの点灯(HIGH)の状態で、自車両JSを運転しており、かつ、自車両JSの環境、即ち、照度が徐々に上昇しているときには、配光制御装置HSDは、図5に図示のフローチャートに沿うことにより、上述した動作とは対照的な動作(例えば、照射灯STをハイビームでの点灯(HIGH)からロービームでの点灯(LOW)へ切り換えること)を行う。
〈運転者USが切換意思KIを示した時刻t2のときの環境情報EJを保持〉
 処理がステップST22からステップST12に戻り、時刻t2になったときを例示して説明する。
 ステップST12:ここではまだ照射灯STの切換操作KSが行われていないのでステップST16に進む。ステップST16では上述と同様に運転者状態UJを受け付ける。
 ステップST17:ここでは運転者に特徴のある所作が見られ、照射灯STをロービームでの点灯(LOW)からハイビームでの点灯(HIGH)に切り換えたいという切換意思KIがあると判断される事例について説明する。
 意思推定部ISは、照射灯STの現在の状態がロービームでの点灯(LOW)であるとき、運転者USが、例えば、以下に例示する所作を示すとき、運転者USにはハイビームでの点灯(HIGH)への切換意思KIが存在すると推定する。
(A)運転者USが、遠方をチラチラ見るような所作をするとき
 運転者USが、ロービームの照射範囲である自車両JSの前方40mを超えた遠方における路面の状態を確認したいと認められるためである。意思推定部ISは、運転者USが遠方を見ているか否かの推定を、例えば、以下に例示する所作と同様の意味合いを持つ所作の少なくとも一つを用いて行う。
(A1)運転者USの視線が、上向きであるか否か
(A2)運転者USの顔が、上向きであるか否か
(A3)運転者USの瞼が、見開いているか否か
 なお意思推定部ISは、照射灯STの現在の状態が、仮に、ハイビームでの点灯(HIGH)であるとき、運転者USが、例えば、以下に例示する所作を示すとき、運転者USにはロービームでの点灯(LOW)への切換意思KIが存在すると推定する。
(B)運転者USが、眩しい物を見るような所作をするとき
 運転者USが、ハイビームが運転者USの視界内に存在する物に反射することによる反射光等を避けたいと認められるためである。意思推定部ISは、運転者USが眩しいか否かの推定を、例えば、以下に例示する所作と同様の意味合いを持つ所作の少なくとも一つを用いて行う。
(B1)運転者USが、眼を細めているか否か
(B2)運転者USの顔が、下向きであるか否か
(B3)運転者USの眼が、しかめているか否か
 さて、ここではロービームでの点灯(LOW)中であり、時刻t2で上述の(A)の所作を検出したものとして説明を進める。
 ステップST18:環境情報受付部EUは、図6中の時刻t2のときの環境情報EJ、より詳しくは、切換意思KIが存在すると推定されたときの環境情報EJ、即ち、照度E2を受け付ける。
 時刻t2は、「第2の時点」に対応する。
 ステップST19:学習部GSは、切換条件KJとして、上記した時刻t2のときの環境情報EJ、即ち、照度E2を記憶し、保持するものの、ここではまだ学習しない。これは所作(A)が照射灯STをハイビームでの点灯(HIGH)にしたいことを我慢しているために行われたものか、あるいはたまたまそのような所作(A)をしたに過ぎないのか否かが不明だからである。
 ステップST19の後、処理は、ステップST20に進み、上述で説明した処理を実行しステップST12に戻る。
〈運転者USが切換指示KSを行った時刻t2のときの環境情報EJに基づいて照明切り換え制御モデルを学習〉
 ここでは処理がステップST22からステップST12に戻り、時刻t1になったときを例示して説明する。時刻t1は照度がE1まで落ち、運転者USが我慢ならなくなってロービームでの点灯(LOW)からハイビームでの点灯(HIGH)への切換操作KSを行った時点である。
 ステップST12:切換指示受付部KU(図1に図示。)は、時刻t1のとき、運転者USが切換指示入力部KNを操作して照射灯STの切換指示KSを行ったことを受け、処理をステップST13に進める。
 ここでステップST17で所定の所作があり、その後、続いてステップST12で切換操作KSがあったことをもって、先のステップST17で検出した所作は切換意思KIであったことが推定される。
 ステップST13:照射灯制御部SS(図1に図示。)は、図6中の時刻t1のとき、切換操作KSに応答すべく、照射灯STをロービームでの点灯(LOW)からハイビームでの点灯(HIGH)へ切り換える。
 ステップST14:学習部GS(図1に図示。)は、ステップST19で記憶した環境情報EJ、即ち、運転者USによる照射灯STの切換意思KIがあったと推定される時刻t2のときの環境情報EJを用いて照射体STの照明切り換え制御モデルを学習して照明灯制御部SSに記憶している照明切り換え制御モデルを更新する。
 なお時刻t1は「第1の時点」に対応し、時刻t2は「第2の時点」に対応する。
 学習部GSは、上記した時刻t1のときの環境情報EJ、即ち、照度E1を教師データとして学習し、照明切り換え制御モデルを更新する。学習部GSによる学習は、例えば、適応フィルタ、CNN(Convolutional Neural Network)、ファジー制御、閾値の調整等を用いて行われる。
 学習して更新された照明切り換え制御モデルは以降のステップST20の切換条件KJに反映される。
 ステップST14の後、処理は、ステップST22を経て、ステップST12に戻り以下同様に処理を続ける。
〈学習の補足説明〉
 最も簡単な学習としては、ステップST19で記憶した最新の環境情報EJの値をそのまま切換条件KJとして置き換えることである。その場合は、「運転者USが切換意思KIを示したと推定される時刻t2のときの照度E2にまで低下したときに、照射灯STをロービームでの点灯(LOW)からハイビームでの点灯(HIGH)へ切り換える」動作となる。
 少し複雑な手法として、過去何回かのE2(n)の統計的処理、例えば平均値を用いて学習する手法も採用可能である。この場合は、必ずしも最新に記憶した環境情報EJで照射灯STが切り替わるとは限らない。
 また、ファジーやCNNによる照明切り換え制御モデルの場合も最新に記憶した環境情報EJで照射灯STが切り替わるとは限らない。従って「運転者USが切換意思KIを示したと推定される時刻t2のときの照度E2を用いて学習した、照度E1よりも照度がE2に近い値まで照度が低下したときに、照射灯STをロービームでの点灯(LOW)からハイビームでの点灯(HIGH)へ切り換える」動作となる。
一例として、ステップST14で複数の値を用いて学習する方法を採用すると、過去のステップST19で記憶した複数の値を用いて学習することを意味する。
〈実施形態1の効果〉
 上述したように、実施形態1の配光制御装置HSDでは、運転者USが、照射灯STがロービームの点灯(LOW)の状態で自車両JSを運転しており、かつ、自車両JSが置かれた環境である照度が徐々に低下しているとき、照射灯制御部SSは、自車両JSが置かれた環境である照度が、運転者USが切換操作KSを行った時刻t1のときの照度E1より大きい、運転者USが切換意思KIを示したと推定される時刻t2のときの照度E2にまで低下したときに、照射灯STをロービームでの点灯(LOW)からハイビームでの点灯(HIGH)へ切り換える。これにより、運転者USが、視界が運転者USにとって適切でない状況で自車両JSを運転し続ける事態を回避することができる。
〈変形例1〉
 実施形態1における、環境情報EJにより示される環境である「時刻tのときの照度」に代えて、「時刻tを含む単位時間当たりの照度」、「照度の変化量」を用いてもよい。
〈変形例2〉
 実施形態1における、環境情報EJにより示される環境である「時刻t2のときの照度」に代えて、「時刻t2のときに撮影された自車両JSの前方の画像」を用いてもよい。前記画像をそのまま用いてもよく、前記画像に何らかの画像処理(例えば、画像フィルタリング処理、平均化処理)を施したものを用いてもよく、また、撮影画像を複数の画像領域、例えば100*100に分割し、分割した画像領域のそれぞれに画像フィルタリング処理を施した10000のパラメータを学習データに用いてもよく、上記した照度と前記画像との組み合わせを用いてもよく、自車両JSの走行に関する他の情報(例えば、自車両JSの位置、自車両JSが走行する道路の種別、自車両JSが走行する速度)を併用してもよい。
 即ち照明切り換え制御モデルは、切換意思KIを示したと推定される時刻に得られた何らかのしきい値(例えば照度)を学習することに限られるものではなく、切換意思KIを示したと推定される時刻に得られた運転シーンすなわち前方の画像を教師データとして学習するものであってもよい。また上述と同様に、「時刻t2のときの運転シーン」に代えて、「時刻t2を含む単位時間における運転シーン」、「運転シーンの変化量」を用いてもよい。すなわち教師データとして例示した照度、運転シーンなどの種別、これらの教師データを取得するタイミングや期間、これらの教師データへの処理の方法などについては、本明細書においてそれぞれ読み替え、変形することができる。煩雑さを避けるため本明細書において、以下同様の前提で進める。
〈変形例3〉
 意思推定部ISは、運転者USが遠方を見ているか否かの推定を、上述した(A1)~(A3)の他に、以下を用いて行ってもよい。
(A4)運転者USが、顔をしかめているか否か
(A5)運転者USが、じっと眼を凝らしているか否か
(A6)運転者USが、身を乗り出しているか否か
 運転者USが遠方を見ているか否かの推定には、補助的に、例えば、運転者USとの間で、「暗いですか?」、「はい/いいえ」等を音声等でやりとりすることを用いてよい。推定が不確かな場合にこのような問い合わせを行うことで推定精度を確保することができる。
〈変形例4〉
 意思推定部ISは、運転者USが眩しい物を見ているか否かの推定を、(B1)~(B3)の他に、以下を用いて行ってもよい。
(B4)運転者USが、手で顔を覆っているか否か
(B5)運転者USの瞳孔の径が、小さくなっているか否か
 運転者USが眩しい物を見ているか否かの推定には、補助的に、例えば、運転者USとの間で、「明るいですか?」、「はい/いいえ」等を音声等でやりとりすることを用いてよい。
〈変形例5〉
 図8は、実施形態1の変形例5の配光制御装置HSDの動作を示すタイムチャートである(その1)。
 図9は、実施形態1の変形例5の配光制御装置HSDの動作を示すタイムチャートである(その2)。
 実施形態1での「時刻t2のときの照度E2」に代えて、図8、図9に示されるように、例えば、「時刻t2と時刻t1との中間の時刻t5のときの照度」を用いてもよい。運転者USが切換意思KIを示すことへの追従性をより高くするには、時刻t2により近い時刻を採用することが望ましい。
 時刻t5は、「第3の時点」に対応する。
〈変形例6〉
 実施形態1での「時刻t2のときの照度E2」に代えて、図8、図9に示されるように、例えば、「時刻t2と時刻t0との中間の時刻t6のときの照度」を用いてもよい。運転者USが切換意思KIを示すことへの追従性をより高くするには、時刻t2のときの照度により近い照度を採用することが望ましい。ここで、時刻t0は、照度が暗くなり始めた時点(図8の場合)、照度が明るくなり始めた時点(図9の場合)である。
 時刻t6は、「第3の時点」に対応する。
〈変形例7〉
 実施形態1での1つの時刻t2のみの照度に加えて、t5、t6(例えば、図8に図示。)の照度を併用してもよい。通常のときの照度とは大きく相違する照度が偶発的に発生した場合であっても、意思推定部ISによる切換意思KIの推定の動作が不安定になる事態の発生を抑制することができる。
 時刻t5、時刻t6は、「第3の時点」に対応する。
〈変形例8〉
 図10は、実施形態1の変形例8の配光制御装置HSDの動作を示すタイムチャートである。
 自車両JSが置かれた環境である照度は、一般的に、上下動しながら変化し、例えば、図10に示されるように、上下動しながら低下する。そこで、時刻t2を含む予め定められた時間T1(例えば、1秒間)内における最低値である照度、平均値である照度、複数の照度を用いることが望ましい。これにより、変形例7と同様な効果を奏することができる。
 時間T1内の時刻、例えば、時刻t4は照度が最低値となる時点であり、「第3の時点」に対応する。
〈変形例9〉
 図11は、実施形態1の変形例9のHSDの動作を示すタイムチャートである。
 図11に示されるように、運転者USが切換指示KSを行った時刻t1より前に、運転者USが切換意思KIを有したであろう時刻t2a、t2b、t2c、t2d、t2eが存在することを想定する。
 図11で、時刻tTHは、自車両JSが置かれた位置での照度が、最高値の照度EHから予め定められた照度変化差dEだけ低下した照度Ethに至った時点である。
 照度変化差dEは、例えば、最高値の照度EHの10%(EH*0.1)であってもよく、また、最高値の照度EHと上記した時刻t1のときの照度E1との差の10%((EH-E1)*0.1)であってもよい。
 意思推定部ISは、自車両JSが置かれた照度が、上記した時刻t2a~t2eのうち、運転者USが切換指示KSを行った時刻t1より前であり、かつ、現在の照度である最高値の照度EHから照度変化差dEだけ低下した照度Ethである時刻tTH以後の照度、即ち、時刻t2dでの照度又は時刻t2eでの照度に至ったとき、運転者USが切換意思KIを有すると推定する。
意思推定部ISは、時刻t2d、t2eのうち、特に、時刻t1からより遠い時点、換言すれば、運転者USがより早期に切換意思KIを有した時刻t2dの照度に基づき、前記推定を行うことが望ましい。
 仮に、時刻tTHの後に、運転者USが切換意思KIを有したであろう時点が存在しないときには、時刻tTHのときの照度Ethから時刻t1のときの照度E1までの範囲内のいずれかの照度を採用してもよい。
 時刻tTH以後の時刻は、「第3の時点」に対応する。
〈変形例10〉
 図12は、実施形態1の変形例10の配光制御装置HSDの動作を示すタイムチャートである。
 図13は、実施形態1の変形例10の運転者USの認知、我慢、操作の時間を示す。
 図12に示されるように、変形例9と同様に、運転者USが切換指示KSを行った時刻t1より前に、運転者USが切換意思KIを有したであろう時刻t2a、t2b、t2c、t2d、t2eが存在することを想定する。
 図12で、時刻tTHは、時刻t1から予め定められた時間T2だけ遡った時点である。
 時間T2は、例えば、運転者USが、自車両JSの環境である照度、即ち、明暗に違和感を持った時点(換言すれば、切換意思KIを有した時点)から切換操作KSを実際に行った時点までの時間である。時間T2は、図13に示されるように、認知(運転者USが暗いと感じる)の時間、我慢(運転者USが眼を細めている)の時間、及び操作(運転者USがハンドルから手を離し、照射灯STのレバーを操作する)の時間を合計した時間であり、例えば、固定的に、4秒前後である。
 上記の合計した時間は、運転者USの個人的な特性、例えば、運転者USの性格及び年齢、並びに運転者USが運転しているときの緊張度及び覚醒度が考慮されることが望ましい。上記の合計した時間は、前記した緊張度及び覚醒がより高いほど、より短くなる。
 意思推定部ISは、自車両JSが置かれた環境である照度が、上記した時刻t2a~t2eのうち、運転者USが切換指示KSを行った時刻t1より前であり、かつ、時刻t1から時間T2だけ遡った時点tTHの後である時点t2dの照度又は時刻t2eの照度に至ったとき、運転者USが切換意思KIを有すると推定する。
 意思推定部ISは、変形例9と同様に、時刻t2dの照度、及び時刻t2eの照度うち、時刻t2eの照度に基づき上記の推定を行うことが望ましい。
 時刻tTH以後の時刻は、「第3の時点」に対応する。
 時間T2は、上述したとは対照的に、可変的であってもよく、例えば、自車両JSの走行速度に応じて変更されてもよい。
 時間T2は、例えば、照射灯STのロービームの照射可能な範囲(例えば、40m)と、自車両JSの走行速度(例えば、60km/時間)と、何らかの係数とを用いることにより決定されてもよい。
 時間T2は、例えば、自車両JSが照射灯STの照射可能な範囲を走行する所要時間Tvに適当な係数αを乗じたものを採用してもよい。Tv=2.4秒(=40m/(60km*1000/60/60))なので、例えばα=2を用いるとT2=4.8秒(=α*Tv)であってもよい。
 時間T2は、また、例えば、自車両JSが照射灯STの照射可能な範囲を走行する所要時間と、上記した合計時間4秒前後(=認知の時間+我慢の時間+操作の時間)とに基づき、6.4秒(=40m/(60km*1000/60/60)+4秒)であってもよい。
 時間T2は、上記と相違し、照射灯STがハイビーム(照射可能な範囲は、例えば、100m)で照射するときには、Tv=6秒(=100m/(60km*1000/60/60))なので、前者の時間4.8秒に代えて、T2=2*6=12秒であってもよく、また、後者の時間6.4秒に代えて、10秒であってもよい。
 「第3の時点」に対応する、変形例5~変形例10での時刻t5、時刻6等は、時刻t1(切換指示KSの時点)より前の時点であって、運転者USが切換意思KIを有するか否かを推定するときの根拠になる余地があるという点では、上記した時刻t2(切換意思KIの時点)と等価であると位置付けることができる。
〈変形例11〉
 実施形態1における、ロービームでの点灯(LOW)とハイビームでの点灯(HIGH)との間の切り換えに代えて、ロービームでの点灯(LOW)と消灯(OFF)との間の切り換え、及び、ハイビームでの点灯(HIGH)と消灯(OFF)との間の切り換えを行うことも可能である。
〈変形例12〉
 実施形態1の切換指示入力部KNは、上記したレバースイッチによる操作に代えて、例えば、ジェスチャによる操作、及び音声によるコマンドの入力を用いてもよい。
〈変形例13〉
 運転者USが遠方を見る所作又は運転者USが眩しい物を見る所作を行った時点を以って、運転者USが切換意思KIを有する時点であると推定する実施形態1に代えて、例えば、前記所作を行う前の所作(以下、「予兆所作」という。)を行った時点を以って、運転者USが切換意思KIを有する時点であると推定してもよい。
 上記した予兆所作の時点は、例えば、(1)運転者USがハンドルを両手で握っている→(2)運転者USがハンドルから片手を離す→(3)ハンドルから離れた片手が切換指示入力部KN(レバースイッチ等)に徐々に近づく→(4)運転者USが切換指示入力部KN(レバースイッチ等)により切換操作KSを行うという流れのとき、(2)の時点もよく、また、(3)の時点でもよい。
〈変形例14〉
 配光制御装置HSDと照射灯STとが別体である(図1に図示。)実施形態1と相違し、照射灯STと配光制御装置HSDとが同体であってもよく、例えば、照射灯STが配光制御装置HSDを含んでもよい。
 配光制御装置HSDが、切換指示入力部KN、運転者状態検出部UK、及び環境検出部EKを含まない実施形態1と相違し、配光制御装置HSDが、切換指示入力部KN、運転者状態検出部UK、及び環境検出部EKの少なくとも1つを含んでもよい。
〈変形例15〉
 切換指示入力部KNからの切換指示KSを切換指示受付部KUが受ける実施形態1と相違し、切換指示入力部KNからの切換指示KSを、例えば、照射灯制御部SS又は照射灯STが直接的に受け、学習部GSによる学習を参照することなくかつ切換指示KSに従って、照射灯STが切り換わってもよい。
〈変形例16〉
 学習部GSは、運転者USを含む複数の運転者(例えば、運転者USの家族)の各運転者毎に推定された時刻t2(例えば、図6に図示。)での環境である照度を学習することが望ましい。
実施形態2.
〈実施形態2〉
 実施形態2の配光制御装置について説明する。
 実施形態2の配光制御装置HSDは、環境情報EJとして「照度」を用いる実施形態1の配光制御装置HSDと相違し、環境情報EJとして自車両JSの前方での撮影された「画像」を教師データとして用いるものである。教師データへの加工例として実施形態2では、前記画像から分割された複数のエリアのエリア毎の「明度」を用いる。
〈実施形態2の機能〉
 図14は、実施形態2の配光制御システムHSSの機能ブロック図である。
 図14と図1(実施形態1の機能ブロック図)との比較から明らかであるように、実施形態2の配光制御システムは、基本的に、実施形態1の配光制御システムHSSと同様な機能を有する。
 実施形態2の配光制御システムHSSは、他方で、実施形態1の配光制御システムHSSと相違し、実施形態2の環境検出部EKが実施形態1の環境検出部EKと相違する機能を有し、また、車速検出部SKを更に含む。
 環境検出部EKは、環境情報EJとして、自車両JSの前方の画像を撮影する。
 車速検出部SKは、自車両JSの車速を検出する。
 環境情報受付部EUは、環境検出部EKから画像を受け、また、運転者状態検出部UKから車速SVを受ける。
〈実施形態2のハードウェア構成〉
 実施形態2の配光制御装置HSDの構成は、実施形態1の配光制御装置HSDのハードウェア構成(図4に図示。)と同様である。
〈実施形態2の動作〉
 図15は、実施形態2の配光制御装置HSDの動作を示すフローチャートである。
 図16は、実施形態2の配光制御装置HSDの画像GZを示す。
 図17は、実施形態2の配光制御装置HSDの動作を示すタイムチャートである。
 ステップST31:環境検出部EKは、自車両JSの前方の画像GZ(図16に図示。)を撮影する。
 ステップST32:環境情報受付部EUは、環境検出部EKにより撮影された画像GZ、より正確には、複数の画像GZを受け付け、即ち、複数の画像GZを収集する。
 ステップST33:学習部GSは、複数の画像GZの各々を、図16に示されるように、複数のエリアER(A)~ER(CR)に分割する。
 エリアER(A)は、例えば、自車両JSの前方における手前側の場所の画像である。
 エリアER(B1)は、例えば、自車両JSから近方である場所の画像である。エリアER(B3)は、例えば、自車両JSから遠方である場所の画像である。エリアER(B2)は、エリアER(B1)及びエリアER(B3)間の場所の画像である。
 エリアER(CL)は、自車両JSの左側方の場所(例えば、路肩)の画像である。エリアER(CR)は、自車両JSの右側方の場所(同左)の画像である。
 ステップST34:学習部GSは、複数の画像GZの各画像について、エリアER(A)~ER(CR)のエリア毎に明るさ、即ち、明度を算出する。
 ステップST35:学習部GSは、算出された、エリアER毎の明度に平均化処理を施す。学習部GSは、例えば、エリアER毎に含まれる画素(図示せず。)の輝度に基づき、算術平均を算出する。学習部GSは、平均化処理を施すときに、自車両JSの車速SVを考慮することにより、例えば、処理すべき複数の画像GZの数量、換言すれば、処理すべき画像GZの枚数を調整してもよい。
 ステップST36:学習部GSは、明度指標MSを生成する。
 明度指標MSは、例えば、明度の時間的な変化が小さいエリアER(A)の明度に対する、他のエリアER(B1)~ER(CR)の明度の比率(例えば、ER(B2)の明度/ER(A)の明度。以下、ER(B2)/ER(A)と略記し又は図示することがある。)である。
 図17に示されるように、車速SVがV1で一定であるとき、時間tと「明度の比率」との関係、即ち、明度指標MSの曲線(例えば、ER(B2)/ER(A)の曲線)を用いることにより、時間と「照度E」との関係、即ち、「照度E」の曲線を用いる実施形態1(図6に図示。)と同様に、時刻t2で、ロービームでの点灯(LOW)からハイビームでの点灯(HIGH)へ切り替えることができる。
 ここで、ER(B1)/ER(A)、ER(B2)/ER(A)、ER(B3)/ER(A)の全てを同一の重みで用いてもよいが、車速が速くなると運転者USが注視する距離は、例えば、車速×3秒で変化することを利用して、重みを変えてもよいし、どれか1つを選択して教師データとして用いてもよい。重みづけや選択に関しては速度と注視距離の関係を用いる。
 例えば、ER(B3)は時速60kmに対応した注視距離の前方道路画像になるように分割し、ER(B2)は時速40km以上で時速60km未満の前方道路画像になるように分割し、ER(B1)は、時速20km以上で時速40km未満の前方道路画像になるように分割し、ER(A)はER(B1)より手前の道路画像になるように分割する。
 ER(B3)は50m(=3秒*60Km*1000/(60*60))以上前方の道路画像になるように分割し、ER(B2)は33m以上で50m未満の前方の道路画像になるように分割し、ER(B1)は16.5m以上で33m未満の前方の道路画像になるように分割し、ER(A)は16.5m未満の前方の道路画像になるように分割する。
 時速60km以上の場合は、ER(B3)/ER(A)の重みを最も大きくして学習をしてもよいし、ER(B3)/ER(A)以外の重みを0にしてもよい。時速40km以上で時速60km未満の場合はER(B2)/ER(A)の重みを最も大きくして学習するようにすればよい。このように車速により重みを変えることにより注視距離に対応するパラメータを重要視した照明切り換え制御モデルとなる。
〈実施形態2の効果〉
 上述したように、実施形態2の配光制御装置HSDでは、実施形態1での照度Eに代えて、明度指標MSを用いることによっても、実施形態1と同様な効果を得ることができる。また明度指標MSを用いることによって、さまざまな運転シーンに対応することができる。
〈変形例1〉
 図18は、実施形態2の変形例1のエリアERを示す。
 エリアER(A)~ER(CR)が矩形である実施形態2と相違し、変形例1では、エリアER(A)~ER(CR)は、図18に示されるように、自車両JSが走行する道路の形状に合う形状を有する。変形例1では、画像GZを、自車両JSが走行する道路の形状に合う形状を有するエリアER(A)~ER(CR)に分割する。エリア分割は例えば前方撮影画像の画像認識処理を行い、前方道路の部分を抽出すればよい。
 画像GZを、矩形を有するER(A)~ER(CR)を用いて分割する実施形態2と比較すると、例えば、路肩と路面との境界をより明確にすることができる。これにより、エリアER毎に算出される明度、より正確には、明度の比率(例えば、ER(B2)/ER(A))がより精度高くなる。その結果、図17のグラフの各曲線、例えば、ER(B2)/ER(A)における、時刻t2のときの明度指標MSの値がより精度高くなる。
〈変形例2〉
 図19は、実施形態2の変形例2のエリアERを示す。
 画像GZを自車両JSの側方である2つのエリアER(CL)、ER(CR)を用いて分割する変形例1と相違し、変形例2では、画像GZを、自車両JSの側方である4つのエリアER(CL1)、ER(CL2)、ER(CR1)、ER(CR2)を用いて分割する。
 自車両JSに相対的に近い、即ち、近方であるエリアER(CL1)、ER(CR1)により、例えば、自車両JSが走行する道路の路側帯での明度を算出し、他方で、自車両JSから相対的に遠い、即ち、遠方であるエリアER(CL2)、ER(CR2)により、例えば、自車両JSが走行する道路に沿って設置されている街灯の影響を受ける明度を算出する。エリアER(CL2)、ER(CR2)は、画像GZにおいて街灯などが映り込む領域に設定される。
 エリアER(CL1)、ER(CL2)、ER(CR1)、ER(CR2)での明度を考慮することにより街灯の影響を除外することも可能となり、明度指標MSをより高い精度で算出すること可能となる。
〈変形例3〉
 図20は、実施形態2の変形例3のエリアERを示す。
 変形例3では、変形例1と同様に、JSが走行する道路の形状、特に、道路の湾曲の形状に対応する湾曲の形状を有するER(A)~ER(CR)を用いる。これにより、エリアER(A)~ER(CR)のエリア毎に算出される明度をより高い精度にすることができ、その結果、明度指標MSの値の精度をより高くすることができる。
 自車両JSが走行する道路の形状は、例えば、地図のデータベース及び測位装置(例えば、GPS(Global Positioning System)、HDL(High Definition Locator))を用いること、カーナビゲ―ション装置を用いること、又は自車両JSの前方での撮影された映像から白線の形状等を特定することにより、得ることができる。
〈変形例4〉
 画像GZ及び車速SVの両者を用いる実施形態2と相違し、画像GZのみを用いてもよい。
 3つのエリアER(B1)、ER(B2)、ER(B3)を用いる実施形態2と相違し、例えば、1つのエリアER(B1)のみを用いてもよく、2つのエリアER(B1)、ER(B2)を用いてもよく、4つのエリアER(B1)、ER(B2)、ER(B3)、ER(B4)(図示せず。)を用いてもよく、要約すれば、用いる個数は何ら限定されない。
 エリアER(A)~ER(CR)の全てを用いる実施形態2と相違し、例えば、エリアER(A)、ER(B1)~ER(B3)のみを用いてもよく、また、エリアER(A)、ER(CL)、ER(CR)のみを用いてもよい。
〈変形例5〉
 実施形態2で用いられる画像GZに加えて、例えば、照度(実施形態1で説明。)を用いてもよく、更には、地図の情報を用いてもよい。
実施形態3.
〈実施形態3〉
 実施形態3の配光制御システムHSS及び配光制御装置HSDは、環境情報EJとして「照度」を用いる実施形態1の配光制御システムHSS及び配光制御装置HSDと相違し、環境情報EJとして、「市街地度」を用いる。
 図21は、市街地の例を示す。
 「市街地度」とは、図21に示されるように、例えば、建築物(例えば、一般住居、商業店舗、ビル)TB1~TB6、交通のための公共施設(例えば、横断歩道、信号機、街灯、車線)TB7~TB13が密集している程度をいう。以下では、「建築物、交通のための公共施設等」を「対象物」と称呼する。
 運転者USは、例えば、図21に示されるように、市街地である日本橋の近くを走行しているときには、自車両JSの近方の明るさの如何により、ロービーム及びハイビーム間での切り換えを行いたいとの意思を有する。運転者USは、上記とは対照的に、例えば、市街地から離れた郊外を走行しているときには、上記した自車両JSの近方の明るさの如何に加えて、自車両JSの遠方の明るさの如何をも考慮して、ロービーム及びハイビーム間での切り換えを行いたいとの意思を有する。ここで市街地度とは、例えば前方の所定範囲内に存在する、照明設備を有する建造物(以下対象物とも称する)の密度で示される指標である。
〈実施形態3の構成及びハードウェア構成〉
 図22は、実施形態3の配光制御システムHSSの機能ブロック図である。
 図22と図1(実施形態1の機能ブロック図)との比較から明らかであるように、実施形態3の配光制御システムHSSの機能は、基本的に、実施形態1の配光制御システムHSS及び配光制御装置HSDの機能と同様である。
 実施形態3の配光制御システムHSSは、他方で、実施形態1の配光制御システムHSSと相違し、地図データベースCDと、ロケータLKとを更に含む。
 地図データベースCDには、対象物TBの属性と対象物が存在する位置が記憶されている。地図データベースCDは位置情報を指定されると所定範囲の対象物の情報を出力する。例えば、図21には、「日本橋の近く」の特定の位置を走行しているときに所定範囲の対象物TB1~TB13の存在を示したものである。
 ロケータLKは、自車両JSの位置を測定する。
〈実施形態3のハードウェア構成〉
 実施形態3の配光制御装置HSDのハードウェア構成は、実施形態1の配光制御装置HSDのハードウェア構成(図4に図示。)と同様である。
〈実施形態3の動作〉
 実施形態3の配光制御装置HSDの動作は、基本的に、実施形態1の配光制御装置HSDの動作(図5に図示。)と同様である。
 実施形態3の配光制御装置HSDの動作は、他方で、実施形態1の配光制御装置HSDとは、ステップST14及びステップST18(図5に図示。)での環境情報EJの取得、即ち、市街地度の取得が相違する。
 図23は、実施形態3の配光制御システムHSSの環境情報EJの取得の動作を示すフローチャートである。
 上述したように、環境情報EJの取得である市街地度の取得は、ステップST14及びステップST18で行われる。具体的には、ステップST14及びステップST18で、以下のステップST41~ステップST44が行われる。
 ステップST41:ロケータLKは、自車両JSの位置、即ち、自車両位置JIを測定する。
 ステップST42:環境情報受付部EUは、自車両JSの前方の範囲を決定する。環境情報受付部EUは、自車両JSの前方の範囲を、例えば、半径が100m~400mである円の範囲に決定する。前記半径の長さは、例えば、自車両JSが走行しているときの速度で数秒~数十秒の間に自車両JSが移動する距離から算出される。ここでは、自車両JSの前方の範囲が、半径100mの円の範囲であると決定されたことを想定する。
 ステップST43:環境情報受付部EUは、自車両位置JIに基づき、地図データベースCDから、対象物TB1~TB13が存在することを取得する。環境情報受付部EUは、更に、取得された対象物TB1~TB13のうち、自車両JSの前方の範囲、即ち、半径100mの円の範囲にある対象物、例えば、TB1、TB2、TB9、TB10、TB7、TB14、、、を抽出する。
 ステップST44:学習部GSは、上記の抽出された対象物TB1、TB2、TB9、TB10、TB7、TB14、、、に基づき、環境情報EJとして市街地度を算出し、即ち、環境情報EJを取得する。学習部GSは、例えば、市街地度の算出を、単位面積当たりに存在する対象物TBの個数を計算することにより行う。
 図21のように「日本橋」付近は、対象物が多く市街地度は高い。また、郊外では対象物が少なく市街地度は低い。
〈実施形態3の効果〉
 上述したように、実施形態3の配光制御装置HSDでは、環境情報EJとして市街地度を用いることから、環境情報EJとして照度を用いる実施形態1、及び環境情報EJとして画像(より正確には、明度)を用いる実施形態2と同様に、ロービームでの点灯(LOW)及びハイビームでの点灯(HIGH)の切り換えを行うことができる。
〈変形例1〉
 対象物TBは、上述した建築物及び交通のための公共施設の他、市街地の環境と相関関係を有するものであってもよい。また、対象物の種別(ビル、民家、道路照明、信号機など)に応じた重みづけを付与して市街地度を計算してもよい。
〈変形例2〉
 前方の範囲は、上記した円に代えて、他の形状(例えば、正方形、長方形、楕円)であってもよい。
〈変形例3〉
 市街地度は、学習部GSにより算出されることに代えて、予め算出されかつ地図データベースCDに記憶されていてもよい。
〈変形例4〉
 市街地度の算出を、地図データベースCDに記憶された対象物TBの個数等に基づき行うことに代えて、実施形態2と同様に撮影された画像GZ(例えば、図16に図示。)中に存在する対象物TBに基づき行ってもよい。
〈変形例5〉
 環境情報EJとして、実施形態3の市街地度に加えて、実施形態1の照度及び実施形態2の画像(より正確には、明度)を用いてもよい。
 本開示の要旨を逸脱しない範囲で、上述した実施形態同士を組み合わせてもよく、また、各実施形態中の構成要素を適宜、削除し、変更し、または、他の構成要素を追加してもよい。
 本開示に係る配光制御装置は、視界が運転者にとって適切でない状況で運転者が走行する事態を回避することができる。
 CD 地図データベース、dE 照度変化差、E 照度、EJ 環境情報、EK 環境検出部、ER エリア、EU 環境情報受付部、GS 学習部、GZ 画像、HSD 配光制御装置、HSS 配光制御システム、IS 意思推定部、JI 自車両位置、JS 自車両、KC 切換制御、KI 切換意思、KB 記憶媒体、KJ 切換条件、KN 切換指示入力部、KS 切換指示、KS 切換操作、KU 切換指示受付部、LK ロケータ、ME メモリ、MS 明度指標、NY 入力部、PR プロセッサ、PRG プログラム、SK 車速検出部、SS 照射灯制御部、ST 照射灯、SV 車速、SY 出力部、TB 対象物、UJ 運転者状態、UK 運転者状態検出部、US 運転者。

Claims (19)

  1.  自車両が置かれた環境を示す環境情報を受け付ける環境情報受付部と、
     前記自車両の運転者が前記自車両の照射灯を切り換える指示を受け付ける切換指示受付部と、
     前記運転者の所作に基づき、前記運転者に前記照射灯を切り換える意思が存在するか否かを推定する意思推定部と、
     前記環境情報を基に自車両の前記照射灯を切り換える照射灯制御部と、
     前記切換指示受付部により前記指示が受け付けられた第1の時点より前でありかつ前記意思推定部により前記意思が存在することが推定された第2の時点で前記環境情報受付部により受け付けられた前記環境情報を用いて前記自車両の照射灯を切り換えるべき運転シーンを学習する学習部と、
     を含む配光制御装置。
  2.  前記意思推定部は、前記照射灯の照射状態に違和感を持つときに前記運転者が表す所作に基づき前記推定を行う、
     請求項1に記載の配光制御装置。
  3.  前記意思推定部は、前記運転者が前記自車両の遠方を確認する所作を行うとき、前記自車両の近方を照射することよりも、前記自車両の遠方を照射する意思を有すると推定する、
     請求項2に記載の配光制御装置。
  4.  前記意思推定部は、前記運転者の視線方向が上向きに変化する所作、前記運転者の顔が上向きに変化する所作、及び前記運転者の瞼が見開く所作のうちの少なくとも1つが検出されたとき、前記運転者が前記自車両の遠方を確認する所作を行ったと推定する、
     請求項3に記載の配光制御装置。
  5.  前記意思推定部は、前記運転者が眩しさを感じる所作を行ったとき、前記自車両の遠方を照射することよりも、前記自車両の近方を照射する意思を有すると推定する、
    請求項2に記載の配光制御装置。
  6.  前記意思推定部は、前記運転者が眼を細める所作、及び前記運転者が手で前記運転者の顔を覆う所作のうちの少なくとも1つが検出されたとき、前記運転者が眩しさを感じる所作を行ったと推定する、
     請求項5に記載の配光制御装置。
  7.  前記学習部は、前記第1の時点より前の時点であって、前記運転者の意思の推定について前記第2の時点と等価であると認められる、少なくとも1つの第3の時点での前記環境情報を学習する、
    請求項1に記載の配光制御装置。
  8.  前記環境情報は、前記自車両の前方が撮影された画像から分割された複数のエリアのエリア毎の明度に基づくものである、
     請求項1に記載の配光制御装置。
  9.  前記学習部は、前記第2の時点での、前記自車両の近方での明度に対する前記自車両の遠方での明度の比率である第1の比率、及び、前記自車両の近方での明度に対する前記自車両の側方での明度との比率である第2の比率の少なくとも1つを前記環境情報として学習し、
     前記照射灯制御部は、前記第1の比率または前記第2の比率を前記環境情報として入力し前記照射灯を切り換える、
     請求項8に記載の配光制御装置。
  10.  前記学習部は、前記自車両の側方として、前記自車両の近方である側方及び前記側方の更に側方を用いる、
     請求項9に記載の配光制御装置。
  11.  前記学習部は、前記第2の時点で前記環境情報受付部により受け付けられた画像から、前記自車両の前方の道路の形状に沿って分割された複数のエリアのエリア毎の明度に基づいて学習する、
     請求項9に記載の配光制御装置。
  12.  前記環境情報は、前記自車両が置かれた位置での市街化の程度である、
     請求項1に記載の配光制御装置。
  13.  前記意思推定部は、前記推定を、前記運転者が、前記自車両の照射灯を切り換える指示を行うべく、前記自車両を運転するときの前記運転者の両手の位置から前記運転者の片手を離したか否かに基づき行う、
     請求項1に記載の配光制御装置。
  14.  前記学習部は、前記運転者を含む複数の運転者の運転者毎に前記環境情報を学習する、
     請求項1に記載の配光制御装置。
  15.  前記学習部は、前記第3の時点までの前記環境情報を教師データとして前記照明切り換え制御モデルを学習する、
     請求項7に記載の配光制御装置。
  16.  前記学習部は、前記第1の時点よりも前であって、かつ、前記自車両の運転者の特性または速度により相違する時間だけ前記第1の時点から遡った時点までの前記環境情報を教師データとして前記照明切り換え制御モデルを学習する、
     請求項1に記載の配光制御装置。
  17.  前記学習部は、前記照射灯を切り換える指示以外の他の指示信号の入力を受けたとき、複数の特定時点での前記環境情報を教師データとして選定する、
     請求項1に記載の配光制御装置。
  18.  請求項1に記載の配光制御装置と、
     前記照射灯と、
     前記運転者が前記照射灯の切換操作を行うための切換指示入力部と、
     前記運転者の状態を検出する運転者状態検出部と、
     前記自車両が置かれた環境を検出する環境検出部と、
     を含む配光制御システム。
  19.  環境情報受付部が、自車両が置かれた環境を示す環境情報を受け付け、
     切換指示受付部が、前記自車両の運転者が前記自車両の照射灯を切り換える指示を受け付け、
     意思推定部が、前記運転者の所作に基づき、前記運転者に前記照射灯を切り換える意思が存在するか否かを推定し、
     照射灯制御部が、前記環境情報を基に自車両の前記照射灯を切り換え、
     学習部が、前記切換指示受付部により前記指示が受け付けられた第1の時点より前でありかつ前記意思推定部により前記意思が存在することが推定された第2の時点で前記環境情報受付部により受け付けられた前記環境情報を用いて前記自車両の照射灯を切り換えるべき運転シーンを学習する、
     配光制御方法。
PCT/JP2022/009041 2022-03-03 2022-03-03 配光制御装置、配光制御システム、及び配光制御方法 WO2023166644A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2024504117A JP7511787B2 (ja) 2022-03-03 配光制御装置、配光制御システム、及び配光制御方法
PCT/JP2022/009041 WO2023166644A1 (ja) 2022-03-03 2022-03-03 配光制御装置、配光制御システム、及び配光制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/009041 WO2023166644A1 (ja) 2022-03-03 2022-03-03 配光制御装置、配光制御システム、及び配光制御方法

Publications (1)

Publication Number Publication Date
WO2023166644A1 true WO2023166644A1 (ja) 2023-09-07

Family

ID=87883264

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/009041 WO2023166644A1 (ja) 2022-03-03 2022-03-03 配光制御装置、配光制御システム、及び配光制御方法

Country Status (1)

Country Link
WO (1) WO2023166644A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007308012A (ja) * 2006-05-18 2007-11-29 Denso Corp 車両用前照灯装置
JP2019048524A (ja) * 2017-09-08 2019-03-28 スタンレー電気株式会社 車両の前照灯の制御装置
JP2020181310A (ja) * 2019-04-24 2020-11-05 トヨタ自動車株式会社 車両の照明制御システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007308012A (ja) * 2006-05-18 2007-11-29 Denso Corp 車両用前照灯装置
JP2019048524A (ja) * 2017-09-08 2019-03-28 スタンレー電気株式会社 車両の前照灯の制御装置
JP2020181310A (ja) * 2019-04-24 2020-11-05 トヨタ自動車株式会社 車両の照明制御システム

Also Published As

Publication number Publication date
JPWO2023166644A1 (ja) 2023-09-07

Similar Documents

Publication Publication Date Title
CN103476636B (zh) 用于与道路相关地调节车辆的照明系统的照明距离的方法和控制设备
JP6214139B2 (ja) 車両のヘッドライトの光放射を調整する方法および装置
JP7331696B2 (ja) 情報処理装置、情報処理方法、プログラム、および移動体
US10671071B2 (en) Control method and control device of automatic driving vehicle
JP4473232B2 (ja) 車載用車両前方環境検出装置および車両用照明装置
US9404630B2 (en) Method and device for operating a headlamp for a motor vehicle
JP6924325B2 (ja) オートライトシステム
US20150310313A1 (en) Visibility estimation device, visibility estimation method, and safe driving support system
CN103596804B (zh) 用于接通车辆的远光的方法和控制设备
JP6732968B2 (ja) 適応ハイビーム制御を用いた撮像システム
JP2009029227A (ja) 照明制御装置および方法、並びに、プログラム
WO2023166644A1 (ja) 配光制御装置、配光制御システム、及び配光制御方法
CN105691285B (zh) 用于调节车辆的至少一个大灯的光发射的特性的方法和控制设备
CN113119894A (zh) 一种车辆辅助驾驶方法及车辆
CN108237975B (zh) 一种用于光照调节的方法和装置
JP2008296759A (ja) 情報処理装置および方法、並びにプログラム
JP7511787B2 (ja) 配光制御装置、配光制御システム、及び配光制御方法
CN108162848B (zh) 前灯控制数据生成装置和车辆控制装置
JP2020181310A (ja) 車両の照明制御システム
CN104859556A (zh) 带亮度自调节功能的车载装置及亮度自调节方法
JP6929481B1 (ja) 配光制御装置、配光制御方法及び配光制御プログラム
JP2007320457A (ja) オートライト装置
JP7344635B2 (ja) ヘッドアップディスプレイ装置
WO2020059076A1 (ja) 運転支援装置および運転支援方法
WO2024069676A1 (ja) 前照灯制御装置及び前照灯制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929789

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024504117

Country of ref document: JP