WO2023047505A1 - 照明制御装置、生体情報取得装置、および、照明制御方法 - Google Patents

照明制御装置、生体情報取得装置、および、照明制御方法 Download PDF

Info

Publication number
WO2023047505A1
WO2023047505A1 PCT/JP2021/034932 JP2021034932W WO2023047505A1 WO 2023047505 A1 WO2023047505 A1 WO 2023047505A1 JP 2021034932 W JP2021034932 W JP 2021034932W WO 2023047505 A1 WO2023047505 A1 WO 2023047505A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
accident
vehicle
biometric information
light
Prior art date
Application number
PCT/JP2021/034932
Other languages
English (en)
French (fr)
Inventor
脩平 太田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2021/034932 priority Critical patent/WO2023047505A1/ja
Priority to DE112021008265.5T priority patent/DE112021008265T5/de
Priority to US18/292,614 priority patent/US20240336215A1/en
Priority to JP2023549235A priority patent/JP7483152B2/ja
Publication of WO2023047505A1 publication Critical patent/WO2023047505A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/80Circuits; Control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/70Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2500/00Special features or arrangements of vehicle interior lamps
    • B60Q2500/30Arrangements for illuminating different zones in the vehicle, e.g. front/rear, different seats
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/70Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
    • B60Q3/76Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose for spotlighting, e.g. reading lamps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R2021/01006Mounting of electrical components in vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R2021/01013Means for detecting collision, impending collision or roll-over
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • the present disclosure relates to lighting control technology for controlling lighting in the vehicle interior.
  • Patent Literature 1 describes an emergency notification device that captures an image of an occupant in the event of a vehicle accident and transmits the captured image to an emergency center.
  • a technique for lighting such a lighting device is disclosed.
  • Patent Document 1 by turning on the lighting device when a vehicle accident occurs, it is possible to capture an image even in the dark. The captured video is used to visually confirm the situation of the crew in the emergency center.
  • An object of the present disclosure is to solve the above problems, and to provide a lighting control technique for controlling lighting so that biometric information can be obtained regardless of imaging conditions when a vehicle accident occurs.
  • the lighting control device of the present disclosure includes an accident detection unit that detects an accident of the vehicle using a signal output by a sensor mounted on the vehicle, and when an accident is detected by the accident detection unit, the vehicle detects the accident using visible light.
  • a lamp body control part for instructing a lamp body for illuminating a room to light up, and a light color changing part for changing the light color of the lamp body when an accident is detected by an accident detection part are provided.
  • a lighting control device that controls lighting so that biological information can be obtained regardless of imaging conditions when a vehicle accident occurs.
  • FIG. 1 is a block diagram showing the configuration of a lighting control device according to Embodiment 1 and peripheral devices related thereto;
  • FIG. It is a figure which shows an example of the correspondence of the classification of biometric information, and a light color.
  • FIG. 10 is a diagram showing an example of a correspondence relationship between types of biometric information and parts of a living body;
  • 1 is a diagram illustrating a first example of a hardware configuration of a lighting control device according to the present disclosure;
  • FIG. It is a figure which shows the 2nd example of the hardware configuration of the lighting control apparatus which concerns on this indication.
  • 4 is a flowchart showing main processing of a lighting control device and main processing of a biological information acquisition device in the present disclosure;
  • FIG. 7 is a flow chart showing an example of a lighting control process shown in FIG. 6;
  • FIG. FIG. 8 is a flowchart showing an example of a lamp color change process shown in FIG. 7;
  • FIG. 7 is a flowchart showing an example of biometric information acquisition processing shown in FIG. 6;
  • FIG. 10 is a block diagram showing the configuration of a lighting control device according to Embodiment 2 and peripheral devices related thereto; 9 is a flowchart showing an example of lighting control processing according to Embodiment 2; 12 is a flowchart showing an example of light distribution adjustment processing shown in FIG. 11;
  • FIG. 10 is a block diagram showing the configuration of a lighting control device according to Embodiment 3 and peripheral devices related thereto;
  • 14 is a flow chart showing an example of
  • FIG. 1 is a block diagram showing the configuration of a lighting control device 100 and related peripheral devices according to Embodiment 1. As shown in FIG. 1
  • the lighting control device 100 controls lighting in the vehicle interior by instructing lamps 410 that illuminate the interior of the vehicle about lights and lighting colors.
  • the lighting control device 100 of the present disclosure instructs to change the lighting color of the lighting body 410 particularly when a vehicle accident occurs.
  • a lighting control device 100 shown in FIG. 1 is communicably connected to a biological information acquisition device 200, an information source device 300, and an output device 400. FIG. A detailed configuration example of the lighting control device 100 will be described later.
  • the biometric information acquisition device 200 acquires biometric information using a captured image that is an image of the interior of the vehicle, and outputs the acquired biometric information.
  • Biological information in the present disclosure is biological information that can be acquired using captured images, and includes, for example, pulse, complexion, bleeding state, respiration, and the like.
  • a biological information acquisition device 200 shown in FIG. 1 is communicably connected to a lighting control device 100, an information source device 300, and a communication device. A detailed configuration example of the biometric information acquisition device 200 will be described later.
  • the information source device 300 is a device that provides information used for processing by the lighting control device 100 or the biological information acquisition device 200 .
  • the information source device 300 is a vehicle sensor 310 and an imaging device 320 mounted on a vehicle.
  • Vehicle sensor 310 outputs a signal relating to vehicle information.
  • Vehicle information in the present disclosure is information that can determine a vehicle accident, vehicle-related conditions, vehicle interior conditions, and the like.
  • the vehicle information is, for example, vehicle speed, acceleration, vehicle position information, seat sensor information, optical sensor information, parking brake information, vehicle device failure notification information, or airbag operation notification information.
  • the vehicle sensor 310 is composed of a plurality of sensors that output signals related to the vehicle information.
  • Vehicle sensor 310 may transmit a signal regarding vehicle information via an ECU (Electronic Control Unit) (not shown) instead of directly transmitting a signal regarding vehicle information.
  • the ECU is a control unit that controls each major operation of the vehicle.
  • the ECU is connected to the lighting control device 100 by a wire harness (not shown), and can freely communicate with the lighting control device 100 by a communication method based on the CAN (Controller Area Network) standard.
  • CAN Controller Area Network
  • the imaging device 320 is arranged at a position capable of capturing an image of the interior of the vehicle, and captures an image of the interior of the vehicle.
  • the imaging device 320 has a first imaging element that converts visible light into an electrical signal, and outputs a visible light captured image that is an image of the interior of the vehicle captured by the first imaging element receiving visible light. .
  • a visible light captured image is hereinafter simply referred to as a “captured image”.
  • the imaging device 320 captures an image of the interior of the vehicle upon receiving a command from the imaging control unit 210 .
  • the imaging device 320 receives a command from the imaging control unit 210 of the biological information acquisition device 200 and images the interior of the vehicle.
  • the imaging device 320 may use, for example, a camera included in a DMS (Driver Monitoring System). In this case, the imaging device 320 images the passengers including the driver inside the vehicle.
  • the imaging device 320 has a second imaging element that converts infrared rays into electrical signals, and the second imaging element receives infrared rays to capture an image of the interior of the vehicle. , may have a function of outputting an infrared captured image.
  • An infrared captured image is hereinafter referred to as an "infrared image" to distinguish it from a captured image that is a visible light captured image.
  • the image capturing device 320 captures infrared rays and outputs an infrared image in a state in which no accident has occurred in the vehicle. to output the captured image.
  • the imaging device 320 may transmit images via an ECU (Electronic Control Unit) (not shown) instead of directly transmitting images (captured images or infrared images).
  • the ECU is a control unit that controls each major operation of the vehicle.
  • the ECU is connected to the biological information acquisition device 200 or the lighting control device 100 by a wire harness (not shown), and communicates with the biological information acquisition device 200 or the lighting control device 100 by a communication method based on the CAN (Controller Area Network) standard. can communicate freely with
  • the output device 400 is a control target device commanded by the lighting control device 100 of the present disclosure, specifically the lamp body 410 .
  • the lamp body 410 is provided in, for example, a vehicle interior lighting device, and illuminates the vehicle interior using visible light.
  • the lamps 410 are, for example, room lamps, map lamps, foot lamps, side step lamps, door lamps, and ambient lamps.
  • the room lamp is a light body 410 that illuminates the entire vehicle interior, and is provided, for example, on the ceiling of the vehicle interior.
  • the map lamp is, for example, a lighting body 410 installed for the driver's seat or the passenger's seat.
  • the foot lamp is a light body 410 installed so as to illuminate the feet of the passenger.
  • the side step lamp is a lamp body 410 built into the side step.
  • the door lamp is a lamp body 410 built into the door.
  • Ambient lamps are decorative lights that are incorporated into dashboards, center consoles, side door rims, and the like.
  • the lamp body 410 in the present disclosure may be the whole lamp body or a part of the lamp body.
  • the lamp body 410 shown in FIG. 1 switches between a lit state and a non-lit state according to a command from the lighting control device 100 .
  • the lighting body 410 also changes its lighting color according to a command from the lighting control device 100 .
  • the lamp body 410 has, for example, a light source in which a plurality of LEDs (Light Emitting Diodes) are aggregated.
  • the plurality of LEDs in the lighting body 410 are, for example, three LEDs that emit light of different wavelengths (for example, three primary colors (R, G, B) of light such as red, green, and blue), and the lighting control device
  • the wavelength components of each light or the ratio of the light intensity can be changed according to commands from 100 .
  • Lighting control in the present disclosure includes lighting color control, brightness control, or light distribution control.
  • Light color control is, for example, outputting various colors by adjusting and combining the brightness of each color of RGB.
  • Control of light distribution includes control of the irradiation range of light or control of directivity of light. Light distribution control can be realized, for example, by a method of lighting only some of the plurality of LEDs in the lamp body 410 instead of lighting all of them.
  • Communication device 500 communicates with the outside of the vehicle. Communication device 500 performs wireless communication with an external device that collects information from a plurality of vehicles, for example.
  • the communication device 500 shown in FIG. 1 transmits the vehicle information acquired by the vehicle information acquisition unit 111 from the vehicle sensor 310 and the biometric information acquired by the biometric information acquisition device 200 to a server (not shown) via the communication unit 510. form.
  • the lighting control device 100 includes an accident detection section 110 , a lamp body control section 120 , and a lamp color changing section 130 .
  • the lighting control device 100 includes a control unit (not shown) and a storage unit (not shown).
  • a control unit (not shown) controls, for example, the entire apparatus including each component.
  • a storage unit (not shown) stores, for example, information used in the processing of each component or information generated in the processing.
  • Accident detection unit 110 detects an accident of the vehicle using a signal output from vehicle sensor 310 mounted on the vehicle.
  • a method of detecting a vehicle accident using a signal from the vehicle sensor 310 includes vehicle speed, acceleration, vehicle position information, seat sensor information, optical sensor information, parking brake information, vehicle device failure notification information, or airbag operation notification. Based on the information, it can be realized by a method using already known technology.
  • the accident detection unit 110 detects a vehicle accident, the accident detection unit 110 outputs an accident occurrence signal, which is a signal indicating that an accident has occurred.
  • Accident detection unit 110 outputs vehicle information indicated by a signal output from vehicle sensor 310 when a vehicle accident is detected. A detailed configuration example of the accident detection unit 110 will be described later.
  • the lamp control unit 120 instructs the lamp 410, which uses visible light to illuminate the interior of the vehicle, to turn on the light. Specifically, upon receiving an accident detection signal, which is a signal indicating that an accident has occurred, from the accident detection unit 110, the lamp control unit 120 is a signal that instructs the lamp 410 to turn on the light. Outputs a lighting command signal.
  • the light color changer 130 changes the light color of the lamp body 410 when the accident detector 110 detects an accident.
  • FIG. 2 is a diagram showing an example of a correspondence relationship between types of biometric information and light colors.
  • the light color changer 130 executes processing by referring to the first data 600 as shown in FIG. 2, for example.
  • the first data 600 is information indicating the correspondence relationship between the type of biometric information and the light color, and is stored in advance in a storage unit (not shown).
  • the light color changing unit 130 refers to the first data 600, selects the type of biometric information, and determines the light color.
  • the light color changing unit 130 changes the light color of the lamp body 410 to the determined light color. A detailed configuration example of the light color changing unit 130 will be described later.
  • the accident detection unit 110 includes a vehicle information acquisition unit 111 and an accident determination unit 112 .
  • Vehicle information acquisition unit 111 acquires a signal output from vehicle sensor 310 .
  • Vehicle information acquisition section 111 acquires vehicle information using the acquired signal, and outputs the vehicle information to accident determination section 112 .
  • Vehicle information acquisition unit 111 also outputs vehicle information to communication control unit 240 .
  • Accident determination unit 112 determines the occurrence of an accident using vehicle information. Upon determining that an accident has occurred, the accident determination unit 112 outputs an accident detection signal, which is a signal indicating that the occurrence of an accident has been detected. The accident determination unit 112 may output the vehicle information used for the determination together with the accident detection signal. The accident determination unit 112 may determine the type of accident using vehicle information. The accident determination unit 112 that executes this determination outputs accident type information indicating the type of the determined accident.
  • the light color changer 130 includes a biological information type selector 131 and a light color adjuster 132 .
  • the biometric information type selection unit 131 selects the type of biometric information to be acquired by referring to the type information indicating the type of biometric information stored in advance. Specifically, for example, upon receiving an accident detection signal from the accident detection unit 110, the biometric information type selection unit 131 refers to the type information and sequentially selects the type of biometric information to be acquired. Alternatively, for example, upon receiving an accident detection signal from the accident detection unit 110, the biological information type selection unit 131 refers to the type information and selects all types of biological information to be acquired. The biological information type selection unit 131 sends information indicating the selected type to the light color adjustment unit 132 . The biometric information type selection unit 131 also sends information indicating the selected type to the biometric part identification unit 220, which will be described later.
  • the light color adjustment unit 132 adjusts the light color of the lamp body 410 according to the type of biometric information selected by the biometric information type selection unit 131 .
  • the light color adjustment unit 132 refers to the first data 600 shown in FIG. Send a command signal to command the lights to come on.
  • the biometric information type selected by the biometric information type selection unit 131 is pulse
  • the light color adjustment unit 132 adjusts the wavelength of the light color to be 490 nm or more and 570 nm or less. As a result, the lamp color becomes so-called green, and the lamp body 410 irradiates the living body with green light.
  • the light color adjustment unit 132 adjusts the light color to white.
  • the lamp body 410 is instructed to turn on all lights. As a result, the lamp color becomes so-called white, and the lamp body 410 irradiates the living body with white light.
  • the biometric information acquiring apparatus 200 shown in FIG. 1 includes an imaging control section 210 , a biometric part specifying section 220 , a biometric information acquiring section 230 , and a communication control section 240 .
  • the biological information acquiring apparatus 200 includes a control unit (not shown) and a storage unit (not shown).
  • a control unit (not shown) controls, for example, the entire apparatus including each component.
  • a storage unit (not shown) stores, for example, information used in the processing of each component or information generated in the processing.
  • the imaging control unit 210 instructs the imaging device 320 to perform imaging when a vehicle accident occurs. Specifically, when the accident detection unit 110 detects an accident, the imaging control unit 210 instructs the imaging device 320, which takes an image by receiving visible light, to take an image of the interior of the vehicle. Here, if the imaging device 320 is configured to switch between imaging using visible light and imaging using infrared light, the imaging control unit 210 controls the imaging device in a state where the accident detection unit 110 does not detect an accident. 320 is instructed to perform imaging using infrared light, and when an accident is detected by the accident detection unit 110, the imaging device 320 is instructed to perform imaging using visible light. That is, the imaging control unit 210 instructs the imaging device 320 to perform imaging using infrared rays until the accident detection unit 110 detects an accident.
  • the living body part identification unit 220 identifies the position of the living body part in the vehicle interior using the captured image. Specifically, body part identification section 220 analyzes the captured image according to a command from imaging control section 210, and identifies the position of the body part in the vehicle interior. Also, the living body part identification unit 220 extracts and outputs an image in a format that allows identification of the living body part. Specifically, for example, the body part identification unit 220 outputs information indicating the identified part and a captured image of the identified part.
  • FIG. 3 is a diagram showing an example of a correspondence relationship between types of biometric information and parts of a living body.
  • the body part identification unit 220 has second data 700 as shown in FIG. 3, for example.
  • the second data 700 is information indicating the correspondence relationship between the type of biometric information and the part of the biometric body.
  • the living body part identification unit 220 refers to the second data 700, extracts and outputs the captured image of the living body part corresponding to the type of biological information selected by the biological information type selecting unit 131 in the light color changing unit 130.
  • the parts of the living body identified by the living body part identification unit 220 are, for example, the head, neck, chest, abdomen, shoulders, and arms, but any part that can be identified from the captured image is not limited to the above parts.
  • the head or neck is considered to be the site where injury is most likely to lead to death, and is the site where the proportion of exposed bare skin is high.
  • the chest or abdomen are considered sites where injuries are likely to result in death.
  • the positions of all the parts may be identified according to the type of biological information, or the parts may be identified in order.
  • the parts of the living body may be identified by collectively identifying all predetermined parts, or may be identified by classifying the biological information selected by the biological information type selection unit 131 . For example, if you want to acquire the biometric information of the head, you can specify only the part of the head, and after acquiring the biometric information of the head, specify only the part of the chest to acquire the biometric information of the chest. good.
  • an example of a method for identifying a body part in the body part identification unit 220 will be described.
  • the body part identifying section 220 detects the occupant whose body part is to be identified.
  • the detection of the occupant is performed using predetermined rules such as skeletal detection and face detection of the occupant from the captured image, and machine learning.
  • predetermined rules such as skeletal detection and face detection of the occupant from the captured image, and machine learning.
  • the vehicle information acquired from the vehicle sensor 310 may be used to detect the occupant, or the detection result of the occupant before the occurrence of the accident may be used.
  • the occupant detection accuracy may be further improved by using occupant detection information when the vehicle is running, such as when the vehicle speed or acceleration is above a certain threshold, or when the parking brake is off rather than the parking brake information. .
  • the biometric information acquiring unit 230 acquires biometric information using the captured image including the body part specified by the part specifying unit.
  • the biometric information acquiring section 230 receives the captured image output from the biometric part identifying section 220 .
  • the biometric information acquisition unit 230 analyzes the captured image and acquires biometric information.
  • the biometric information acquisition unit 230 outputs biometric information.
  • Biometric information is acquired, for example, as follows. Bloodshed, complexion: The color and shape of the body part specified in the captured image match a predetermined model, or are estimated from machine learning results.
  • ⁇ Pulse Captures and acquires changes in luminance on the face surface that are considered to be caused by the blood flow of the occupant in the captured image. Hemoglobin contained in blood absorbs green light, so adjusting the light color to a green wavelength that makes it easy to detect changes in luminance increases the accuracy of information.
  • - Breathing identified from the movement of body parts (chest, shoulders, abdomen, etc.) identified in the captured image.
  • the communication control unit 240 causes the biometric information acquired by the biometric information acquiring unit 230 to be transmitted to the communication device.
  • the communication control section 240 receives the biometric information output from the biometric information acquisition section 230 .
  • the communication control unit 240 outputs a command signal, which is a signal for commanding the communication device to transmit the biological information together with the biological information. Further, when the vehicle information is received from the vehicle information acquisition unit 111, the communication control unit 240 causes the vehicle information to be transmitted together.
  • FIG. 4 is a diagram illustrating a first example of the hardware configuration and peripheral devices of the lighting control device 100 according to the present disclosure.
  • processing circuit 1000 is connected to information source device 300 , output device 400 and communication device 500 .
  • the processing circuit 1000 is capable of transmitting and receiving signals and transmitting and receiving information between the information source device 300 , the output device 400 and the communication device 500 .
  • FIG. 5 is a diagram illustrating a second example of the hardware configuration and peripheral devices of the lighting control device 100 according to the present disclosure.
  • processor 1001 and memory 1002 are connected to information source device 300 , output device 400 and communication device 500 .
  • Processor 1001 is capable of transmitting and receiving signals and transmitting and receiving information between information source device 300 , output device 400 and communication device 500 .
  • Each function in the lighting control device 100 or the biological information acquisition device 200 is implemented by a processing circuit.
  • Each function of the control unit 240 is implemented by a processing circuit.
  • lighting control device 100 or biological information acquisition device 200 performs a series of processes from step ST110 to step ST140 shown in FIG. and processing circuitry for executing.
  • the processing circuit may be dedicated hardware or may be a CPU (Central Processing Unit) that executes a program stored in memory.
  • CPU Central Processing Unit
  • the processing circuit 1000 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA ( Field-Programmable Gate Array) or a combination thereof.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • Each function may be realized by separate processing circuits, or these functions may be collectively realized by one processing circuit.
  • the processing circuit is the processor 1001 shown in FIG. 5, the accident detection unit 110, the vehicle information acquisition unit 111, the accident determination unit 112, the lamp body control unit 120, the light color change unit 130, or the light color described later in Embodiment 3.
  • the biometric information acquisition unit 230, and the communication control unit 240 are implemented by software, firmware, or a combination of software and firmware. Software or firmware is written as a program and stored in memory 1002 .
  • the processor 1001 implements the functions of each unit by reading and executing programs stored in the memory 1002 . That is, the lighting control device 100 includes a memory 1002 for storing a program that, when executed by the processor 1001, results in the series of processes described above. These programs include the accident detection unit 110, the vehicle information acquisition unit 111, the accident determination unit 112, the lamp body control unit 120, the lamp color change unit 130 or the lamp color change unit 130B described later in Embodiment 3, the biological information type selection unit 131, lamp color adjustment unit 132, external light color identification unit 133 described later in Embodiment 3, imaging control unit 140 described later in Embodiments 2 and 3, and A biological part identification unit 150, a biological information acquisition device 200, or a biological information acquisition device 200A, an imaging control unit 210, a biological part identification unit 220, a biological information acquisition unit 230, and a communication It causes a computer to execute a procedure or method for realizing each mechanism of the control unit 240 .
  • the memory 1002 includes, for example, non-volatile or volatile semiconductor memories such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically-EPROM), Magnetic discs, flexible discs, optical discs, compact discs, mini discs, DVDs, and the like are applicable.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory EPROM (Erasable Programmable Read Only Memory)
  • EEPROM Electrical-EPROM
  • Magnetic discs flexible discs, optical discs, compact discs, mini discs, DVDs, and the like are applicable.
  • Each function may be partly realized by dedicated hardware and partly realized by software or firmware.
  • a processing circuit 1000 as dedicated hardware realizes its function, and for the accident detection unit 110, the processor 1001 reads and executes a program stored in the memory 1002. , may implement that function.
  • the processing circuitry may implement each of the above functions through hardware, software, firmware, or a combination thereof.
  • FIG. 6 is a flowchart showing main processing of the lighting control device 100 and main processing of the biological information acquisition device 200 in the present disclosure.
  • FIG. 7 is a flow chart showing an example of the lighting control process shown in FIG.
  • FIG. 8 is a flow chart showing an example of the lamp color changing process shown in FIG.
  • FIG. 9 is a flow chart showing an example of the biometric information acquisition process shown in FIG.
  • the lighting control device 100 starts processing, for example, at the timing when the engine of the vehicle is started (“START” in FIG. 6).
  • Accident detection unit 110 waits until it acquires the signal output from vehicle sensor 310, and starts processing when it acquires the signal output from vehicle sensor 310 (step ST110).
  • Accident detection unit 110 determines whether an accident has occurred using the vehicle information indicated by the acquired signal, and detects an accident when it is determined that an accident has occurred.
  • vehicle information acquisition section 111 in accident detection section 110 acquires a signal output from vehicle sensor 310 and sends vehicle information indicated by the acquired signal to accident determination section 112 .
  • the vehicle information acquisition unit 111 sends vehicle information to the communication control unit 240 .
  • Accident determination unit 112 in accident detection unit 110 determines the occurrence of an accident using vehicle information.
  • the accident determination unit 112 determines that an accident has occurred, it outputs an accident detection signal to each of the lamp body control unit 120, the biological information type selection unit 131, and the imaging control unit 210.
  • Accident detection unit 110 repeats the process from step ST110 in a state where no accident is detected (step ST120 "NO").
  • accident detection unit 110 detects an accident (step ST120 "YES")
  • lighting control processing step ST130
  • biometric information acquisition processing step ST140
  • lighting control device 100 executes lighting control processing (step ST130)
  • biological information acquisition device 200 executes biological information acquisition processing (step ST140).
  • step ST130 Details of the lighting control process (step ST130) will be described.
  • the lighting control process is started (lighting control process start in FIG. 7).
  • the lamp control unit 120 waits until it receives the accident detection signal output from the accident detection unit 110 .
  • the lamp control unit 120 instructs the lamp 410 to turn on the lamp (step ST131).
  • Light color changing unit 130 waits until it receives an accident detection signal output from accident detection unit 110 .
  • light color change unit 130 proceeds to the light color change process (step ST132).
  • a control section (not shown) in the lighting control device 100 determines whether to end the lighting control process (step ST133). For example, when receiving a command to stop processing from the outside, the control unit determines to end the lighting control processing. If the lighting control device 100 determines not to end the lighting control process ("NO" in step ST133), it repeats the light color changing process (step ST132). When the lighting control device 100 determines to end the lighting control process (“YES” in step ST133), the lighting control device 100 ends the lighting control process (end of the lighting control process in FIG. 7).
  • the light color changing unit 130 starts the light color changing process (“start light color changing process” in FIG. 8).
  • the biological information type selection section 131 in the light color changing section 130 selects the type of biological information to be acquired (step ST132-1).
  • the light color adjusting section 132 in the light color changing section 130 adjusts the light color of the lamp body 410 according to the type of biometric information (step ST132-2).
  • a control unit determines whether or not all types of biometric information to be acquired have been selected (step ST132-3). When the control unit (not shown) determines that all types of biological information to be acquired have not been selected (step ST132-3 "NO"), the control unit controls to repeat the process from step ST132-1. When the control unit (not shown) determines that all the types of biological information to be acquired have not been selected (step ST132-3 “YES”), the control unit controls to end the light color change process (FIG. 8). (“end of light color change processing”).
  • the biometric information acquisition device 200 starts the biometric information acquisition process (“Start biometric information acquisition process” in FIG. 9). For example, when receiving an accident detection signal from the accident determination unit 112 or receiving a captured image from the imaging device 320, the biometric information acquisition device 200 starts biometric information acquisition processing.
  • the body part identifying section 220 acquires the captured image captured by the imaging device 320 (step ST141).
  • Body part identification section 220 identifies the position of the body part using the captured image (step ST142).
  • Body part identification section 220 extracts and outputs an image in a format that allows identification of the body part (step ST143).
  • Biological part identifying section 220 acquires the type of biological information (step ST144).
  • the biometric information acquisition unit 230 acquires biometric information using the type of biometric information and the image of the body part (step ST145).
  • the communication control section 240 causes the communication device to transmit the biometric information acquired by the biometric information acquisition section 230 (step ST146).
  • a control unit (not shown) determines whether the biometric information acquisition process is finished (step ST147). When the control unit determines that the biometric information acquisition process will not end (step ST147 "NO"), it controls to repeat the process from step ST144. When the control unit determines that the biometric information acquisition process is to end (“YES” in step ST147), it controls to end the biometric information acquisition process (“End of biometric information acquisition process” in FIG. 9).
  • the lighting control device 100 and the biological information acquisition device 200 are integrally configured.
  • the lighting control device 100 may be configured to include part or all of the configuration of the biological information acquisition device 200 described above.
  • the biological information acquisition device 200 may be configured to include a part or all of the configuration of the lighting control device 100 described above.
  • the lighting control device includes an accident detection unit that detects an accident of the vehicle using a signal output by a sensor mounted on the vehicle, and when an accident is detected by the accident detection unit, a visible light is detected.
  • a lamp control unit that commands the lamps that illuminate the interior of the vehicle with light to turn on the lights; It was configured to have As a result, it is possible to provide an illumination control device that controls illumination so that biometric information can be obtained regardless of imaging conditions when a vehicle accident occurs.
  • the light color changing unit determines the type of biometric information to be obtained by referring to type information indicating the type of biometric information stored in advance.
  • a biometric information type selection unit for selection, and a light color adjustment unit for adjusting the light color of the lamp according to the biometric information type selected by the biometric information type selection unit are provided.
  • the light color adjustment unit adjusts the wavelength of the light color to be 490 nm or more and 570 nm or less when the biometric information type selected by the biometric information type selection unit is pulse. , configured. As a result, it is possible to provide an illumination control device capable of accurately acquiring a pulse.
  • the imaging control unit is configured to instruct the imaging device to perform imaging using infrared rays until an accident is detected by the accident detection unit.
  • the imaging control unit is configured to instruct the imaging device to perform imaging using infrared rays until an accident is detected by the accident detection unit.
  • the biological information acquisition device includes an accident detection unit that detects an accident of the vehicle using a signal output by a sensor mounted on the vehicle, and when an accident is detected by the accident detection unit, A lamp controller that commands the lamps that illuminate the interior of the vehicle with visible light to turn on, and a lamp color changer that changes the lamp color when an accident is detected by the accident detector.
  • an imaging control unit that commands an imaging device that uses visible light to capture an image of the interior of the vehicle; a living body part specifying unit for specifying the position of a living body part in a vehicle interior; a living body information acquiring part for acquiring living body information using a captured image including the living body part specified by the living body part specifying part; and a communication control unit configured to transmit the biometric information acquired by the information acquisition unit to the communication device.
  • the lighting control method includes an accident detection step in which an accident detection unit detects an accident of the vehicle using a signal output by a sensor mounted on the vehicle; a lamp control step in which the lamp control unit instructs the lamps that illuminate the interior of the vehicle with visible light to turn on;
  • the changing unit includes a lamp color changing step for changing the lamp color of the lamp body.
  • Embodiment 2 is a form in which a lighting control device includes an imaging control unit 140 and a living body part identifying part 150, and further adjusts light distribution with respect to the position of the living body part.
  • FIG. 10 is a block diagram showing the configuration of a lighting control device 100A and related peripheral devices according to Embodiment 2. As shown in FIG. A lighting control device 100A shown in FIG. The lighting control device 100A also includes a light distribution adjustment unit.
  • the imaging control unit 140 has the same configuration as the imaging control unit 210 shown in FIG. 1, and detailed description thereof will be omitted.
  • the imaging device 320 receives a command from the imaging control unit 140 of the lighting control device 100A and images the interior of the vehicle.
  • a disabled signal is output to the light distribution adjustment unit.
  • the body part identifying section 150 estimates the position of the part of the living body.
  • the living body part identification unit 150 adjusts the light distribution so that the brightness of the estimated position of the living body part is within the range between the first threshold and the second threshold.
  • the biological part identifying unit 150 changes the first threshold value or the second threshold value.
  • the light distribution adjustment unit 160 estimates the position of the body part in the vehicle interior, and adjusts the light distribution for the estimated position of the body part.
  • the lamp body 410 is instructed to do so.
  • light distribution adjustment section 160 receives a non-specification signal from body part identification section 150, it estimates the position of the body part in the vehicle interior.
  • the light distribution adjustment unit 160 outputs a command signal for instructing the lamp body 410 to adjust the light distribution with respect to the estimated position of the part of the living body.
  • the light distribution adjustment unit 160 uses a predetermined method such as detection of the skeletal structure of the occupant so that the brightness of a part of the body where the part is thought to exist is within a predetermined range. Adjusts the output visible light distribution.
  • the light distribution adjustment performed by the light distribution adjustment unit 160 includes at least one of the following three.
  • Selection of lamp 410 Select a lamp to be lit or to be extinguished from a plurality of lamps that illuminate the interior of the vehicle.
  • Selection of a light source inside the lamp body A light source to be lit is selected from among a plurality of light sources (for example, LEDs) inside the lamp body.
  • Dimming of light source Dimming the brightness of the light source.
  • the adjustment of the light distribution is determined in advance, for example, based on the result of a dimming simulation based on the combination of (1), (2), and (3) performed during optical design.
  • the above (1), (2), and (3) are determined by referring to the simulation results according to the position information and the brightness of the place where the body part exists or is estimated to exist.
  • the light distribution adjustment unit 160 adjusts the light distribution according to the determination result so that the light distribution that hits the part is reduced, or Increase the light distribution behind the part. As a result, the brightness of the part is set within the range between the first threshold and the second threshold. Further, for example, if the brightness of the site specified by the living body site identifying unit 150 is below the threshold and is too dark, the light distribution adjusting unit 160 adjusts the light distribution to increase the light distribution that hits the site according to the determination result.
  • FIG. 11 is a flowchart illustrating an example of lighting control processing according to the second embodiment.
  • the lighting control processing is started (“Lighting control processing start” in FIG. 11).
  • the lamp control unit 120 waits until it receives the accident detection signal output from the accident detection unit 110 .
  • the lamp control unit 120 instructs the lamp 410 to turn on the lamp (step ST231).
  • Light color changing unit 130 waits until it receives an accident detection signal output from accident detection unit 110 .
  • light color change unit 130 Upon receiving the accident detection signal output from accident detection unit 110, light color change unit 130 proceeds to the light color change process (step ST232) or the light distribution adjustment process (step ST233).
  • the control section (not shown) in the lighting control device 100A determines whether to end the lighting control process (step ST234). For example, when receiving a command to stop processing from the outside, the control unit determines to end the lighting control processing. If the lighting control device 100A determines not to end the lighting control process ("NO" in step ST234), it repeats the light color change process (step ST232) or the light distribution adjustment process (step ST233).
  • the lighting control device 100A determines to end the lighting control process (“YES” in step ST234), the lighting control device 100A ends the lighting control process ("END LIGHTING CONTROL PROCESS" in FIG. 11).
  • step ST232 The details of the lamp color change process (step ST232) are the same as in FIG. 8, so the description is omitted.
  • FIG. 12 is a flowchart showing an example of the light distribution adjustment process shown in FIG. 11;
  • the lighting control device 100A starts the light distribution adjustment process (“start light distribution adjustment process” in FIG. 12).
  • the body part identifying section 150 acquires the image captured by the imaging device 320 (step ST233-1).
  • the living body part identification section 150 identifies the position of each part of the living body using the acquired image (step ST233-2).
  • the body part identifying section 150 determines whether the position of the body part has been identified (step ST233-3). When the living body part specifying section 150 determines that the position of the living body part cannot be specified (step ST233-3 "NO"), it estimates the position of the living body part (step ST233-4).
  • step ST233-5 light distribution adjustment section 160 adjusts the light distribution so that the brightness at the estimated position is within the range between the first threshold and the second threshold.
  • body part identification section 150 determines that the position of the body part has been identified (“YES” in step ST233-3)
  • body part identification section 150 outputs an image in a format that allows identification of the body part to biological information acquisition section 230 (step ST233). -6).
  • the body part identification section 150 determines whether or not the body information acquisition section 230 has acquired the body information (step ST233-7).
  • step ST233-7 determines that the biometric information cannot be acquired (step ST233-7 "NO")
  • the biometric part identification section 150 changes the first threshold value or the second threshold value, and proceeds to step ST233-5.
  • step ST233-5 is executed, the processing is repeated from step ST233-1. If the biometric information acquiring unit 230 determines that the biometric information has been acquired (step ST233-7 “YES”), the light distribution adjustment process is terminated (“end of light distribution adjustment process” in FIG. 12).
  • the illumination control device 100A and the biological information acquisition device 200A are integrally configured.
  • the illumination control device 100A may be configured to include a part or all of the configuration of the biological information acquisition device 200A.
  • the biological information acquisition device 200A may be configured to include a part or all of the configuration of the lighting control device 100A.
  • the lighting control device further includes an imaging control unit that, when an accident is detected by the accident detection unit, commands an imaging device that uses visible light to capture an image of the interior of the vehicle; a living body part identifying unit that identifies the position of a living body part in the vehicle compartment using a captured image captured in accordance with a command; a light distribution adjusting unit that estimates the position of the part of the living body and instructs the lamp body to adjust the light distribution for the estimated position of the part of the living body.
  • an illumination control device that controls illumination so that biometric information can be obtained with higher accuracy regardless of imaging conditions when a vehicle accident occurs.
  • the biological information acquiring apparatus estimates the position of the part of the living body in the vehicle compartment when the part specifying unit cannot specify the position of the part of the living body in the vehicle compartment, and a light distribution adjusting unit for instructing the lamp body to adjust the light distribution for the light.
  • a biological information acquisition device that can obtain biological information with higher accuracy regardless of imaging conditions when a vehicle accident occurs.
  • Embodiment 3 is a mode in which illumination is performed with the influence of external light removed.
  • FIG. 13 is a block diagram showing the configuration of a lighting control device 100B and related peripheral devices according to the third embodiment. In the lighting control device 100B shown in FIG. 13, the lighting control device 100A shown in FIG. Among the configurations similar to those of the lighting control device A shown in FIG. 11, descriptions of the contents that have already been described will be omitted.
  • the external light color identification unit 133 identifies the color of the external light incident on the vehicle interior using the captured image captured by the imaging device 320 and the light color information indicating the light color of the lamp body 410A.
  • the light color adjustment unit 132 changes the light color of the lamp 410A from the color indicated by the light color information to the color of the external light. Adjust so that the color is the same as the
  • FIG. 14 is a flowchart showing an example of lamp color change processing according to the third embodiment.
  • the light color changing unit 130 starts the light color changing process (“start of light color changing process” in FIG. 14).
  • the biological information type selection section 131 in the light color changing section 130 selects the type of biological information to be acquired (step ST332-1).
  • the ambient light color identification unit 133 obtains the captured image and identifies the ambient light color using the obtained image (step ST332-2).
  • the lighting color of the lamp body 410 is determined according to the type of biological information, and the ambient light color is subtracted from the determined lighting color for adjustment (step ST332-3).
  • the control unit (not shown) determines whether all types of biometric information to be acquired have been selected (step ST332-4).
  • step ST332-4 determines that all types of biometric information to be acquired have not been selected (step ST332-4 "NO"), the control unit controls to repeat the process from step ST332-1.
  • step ST332-4 determines that all types of biological information to be acquired have not been selected (step ST332-4 "YES"), the control unit controls to end the light color change process (Fig. 14). (“end of light color change processing”).
  • the light color changing unit further uses the captured image captured by the imaging device and the light color information indicating the light color of the lamp body to An external light color specifying unit for specifying a color is further provided, and the light color adjusting unit sets the light color of the lamp body to the color of the lamp when the biometric information type selected by the biometric information type selecting unit is bloodshed or complexion. The color is adjusted by subtracting the color of the outside light from the color indicated by the information.
  • an illumination control device capable of illuminating the part of the living body so that it can be easily imaged.
  • the present disclosure can freely combine each embodiment, modify any component of each embodiment, or omit any component of each embodiment. .
  • the lighting control device according to the present disclosure is suitable for use as a vehicle lighting control device or the like.
  • 100, 100A, 100B Lighting control device 110 Accident detection unit, 111 Vehicle information acquisition unit, 112 Accident determination unit, 120 Lamp control unit, 130, 130B Light color change unit, 131 Biological information type selection unit, 132 Light color adjustment 133 External light color identification unit 140 Imaging control unit 150 Biological part identification unit 200, 200A Biological information acquisition device 210 Imaging control unit 220 Biological part identification unit 230 Biological information acquisition unit 240 Communication control unit 300 Information source device, 310 Vehicle sensor, 320 Imaging device, 400, 400A Output device, 410, 410A Lamp, 500 Communication device, 510 Communication unit, 600 First data, 700 Second data, 1000 Processing circuit, 1001 Processor, 1002 memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Arrangements Of Lighting Devices For Vehicle Interiors, Mounting And Supporting Thereof, Circuits Therefore (AREA)

Abstract

照明制御装置は、車両に搭載されたセンサが出力した信号を用いて当該車両の事故を検知する事故検知部と、事故検知部によって事故が検知された場合、可視光を用いて車室内を照明する灯体に対し、灯火するよう指令する灯体制御部と、事故検知部によって事故が検知された場合、灯体の灯火色を変化させる灯火色変更部と、を備えた。

Description

照明制御装置、生体情報取得装置、および、照明制御方法
 本開示は、車室内への照明を制御する照明制御技術に関する。
 従来、車室内を撮像する際に照明装置を点灯させる技術がある。
 例えば、特許文献1には、車両事故発生時に乗員を撮像し、撮像した映像を緊急センターへ送信する緊急通報装置において、車室内の明暗に応じて、室内灯あるいはあらかじめカメラに取り付けた撮像用ライトといった照明装置を点灯する技術が開示されている。特許文献1に記載された従来技術においては、車両事故発生時に照明装置を点灯することにより、暗い場合にも撮像できる。撮像された映像は、緊急センターにおいて、乗員の状況を視認するために用いられる。
特開2003-306106号公報
 特許文献1に記載された従来技術においては、照明装置を単に点灯し、一定の色の光を用いて照明するため、車両事故発生時における撮像条件によっては、撮像画像から得られない生体情報がある、という課題があった。
 本開示は、上記課題を解決するもので、車両事故発生時の撮像条件によらないで生体情報が得られるように、照明を制御する照明制御技術を提供することを目的とする。
 本開示の照明制御装置は、車両に搭載されたセンサが出力した信号を用いて当該車両の事故を検知する事故検知部と、事故検知部によって事故が検知された場合、可視光を用いて車室内を照明する灯体に対し、灯火するよう指令する灯体制御部と、事故検知部によって事故が検知された場合、灯体の灯火色を変化させる灯火色変更部と、を備えた。
 本開示によれば、車両事故発生時の撮像条件によらないで生体情報が得られるように、照明を制御する照明制御装置を提供できる、という効果を奏する。
実施の形態1に係る照明制御装置の構成およびこれに関連する周辺装置を示すブロック図である。 生体情報の種別と灯火色との対応関係の一例を示す図である。 生体情報の種別と生体の部位との対応関係の一例を示す図である。 本開示に係る照明制御装置のハードウェア構成の第1の例を示す図である。 本開示に係る照明制御装置のハードウェア構成の第2の例を示す図である。 本開示における照明制御装置の主な処理と生体情報取得装置の主な処理を示すフローチャートである。 図6に示す照明制御処理の一例を示すフローチャートである。 図7に示す灯火色変更処理の一例を示すフローチャートである。 図6に示す生体情報取得処理の一例を示すフローチャートである。 実施の形態2に係る照明制御装置の構成およびこれに関連する周辺装置を示すブロック図である。 実施の形態2に係る照明制御処理の一例を示すフローチャートである。 図11に示す配光調整処理の一例を示すフローチャートである。 実施の形態3に係る照明制御装置の構成およびこれに関連する周辺装置を示すブロック図である。 実施の形態3に係る灯火色変更処理の一例を示すフローチャートである。
 以下、本開示をより詳細に説明するために、本開示を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る照明制御装置100の構成およびこれに関連する周辺装置を示すブロック図である。
 照明制御装置100は、車室内を照明する灯体410に対し、灯火および灯火色を指令することで、車室内の照明を制御するものである。本開示の照明制御装置100は、特に、車両の事故が発生した場合に灯体410の灯火色を変化させるよう指令する。
 図1に示す照明制御装置100は、生体情報取得装置200、情報源装置300、および、出力装置400と通信可能に接続されている。
 照明制御装置100の詳細な構成の例は、後述する。
 生体情報取得装置200は、車室内を撮像した画像である撮像画像を用いて生体情報を取得し、取得した生体情報を出力する。
 本開示における生体情報は、撮像画像を用いて取得可能な生体の情報であり、例えば、脈拍、顔色、流血状態、呼吸、などである。
 図1に示す生体情報取得装置200は、照明制御装置100、情報源装置300、および、通信装置と通信可能に接続されている。
 生体情報取得装置200の詳細な構成の例は、後述する。
 情報源装置300は、照明制御装置100または生体情報取得装置200が処理に用いる情報を提供する装置である。
 具体的には、情報源装置300は、車両に搭載された車両センサ310および撮像装置320である。
 車両センサ310は、車両情報に関する信号を出力する。
 本開示における車両情報は、車両の事故、車両に関する状態、および、車室内の状況などを判定できるような情報である。
 車両情報は、例えば、車速、加速度、車両位置情報、シートセンサ情報、光センサ情報、パーキングブレーキ情報、車両装置故障通知情報、または、エアバッグ稼働通知情報である。
 車両センサ310は、上記車両情報に関する信号を出力する複数のセンサで構成される。
 なお、車両センサ310は、車両情報に関する信号を直接送信せずに、図示しないECU(Electronic Control Unit)を介して車両情報に関する信号を送信するものであってもよい。ECUは、車両の各主動作を制御する制御ユニットである。ECUは、図示しないワイヤハーネスによって照明制御装置100に接続されており、CAN(Controller Area Network)規格に基づく通信方式で、照明制御装置100との間で通信自在になっている。
 撮像装置320は、車室内を撮像できる位置に配置されており、車室内を撮像する。
 撮像装置320は、可視光を電気信号に変換する第1の撮像素子を有し、第1の撮像素子が可視光を受けることで車室内を撮像した画像である、可視光線撮像画像を出力する。可視光線撮像画像は、以下、単に「撮像画像」と記載する。
 本開示における撮像装置320は、撮像制御部210からの指令を受けて車室内を撮像する。
 実施の形態1において、撮像装置320は、具体的には、車両の事故が発生した場合に、生体情報取得装置200の撮像制御部210からの指令を受けて車室内を撮像する。
 ここで、撮像装置320は、例えばDMS(Driver Monitoring System)に含まれるカメラを用いてもよい。
 この場合、撮像装置320は、車室内の運転者を含む乗員を撮影する。
 DMSに含まれるカメラを用いた場合、撮像装置320は、赤外線を電気信号に変換する第2の撮像素子を有し、第2の撮像素子が赤外線を受けることで車室内を撮像した画像である、赤外線撮像画像を出力する機能を備えていてもよい。赤外線撮像画像は、以下、可視光線撮像画像である撮像画像と区別するため「赤外線画像」と記載する。
 この場合、撮像装置320は、車両に事故が発生していない状態において赤外線を撮像して赤外線画像を出力し、車両に事故が発生すると、撮像制御部210から指令を受けることにより可視光の撮像に切り替えて、撮像画像を出力する。
 なお、撮像装置320は、画像(撮像画像または赤外線画像)を直接送信せずに、図示しないECU(Electronic Control Unit)を介して画像を送信するものであってもよい。ECUは、車両の各主動作を制御する制御ユニットである。ECUは、図示しないワイヤハーネスによって生体情報取得装置200または照明制御装置100に接続されており、CAN(Controller Area Network)規格に基づく通信方式で、生体情報取得装置200または照明制御装置100との間で通信自在になっている。
 出力装置400は、本開示の照明制御装置100が指令する制御対象の装置であり、具体的には灯体410である。
 灯体410は、例えば車室内用の照明装置に備えられ、可視光を用いて車室内を照明する。
 灯体410は、例えば、ルームランプ、マップランプ、フットランプ、サイドステップランプ、ドアランプ、および、アンビエントランプである。
 ルームランプは、車室内全体を照らす灯体410であり、例えば車室内の天井部分に設けられている。
 マップランプは、例えば運転席や助手席向けに設置されている灯体410である。
 フットランプは、乗員の足元を照らすように設置されている灯体410である。
 サイドステップランプは、サイドステップに組み込まれている灯体410である。
 ドアランプは、ドアに組み込まれている灯体410である。
 アンビエントランプは、ダッシュボード、センターコンソール、サイドドアの縁などに組み込まれている装飾灯体である。
 本開示における灯体410は、上記灯体の全部であっても、上記灯体のうちの一部であってもよい。
 図1に示す灯体410は、照明制御装置100からの指令に応じて灯火状態または非灯火状態が切り換わる。
 灯体410は、また、照明制御装置100からの指令に応じて灯火色が変化する。
 具体的には、灯体410は、例えば、複数のLED(Light Emitting Diode)を集合体にした光源を有する。
 灯体410における複数のLEDは、例えば、3つのLEDそれぞれが互いに異なる波長の光(例えば赤、緑、青といった光の3原色(R・G・B))を発するものであり、照明制御装置100からの指令に応じてそれぞれの光の波長成分または光の強度の割合を変化させることができる。
 灯体410にLEDを用いた場合、例えばLED以外のランプ(例えばハロゲンランプ)を用いた場合に比べて消費電力を少なくできるとともに長寿命である。また、細やかな照明制御が可能になる。
 本開示における照明制御には、灯火色の制御、明るさの制御、または、配光の制御が含まれる。
 灯火色の制御は、例えば、RGBの各色の明るさを調整し組み合わせることで様々な色を出力させるようにすることである。
 配光の制御には、光の照射範囲の制御、または、光の指向性の制御を含む。
 配光の制御は、例えば、灯体410内の複数のLEDのうち全てを点灯せず一部だけを点灯するといった方法により実現できる。
 通信装置500は、車両の外部との通信を行う。
 通信装置500は、例えば、複数の車両からの情報を収集する外部装置と無線通信を行う。
 図1に示す通信装置500は、車両情報取得部111が車両センサ310から取得した車両情報と、生体情報取得装置200が取得した生体情報とを、通信部510を介して図示しないサーバへ送信する形態である。
 照明制御装置100の詳細を説明する。
 照明制御装置100は、事故検知部110と、灯体制御部120と、灯火色変更部130とを備える。
 また、照明制御装置100は、上記構成部以外に、図示しない制御部と、図示しない記憶部とを備えている。図示しない制御部は、例えば、各構成部を含む装置全体を制御する。図示しない記憶部は、例えば、各構成部の処理で用いる情報、または、処理において生成される情報を記憶する。
 事故検知部110は、車両に搭載された車両センサ310が出力した信号を用いて当該車両の事故を検知する。
 車両センサ310からの信号を用いて車両の事故を検知する方法は、車速、加速度、車両位置情報、シートセンサ情報、光センサ情報、パーキングブレーキ情報、車両装置故障通知情報、または、エアバッグ稼働通知情報に基づき、既に知られている技術を用いた方法により実現できる。
 事故検知部110は、車両の事故を検知した場合、事故が発生したことを示す信号である事故発生信号を出力する。
 事故検知部110は、車両の事故を検知した場合、車両センサ310が出力した信号に示される車両情報を出力する。
 事故検知部110の詳細な構成の例は、後述する。
 灯体制御部120は、事故検知部110によって事故が検知された場合、可視光を用いて車室内を照明する灯体410に対し、灯火するよう指令する。
 具体的には、灯体制御部120は、事故検知部110から事故の発生を検知したことを示す信号である事故検知信号を受けると、灯体410に対し、灯火するよう指令する信号である灯火指令信号を出力する。
 灯火色変更部130は、事故検知部110によって事故が検知された場合、灯体410の灯火色を変化させる。
 図2は、生体情報の種別と灯火色との対応関係の一例を示す図である。
 灯火色変更部130は、例えば、図2に示すような第1のデータ600を参照して処理を実行する。第1のデータ600は、生体情報の種別と灯火色との対応関係を示す情報であり、図示しない記憶部に予め記憶されている。
 灯火色変更部130は、第1のデータ600を参照し、生体情報の種別を選択して、灯火色を決定する。灯火色変更部130は、決定した灯火色になるように灯体410の灯火色を変更させる。
 灯火色変更部130の詳細な構成の例は、後述する。
 事故検知部110の詳細な構成の具体例を説明する。
 事故検知部110は、車両情報取得部111と、事故判定部112と、を備える。
 車両情報取得部111は、車両センサ310から出力された信号を取得する。
 車両情報取得部111は、取得した信号を用いて車両情報を取得し、車両情報を事故判定部112へ出力する。また、車両情報取得部111は、車両情報を通信制御部240へ出力する。
 事故判定部112は、車両情報を用いて事故の発生を判定する。事故判定部112は、事故が発生したことを判定すると、事故の発生を検知したことを示す信号である事故検知信号を出力する。
 事故判定部112は、事故検知信号とともに、判定に用いた車両情報を出力してもよい。
 事故判定部112は、車両情報を用いて事故の種類を判定してもよい。この判定を実行する事故判定部112は、判定した事故の種類を示す事故種類情報を出力する。
 灯火色変更部130の詳細な構成の具体例を説明する。
 灯火色変更部130は、生体情報種別選択部131と、灯火色調整部132と、を備える。
 生体情報種別選択部131は、事故検知部110によって事故が検知された場合、予め記憶された生体情報の種別を示す種別情報を参照して取得するべき生体情報の種別を選択する。
 具体的には、生体情報種別選択部131は、例えば、事故検知部110から事故検知信号を受けると、種別情報を参照して、取得するべき生体情報の種別を順に選択する。
 あるいは、生体情報種別選択部131は、例えば、事故検知部110から事故検知信号を受けると、種別情報を参照して、取得するべき生体情報の種別を全て選択する。
 生体情報種別選択部131は、選択した種別を示す情報を灯火色調整部132へ送る。また、生体情報種別選択部131は、選択した種別を示す情報を後述する生体部位特定部220へ送る。
 灯火色調整部132は、生体情報種別選択部131によって選択された生体情報の種別に応じて灯体410の灯火色を調整する。
 灯火色調整部132は、例えば、図2に示す第1のデータ600を参照して、生体情報の種別に応じて灯体410の灯火色を決定し、灯体410に対し、決定した灯火色で灯火するよう指令する指令信号を送信する。
 灯火色調整部132は、例えば、生体情報種別選択部131によって選択された生体情報の種別が脈拍である場合、灯火色の波長が490nm以上570nm以下になるよう調整する。これにより、灯火色はいわゆる緑色になり、灯体410が緑色の光で生体を照射する。
 また、灯火色調整部132は、例えば、生体情報種別選択部131によって選択された生体情報の種別が顔色である場合、灯火色が白色になるよう調整する。例えば、灯体410に対し、いわゆる全灯を指令する。これにより、灯火色はいわゆる白色になり、灯体410が白色の光で生体を照射する。
 生体情報取得装置200の詳細な構成の具体例を説明する。
 図1に示す生体情報取得装置200は、撮像制御部210と、生体部位特定部220と、生体情報取得部230と、通信制御部240と、を備える。
 また、生体情報取得装置200は、上記構成部以外に、図示しない制御部と、図示しない記憶部とを備えている。図示しない制御部は、例えば、各構成部を含む装置全体を制御する。図示しない記憶部は、例えば、各構成部の処理で用いる情報、または、処理において生成される情報を記憶する。
 撮像制御部210は、車両の事故が発生すると、撮像装置320に対し、撮像を行うよう指令する。
 具体的には、撮像制御部210は、事故検知部110によって事故が検知された場合、可視光を受けることで撮像する撮像装置320に対し車室内を撮像させるよう指令する。
 ここで、撮像装置320が可視光線を用いた撮像と赤外線を用いた撮像とを切り替えられる構成である場合、撮像制御部210は、事故検知部110によって事故が検知されていない状態において、撮像装置320に対し、赤外線を用いた撮像を行うよう指令し、事故検知部110によって事故が検知された場合、撮像装置320に対し、可視光線を用いた撮像を行うよう指令する。すなわち、撮像制御部210は、事故検知部110によって事故が検知されるまで、撮像装置320に対し、赤外線を用いた撮像を行うよう指令する。
 生体部位特定部220は、撮像画像を用いて、車室内における生体の部位の位置を特定する。
 具体的には、生体部位特定部220は、撮像制御部210の指令にしたがって撮像された撮像画像を解析処理して、車室内における生体の部位の位置を特定する。
 また、生体部位特定部220は、生体の部位を特定できる形式で画像を抽出して出力する。具体的には、例えば、生体部位特定部220は、特定した部位を示す情報とともに、特定した部位の撮像画像を出力する。
 図3は、生体情報の種別と生体の部位との対応関係の一例を示す図である。
 生体部位特定部220は、例えば、図3に示すような第2のデータ700を有する。第2のデータ700は、生体情報の種別と生体の部位との対応関係を示す情報である。
 生体部位特定部220は、第2のデータ700を参照し、灯火色変更部130における生体情報種別選択部131が選択した生体情報の種別に対応する生体の部位の撮像画像を抽出して出力する。
 生体部位特定部220が特定する生体の部位は、例えば、頭部、頸部、胸部、腹部、肩部、腕部であるが、撮像画像から特定できる部位であればよく、上記部位に限定しない。
 なお、頭部または頸部は、損傷が死亡につながる可能性が最も高い部位であると考えられ、素肌が露出している割合が高い部位である。また、胸部または腹部は、損傷が死亡につながる可能性が高い部位であると考えられる。
 なお、生体部位特定部220による部位の特定においては、生体情報の種別に応じた全ての部位の位置を特定してもよく、順に部位を特定してもよい。生体の部位の特定は予め定められたすべての部位をまとめて特定してもよいし、生体情報種別選択部131が選択した生体情報の種別ごとに分けて特定してもよい。例えば、頭部の生体情報を取得するのであれば頭部の部位だけを特定し、頭部の生体情報を取得した後に、胸部の生体情報を取得するために胸部の部位だけを特定してもよい。
 ここで、生体部位特定部220における生体部位を特定する方法の一例を説明する。
 乗員の体の部位を特定するにあたり、まず、生体部位特定部220は、生体の部位を特定しようとする対象である乗員の検知をおこなう。乗員の検知は、撮像画像より乗員の骨格検知や顔検知等の予め定められたルールや機械学習を用いて行う。ただし、事故による被害で乗員が通常運転時と異なる姿勢となり、検知しにくい状況となっていることが考えられる。そのため、車両センサ310から取得した車両情報を用いて乗員の検知を行ってもよいし、事故発生前の乗員の検知結果を使用してもよい。例えば、事故発生前に撮像している赤外光画像の骨格検知や顔検知の結果を用いて判断したり、シートセンサ情報が閾値以上で乗員がシートにいると判断したりする等で判断できる。また、車速や加速度が一定の閾値以上である、または、パーキングブレーキ情報よりパーキングブレーキオフであるといった車両が走行中の時の乗員検知情報を用いることで、さらに乗員の検知精度を高めてもよい。
 生体情報取得部230は、部位特定部により特定された生体の部位を含む撮像画像を用いて、生体情報を取得する。
 生体情報取得部230は、生体部位特定部220から出力された撮像画像を受ける。
 生体情報取得部230は、撮像画像を解析処理し、生体情報を取得する。
 生体情報取得部230は、生体情報を出力する。
 生体情報は、例えば、以下のように取得される。
 ・流血、顔色:撮像画像中の特定された体の部位の色や形状が予め定められたモデルと一致しているか、または機械学習結果から推定する。
 ・脈拍:撮影画像中の乗員の血流から生じると考えられる顔表面の輝度変化を捉えて取得する。血液中に含まれるヘモグロビンは緑色の光を吸収するため、輝度変化を捉えやすい緑色の波長に灯火色を調整することにより情報の精度が高くなる。
 ・呼吸:撮像画像中の特定された体の部位(胸部、肩、腹部など)の動きから特定する。
 通信制御部240は、生体情報取得部230によって取得された生体情報を通信装置に送信させる。
 通信制御部240は、生体情報取得部230から出力された生体情報を受ける。
 通信制御部240は、生体情報とともに、生体情報を通信装置に送信させるよう指令する信号である指令信号を出力する。
 また、通信制御部240は、車両情報取得部111から車両情報を受けた場合、車両情報も併せて送信させる。
 ここで、本開示を実現するハードウェア構成の例を説明する。
 図4は、本開示に係る照明制御装置100のハードウェア構成および周辺装置の第1の例を示す図である。図4において、処理回路1000は、情報源装置300と出力装置400と通信装置500に接続している。処理回路1000は、情報源装置300と出力装置400と通信装置500との間で、信号の送信および受信が可能であり、また、情報の送信および受信が可能である。
 図5は、本開示に係る照明制御装置100のハードウェア構成および周辺装置の第2の例を示す図である。図5において、プロセッサ1001およびメモリ1002は情報源装置300と出力装置400と通信装置500とに接続している。プロセッサ1001は、情報源装置300と出力装置400と通信装置500との間で、信号の送信および受信が可能であり、また、情報の送信および受信が可能である。
 照明制御装置100または生体情報取得装置200における各機能は、処理回路によって実現される。
 具体的には、事故検知部110、車両情報取得部111、事故判定部112、灯体制御部120、灯火色変更部130または実施の形態3に後述する灯火色変更部130B、生体情報種別選択部131、灯火色調整部132、実施の形態3に後述する外光色特定部133、実施の形態2および実施の形態3に後述する撮像制御部140、実施の形態2および実施の形態3に後述する生体部位特定部150、生体情報取得装置200または実施の形態2および実施の形態3に後述する生体情報取得装置200A、撮像制御部210、生体部位特定部220、生体情報取得部230、通信制御部240、の各機能は、処理回路によって実現される。
 すなわち、照明制御装置100または生体情報取得装置200は、図6に示すステップST110からステップST140までの一連の処理(図7から図9、図11、図12、または、図14の各処理)を実行するための処理回路を備える。処理回路は、専用のハードウェアであっても、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
 処理回路が図4に示す専用のハードウェアである場合、処理回路1000は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)またはこれらを組み合わせたものが該当する。
 事故検知部110、車両情報取得部111、事故判定部112、灯体制御部120、灯火色変更部130または実施の形態3に後述する灯火色変更部130B、生体情報種別選択部131、灯火色調整部132、実施の形態3に後述する外光色特定部133、実施の形態2および実施の形態3に後述する撮像制御部140、実施の形態2および実施の形態3に後述する生体部位特定部150、生体情報取得装置200または実施の形態2および実施の形態3に後述する生体情報取得装置200A、撮像制御部210、生体部位特定部220、生体情報取得部230、通信制御部240、のそれぞれの機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。
 処理回路が図5に示すプロセッサ1001である場合、事故検知部110、車両情報取得部111、事故判定部112、灯体制御部120、灯火色変更部130または実施の形態3に後述する灯火色変更部130B、生体情報種別選択部131、灯火色調整部132、実施の形態3に後述する外光色特定部133、実施の形態2および実施の形態3に後述する撮像制御部140、実施の形態2および実施の形態3に後述する生体部位特定部150、生体情報取得装置200または実施の形態2および実施の形態3に後述する生体情報取得装置200A、撮像制御部210、生体部位特定部220、生体情報取得部230、通信制御部240、の各機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ1002に記憶される。
 プロセッサ1001は、メモリ1002に記憶されたプログラムを読み出して実行することにより各部の機能を実現する。すなわち、照明制御装置100は、プロセッサ1001によって実行されるとき、前述した一連の処理が結果的に実行されるプログラムを記憶するためのメモリ1002を備える。これらのプログラムは、事故検知部110、車両情報取得部111、事故判定部112、灯体制御部120、灯火色変更部130または実施の形態3に後述する灯火色変更部130B、生体情報種別選択部131、灯火色調整部132、実施の形態3に後述する外光色特定部133、実施の形態2および実施の形態3に後述する撮像制御部140、実施の形態2および実施の形態3に後述する生体部位特定部150、生体情報取得装置200または実施の形態2および実施の形態3に後述する生体情報取得装置200A、撮像制御部210、生体部位特定部220、生体情報取得部230、通信制御部240、の各機構を実現するための手順または方法を、コンピュータに実行させるものである。
 メモリ1002には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
 事故検知部110、車両情報取得部111、事故判定部112、灯体制御部120、灯火色変更部130または実施の形態3に後述する灯火色変更部130B、生体情報種別選択部131、灯火色調整部132、実施の形態3に後述する外光色特定部133、実施の形態2および実施の形態3に後述する撮像制御部140、実施の形態2および実施の形態3に後述する生体部位特定部150、生体情報取得装置200または実施の形態2および実施の形態3に後述する生体情報取得装置200A、撮像制御部210、生体部位特定部220、生体情報取得部230、通信制御部240、の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、車両情報取得部111については、専用のハードウェアとしての処理回路1000がその機能を実現し、事故検知部110については、プロセッサ1001がメモリ1002に記憶されたプログラムを読み出して実行することで、その機能を実現してもよい。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって上記機能のそれぞれを実現することができる。
 本開示に係る処理を説明する。
 図6は、本開示における照明制御装置100の主な処理と生体情報取得装置200の主な処理を示すフローチャートである。
 図7は、図6に示す照明制御処理の一例を示すフローチャートである。
 図8は、図7に示す灯火色変更処理の一例を示すフローチャートである。
 図9は、図6に示す生体情報取得処理の一例を示すフローチャートである。
 照明制御装置100は、例えば、車両においてエンジンが始動されるタイミングで処理を開始する(図6の“開始”)。
 事故検知部110は、車両センサ310が出力した信号を取得するまで待機し、車両センサ310が出力した信号を取得する(ステップST110)と処理を開始する。
 事故検知部110は、取得した信号が示す車両情報を用いて事故の発生を判定し、事故が発生したと判定した場合に事故を検知する。
 具体的には、事故検知部110における車両情報取得部111は、車両センサ310から出力された信号を取得し、取得した信号が示す車両情報を事故判定部112へ送る。
 また、車両情報取得部111は、車両情報を通信制御部240へ送る。
 事故検知部110における事故判定部112は、車両情報を用いて事故の発生を判定する。
 事故判定部112は、事故が発生したことを判定した場合、灯体制御部120、生体情報種別選択部131、および、撮像制御部210それぞれへ、事故検知信号を出力する。
 事故検知部110は、事故を検知していない状態において(ステップST120“NO”)、ステップST110からの処理を繰り返す。
 事故検知部110が事故を検知した場合(ステップST120“YES”)、照明制御処理(ステップST130)および生体情報取得処理(ステップST140)を実行する。
 図1に示す構成においては、照明制御装置100が照明制御処理(ステップST130)を実行し、生体情報取得装置200が生体情報取得処理(ステップST140)を実行する。
 ステップST130の処理およびステップST140の処理が終了すると、処理を終了する(図6の“終了”)。
 照明制御処理(ステップST130)の詳細を説明する。
 照明制御装置100において、事故検知部110が事故検知信号を出力すると、照明制御処理を開始する(図7の照明制御処理開始)。
 灯体制御部120は、事故検知部110から出力された事故検知信号を受けるまで待機する。
 灯体制御部120は、事故検知部110から出力された事故検知信号を受けた場合、灯体410に灯火を指令する(ステップST131)。
 灯火色変更部130は、事故検知部110から出力された事故検知信号を受けるまで待機する。
 灯火色変更部130は、事故検知部110から出力された事故検知信号を受けると、灯火色変更処理(ステップST132)へ進む。
 灯火色変更部130が灯火色変更処理(ステップST132)を終了すると、照明制御装置100における図示しない制御部は、照明制御処理を終了するかを判断する(ステップST133)。
 制御部は、例えば、外部から処理を停止する指令を受けると、照明制御処理を終了すると判断する。
 照明制御装置100は、照明制御処理を終了しないと判断した場合(ステップST133“NO”)、灯火色変更処理(ステップST132)を繰り返す。
 照明制御装置100は、照明制御処理を終了すると判断した場合(ステップST133“YES”)、照明制御処理を終了する(図7の照明制御処理終了)。
 灯火色変更処理(ステップST132)の詳細を説明する。
 灯火色変更部130は、灯火色変更処理を開始する(図8の“灯火色変更処理開始”)
 灯火色変更部130における生体情報種別選択部131は、取得するべき生体情報の種別を選択する(ステップST132-1)。
 灯火色変更部130における灯火色調整部132は、生体情報の種別に応じて灯体410の灯火色を調整する(ステップST132-2)
 図示しない制御部は、取得するべき生体情報の種別をすべて選択済みであるかを判断する(ステップST132-3)。
 図示しない制御部が、取得するべき生体情報の種別をすべて選択済みではないと判断した場合(ステップST132-3“NO”)、制御部は、ステップST132-1の処理から繰り返すよう制御する。
 図示しない制御部が、取得するべき生体情報の種別をすべて選択済みではないと判断した場合(ステップST132-3“YES”)、制御部は、灯火色変更処理を終了するよう制御する(図8の“灯火色変更処理終了”)。
 生体情報取得処理(ステップST140)の詳細を説明する。
 生体情報取得装置200は、生体情報取得処理を開始する(図9の“生体情報取得処理開始”)。生体情報取得装置200は、例えば、事故判定部112から事故検知信号を受けた場合、あるいは、撮像装置320から撮像画像を受けた場合、生体情報取得処理を開始する。
 生体部位特定部220は、撮像装置320により撮像された撮像画像を取得する(ステップST141)
 生体部位特定部220は、撮像画像を用いて生体の部位の位置を特定する(ステップST142)。
 生体部位特定部220は、生体の部位を特定できる形式で画像を抽出して出力する(ステップST143)
 生体部位特定部220は、生体情報の種別を取得する(ステップST144)。
 生体情報取得部230は、生体情報の種別と生体の部位の画像とを用いて生体情報を取得する(ステップST145)。
 通信制御部240は、生体情報取得部230により取得された生体情報を通信装置に送信させる(ステップST146)。
 図示しない制御部は、生体情報取得処理が終了するかを判断する(ステップST147)。
 制御部は、生体情報取得処理が終了しないと判断した場合(ステップST147“NO”)、ステップST144の処理から繰り返すように制御する。
 制御部は、生体情報取得処理が終了すると判断した場合(ステップST147“YES”)、生体情報取得処理を終了するよう制御する(図9の“生体情報取得処理終了”)。
 ここで、実施の形態1の変形例の一つを説明する。
 本開示においては、照明制御装置100と生体情報取得装置200とを一体に構成することを排除しない。
 照明制御装置100は、上記生体情報取得装置200における構成の一部または全てを備えるように構成してもよい。
 また、生体情報取得装置200は、上記照明制御装置100における構成の一部またはすべてを備えるように構成してもよい。
 上述した通り、本開示に係る照明制御装置は、車両に搭載されたセンサが出力した信号を用いて当該車両の事故を検知する事故検知部と、事故検知部によって事故が検知された場合、可視光を用いて車室内を照明する灯体に対し、灯火するよう指令する灯体制御部と、事故検知部によって事故が検知された場合、灯体の灯火色を変化させる灯火色変更部と、を備えるように、構成した。
 これにより、車両事故発生時の撮像条件によらないで生体情報が得られるように、照明を制御する照明制御装置を提供できる、という効果を奏する。
 本開示に係る照明制御装置において、灯火色変更部は、事故検知部によって事故が検知された場合、予め記憶された生体情報の種別を示す種別情報を参照して取得するべき生体情報の種別を選択する生体情報種別選択部と、生体情報種別選択部によって選択された生体情報の種別に応じて灯体の灯火色を調整する灯火色調整部と、を備えるように構成した。
 これにより、生体情報の種別に応じて灯体の灯火色を調整できる照明制御装置を提供できる、という効果を奏する。
 本開示に係る照明制御装置において、灯火色調整部は、生体情報種別選択部によって選択された生体情報の種別が脈拍である場合、灯火色の波長が490nm以上570nm以下になるよう調整するように、構成した。
 これにより、脈拍を精度よく取得できる、照明制御装置を提供できる、という効果を奏する。
 本開示に係る照明制御装置において、撮像制御部は、事故検知部によって事故が検知されるまで、撮像装置に対し、赤外線を用いた撮像を行うよう指令する、ように構成した。
 これにより、事故が発生していない状態においては、赤外線を用いて車室内を撮像できる、照明制御装置を提供できる、という効果を奏する。
 上述した通り、本開示に係る生体情報取得装置は、車両に搭載されたセンサが出力した信号を用いて当該車両の事故を検知する事故検知部と、事故検知部によって事故が検知された場合、可視光を用いて車室内を照明する灯体に対し、灯火するよう指令する灯体制御部と、事故検知部によって事故が検知された場合、灯体の灯火色を変化させる灯火色変更部と、事故検知部によって事故が検知された場合、可視光を用いて撮像する撮像装置に対し車室内を撮像させるよう指令する撮像制御部と、撮像制御部の指令にしたがって撮像された撮像画像を用いて、車室内における生体の部位の位置を特定する生体部位特定部と、生体部位特定部に特定された生体の部位を含む撮像画像を用いて、生体情報を取得する生体情報取得部と、生体情報取得部によって取得された生体情報を通信装置に送信させる通信制御部と、を備えるよう、構成した。
 これにより、車両事故発生時の撮像条件によらないで生体情報が得られる、生体情報取得装置を提供できる、という効果を奏する。
 上述した通り、本開示に係る照明制御方法は、事故検知部が、車両に搭載されたセンサが出力した信号を用いて当該車両の事故を検知する事故検知ステップと、事故検知部によって事故が検知された場合、灯体制御部が、可視光を用いて車室内を照明する灯体に対し、灯火するよう指令する灯体制御制御ステップと、事故検知部によって事故が検知された場合、灯火色変更部が、灯体の灯火色を変化させる灯火色変更ステップと、を備えるようにした。
 これにより、車両事故発生時の撮像条件によらないで生体情報が得られるように、照明を制御する照明制御装置を、コンピュータ等を用いて実現できる、という効果を奏する。
実施の形態2.
 実施の形態2は、照明制御装置が、撮像制御部140と生体部位特定部150とを備え、さらに、生体の部位の位置に対する配光を調整する形態である。
 図10は、実施の形態2に係る照明制御装置100Aの構成およびこれに関連する周辺装置を示すブロック図である。
 図10に示す照明制御装置100Aは、撮像制御部140と生体部位特定部150とを備えている。また、照明制御装置100Aは、配光調整部を備えている。
 撮像制御部140は、図1に示した撮像制御部210と同様の構成であり、詳細な説明を省略する。
 実施の形態2において、撮像装置320は、具体的には、車両の事故が発生した場合に、照明制御装置100Aの撮像制御部140から指令を受けて車室内を撮像する。
 生体部位特定部150は、図1に示した生体部位特定部150の機能に加え、車室内における生体の部位の位置を特定できない場合、生体の部位の位置を特定できないことを示す信号である特定不可信号を、配光調整部へ出力する。
 また、生体部位特定部150は、車室内における生体の部位の位置を特定できない場合、生体の部位の位置を推定する。
 また、生体部位特定部150は、推定した生体の部位の位置の明るさが第1閾値と第2閾値との範囲内になるよう配光を調整する。
 また、生体部位特定部150は、生体情報取得部230が生体情報を取得できない場合、第1閾値または第2閾値を変更する。
 配光調整部160は、生体部位特定部150が車室内における生体の部位の位置を特定できない場合、車室内における生体の部位の位置を推定し、推定した生体の部位の位置に対する配光を調整するよう灯体410へ指令する。
 具体的には、配光調整部160は、生体部位特定部150から特定不可信号を受けると、車室内における生体の部位の位置を推定する。
 配光調整部160は、推定した生体の部位の位置に対する配光を調整するよう灯体410へ指令する指令信号を出力する。
 配光調整部160は、例えば、乗員の骨格検知などの予め定められた方法で体の部位が存在すると思われる場所の部位の明るさが予め定められた範囲となるように、灯体410により出力される可視光の配光を調整する。
 配光調整部160が行う配光の調整は以下の3つのうち少なくとも一つが含まれる。
 (1)灯体410の選択:車室内を照明する複数の灯体のうち、灯火または消灯する灯体を選択する。
 (2)灯体内の光源の選択:灯体内にある複数の光源(例えばLED)のうち点灯する光源を選択する。
 (3)光源の調光:光源の明るさを調光する。
 配光の調整は、例えば、光学設計時に行われた上記(1)、(2)、(3)の組み合わせによる調光シミュレーション結果を元に予め決定されている。
 体の部位が存在する、または、存在すると推定された場所の位置情報とその明るさとに応じて、シミュレーション結果を参照して上記(1)、(2)、(3)を決定する。
 配光の調整の例を説明する。
 例えば、生体部位特定部150で特定された部位の明るさが閾値以上であり、明るすぎる場合、配光調整部160が判定結果に応じて部位に当たる配光が小さくなるよう調光する、または、部位の背後の配光を大きくする。これにより、部位の明るさを第1の閾値と第2の閾値との範囲内になるようにする。
 また、例えば、生体部位特定部150で特定された部位の明るさが閾値以下であり、暗すぎる場合、配光調整部160が判定結果に応じて部位に当たる配光が大きくなるよう調光する。
 照明制御処理の詳細を説明する。
 図11は、実施の形態2に係る照明制御処理の一例を示すフローチャートである。
 照明制御装置100Aにおいて、事故検知部110が事故検知信号を出力すると、照明制御処理を開始する(図11の“照明制御処理開始”)。
 灯体制御部120は、事故検知部110から出力された事故検知信号を受けるまで待機する。
 灯体制御部120は、事故検知部110から出力された事故検知信号を受けた場合、灯体410に灯火を指令する(ステップST231)。
 灯火色変更部130は、事故検知部110から出力された事故検知信号を受けるまで待機する。
 灯火色変更部130は、事故検知部110から出力された事故検知信号を受けると、灯火色変更処理(ステップST232)または配光調整処理(ステップST233)へ進む。
 灯火色変更部130が灯火色変更処理(ステップST232)または配光調整処理(ステップST233)を終了すると、照明制御装置100Aにおける図示しない制御部は、照明制御処理を終了するかを判断する(ステップST234)。
 制御部は、例えば、外部から処理を停止する指令を受けると、照明制御処理を終了すると判断する。
 照明制御装置100Aは、照明制御処理を終了しないと判断した場合(ステップST234“NO”)、灯火色変更処理(ステップST232)または配光調整処理(ステップST233)を繰り返す。
 照明制御装置100Aは、照明制御処理を終了すると判断した場合(ステップST234“YES”)、照明制御処理を終了する(図11の“照明制御処理終了”)。
 灯火色変更処理(ステップST232)の詳細は、図8と同様であるため説明を省略する。
 配光調整処理(ステップST233)の詳細を説明する。
 図12は、図11に示す配光調整処理の一例を示すフローチャートである。
 照明制御装置100Aは、配光調整処理を開始する(図12における“配光調整処理開始”)。
 生体部位特定部150は、撮像装置320が撮像した画像を取得する(ステップST233-1)。
 生体部位特定部150は、取得した画像を用いて生体の部位ごとの位置を特定する(ステップST233-2)。
 生体部位特定部150は、生体の部位の位置が特定できたかを判定する(ステップST233-3)。
 生体部位特定部150は、生体の部位の位置は特定できないと判定した場合(ステップST233-3“NO”)、生体の部位の位置を推定する(ステップST233-4)。
 ステップST233-4を実行すると、ステップST233-5の処理へ移る。
 配光調整部160は、ステップST233-5において、推定した位置の明るさが第1閾値と第2閾値との範囲内になるよう配光を調整する。
 生体部位特定部150は、生体の部位の位置は特定できたと判定した場合(ステップST233-3“YES”)、生体の部位を特定できる形式で画像を生体情報取得部230へ出力する(ステップST233-6)。
 生体部位特定部150は、生体情報取得部230により生体情報を取得できたかを判定する(ステップST233-7)。
 生体情報取得部230により生体情報を取得できないと判定された場合(ステップST233-7“NO”)、生体部位特定部150は、第1閾値または第2閾値を変更し、ステップST233-5へ移る。
 ステップST233-5を実行すると、ステップST233-1の処理から繰り返す。
 生体情報取得部230により生体情報を取得できたと判定された場合(ステップST233-7“YES”)、配光調整処理を終了する(図12における“配光調整処理終了”)。
 ここで、実施の形態2の変形例の一つを説明する。
 本開示においては、照明制御装置100Aと生体情報取得装置200Aとを一体に構成することを排除しない。
 照明制御装置100Aは、上記生体情報取得装置200Aにおける構成の一部または全てを備えるように構成してもよい。
 また、生体情報取得装置200Aは、上記照明制御装置100Aにおける構成の一部またはすべてを備えるように構成してもよい。
 本開示に係る照明制御装置は、さらに、事故検知部によって事故が検知された場合、可視光を用いて撮像する撮像装置に対し車室内を撮像させるよう指令する撮像制御部と、撮像制御部の指令にしたがって撮像された撮像画像を用いて、車室内における生体の部位の位置を特定する生体部位特定部と、生体部位特定部が車室内における生体の部位の位置を特定できない場合、車室内における生体の部位の位置を推定し、推定した生体の部位の位置に対する配光を調整するよう灯体へ指令する配光調整部と、を備えるように構成した。
 これにより、車両事故発生時の撮像条件によらないで、さらに精度よく生体情報が得られるように、照明を制御する照明制御装置を提供できる、という効果を奏する。
 上述した通り、本開示に係る生体情報取得装置は、部位特定部が車室内における生体の部位の位置を特定できない場合、車室内における生体の部位の位置を推定し、推定した生体の部位の位置に対する配光を調整するよう灯体へ指令する配光調整部を、さらに備えるように構成した。
 これにより、車両事故発生時の撮像条件によらないで、さらに精度よく生体情報が得られる、生体情報取得装置を提供できる、という効果を奏する。
実施の形態3.
 実施の形態3は、外光の影響を取り除いた照明を行う形態である。
 図13は、実施の形態3に係る照明制御装置100Bの構成およびこれに関連する周辺装置を示すブロック図である。
 図13に示す照明制御装置100Bは、図11に示す照明制御装置100Aにおいて、さらに、灯火色変更部130が外光色特定部133をさらに備えている。
 図11に示す照明制御装置Aと同様の構成のうち、既に説明している内容については説明を省略する。
 外光色特定部133は、撮像装置320により撮像された撮像画像、および、灯体410Aの灯火色を示す灯火色情報を用いて、車室内に入射した外光の色を特定する。
 灯火色調整部132は、生体情報種別選択部131によって選択された生体情報の種別が流血状態または顔色である場合、灯体410Aの灯火色が、灯火色情報に示される色から外光の色を差し引いた色になるよう調整する。
 図14は、実施の形態3に係る灯火色変更処理の一例を示すフローチャートである。
 灯火色変更部130は、灯火色変更処理を開始する(図14の“灯火色変更処理開始”)
 灯火色変更部130における生体情報種別選択部131は、取得するべき生体情報の種別を選択する(ステップST332-1)。
 外光色特定部133は、撮像された画像を取得し、取得した画像を用いて外光色を特定する(ステップST332-2)。
生体情報の種別に応じて灯体410の灯火色を決定し、決定した灯火色から外光色を差し引いて調整する(ステップST332-3)。
 図示しない制御部は、取得するべき生体情報の種別をすべて選択済みであるかを判断する(ステップST332-4)。
 図示しない制御部が、取得するべき生体情報の種別をすべて選択済みではないと判断した場合(ステップST332-4“NO”)、制御部は、ステップST332-1の処理から繰り返すよう制御する。
 図示しない制御部が、取得するべき生体情報の種別をすべて選択済みではないと判断した場合(ステップST332-4“YES”)、制御部は、灯火色変更処理を終了するよう制御する(図14の“灯火色変更処理終了”)。
 本開示に係る照明制御装置において、さらに、灯火色変更部は、撮像装置により撮像された撮像画像、および、灯体の灯火色を示す灯火色情報を用いて、車室内に入射した外光の色を特定する外光色特定部をさらに備え、灯火色調整部は、生体情報種別選択部によって選択された生体情報の種別が流血状態または顔色である場合、灯体の灯火色が、灯火色情報に示される色から外光の色を差し引いた色になるよう調整する、ように構成した。
 これにより、さらに、生体の部位を撮像しやすく照明できる、照明制御装置を提供できる、という効果を奏する。
 なお、本開示は、その開示の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
 本開示に係る照明制御装置は、車両用の照明制御装置等に用いるのに適している。
 100,100A,100B 照明制御装置、110 事故検知部、111 車両情報取得部、112 事故判定部、120 灯体制御部、130,130B 灯火色変更部、131 生体情報種別選択部、132 灯火色調整部、133 外光色特定部、140 撮像制御部、150 生体部位特定部、200,200A 生体情報取得装置、210 撮像制御部、220 生体部位特定部、230生体情報取得部、240 通信制御部、300 情報源装置、310 車両センサ、320 撮像装置、400,400A 出力装置、410,410A 灯体、500 通信装置、510 通信部、600 第1のデータ、700 第2のデータ、1000 処理回路、1001 プロセッサ、1002 メモリ。

Claims (9)

  1.  車両に搭載されたセンサが出力した信号を用いて当該車両の事故を検知する事故検知部と、
     前記事故検知部によって事故が検知された場合、可視光を用いて車室内を照明する灯体に対し、灯火するよう指令する灯体制御部と、
     前記事故検知部によって事故が検知された場合、前記灯体の灯火色を変化させる灯火色変更部と、を備えた照明制御装置。
  2.  前記灯火色変更部は、
     前記事故検知部によって事故が検知された場合、予め記憶された生体情報の種別を示す種別情報を参照して取得するべき生体情報の種別を選択する生体情報種別選択部と、
     前記生体情報種別選択部によって選択された生体情報の種別に応じて前記灯体の灯火色を調整する灯火色調整部と、
    を備えた、請求項1に記載の照明制御装置。
  3.  前記灯火色調整部は、
     前記生体情報種別選択部によって選択された生体情報の種別が脈拍である場合、灯火色の波長が490nm以上570nm以下になるよう調整する、
     ことを特徴とする請求項2に記載の照明制御装置。
  4.  前記事故検知部によって事故が検知された場合、可視光を用いて撮像する撮像装置に対し車室内を撮像させるよう指令する撮像制御部と、
     前記撮像制御部の指令にしたがって撮像された撮像画像を用いて、車室内における生体の部位の位置を特定する生体部位特定部と、
     前記生体部位特定部が車室内における生体の部位の位置を特定できない場合、車室内における生体の部位の位置を推定し、推定した生体の部位の位置に対する配光を調整するよう灯体へ指令する配光調整部と、
     をさらに備えた、請求項2に記載の照明制御装置。
  5.  前記撮像制御部は、
     前記事故検知部によって事故が検知されるまで、撮像装置に対し、赤外線を用いた撮像を行うよう指令する、
     ことを特徴とする請求項4に記載の照明制御装置。
  6.  前記灯火色変更部は、
     撮像装置により撮像された撮像画像、および、前記灯体の灯火色を示す灯火色情報を用いて、車室内に入射した外光の色を特定する外光色特定部をさらに備え、
     前記灯火色調整部は、
     前記生体情報種別選択部によって選択された生体情報の種別が流血状態または顔色である場合、前記灯体の灯火色が、前記灯火色情報に示される色から外光の色を差し引いた色になるよう調整する、
     ことを特徴とする請求項2から請求項5のうちのいずれか1項に記載の照明制御装置。
  7.  車両に搭載されたセンサが出力した信号を用いて当該車両の事故を検知する事故検知部と、
     前記事故検知部によって事故が検知された場合、可視光を用いて車室内を照明する灯体に対し、灯火するよう指令する灯体制御部と、
     前記事故検知部によって事故が検知された場合、前記灯体の灯火色を変化させる灯火色変更部と、
     前記事故検知部によって事故が検知された場合、可視光を用いて撮像する撮像装置に対し車室内を撮像させるよう指令する撮像制御部と、
     前記撮像制御部の指令にしたがって撮像された撮像画像を用いて、車室内における生体の部位の位置を特定する生体部位特定部と、
     前記生体部位特定部に特定された生体の部位を含む撮像画像を用いて、生体情報を取得する生体情報取得部と、
     前記生体情報取得部によって取得された生体情報を通信装置に送信させる通信制御部と、
    を備えた、生体情報取得装置。
  8.  前記生体部位特定部が車室内における生体の部位の位置を特定できない場合、車室内における生体の部位の位置を推定し、推定した生体の部位の位置に対する配光を調整するよう灯体へ指令する配光調整部を、
     さらに備えた、請求項7に記載の生体情報取得装置。
  9.  事故検知部が、車両に搭載されたセンサが出力した信号を用いて当該車両の事故を検知する事故検知ステップと、
     前記事故検知部によって事故が検知された場合、灯体制御部が、可視光を用いて車室内を照明する灯体に対し、灯火するよう指令する灯体制御制御ステップと、
     前記事故検知部によって事故が検知された場合、灯火色変更部が、前記灯体の灯火色を変化させる灯火色変更ステップと、
     を備えた、照明制御方法。
PCT/JP2021/034932 2021-09-24 2021-09-24 照明制御装置、生体情報取得装置、および、照明制御方法 WO2023047505A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2021/034932 WO2023047505A1 (ja) 2021-09-24 2021-09-24 照明制御装置、生体情報取得装置、および、照明制御方法
DE112021008265.5T DE112021008265T5 (de) 2021-09-24 2021-09-24 Beleuchtungsregelungseinheit, biometrieinformationserfassungseinheit und beleuchtungsregelungsverfahren
US18/292,614 US20240336215A1 (en) 2021-09-24 2021-09-24 Illumination control device, biometric information acquiring device, and illumination control method
JP2023549235A JP7483152B2 (ja) 2021-09-24 2021-09-24 照明制御装置、生体情報取得装置、および、照明制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/034932 WO2023047505A1 (ja) 2021-09-24 2021-09-24 照明制御装置、生体情報取得装置、および、照明制御方法

Publications (1)

Publication Number Publication Date
WO2023047505A1 true WO2023047505A1 (ja) 2023-03-30

Family

ID=85719359

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/034932 WO2023047505A1 (ja) 2021-09-24 2021-09-24 照明制御装置、生体情報取得装置、および、照明制御方法

Country Status (4)

Country Link
US (1) US20240336215A1 (ja)
JP (1) JP7483152B2 (ja)
DE (1) DE112021008265T5 (ja)
WO (1) WO2023047505A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005075A (ja) * 2013-06-20 2015-01-08 株式会社デンソー 事故通報システム
JP2015064764A (ja) * 2013-09-25 2015-04-09 株式会社オートネットワーク技術研究所 車載装置
JP2018019020A (ja) * 2016-07-29 2018-02-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP2018136859A (ja) * 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 生体情報取得システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003306106A (ja) 2002-04-12 2003-10-28 Matsushita Electric Ind Co Ltd 緊急通報装置
US20230084265A1 (en) 2020-02-21 2023-03-16 Nec Corporation Biometric authentication apparatus, biometric authentication method, and computer-readable medium storing program therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005075A (ja) * 2013-06-20 2015-01-08 株式会社デンソー 事故通報システム
JP2015064764A (ja) * 2013-09-25 2015-04-09 株式会社オートネットワーク技術研究所 車載装置
JP2018019020A (ja) * 2016-07-29 2018-02-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP2018136859A (ja) * 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 生体情報取得システム

Also Published As

Publication number Publication date
US20240336215A1 (en) 2024-10-10
JPWO2023047505A1 (ja) 2023-03-30
JP7483152B2 (ja) 2024-05-14
DE112021008265T5 (de) 2024-07-18

Similar Documents

Publication Publication Date Title
US8078356B2 (en) Driving assist method and driving assist apparatus
US10160380B1 (en) Enhanced informational vehicle puddle lamp assemblies
CN104284808B (zh) 用于将车辆照明与车辆周围环境自动适配的方法、照明设备以及带有照明的车辆
US20040085448A1 (en) Vehicle occupant detection apparatus for deriving information concerning condition of occupant of vehicle seat
JP6078032B2 (ja) 車載用警告装置
JP2006025140A (ja) 車両の車室照明装置
CN104718743A (zh) 状态监视装置
CN108327622A (zh) 用于运行机动车的标识系统的方法
CN105704886A (zh) 使用可佩戴眼镜的车辆照明控制系统和用于该系统的方法
JP2008513294A (ja) 自動車の照明装置
CN105034929A (zh) 照射设备
JP2016107864A (ja) 車内灯制御装置及びコンピュータプログラム
WO2023047505A1 (ja) 照明制御装置、生体情報取得装置、および、照明制御方法
CN115246357A (zh) 车辆内部灯主动聚焦
EP2050619B1 (de) Vorrichtung und Verfahren zum Ermitteln eines Betriebsparameters von zumindest einem Leuchtmittel einer Lichtquelle eines Kraftfahrzeuges
CN112622763A (zh) 车辆的乘员监视装置及车辆的乘员保护系统
CN112896032A (zh) 用于驾驶员的可变光束模式灯系统及其控制方法
JP2006021591A (ja) 照明制御システム
CN110386055B (zh) 车辆和车辆尾灯的控制方法、装置
CN107054233B (zh) 用于机动车辆的发光标志系统
JP2021059241A5 (ja)
JP2002308014A (ja) 車両用周辺視認装置
US10981500B2 (en) In-cabin lighting device
JP5182567B2 (ja) 乗員監視装置
JP2004189060A (ja) 車両用周辺視認装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21958381

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023549235

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 112021008265

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21958381

Country of ref document: EP

Kind code of ref document: A1