JP7014619B2 - Lighting control device and vehicle lighting equipment - Google Patents

Lighting control device and vehicle lighting equipment Download PDF

Info

Publication number
JP7014619B2
JP7014619B2 JP2018008439A JP2018008439A JP7014619B2 JP 7014619 B2 JP7014619 B2 JP 7014619B2 JP 2018008439 A JP2018008439 A JP 2018008439A JP 2018008439 A JP2018008439 A JP 2018008439A JP 7014619 B2 JP7014619 B2 JP 7014619B2
Authority
JP
Japan
Prior art keywords
lighting
person
light
condition
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018008439A
Other languages
Japanese (ja)
Other versions
JP2019127080A (en
Inventor
勇騎 細山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stanley Electric Co Ltd
Original Assignee
Stanley Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stanley Electric Co Ltd filed Critical Stanley Electric Co Ltd
Priority to JP2018008439A priority Critical patent/JP7014619B2/en
Publication of JP2019127080A publication Critical patent/JP2019127080A/en
Application granted granted Critical
Publication of JP7014619B2 publication Critical patent/JP7014619B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Description

本発明は、点灯制御装置、点灯制御方法、および車両用灯具に関する。 The present invention relates to a lighting control device, a lighting control method, and a vehicle lighting tool.

車両の前方を照明するロービーム用灯具およびハイビーム用灯具に加え、前方に検出された歩行者などに照明光をスポット的に照射するマーキングライトなどの前照灯装置が知られている。
マーキングライトは、自車両の前方に存在する歩行者をセンサーが検出した場合に、そのセンサーが検出した領域や、その領域の周辺を、照明光で照射することによって、運転者に歩行者を早期に発見することを補助したり、歩行者に車両を早期に発見することを補助したりする。
マーキングライトに関して、車両の前方に検出された歩行者等に車両の存在を確実に知らせるとともに、当該歩行者等にスポット照明によるグレアを与えないようにする技術が知られている(例えば、特許文献1参照)。この技術では、車両前方を撮影するカメラが撮影した画像に基づいて、車両前方に位置する人物が検出されると、照明領域が当該人物を含むように左右方向に移動される。また、この技術では、当該人物の少なくとも頭部を含むように、当該照明領域内に非照明領域が形成される。
In addition to low-beam lamps and high-beam lamps that illuminate the front of a vehicle, headlight devices such as marking lights that spot-illuminate pedestrians detected in front of the vehicle are known.
When the sensor detects a pedestrian in front of the own vehicle, the marking light illuminates the area detected by the sensor and the surrounding area with illumination light to prompt the driver to pedestrian. Assists in finding vehicles and assists pedestrians in finding vehicles early.
Regarding the marking light, there is known a technique for surely notifying pedestrians and the like detected in front of the vehicle of the existence of the vehicle and preventing the pedestrians and the like from being glareed by spot lighting (for example, patent documents). See 1). In this technique, when a person located in front of the vehicle is detected based on an image taken by a camera that captures the front of the vehicle, the lighting area is moved in the left-right direction so as to include the person. Further, in this technique, a non-illuminated area is formed in the illuminated area so as to include at least the head of the person.

また、自車両のドライバにとって、前方に存在する物体を見つけやすいか見つけにくいかを反映して照明を制御する技術が知られている(例えば、特許文献2参照)。この技術では、配光制御灯によって自車両の前方を照明し、撮像装置によって、自車両の前方の可視光画像を撮像する。3次元計測部22によって、レーザーレーダーの出力に基づいて、自車両の前方の3次元位置を計測し、物体検出部によって、自車両の前方に存在する物体を検出する。照明時の可視光画像における、検出された物体に対応する領域の輝度が第1閾値以下の場合、照明制御部によって、検出された物体に対応する範囲に対して注意喚起照射するように配光制御灯を制御する。照明時の画像における、前記検出された物体に対応する領域の輝度が第2閾値以上の場合、照明制御部によって、検出された物体に対して照明しないように配光制御灯を制御する。 Further, there is known a technique for controlling lighting by reflecting whether it is easy or difficult for the driver of the own vehicle to find an object existing in front (see, for example, Patent Document 2). In this technology, the front of the own vehicle is illuminated by the light distribution control light, and the visible light image in front of the own vehicle is captured by the image pickup device. The three-dimensional measurement unit 22 measures the three-dimensional position in front of the own vehicle based on the output of the laser radar, and the object detection unit detects an object existing in front of the own vehicle. When the brightness of the area corresponding to the detected object in the visible light image at the time of illumination is equal to or less than the first threshold value, the illumination control unit distributes light so as to alert and irradiate the area corresponding to the detected object. Control the control light. When the brightness of the region corresponding to the detected object in the image at the time of illumination is equal to or greater than the second threshold value, the illumination control unit controls the light distribution control lamp so as not to illuminate the detected object.

特開2013-199263号公報Japanese Unexamined Patent Publication No. 2013-199263 特開2013-119357号公報Japanese Unexamined Patent Publication No. 2013-119357

しかし、自車両の前方に検出された歩行者などの人に照明光をスポット的に照射する技術では、センサーが検出した歩行者に対して、マーキングライトを点滅させることによって、その歩行者へ照明光を照射する場合に、マーキングライトを消灯させたタイミングで、センサーがその歩行者を見失う(検出できない)などの誤検出をしてしまうおそれがある。
また、車両に、歩行者の検出が可能なセンサーが複数搭載されている場合に、複数のセンサーの各々で、歩行者の検出のアルゴリズムが異なり、複数のセンサーの各々で、歩行者であると判断する特徴点が異なる場合があると想定される。複数のセンサーの各々が歩行者の特徴点を検出し、検出した歩行者の特徴点に基づいて、マーキングライトを点滅させることによって、歩行者へ照明光を照射した場合、センサーが誤検出をしてしまうおそれがある。
複数のセンサーのうち、任意のセンサーが歩行者の頭部を検出し、検出した歩行者の頭部へ、マーキングライトを点滅させることによって、照明光を照射する場合、その頭部へのマーキングライトを消灯させた場合に、センサーが歩行者を見失う(検出できない)おそれがある。
However, in the technology that spotlights pedestrians and other people detected in front of the vehicle, the pedestrians detected by the sensor are illuminated by blinking the marking light. When irradiating light, there is a risk that the sensor will make an erroneous detection such as losing sight of the pedestrian (cannot be detected) at the timing when the marking light is turned off.
Further, when the vehicle is equipped with a plurality of sensors capable of detecting a pedestrian, the pedestrian detection algorithm is different for each of the plurality of sensors, and each of the plurality of sensors is a pedestrian. It is assumed that the feature points to be judged may be different. When each of the plurality of sensors detects a pedestrian's characteristic point and irradiates the pedestrian with illumination light by blinking the marking light based on the detected pedestrian's characteristic point, the sensor makes a false detection. There is a risk that it will end up.
When any sensor detects the pedestrian's head and illuminates the detected pedestrian's head by blinking the marking light, the marking light on the head When the light is turned off, the sensor may lose sight of (cannot detect) pedestrians.

本発明は、このような事情を考慮してなされたもので、マーキングライトを使用する場合に、センサーが、人を誤検出してしまうのを低減できる点灯制御装置、点灯制御方法、および車両用灯具を提供することを目的とする。 The present invention has been made in consideration of such circumstances, and is used for a lighting control device, a lighting control method, and a vehicle that can reduce the false detection of a person by a sensor when a marking light is used. The purpose is to provide lighting equipment.

上記の課題を解決するために、本発明の一態様は、車両用照灯による光照明状態を制御する点灯制御装置であって、人の所定の部位を検出することで、前記人を検出する検出部と、前記所定の部位の領域である人判別領域を示す情報に基づいて、前記人の照明条件を取得する照明条件取得部とを備え、前記検出部は、複数のセンサーの各々により取得された情報に基づいて、前記人を検出し、前記照明条件取得部は、前記人を検出したセンサーが複数ある場合、検出した順序が早いセンサーにより検出された前記人の前記所定の部位の領域である人判別領域を示す情報に基づいて、前記人の照明条件を取得する、点灯制御装置である。 In order to solve the above-mentioned problems, one aspect of the present invention is a lighting control device that controls a light illumination state by a vehicle lighting, and detects a person by detecting a predetermined part of the person. The detection unit includes a lighting condition acquisition unit that acquires the lighting condition of the person based on the information indicating the person identification area that is the area of the predetermined portion, and the detection unit acquires the lighting condition by each of a plurality of sensors. The person is detected based on the information obtained, and when there are a plurality of sensors that detect the person, the lighting condition acquisition unit detects the area of the predetermined part of the person detected by the sensor having the earliest detection order. It is a lighting control device that acquires the lighting condition of the person based on the information indicating the person discrimination area .

本発明の一態様は、点灯制御装置において、前記照明条件取得部は、前記人判別領域が頭部である場合、前記頭部の照明条件として、所定光の照明条件を取得する、構成が用いられてもよい。 According to one aspect of the present invention, in the lighting control device, when the person discrimination region is the head, the lighting condition acquisition unit acquires the lighting condition of a predetermined light as the lighting condition of the head. May be done.

本発明の一態様は、点灯制御装置において、前記照明条件取得部は、減光する条件を取得する、構成が用いられてもよい。 In one aspect of the present invention, in the lighting control device, the lighting condition acquisition unit may be configured to acquire dimming conditions.

本発明の一態様は、点灯制御装置において、前記照明条件取得部は、前記頭部以外の前記人の部位への照明条件として、点滅する条件を取得する、構成が用いられてもよい。 In one aspect of the present invention, in the lighting control device, a configuration may be used in which the lighting condition acquisition unit acquires a blinking condition as a lighting condition for a part of the person other than the head.

本発明の一態様は、点灯制御装置において、前記照明条件取得部は、前記人判別領域が頭部とは異なる他の部位である場合、前記頭部への照明条件として、所定光の照明条件を取得する、構成が用いられてもよい。 In one aspect of the present invention, in the lighting control device, when the person discrimination region is a portion different from the head, the lighting condition acquisition unit sets the lighting condition of a predetermined light as the lighting condition for the head. The configuration may be used to obtain.

本発明の一態様は、点灯制御装置において、前記照明条件取得部は、前記頭部への照明条件として、消灯する条件を取得し、前記人判別領域への照明条件として、強調する条件を取得する、構成が用いられてもよい。 In one aspect of the present invention, in the lighting control device, the lighting condition acquisition unit acquires a condition for turning off the light as a lighting condition for the head and a condition for emphasizing as a lighting condition for the person discrimination region. The configuration may be used.

本発明の一態様は、点灯制御装置において、前記照明条件取得部は、前記人判別領域および前記頭部以外の前記人の部位への照明条件として、点滅する条件を取得する、構成が用いられてもよい。 According to one aspect of the present invention, in the lighting control device, the lighting condition acquisition unit acquires a blinking condition as a lighting condition for the person's portion other than the person discrimination region and the head. You may.

本発明の一態様は、点灯制御装置において、前記検出部は、複数のセンサーの各々により取得された情報に基づいて、前記人を検出し、前記照明条件取得部は、前記人を検出したセンサーが複数ある場合、優先順位が高いセンサーにより検出された前記人の前記所定の部位の領域である人判別領域を示す情報に基づいて、前記人の照明条件を取得する、構成が用いられてもよい。 In one aspect of the present invention, in the lighting control device, the detection unit detects the person based on the information acquired by each of the plurality of sensors, and the lighting condition acquisition unit detects the person. Even if a configuration is used in which the lighting conditions of the person are acquired based on the information indicating the person discrimination area which is the area of the predetermined part of the person detected by the sensor having a high priority. good.

本発明の一態様は、点灯制御装置において、前記車両用灯は、前照灯である、構成が用いられてもよい。 In one aspect of the present invention, in the lighting control device, the vehicle lighting may be a headlight .

本発明の一態様は、車両用照灯と、前述した点灯制御装置とを備える車両用灯具である。 One aspect of the present invention is a vehicle lighting device including a vehicle lighting and the above-mentioned lighting control device.

本発明によれば、マーキングライトを使用する場合に、センサーが、人を誤検出してしまうのを低減できる点灯制御装置、点灯制御方法、および車両用灯具を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, when a marking light is used, it is possible to provide a lighting control device, a lighting control method, and a vehicle lighting device that can reduce the false detection of a person by a sensor.

第1の実施形態に係る自動車1の概略的な構成を示す図である。It is a figure which shows the schematic structure of the automobile 1 which concerns on 1st Embodiment. 第1の実施形態に係る照明システム100が適用された自動車1の前側部分を示す図である。It is a figure which shows the front side part of the automobile 1 to which the lighting system 100 which concerns on 1st Embodiment is applied. 第1の実施形態に係る自動車1に備えられた照明システム100の概略的な機能構成を示すブロック図である。It is a block diagram which shows the schematic functional structure of the lighting system 100 provided in the automobile 1 which concerns on 1st Embodiment. 第1の実施形態に係る自動車1に備えられた照明システム100による照明の一例を示す図(その1)である。It is a figure (the 1) which shows an example of the lighting by the lighting system 100 provided in the automobile 1 which concerns on 1st Embodiment. 第1の実施形態に係る自動車1に備えられた照明システム100による照明の一例を示す図(その2)である。It is a figure (No. 2) which shows an example of lighting by the lighting system 100 provided in the automobile 1 which concerns on 1st Embodiment. 第1の実施形態に係る自動車1に備えられた照明システム100による照明の一例を示す図(その3)である。It is a figure (the 3) which shows an example of the lighting by the lighting system 100 provided in the automobile 1 which concerns on 1st Embodiment. 第1の実施形態に係る自動車1に備えられた照明システム100による照明の一例を示す図(その4)である。It is a figure (the 4) which shows an example of the lighting by the lighting system 100 provided in the automobile 1 which concerns on 1st Embodiment. 第1の実施形態に係る自動車1に備えられた点灯制御装置30の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the lighting control device 30 provided in the automobile 1 which concerns on 1st Embodiment. 第2の実施形態に係る自動車1aに備えられた照明システム100aの概略的な機能構成を示すブロック図である。It is a block diagram which shows the schematic functional structure of the lighting system 100a provided in the automobile 1a which concerns on 2nd Embodiment. 第2の実施形態に係る自動車1aに備えられた点灯制御装置30aの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the lighting control device 30a provided in the automobile 1a which concerns on 2nd Embodiment. 第3の実施形態に係る自動車1bに備えられた照明システム100bの概略的な機能構成を示すブロック図である。It is a block diagram which shows the schematic functional structure of the lighting system 100b provided in the automobile 1b which concerns on 3rd Embodiment. 第3の実施形態に係る自動車1bに備えられた点灯制御装置30bの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the lighting control device 30b provided in the automobile 1b which concerns on 3rd Embodiment.

次に、本実施形態に係る点灯制御装置、点灯制御方法、および車両用灯具を、図面を参照しつつ説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。
なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づく」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づく」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Next, the lighting control device, the lighting control method, and the vehicle lighting fixture according to the present embodiment will be described with reference to the drawings. The embodiments described below are merely examples, and the embodiments to which the present invention is applied are not limited to the following embodiments.
In all the drawings for explaining the embodiment, the same reference numerals are used for those having the same function, and the repeated description will be omitted.
Further, "based on XX" as used in the present application means "based on at least XX", and includes a case where it is based on another element in addition to XX. Further, "based on XX" is not limited to the case where XX is directly used, but also includes the case where it is based on a case where calculation or processing is performed on XX. "XX" is an arbitrary element (for example, arbitrary information).

以下、図面を参照し、本発明の実施形態について説明する。
[第1の実施形態]
第1の実施形態に係る点灯制御装置は、乗り物に搭載される。本実施形態では、乗り物の一例として自動車を示すが、乗り物としては、自動二輪車、自転車、超小型モビリティ、パーソナルモビリティーなどもある。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
The lighting control device according to the first embodiment is mounted on a vehicle. In the present embodiment, an automobile is shown as an example of a vehicle, but the vehicle also includes a motorcycle, a bicycle, an ultra-small mobility, a personal mobility, and the like.

[自動車の概略的な構成]
図1は、第1の実施形態に係る自動車1の概略的な構成を示す図である。
自動車1は、左側の前照灯(本実施形態では、左側前照灯部10Lという。)と、右側の前照灯(本実施形態では、右側前照灯部10Rという。)と、左側の尾灯(本実施形態では、左側尾灯部11Lという。)と、右側の尾灯(本実施形態では、右側尾灯部11Rという。)と、左側のサイドミラー(本実施形態では、左側サイドミラー13Lという。)と、右側のサイドミラー(本実施形態では、右側サイドミラー13Rという。)と、フロントウィンドウ15と、リアウィンドウ16とを備える。
左側前照灯部10Lは自動車1の前方の左側に配置されており、右側前照灯部10Rは自動車1の前方の右側に配置されている。
左側尾灯部11Lは自動車1の後方の左側に配置されており、右側尾灯部11Rは自動車1の後方の右側に配置されている。
また、自動車1は、前方の車外検出部(本実施形態では、前方車外検出部21という。)と、点灯制御装置30とを備える。
[Rough configuration of automobile]
FIG. 1 is a diagram showing a schematic configuration of an automobile 1 according to a first embodiment.
The vehicle 1 has a left headlight (referred to as the left headlight unit 10L in the present embodiment), a right headlight (referred to as the right side headlight unit 10R in the present embodiment), and a left side headlight. The taillight (referred to as the left taillight portion 11L in the present embodiment), the right taillight (referred to as the right taillight portion 11R in the present embodiment), and the left side mirror (referred to as the left side mirror 13L in the present embodiment). ), A right side mirror (referred to as a right side mirror 13R in this embodiment), a front window 15, and a rear window 16.
The left headlight portion 10L is arranged on the left side in front of the automobile 1, and the right headlight portion 10R is arranged on the right side in front of the automobile 1.
The left taillight portion 11L is arranged on the left side behind the automobile 1, and the right taillight portion 11R is arranged on the right side behind the automobile 1.
Further, the automobile 1 includes a front vehicle exterior detection unit (referred to as a front vehicle exterior detection unit 21 in the present embodiment) and a lighting control device 30.

ここで、本実施形態では、自動車1の構成部のうちの一部を示してあるが、例えば、それに加えて、一般の自動車が通常備える他の構成部など、任意の構成部を備えてもよい。
また、前方車外検出部21と、点灯制御装置30のうちの一部または全部は、自動車1の外観では見えずに、自動車1の内部に備えられてもよい。
Here, in the present embodiment, a part of the constituent parts of the automobile 1 is shown, but in addition to the above, any constituent parts such as other constituent parts normally provided by a general automobile may be provided. good.
Further, a part or all of the front vehicle outside detection unit 21 and the lighting control device 30 may be provided inside the vehicle 1 without being visible from the appearance of the vehicle 1.

図2は、第1の実施形態に係る照明システム100が適用された自動車1の前側部分を示す図である。
図2に示されるように、左側前照灯部10Lは、左側の前照灯ユニット12Lと左側のマーキングライト20Lとを備えている。左側の前照灯ユニット12Lは自動車1の左側の前端部の左側端部に配置され、左側のマーキングライト20Lは左側の前照灯ユニット12Lの右側に配置される。
また、右側前照灯部10Rは、右側の前照灯ユニット12Rと右側のマーキングライト20Rとを備えている。右側の前照灯ユニット12Rは自動車1の前端部の右側端部に配置され、右側のマーキングライト20Rは右側の前照灯ユニット12Rの左側に配置される。
FIG. 2 is a diagram showing a front portion of an automobile 1 to which the lighting system 100 according to the first embodiment is applied.
As shown in FIG. 2, the left headlight unit 10L includes a left headlight unit 12L and a left marking light 20L. The left headlight unit 12L is arranged at the left end of the left front end of the vehicle 1, and the left marking light 20L is arranged on the right side of the left headlight unit 12L.
Further, the right headlight unit 10R includes a right headlight unit 12R and a right marking light 20R. The right headlight unit 12R is arranged at the right end of the front end of the vehicle 1, and the right marking light 20R is arranged on the left side of the right headlight unit 12R.

また、右側の前照灯ユニット12Rと、左側の前照灯ユニット12Lとの上側には、自動車1のエンジンルームを開閉するフード50aの前端部が配置されている。また、左側のマーキングライト20Lと、右側のマーキングライト20Rとの下側の部分は、自動車1の前端部を構成するバンパカバー50bによって前側から覆われている。そして、右側の前照灯ユニット12Rと、左側の前照灯ユニット12Lとは、車幅方向において左右対称に構成されている。 Further, on the upper side of the headlight unit 12R on the right side and the headlight unit 12L on the left side, a front end portion of the hood 50a for opening and closing the engine room of the automobile 1 is arranged. Further, the lower portion of the marking light 20L on the left side and the marking light 20R on the right side is covered from the front side by the bumper cover 50b constituting the front end portion of the automobile 1. The right headlight unit 12R and the left headlight unit 12L are symmetrically configured in the vehicle width direction.

左側の前照灯ユニット12Lは、左側の前照灯ユニット12Lの車幅方向外側部分を構成する左側前照灯14Lを含む。
右側の前照灯ユニット12Rは、右側の前照灯ユニット12Rの車幅方向外側部分を構成する右側前照灯14Rを含む。
The left headlight unit 12L includes a left headlight 14L constituting an outer portion of the left headlight unit 12L in the vehicle width direction.
The right headlight unit 12R includes a right headlight 14R that constitutes an outer portion of the right headlight unit 12R in the vehicle width direction.

左側前照灯14Lと、右側前照灯14Rとは、図示しない光源を有しており、光源によって、自動車1の前方を照射する。光源は、ハイビーム用の光源として構成されている。または、光源は、ロービーム用及びハイビーム用の光源として構成されていてもよい。つまり、左側前照灯14Lと、右側前照灯14Rとは、主として自動車1の前方の路面領域(ロービーム配光エリア)を照射するロービームと、ロービームによって照射される領域よりも上側の領域(ハイビーム配光エリア)を照射するハイビームとのいずれかに切替可能に構成されている。なお、左側前照灯14Lと、右側前照灯14Rとの光源として、LED(発光ダイオード)、ハロゲンランプ、ディスチャージランプ、レーザー等が用いられる。 The left headlight 14L and the right headlight 14R have a light source (not shown), and the light source illuminates the front of the automobile 1. The light source is configured as a light source for a high beam. Alternatively, the light source may be configured as a light source for a low beam and a light source for a high beam. That is, the left headlight 14L and the right headlight 14R mainly include a low beam that irradiates the road surface region (low beam light distribution area) in front of the automobile 1 and a region (high beam) above the region irradiated by the low beam. It is configured to be switchable to either a high beam that illuminates the light distribution area). As a light source for the left headlight 14L and the right headlight 14R, an LED (light emitting diode), a halogen lamp, a discharge lamp, a laser, or the like is used.

[自動車の照明システムの概略的な機能構成]
図3は、第1の実施形態に係る自動車1に備えられた照明システム100の概略的な機能構成を示すブロック図である。
照明システム100は、前照灯部10と、点灯制御装置30と、前方車外検出部21とを備える。また、前照灯部10と、点灯制御装置30とによって、車両用灯具が構成される。
ここで、本実施形態では、一般的な「前後」の概念と同様に、自動車1の運転者が通常時に向く方向であって自動車1が通常時に進行(走行)する方向を「前(前方)」とし、それとは逆の方向を「後ろ(後方)」とする。
[Rough functional configuration of automobile lighting system]
FIG. 3 is a block diagram showing a schematic functional configuration of the lighting system 100 provided in the automobile 1 according to the first embodiment.
The lighting system 100 includes a headlight unit 10, a lighting control device 30, and a front vehicle outside detection unit 21. Further, the headlight unit 10 and the lighting control device 30 constitute a vehicle lighting tool.
Here, in the present embodiment, similarly to the general concept of "front and back", the direction in which the driver of the automobile 1 faces in the normal time and the direction in which the automobile 1 travels (runs) in the normal time is "front (forward)". , And the opposite direction is "back (rear)".

前照灯部10は、いわゆるヘッドランプであり、自動車1の前方に光を照射する。
左側のマーキングライト20Lは、主に自動車1の前方の左側に光を照射する。左側のマーキングライト20Lは、LED点灯回路と、マトリクスLEDとを有する。LED点灯回路は、点灯制御装置30が出力する配光制御信号に基づいて、マトリクスLEDに含まれる複数のLEDへ駆動信号を供給することによって、各LEDを選択的に点灯させる。
マトリクスLEDは、マトリクス状に配列された複数のLEDを備える。マトリクスLEDは、LED点灯回路から供給される駆動信号に基づいて、複数のLEDが選択的に点灯する。マトリクスLEDは、複数のLEDの各々を独立に点灯させることができる。また、マトリクスLEDは、複数のLEDの各々の照射強度(明るさ)を独立して制御することが可能である。
The headlight unit 10 is a so-called headlamp, and irradiates light in front of the automobile 1.
The marking light 20L on the left side mainly illuminates the left side in front of the automobile 1. The marking light 20L on the left side has an LED lighting circuit and a matrix LED. The LED lighting circuit selectively lights each LED by supplying a drive signal to a plurality of LEDs included in the matrix LED based on the light distribution control signal output by the lighting control device 30.
The matrix LED includes a plurality of LEDs arranged in a matrix. In the matrix LED, a plurality of LEDs are selectively lit based on a drive signal supplied from the LED lighting circuit. The matrix LED can light each of the plurality of LEDs independently. Further, the matrix LED can independently control the irradiation intensity (brightness) of each of the plurality of LEDs.

右側のマーキングライト20Rは、主に自動車1の前方の右側に光を照射する。右側のマーキングライト20Rは、LED点灯回路と、マトリクスLEDとを有する。LED点灯回路は、点灯制御装置30が出力する配光制御信号に基づいて、マトリクスLEDに含まれる複数のLEDへ駆動信号を供給することによって、各LEDを選択的に点灯させる。
マトリクスLEDは、マトリクス状に配列された複数のLEDを備える。マトリクスLEDは、LED点灯回路から供給される駆動信号に基づいて、複数のLEDが選択的に点灯する。マトリクスLEDは、複数のLEDの各々を独立に点灯させることができる。また、マトリクスLEDは、複数のLEDの各々の照射強度(明るさ)を独立して制御することが可能である。
以下、左側のマーキングライト20Lと、右側のマーキングライト20Rとのうち、任意のマーキングライトを、マーキングライト20と記載する。
The marking light 20R on the right side mainly illuminates the right side in front of the automobile 1. The marking light 20R on the right side has an LED lighting circuit and a matrix LED. The LED lighting circuit selectively lights each LED by supplying a drive signal to a plurality of LEDs included in the matrix LED based on the light distribution control signal output by the lighting control device 30.
The matrix LED includes a plurality of LEDs arranged in a matrix. In the matrix LED, a plurality of LEDs are selectively lit based on a drive signal supplied from the LED lighting circuit. The matrix LED can light each of the plurality of LEDs independently. Further, the matrix LED can independently control the irradiation intensity (brightness) of each of the plurality of LEDs.
Hereinafter, any marking light among the marking light 20L on the left side and the marking light 20R on the right side will be referred to as a marking light 20.

前方車外検出部21は、自動車1の前方の外側に関する情報を検出する。本実施形態では、自動車1は、前方車外検出部21を備えるが、他の構成例として、後方車外検出部を備えてもよい。
また、他の構成例として、自動車1は、自動車1の側方の外側に関する情報を検出する車外検出部(本実施形態では、「側方車外検出部」ともいう。)を備えてもよい。側方車外検出部としては、例えば、自動車1の進行方向に対して右側の側方車外検出部と、自動車1の進行方向に対して左側の側方車外検出部が用いられてもよい。
The front vehicle outside detection unit 21 detects information about the outside of the front of the vehicle 1. In the present embodiment, the automobile 1 includes a front vehicle outside detection unit 21, but as another configuration example, a rear vehicle exterior detection unit may be provided.
Further, as another configuration example, the automobile 1 may include an out-of-vehicle detection unit (also referred to as a "side out-of-vehicle detection unit" in the present embodiment) for detecting information regarding the outside of the side of the automobile 1. As the side vehicle outside detection unit, for example, a side vehicle outside detection unit on the right side with respect to the traveling direction of the vehicle 1 and a side vehicle exterior detection unit on the left side with respect to the traveling direction of the vehicle 1 may be used.

前方車外検出部21は、前方の車外に関する任意の情報を検出する。前方車外検出部21は、例えば、レーザーレーダー(LiDAR: Light Detection and Ranging)、レーダー、ソナー、カメラ(撮像装置)40などのうちの1以上を備えてもよい。第1の実施形態では、カメラ40を備える場合について説明を続ける。
カメラ40などは、例えば、可視光を検出する機能を備えてもよく、あるいは、赤外光を検出する機能を備えてもよく、あるいは、これら両方を備えてもよい。本実施形態では、カメラ40が可視光を検出する機能を備える場合について説明を続ける。カメラ40は、自動車1の所定位置(例えば室内ミラー付近)に設置されており、自車両の前方の空間を撮影する。
The front vehicle outside detection unit 21 detects arbitrary information regarding the front vehicle outside. The front vehicle outside detection unit 21 may include, for example, one or more of a laser radar (LiDAR: Light Detection and Ranking), a radar, sonar, a camera (imaging device) 40, and the like. In the first embodiment, the case where the camera 40 is provided will be continued.
The camera 40 and the like may have, for example, a function of detecting visible light, a function of detecting infrared light, or both of them. In the present embodiment, the case where the camera 40 has a function of detecting visible light will be continued. The camera 40 is installed at a predetermined position of the automobile 1 (for example, near an indoor mirror), and photographs the space in front of the own vehicle.

点灯制御装置30は、記憶部32と、検出部33と、照明条件取得部34と、配光制御部35とを備える。尚、本実施形態において検出部33は、点灯制御装置30に含まれているが前方車外検出部21に備えられてもよい。
記憶部32は、情報を記憶する。ここで、記憶部32は、任意の情報を記憶してもよい。一例として、記憶部32は、点灯制御装置30によって実行される制御プログラムあるいは制御パラメータなどの情報を記憶してもよい。この場合、点灯制御装置30は、例えば、CPU(Central Processing Unit)などのプロセッサを備え、当該プロセッサが記憶部32に記憶された制御パラメータを使用して、記憶部32に記憶された制御プログラムを実行することにより、各種の処理を実行する。
The lighting control device 30 includes a storage unit 32, a detection unit 33, a lighting condition acquisition unit 34, and a light distribution control unit 35. Although the detection unit 33 is included in the lighting control device 30 in the present embodiment, it may be provided in the front vehicle outside detection unit 21.
The storage unit 32 stores information. Here, the storage unit 32 may store arbitrary information. As an example, the storage unit 32 may store information such as a control program or control parameters executed by the lighting control device 30. In this case, the lighting control device 30 includes, for example, a processor such as a CPU (Central Processing Unit), and the processor uses the control parameters stored in the storage unit 32 to store the control program in the storage unit 32. By executing, various processes are executed.

検出部33は、カメラ40により周期的に撮影される自動車1の前方の画像に基づいて、人を検出する。
検出部33は、カメラ40などのセンサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報を記憶する。
検出部33は、人判断アルゴリズムにしたがって、当該画像に対して画像認識処理を行い、当該画像に、人であると判断できる特徴点が含まれるか否かを判定する。人判断アルゴリズムは、画像に人が含まれるか否かを、その画像に人であると判断できる特徴点が含まれるか否かを判定することによって、判断するアルゴリズムである。
人判断アルゴリズムが異なることによって、人であると判断できる特徴点が異なる場合がある。つまり、複数の人判断アルゴリズムがある場合、複数の人判断アルゴリズムの各々で、人であると判断できる特徴点が異なる場合がある。具体的には、人であると判断できる特徴点は、頭部、肩部、腕部、胴体部、足元部などの人の体の部位であることが多い。以下、一例として、人であると判断できる特徴点が、頭部、肩部、腕部、胴体部、足元部である場合について説明を続ける。
検出部33は、当該画像に、人であると判断できる特徴点が含まれる場合には、自動車1の前方に、人が検出されたと判定する。また、検出部33は、当該画像に、人であると判断できる特徴点が含まれない場合には、自動車1の前方に、人が検出されないと判定する。
検出部33は、自動車1の前方に、人が検出されたと判定した場合に、人であると判断できる特徴点が含まれると判断した画像を表す情報を出力したセンサーを示す情報を取得する。ここで、画像を表す情報は、カメラ40が出力する画像情報である。検出部33は、取得したセンサーを示す情報に関連する特徴点を示す情報を、センサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報から、取得する。
検出部33は、取得した特徴点を示す情報を含む人の検出結果を、照明条件取得部34へ出力する。
The detection unit 33 detects a person based on an image in front of the automobile 1 periodically taken by the camera 40.
The detection unit 33 stores information in which information indicating a sensor such as a camera 40 and information indicating a feature point determined to be a person by the sensor are associated with each other.
The detection unit 33 performs image recognition processing on the image according to the human determination algorithm, and determines whether or not the image contains feature points that can be determined to be human. The human determination algorithm is an algorithm that determines whether or not an image contains a person, and determines whether or not the image contains feature points that can be determined to be human.
Due to the difference in the human judgment algorithm, the feature points that can be judged as a human may be different. That is, when there are a plurality of human judgment algorithms, each of the plurality of human judgment algorithms may have different characteristic points that can be determined to be a human. Specifically, the characteristic points that can be determined to be a human are often the parts of the human body such as the head, shoulders, arms, torso, and feet. Hereinafter, as an example, the case where the characteristic points that can be determined to be a human are the head, shoulders, arms, torso, and feet will be described.
When the image contains a feature point that can be determined to be a person, the detection unit 33 determines that a person has been detected in front of the automobile 1. Further, when the image does not include a feature point that can be determined to be a person, the detection unit 33 determines that no person is detected in front of the automobile 1.
The detection unit 33 acquires information indicating a sensor that outputs information representing an image determined to include a feature point that can be determined to be a person when it is determined that a person is detected in front of the automobile 1. Here, the information representing the image is the image information output by the camera 40. The detection unit 33 acquires information indicating a feature point related to the acquired information indicating the sensor from information in which the information indicating the sensor and the information indicating the feature point determined to be a person by the sensor are associated with each other. ..
The detection unit 33 outputs the detection result of the person including the information indicating the acquired feature point to the lighting condition acquisition unit 34.

照明条件取得部34は、検出部33が出力した人の検出結果に含まれる人であると判断できる特徴点を表す情報に基づいて、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを取得する。ここで、照明条件取得部34は、自動車1の前方を所定の領域に分けて、その領域毎に照射条件を取得する。その領域には、人の体を、人が検出されたか否かを判別するために使用した領域(以下「人判別領域」という)が含まれる。本実施形態では、人判別領域を、頭部(を含む領域)、肩部(を含む領域)、腕部(を含む領域)、胴体部(を含む領域)、足部(を含む領域)のいずれかとする場合について説明を続ける。
照射条件には、点灯する条件、点滅する条件、消灯する条件、減光する条件、強調点灯する条件などが含まれる。ここで、点灯する条件とはマーキングライト20を点灯することによって照明することであり、点滅する条件とはマーキングライト20を周期的に点灯と消灯とを繰り返すことによって照明することであり、消灯する条件とはマーキングライト20を消灯することである。また、減光する条件とはマーキングライト20を点灯した状態で、光の強さを減少させたり、光を暗くしたりすることによって照明することであり、強調点灯する条件とはマーキングライト20を点灯した状態で、光の強さを増大させたり、光を明るくしたりすることによって照明することである。
具体的には、照明条件取得部34は、人判別領域として、人の検出結果に含まれる人であると判断できる特徴点を取得する。照明条件取得部34は、人判別領域が頭部であるか 否かを判定する。
照明条件取得部34は、人判別領域が頭部である場合には、その人判別領域を、マーキングライト20を減光させて照射する範囲(減光範囲)に設定する。照明条件取得部34は、その人判別領域以外の人の部位を含む領域を、マーキングライト20を点滅させて照射する範囲(点滅範囲)に設定する。照明条件取得部34は、人の部位を含まない領域を、マーキングライト20を消灯させる範囲(消灯範囲)に設定する。照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、減光範囲や、点滅範囲を照射するマーキングライト20を設定する。
The lighting condition acquisition unit 34 is among the marking light 20L on the left side and the marking light 20R on the right side, based on the information representing the feature points that can be determined to be a person included in the detection result of the person output by the detection unit 33. Obtain the irradiation range and irradiation conditions of either one or both. Here, the lighting condition acquisition unit 34 divides the front of the automobile 1 into predetermined regions and acquires the irradiation conditions for each region. The area includes an area (hereinafter referred to as "human discrimination area") in which the human body is used to determine whether or not a person has been detected. In the present embodiment, the human discrimination region is defined as a head (including region), a shoulder (including region), an arm (including), a torso (including), and a foot (including). The explanation of either case will be continued.
Irradiation conditions include lighting conditions, blinking conditions, extinguishing conditions, dimming conditions, highlighted lighting conditions, and the like. Here, the lighting condition is to illuminate the marking light 20 by turning it on, and the blinking condition is to illuminate the marking light 20 by periodically turning it on and off, and turning it off. The condition is to turn off the marking light 20. Further, the dimming condition is to illuminate the marking light 20 by reducing the intensity of the light or dimming the light while the marking light 20 is lit, and the highlighting condition is to turn on the marking light 20. In the lit state, it is illuminated by increasing the intensity of light or brightening the light.
Specifically, the lighting condition acquisition unit 34 acquires feature points that can be determined to be a person included in the detection result of a person as a person discrimination area. The lighting condition acquisition unit 34 determines whether or not the person discrimination area is the head.
When the person discrimination area is the head, the lighting condition acquisition unit 34 sets the person discrimination area to a range (dimming range) in which the marking light 20 is dimmed and irradiated. The lighting condition acquisition unit 34 sets an area including a human portion other than the human identification area to a range (blinking range) in which the marking light 20 is blinked and irradiated. The lighting condition acquisition unit 34 sets an area that does not include a human part to a range (extinguishing range) in which the marking light 20 is turned off. The lighting condition acquisition unit 34 sets the marking light 20 that illuminates the dimming range and the blinking range among the marking light 20L on the left side and the marking light 20R on the right side.

また、照明条件取得部34は、人判別領域が頭部でない場合には、その人判別領域を、マーキングライト20を強調点灯させて照射する範囲(強調範囲)に設定し、頭部を、マーキングライト20を消灯させる範囲(消灯範囲)に設定し、その人判別領域と頭部以外の人の部位を含む領域を、マーキングライト20を点滅させて照射する範囲(点滅範囲)に設定する。照明条件取得部34は、人の部位を含まない領域を、マーキングライト20を消灯させる範囲(消灯範囲)に設定する。照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、強調範囲や、点滅範囲を照射するマーキングライト20を設定する。
照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果を、配光制御部35へ出力する。
配光制御部35は照明条件取得部34が出力した左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果に基づいて、その照射範囲に応じた配光制御信号を生成し、生成した配光制御信号を、左側のマーキングライト20Lと右側のマーキングライト20Rのいずれか一方又は両方へ出力する。
Further, when the person discrimination area is not the head, the lighting condition acquisition unit 34 sets the person discrimination area to a range (enhanced range) in which the marking light 20 is highlighted and illuminated, and the head is marked. The light 20 is set to the range for turning off the light (lighting range), and the area including the person identification area and the part of the person other than the head is set to the range for blinking the marking light 20 (blinking range). The lighting condition acquisition unit 34 sets an area that does not include a human part to a range (extinguishing range) in which the marking light 20 is turned off. The lighting condition acquisition unit 34 sets a marking light 20 that illuminates an emphasis range or a blinking range among the marking light 20L on the left side and the marking light 20R on the right side.
The lighting condition acquisition unit 34 outputs the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side to the light distribution control unit 35. do.
The light distribution control unit 35 is based on the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side output by the lighting condition acquisition unit 34. Then, a light distribution control signal corresponding to the irradiation range is generated, and the generated light distribution control signal is output to one or both of the marking light 20L on the left side and the marking light 20R on the right side.

[人への照明の例]
図4は、第1の実施形態に係る自動車1に備えられた照明システム100による照明の一例を示す図(その1)である。
図4は、人であると判断できる特徴点が頭部であり、自動車1の前方の画像に、人であると判断できる特徴点が含まれると判定した場合の例を示す。図4において、照射条件を設定する領域を、R11-R71、R12-R72、R13-R73、R14-R74で表す。
検出部33は、自動車1の前方の画像に、人であると判断できる特徴点が含まれると判定し、人であると判断できる特徴点を示す情報を、照明条件取得部34へ出力する。
照明条件取得部34は、人判別領域として、人の検出結果に含まれる人であると判断できる特徴点を取得する。照明条件取得部34は、人判別領域が頭部であるため、その人判別領域(R24)を減光範囲に設定し、その人判別領域以外の人の部位を含む領域(R34、R44、R54、R64)を点滅範囲に設定する。照明条件取得部34は、人の部位を含まない領域(R11-R71、R12-R72、R13-R73、R14、R74)を消灯範囲に設定する。照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、減光範囲や、点滅範囲を照射するマーキングライト20を設定する。
照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件の設定結果とを含む照明条件を、配光制御部35へ出力する。
配光制御部35は照明条件取得部34が出力した左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果に基づいて、その照射範囲と照射条件とに応じた配光制御信号を生成し、生成した配光制御信号を、左側のマーキングライト20Lと右側のマーキングライト20Rのいずれか一方又は両方へ出力する。その結果、図4に示されるように、右側のマーキングライト20Rは、頭部への照明を減光させ、頭部以外の人の部位を含む領域への照明を点滅させる。
[Example of lighting for people]
FIG. 4 is a diagram (No. 1) showing an example of lighting by the lighting system 100 provided in the automobile 1 according to the first embodiment.
FIG. 4 shows an example in which the head is a feature point that can be determined to be a person, and it is determined that the image in front of the automobile 1 includes a feature point that can be determined to be a person. In FIG. 4, the region for setting the irradiation condition is represented by R11-R71, R12-R72, R13-R73, and R14-R74.
The detection unit 33 determines that the image in front of the automobile 1 contains feature points that can be determined to be a person, and outputs information indicating the feature points that can be determined to be a person to the lighting condition acquisition unit 34.
The lighting condition acquisition unit 34 acquires feature points that can be determined to be a person included in the detection result of a person as a person discrimination area. Since the person discrimination area is the head, the lighting condition acquisition unit 34 sets the person discrimination area (R24) to the dimming range, and sets the area including the human part other than the person discrimination area (R34, R44, R54). , R64) is set in the blinking range. The lighting condition acquisition unit 34 sets an area (R11-R71, R12-R72, R13-R73, R14, R74) that does not include a human part as a light-off range. The lighting condition acquisition unit 34 sets the marking light 20 that illuminates the dimming range and the blinking range among the marking light 20L on the left side and the marking light 20R on the right side.
The lighting condition acquisition unit 34 outputs the lighting condition including the irradiation range of either one or both of the marking light 20L on the left side and the marking light 20R on the right side and the setting result of the irradiation condition to the light distribution control unit 35. do.
The light distribution control unit 35 is based on the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side output by the lighting condition acquisition unit 34. Then, a light distribution control signal corresponding to the irradiation range and irradiation conditions is generated, and the generated light distribution control signal is output to either or both of the marking light 20L on the left side and the marking light 20R on the right side. As a result, as shown in FIG. 4, the marking light 20R on the right side dims the illumination to the head and blinks the illumination to the area including the human part other than the head.

図5は、第1の実施形態に係る自動車1に備えられた照明システム100による照明の一例を示す図(その2)である。
図5は、人であると判断できる特徴点が肩部であり、自動車1の前方の画像に、人であると判断できる特徴点が含まれると判定した場合の例を示す。図5において、照射条件を設定する領域を、R11-R71、R12-R72、R13-R73、R14-R74で表す。
検出部33は、自動車1の前方の画像に、人であると判断できる特徴点が含まれると判定し、人であると判断できる特徴点を示す情報を、照明条件取得部34へ出力する。
照明条件取得部34は、人判別領域として、人の検出結果に含まれる人であると判断できる特徴点を取得する。照明条件取得部34は、人判別領域が肩部であるため、その人判別領域(R34)を強調範囲に設定し、頭部(R24)を消灯範囲に設定し、人判別領域と頭部以外の人の部位を含む領域(R44-R64)を点滅範囲に設定する。照明条件取得部34は、人の部位を含まない領域(R11-R71、R12-R72、R13-R73、R14、R74)を消灯範囲に設定する。照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、強調範囲や、点滅範囲を照射するマーキングライト20を設定する。
照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果を、配光制御部35へ出力する。
配光制御部35は照明条件取得部34が出力した左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果に基づいて、その照射範囲と照射条件とに応じた配光制御信号を生成し、生成した配光制御信号を、左側のマーキングライト20Lと右側のマーキングライト20Rのいずれか一方又は両方へ出力する。その結果、図5に示されるように、右側のマーキングライト20Rは、肩部への照明を強調させ、頭部への照明を消灯させ、肩部と頭部以外の人の部位を含む領域への照明を点滅させる。
FIG. 5 is a diagram (No. 2) showing an example of lighting by the lighting system 100 provided in the automobile 1 according to the first embodiment.
FIG. 5 shows an example in which the characteristic point that can be determined to be a human is the shoulder portion, and it is determined that the image in front of the automobile 1 includes the characteristic point that can be determined to be a human. In FIG. 5, the region for setting the irradiation condition is represented by R11-R71, R12-R72, R13-R73, and R14-R74.
The detection unit 33 determines that the image in front of the automobile 1 contains feature points that can be determined to be a person, and outputs information indicating the feature points that can be determined to be a person to the lighting condition acquisition unit 34.
The lighting condition acquisition unit 34 acquires feature points that can be determined to be a person included in the detection result of a person as a person discrimination area. Since the person discrimination area is the shoulder portion, the lighting condition acquisition unit 34 sets the person discrimination area (R34) as the emphasis range, sets the head (R24) as the extinguishing range, and sets the person discrimination area and other than the head. The area (R44-R64) including the human part is set as the blinking range. The lighting condition acquisition unit 34 sets an area (R11-R71, R12-R72, R13-R73, R14, R74) that does not include a human part as a light-off range. The lighting condition acquisition unit 34 sets a marking light 20 that illuminates an emphasis range or a blinking range among the marking light 20L on the left side and the marking light 20R on the right side.
The lighting condition acquisition unit 34 outputs the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side to the light distribution control unit 35. do.
The light distribution control unit 35 is based on the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side output by the lighting condition acquisition unit 34. Then, a light distribution control signal corresponding to the irradiation range and irradiation conditions is generated, and the generated light distribution control signal is output to either or both of the marking light 20L on the left side and the marking light 20R on the right side. As a result, as shown in FIG. 5, the marking light 20R on the right side emphasizes the illumination on the shoulder, turns off the illumination on the head, and goes to the area including the shoulder and the part of the person other than the head. Blink the lights.

図6は、第1の実施形態に係る自動車1に備えられた照明システム100による照明の一例を示す図(その3)である。
図6は、人であると判断できる特徴点が足部であり、自動車1の前方の画像に、人であると判断できる特徴点が含まれると判定した場合の例を示す。図6において、照射条件を設定する領域を、R11-R71、R12-R72、R13-R73、R14-R74で表す。
検出部33は、自動車1の前方の画像に、人であると判断できる特徴点が含まれると判定し、人であると判断できる特徴点を示す情報を、照明条件取得部34へ出力する。
照明条件取得部34は、人判別領域として、人の検出結果に含まれる人であると判断できる特徴点を取得する。照明条件取得部34は、人判別領域が足部であるため、その人判別領域(R54、R64)を強調範囲に設定し、頭部(R24)を消灯範囲に設定し、人判別領域と頭部以外の人の部位を含む領域(R34、R44)を点滅範囲に設定する。
照明条件取得部34は、人の部位を含まない領域(R11-R71、R12-R72、R13-R73、R14、R74)を消灯範囲に設定する。照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、強調範囲や、点滅範囲を照射するマーキングライト20を設定する。
照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果を、配光制御部35へ出力する。
配光制御部35は照明条件取得部34が出力した左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果に基づいて、その照射範囲と照射条件とに応じた配光制御信号を生成し、生成した配光制御信号を、左側のマーキングライト20Lと右側のマーキングライト20Rのいずれか一方又は両方へ出力する。その結果、図6に示されるように、右側のマーキングライト20Rは、足部への照明を強調させ、頭部への照明を消灯させ、足部と頭部以外の人の部位を含む領域への照明を点滅させる。
FIG. 6 is a diagram (No. 3) showing an example of lighting by the lighting system 100 provided in the automobile 1 according to the first embodiment.
FIG. 6 shows an example in which the feature point that can be determined to be a person is the foot, and it is determined that the image in front of the automobile 1 includes the feature point that can be determined to be a person. In FIG. 6, the region for setting the irradiation condition is represented by R11-R71, R12-R72, R13-R73, and R14-R74.
The detection unit 33 determines that the image in front of the automobile 1 contains feature points that can be determined to be a person, and outputs information indicating the feature points that can be determined to be a person to the lighting condition acquisition unit 34.
The lighting condition acquisition unit 34 acquires feature points that can be determined to be a person included in the detection result of a person as a person discrimination area. Since the person discrimination area is the foot, the lighting condition acquisition unit 34 sets the person discrimination area (R54, R64) as the emphasis range, sets the head (R24) as the extinguishing range, and sets the person discrimination area and the head. The area (R34, R44) including the part of the person other than the part is set as the blinking range.
The lighting condition acquisition unit 34 sets an area (R11-R71, R12-R72, R13-R73, R14, R74) that does not include a human part as a light-off range. The lighting condition acquisition unit 34 sets a marking light 20 that illuminates an emphasis range or a blinking range among the marking light 20L on the left side and the marking light 20R on the right side.
The lighting condition acquisition unit 34 outputs the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side to the light distribution control unit 35. do.
The light distribution control unit 35 is based on the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side output by the lighting condition acquisition unit 34. Then, a light distribution control signal corresponding to the irradiation range and irradiation conditions is generated, and the generated light distribution control signal is output to either or both of the marking light 20L on the left side and the marking light 20R on the right side. As a result, as shown in FIG. 6, the marking light 20R on the right side emphasizes the illumination to the foot, turns off the illumination to the head, and goes to the area including the foot and the part of the person other than the head. Blink the lights.

図7は、第1の実施形態に係る自動車1に備えられた照明システム100による照明の一例を示す図(その4)である。
図7は、人であると判断できる特徴点が胴体部であり、自動車1の前方の画像に、人であると判断できる特徴点が含まれると判定した場合の例を示す。図7において、照射条件を設定する領域を、R11-R71、R12-R72、R13-R73、R14-R74で表す。
検出部33は、自動車1の前方の画像に、人であると判断できる特徴点が含まれると判定し、人であると判断できる特徴点を示す情報を、照明条件取得部34へ出力する。
照明条件取得部34は、人判別領域として、人の検出結果に含まれる人であると判断できる特徴点を取得する。照明条件取得部34は、人判別領域が胴体部であるため、その人判別領域(R44)を強調範囲に設定し、頭部(R24)を消灯範囲に設定し、胴体部と頭部以外の人の部位を含む領域(R34、R54、R64)を点滅範囲に設定する。
照明条件取得部34は、人の部位を含まない領域(R11-R71、R12-R72、R13-R73、R14、R74)を消灯範囲に設定する。照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、強調範囲や、点滅範囲を照射するマーキングライト20を設定する。
照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果を、配光制御部35へ出力する。
配光制御部35は照明条件取得部34が出力した左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果に基づいて、その照射範囲と照射条件とに応じた配光制御信号を生成し、生成した配光制御信号を、左側のマーキングライト20Lと右側のマーキングライト20Rのいずれか一方又は両方へ出力する。その結果、図7に示されるように、右側のマーキングライト20Rは、胴体部への照明を強調させ、頭部への照明を消灯させ、胴体部と頭部以外の人の部位を含む領域への照明を点滅させる。
FIG. 7 is a diagram (No. 4) showing an example of lighting by the lighting system 100 provided in the automobile 1 according to the first embodiment.
FIG. 7 shows an example in which the feature point that can be determined to be a human is the body portion, and it is determined that the image in front of the automobile 1 includes the feature point that can be determined to be a human. In FIG. 7, the region for setting the irradiation condition is represented by R11-R71, R12-R72, R13-R73, and R14-R74.
The detection unit 33 determines that the image in front of the automobile 1 contains feature points that can be determined to be a person, and outputs information indicating the feature points that can be determined to be a person to the lighting condition acquisition unit 34.
The lighting condition acquisition unit 34 acquires feature points that can be determined to be a person included in the detection result of a person as a person discrimination area. Since the person discrimination area is the body part of the lighting condition acquisition unit 34, the person discrimination area (R44) is set as the emphasis range, the head (R24) is set as the extinguishing range, and the body part and other than the head part are set. The area including the human part (R34, R54, R64) is set as the blinking range.
The lighting condition acquisition unit 34 sets an area (R11-R71, R12-R72, R13-R73, R14, R74) that does not include a human part as a light-off range. The lighting condition acquisition unit 34 sets a marking light 20 that illuminates an emphasis range or a blinking range among the marking light 20L on the left side and the marking light 20R on the right side.
The lighting condition acquisition unit 34 outputs the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side to the light distribution control unit 35. do.
The light distribution control unit 35 is based on the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side output by the lighting condition acquisition unit 34. Then, a light distribution control signal corresponding to the irradiation range and irradiation conditions is generated, and the generated light distribution control signal is output to either or both of the marking light 20L on the left side and the marking light 20R on the right side. As a result, as shown in FIG. 7, the marking light 20R on the right side emphasizes the illumination to the body part, turns off the illumination to the head part, and goes to the area including the body part and the part of the person other than the head part. Blink the lights.

[照明処理の手順の一例]
図8は、第1の実施形態に係る自動車1に備えられた点灯制御装置30の動作の一例を示すフローチャートである。
(ステップS11)
検出部33は、人を検出する。検出部33は、人の検出結果を、照明条件取得部34へ出力する。
(ステップS12)
照明条件取得部34は、人判別領域として、検出部33が出力した人の検出結果に含まれる人であると判断できる特徴点を示す情報を取得する。
(ステップS13)
照明条件取得部34は、人判別領域が頭部であるか否かを判定する。
(ステップS14)
照明条件取得部34は、人判別領域が頭部でないと判定した場合、その人判別領域を強調範囲に設定する。
(ステップS15)
照明条件取得部34は、頭部を消灯範囲に設定する。
(ステップS16)
照明条件取得部34は、人判別領域および頭部以外の人の部位を含む領域を点滅範囲に設定する。
[Example of lighting processing procedure]
FIG. 8 is a flowchart showing an example of the operation of the lighting control device 30 provided in the automobile 1 according to the first embodiment.
(Step S11)
The detection unit 33 detects a person. The detection unit 33 outputs the detection result of a person to the lighting condition acquisition unit 34.
(Step S12)
The lighting condition acquisition unit 34 acquires information indicating a feature point that can be determined to be a person included in the detection result of the person output by the detection unit 33 as the person discrimination area.
(Step S13)
The lighting condition acquisition unit 34 determines whether or not the person discrimination region is the head.
(Step S14)
When the lighting condition acquisition unit 34 determines that the person discrimination area is not the head, the lighting condition acquisition unit 34 sets the person discrimination area as the emphasis range.
(Step S15)
The lighting condition acquisition unit 34 sets the head to the extinguishing range.
(Step S16)
The lighting condition acquisition unit 34 sets the blinking range to the area including the person discrimination area and the part of the person other than the head.

(ステップS17)
照明条件取得部34は、人判別領域が頭部であると判定した場合、その人判別領域を減光範囲に設定する。
(ステップS18)
照明条件取得部34は、人判別領域以外の人の部位を含む領域を点滅範囲に設定する。
(ステップS19)
照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、強調範囲や、点滅範囲や、減光範囲を照射するマーキングライト20を設定する。
照明条件取得部34は、左側のマーキングライト20Lと右側のマーキングライト20Rとのうち、いずれか一方又は両方の照射範囲と照射条件とを含む照明条件の設定結果を、配光制御部35へ出力する。
配光制御部35は、照射範囲と照射条件とを含む照明条件の設定結果に基づいて、その照射範囲と照射条件とに応じた配光制御信号を生成し、生成した配光制御信号を、左側のマーキングライト20Lと右側のマーキングライト20Rのいずれか一方又は両方へ出力する。
(ステップS20)
左側のマーキングライト20Lと右側のマーキングライト20Rのいずれか一方又は両方は、点灯制御装置30が出力する配光制御信号に基づいて、マトリクスLEDに含まれる複数のLEDへ駆動信号を供給することによって、各LEDを選択的に点灯させる。マトリクスLEDは、LED点灯回路から供給される駆動信号に基づいて複数のLEDが選択的に点灯する。
(Step S17)
When the lighting condition acquisition unit 34 determines that the person discrimination area is the head, the lighting condition acquisition unit 34 sets the person discrimination area to the dimming range.
(Step S18)
The lighting condition acquisition unit 34 sets an area including a human part other than the human identification area as a blinking range.
(Step S19)
The lighting condition acquisition unit 34 sets the marking light 20 that illuminates the highlighting range, the blinking range, and the dimming range among the marking light 20L on the left side and the marking light 20R on the right side.
The lighting condition acquisition unit 34 outputs the setting result of the lighting condition including the irradiation range and the irradiation condition of either one or both of the marking light 20L on the left side and the marking light 20R on the right side to the light distribution control unit 35. do.
The light distribution control unit 35 generates a light distribution control signal according to the irradiation range and the irradiation condition based on the setting result of the lighting condition including the irradiation range and the irradiation condition, and generates the generated light distribution control signal. Output to either one or both of the marking light 20L on the left side and the marking light 20R on the right side.
(Step S20)
Either or both of the marking light 20L on the left side and the marking light 20R on the right side supply drive signals to a plurality of LEDs included in the matrix LED based on the light distribution control signal output by the lighting control device 30. , Each LED is selectively turned on. In the matrix LED, a plurality of LEDs are selectively lit based on a drive signal supplied from the LED lighting circuit.

前述した第1の実施形態では、人であると判断できる特徴点が、頭部、肩部、腕部、胴体部、足元部などの人の体の部位である場合について説明したが、この例に限られない。例えば、人であると判断できる特徴点が、目、鼻、口などの顔のパーツであってもよい。
前述した第1の実施形態では、自動車1が、左側のマーキングライト20Lと、右側のマーキングライト20Rとを備える場合について説明したが、この限りでない。例えば、左側のマーキングライト20Lと、右側のマーキングライト20Rとのいずれか一方を自動車1に備えるようにして、自動車1の前方に光を照射するようにしてもよい。
前述した第1の実施形態では、マーキングライト20がLED点灯回路と、マトリクスLEDとを有する場合について説明したが、この例に限られない。例えば、マーキングライト20は、任意の照灯が用いられてもよい。例えば、照灯として走行ビームのランプは、例えば、MEMS(Micro Electro Mechanical Systems)レーザースキャニングヘッドランプ、DMD(Digital Mirror Device)ヘッドランプ、列と行の制御が可能なマトリクスADBヘッドランプ、あるいは、列のみの制御が可能なADBヘッドランプなどのうちの1以上が用いられてもよい。ここで、MEMSレーザースキャニングヘッドランプは、例えば、配光を可変に変化させることが可能な車両用のヘッドランプの一例であり、シームレスADBランプの一例である。
前述した第1の実施形態では、カメラ40が人を検出した場合に、人が検出されたか否かを判別するために使用した人判別領域に応じて、最適な照射条件を選択する場合について説明したが、この例に限られない。例えば、レーザーレーダー、レーダー、ソナーなどのセンサーが人を検出した場合に、人が検出されたか否かを判別するために使用した人判別領域に応じて、最適な照射条件を選択するようにしてもよい。
前述した第1の実施形態では、照射条件に、点灯する条件、点滅する条件、消灯する条件、減光する条件、強調点灯する条件などが含まれる場合について説明したが、この例に限られない。例えば、照射条件に、減光点滅、強調点滅などが含まれてもよい。ここで、減光点滅する条件とは、マーキングライト20を点灯した状態で、光の強さを減少させたり、光を暗くしたりするとともに、周期的に点灯と消灯とを繰り返すことである。強調点滅する条件とは、マーキングライト20を点灯した状態で、光の強さを増大させたり、光を明るくさせたりするとともに、周期的に点灯と消灯とを繰り返すことである。
前述した第1の実施形態では、強調点灯する条件が、マーキングライト20を点灯した状態で、光の強さを増大させたり、光を明るくしたりすることによって照明する場合について説明したが、この例に限られない。例えば、強調範囲以外の範囲が、消灯又は点滅である場合には、マーキングライト20を点灯した状態でも、カメラ40により強調範囲を検出できるため、光の強さを増大させたり、光を明るくしたりしなくてもよい。
前述した第1の実施形態では、減光する条件が、マーキングライト20を点灯した状態で、光の強さを減少させたり、光を暗くしたりすることによって照明する場合について説明したが、この例に限られない。例えば、マーキングライト20を点灯した状態で、人判別領域よりも減光されていれば、光の強さを減少させたり、光を暗くしたりしなくてもよい。
前述した第1の実施形態では、前方車外検出部21により検出された人の所定の部位の領域である人判別領域を示す情報に基づいて、点灯制御装置30が、人の照明条件を取得する場合について説明したがこの例に限られない。例えば、後方車外検出部と、側方車外検出部とのいずれか一方又は両方により検出された人の所定の部位の領域である人判別領域を示す情報に基づいて、点灯制御装置30が、人の照明条件を取得するようにしてもよい。
In the first embodiment described above, the case where the characteristic points that can be determined to be a human are the parts of the human body such as the head, shoulders, arms, torso, and feet has been described. Not limited to. For example, facial parts such as eyes, nose, and mouth may be features that can be determined to be human.
In the first embodiment described above, the case where the automobile 1 includes the marking light 20L on the left side and the marking light 20R on the right side has been described, but the present invention is not limited to this. For example, one of the marking light 20L on the left side and the marking light 20R on the right side may be provided in the automobile 1 to irradiate the front of the automobile 1 with light.
In the first embodiment described above, the case where the marking light 20 has an LED lighting circuit and a matrix LED has been described, but the present invention is not limited to this example. For example, as the marking light 20, any illuminating light may be used. For example, the lamp of the traveling beam as an illumination lamp may be, for example, a MEMS (Micro Electrical Mechanical Systems) laser scanning headlamp, a DMD (Digital Millor Device) headlamp, a matrix ADB headlamp capable of controlling columns and rows, or a column. One or more of ADB headlamps and the like capable of controlling only may be used. Here, the MEMS laser scanning headlamp is, for example, an example of a headlamp for a vehicle capable of variably changing the light distribution, and is an example of a seamless ADB lamp.
In the first embodiment described above, when the camera 40 detects a person, the case where the optimum irradiation condition is selected according to the person identification area used for determining whether or not the person is detected will be described. However, it is not limited to this example. For example, when a sensor such as a laser radar, radar, or sonar detects a person, the optimum irradiation condition is selected according to the person identification area used to determine whether or not the person is detected. May be good.
In the first embodiment described above, the case where the irradiation condition includes a lighting condition, a blinking condition, a lighting condition, a dimming condition, a highlighted lighting condition, and the like has been described, but the present invention is not limited to this example. .. For example, the irradiation conditions may include dimming blinking, emphasized blinking, and the like. Here, the condition for dimming and blinking is that the marking light 20 is turned on, the intensity of the light is reduced, the light is dimmed, and the light is turned on and off periodically. The condition for highlighting and blinking is that the marking light 20 is turned on, the intensity of the light is increased, the light is brightened, and the light is turned on and off periodically.
In the first embodiment described above, the case where the highlighting condition is to illuminate the marking light 20 by increasing the intensity of the light or brightening the light while the marking light 20 is lit has been described. Not limited to examples. For example, when the range other than the emphasized range is off or blinking, the enhanced range can be detected by the camera 40 even when the marking light 20 is turned on, so that the intensity of the light is increased or the light is brightened. It doesn't have to be.
In the first embodiment described above, the case where the dimming condition is to illuminate the marking light 20 by reducing the intensity of the light or dimming the light while the marking light 20 is lit has been described. Not limited to examples. For example, if the marking light 20 is lit and the light is dimmed from the human discrimination area, it is not necessary to reduce the light intensity or dimming the light.
In the first embodiment described above, the lighting control device 30 acquires the lighting conditions of a person based on the information indicating the person identification area which is the area of the predetermined part of the person detected by the front vehicle outside detection unit 21. The case has been described, but it is not limited to this example. For example, the lighting control device 30 is based on information indicating a person identification area, which is an area of a predetermined part of a person detected by either or both of the rear vehicle outside detection unit and the side vehicle outside detection unit. The lighting conditions of may be acquired.

本実施形態に係る点灯制御装置30よれば、自動車1に、人を検出するセンサーを備える。点灯制御装置30は、センサーが人を検出した場合に、人が検出されたか否かを判別するために使用した人判別領域に応じて、最適な照射範囲と照射条件とを選択し、選択した照射範囲と照射条件とにしたがって、マーキングライト20の点灯状態を制御する。このように構成することによって、センサーが人を誤検出することを低減しつつ、運転者に、自動車1の前方にいる人を早期に発見することを促すことができる。 According to the lighting control device 30 according to the present embodiment, the automobile 1 is provided with a sensor for detecting a person. When the sensor detects a person, the lighting control device 30 selects and selects the optimum irradiation range and irradiation condition according to the person discrimination area used for determining whether or not the person is detected. The lighting state of the marking light 20 is controlled according to the irradiation range and the irradiation conditions. With such a configuration, it is possible to encourage the driver to detect a person in front of the automobile 1 at an early stage while reducing the false detection of a person by the sensor.

<構成例>
一構成例として、車両用照灯(本実施例では、前照灯部10)による光照明状態を制御する点灯制御装置(本実施例では、点灯制御装置30)であって、人の所定の部位を検出することで、人を検出する検出部(本実施形態では、検出部33)と、所定の部位の領域である人判別領域を示す情報に基づいて、人の照明条件を取得する照明条件取得部(本実施形態では、照明条件取得部34)とを備える、点灯制御装置。
<Configuration example>
As a configuration example, it is a lighting control device (lighting control device 30 in this embodiment) that controls a light illumination state by a vehicle lighting (headlight unit 10 in this embodiment), and is a predetermined person. Lighting that acquires lighting conditions for a person based on information indicating a detection unit (in this embodiment, the detection unit 33) that detects a person by detecting a part and a person identification area that is an area of a predetermined part. A lighting control device including a condition acquisition unit (in this embodiment, a lighting condition acquisition unit 34).

一構成例として、照明条件取得部は、人判別領域が頭部である場合、頭部の照明条件として、所定光の照明条件を取得する。
一構成例として、照明条件取得部は、減光する条件を取得する。
一構成例として、照明条件取得部は、頭部以外の人の部位への照明条件として、点滅する条件を取得する。
一構成例として、照明条件取得部は、人判別領域が頭部とは異なる他の部位である場合、頭部への照明条件として、所定光の照明条件を取得する。
一構成例として、照明条件取得部は、頭部への照明条件として、消灯する条件を取得し、人判別領域への照明条件として、強調する条件を取得する。
一構成例として、照明条件取得部は、人判別領域および頭部以外の人の他の部位への照明条件として、点滅する条件を取得する。
一構成例として、車両用消灯は、前照灯である。
As a configuration example, when the person discrimination region is the head, the lighting condition acquisition unit acquires the lighting condition of a predetermined light as the lighting condition of the head.
As a configuration example, the lighting condition acquisition unit acquires a dimming condition.
As a configuration example, the lighting condition acquisition unit acquires a blinking condition as a lighting condition for a part of a person other than the head.
As a configuration example, when the human discrimination region is a portion different from the head, the lighting condition acquisition unit acquires the lighting condition of a predetermined light as the lighting condition for the head.
As a configuration example, the lighting condition acquisition unit acquires a condition for turning off the light as a lighting condition for the head and a condition for emphasizing as a lighting condition for the human discrimination area.
As a configuration example, the lighting condition acquisition unit acquires a blinking condition as a lighting condition for a person discrimination area and other parts of a person other than the head.
As an example of the configuration, the vehicle extinguishing is a headlight.

[第2の実施形態]
第2の実施形態に係る自動車1aの概略的な構成は、図1を適用できる。ただし、第2の実施形態に係る自動車1aは、第1の実施形態に係る自動車1と比較して、前方車外検出部21の代わりに、前方車外検出部21aを備え、点灯制御装置30の代わりに、点灯制御装置30aを備える点で、異なる。
第2の実施形態に係る照明装置が適用された自動車1aの前側部分は、図2を適用できる。
[Second Embodiment]
FIG. 1 can be applied to the schematic configuration of the automobile 1a according to the second embodiment. However, the automobile 1a according to the second embodiment is provided with the front outside detection unit 21a instead of the front outside detection unit 21 as compared with the automobile 1 according to the first embodiment, and instead of the lighting control device 30. The difference is that the lighting control device 30a is provided.
FIG. 2 can be applied to the front side portion of the automobile 1a to which the lighting device according to the second embodiment is applied.

[自動車の照明システムの概略的な機能構成]
図9は、第2の実施形態に係る自動車1aに備えられた照明システム100aの概略的な機能構成を示すブロック図である。
照明システム100aは、前照灯部10と、点灯制御装置30aと、前方車外検出部21aとを備える。また、前照灯部10と、点灯制御装置30aとによって、車両用灯具が構成される。
ここで、本実施形態では、一般的な「前後」の概念と同様に、自動車1aの運転者が通常時に向く方向であって自動車1aが通常時に進行(走行)する方向を「前(前方)」とし、それとは逆の方向を「後ろ(後方)」とする。
前方車外検出部21aは、自動車1aの前方の外側に関する情報を検出する。本実施形態では、自動車1aは、前方車外検出部21aを備えるが、他の構成例として、後方車外検出部を備えてもよい。
また、他の構成例として、自動車1aは、自動車1aの側方の外側に関する情報を検出する車外検出部(本実施形態では、「側方車外検出部」ともいう。)を備えてもよい。側方車外検出部としては、例えば、自動車1aの進行方向に対して右側の側方車外検出部と、自動車1aの進行方向に対して左側の側方車外検出部が用いられてもよい。
[Rough functional configuration of automobile lighting system]
FIG. 9 is a block diagram showing a schematic functional configuration of the lighting system 100a provided in the automobile 1a according to the second embodiment.
The lighting system 100a includes a headlight unit 10, a lighting control device 30a, and a front vehicle exterior detection unit 21a. Further, the headlight unit 10 and the lighting control device 30a constitute a vehicle lighting tool.
Here, in the present embodiment, similarly to the general concept of "front and back", the direction in which the driver of the automobile 1a faces in the normal time and the direction in which the automobile 1a travels (runs) in the normal time is "front (forward)". , And the opposite direction is "back (rear)".
The front vehicle outside detection unit 21a detects information about the outside of the front of the vehicle 1a. In the present embodiment, the automobile 1a includes a front vehicle outside detection unit 21a, but as another configuration example, a rear vehicle exterior detection unit may be provided.
Further, as another configuration example, the automobile 1a may include an out-of-vehicle detection unit (also referred to as a "side out-of-vehicle detection unit" in the present embodiment) for detecting information regarding the outside of the side of the automobile 1a. As the side vehicle exterior detection unit, for example, a side vehicle exterior detection unit on the right side with respect to the traveling direction of the automobile 1a and a side vehicle exterior detection unit on the left side with respect to the traveling direction of the automobile 1a may be used.

前方車外検出部21aは、前方の車外に関する任意の情報を検出する。前方車外検出部21aは、例えば、レーザーレーダー42、レーダー、ソナー、カメラ(撮像装置)40などのうちの2以上を備えてもよい。第2の実施形態では、カメラ40と、レーザーレーダー42とを備える場合について説明を続ける。
カメラ40は、例えば、可視光を検出する機能を備えてもよく、あるいは、赤外光を検出する機能を備えてもよく、あるいは、これら両方を備えてもよい。本実施形態では、カメラ40が可視光を検出する機能を備える場合について説明を続ける。カメラ40は、自動車1aの所定位置(例えば室内ミラー付近)に設置されており、自車両の前方の空間を撮影する。カメラ40は、自車両の前方の空間を撮影することによって得られた画像情報を、検出部33aへ出力する。
レーザーレーダー42は、レーザーやミリ波を、自動車1aの前方に照射するとともに、照射したレーザーやミリ波を二次元状に照射し、自動車1aの前方で反射されたレーザーやミリ波を受信する。レーザーレーダー42は、受信したレーザーやミリ波を、検出部33aへ出力する。
The front vehicle outside detection unit 21a detects arbitrary information regarding the front vehicle outside. The front vehicle exterior detection unit 21a may include, for example, two or more of a laser radar 42, a radar, sonar, a camera (imaging device) 40, and the like. In the second embodiment, the case where the camera 40 and the laser radar 42 are provided will be described.
The camera 40 may have, for example, a function of detecting visible light, a function of detecting infrared light, or both of them. In the present embodiment, the case where the camera 40 has a function of detecting visible light will be continued. The camera 40 is installed at a predetermined position of the automobile 1a (for example, near an indoor mirror), and photographs the space in front of the own vehicle. The camera 40 outputs the image information obtained by photographing the space in front of the own vehicle to the detection unit 33a.
The laser radar 42 irradiates the front of the automobile 1a with a laser or millimeter wave, irradiates the irradiated laser or millimeter wave in a two-dimensional manner, and receives the laser or millimeter wave reflected in front of the automobile 1a. The laser radar 42 outputs the received laser or millimeter wave to the detection unit 33a.

点灯制御装置30aは、記憶部32aと、検出部33aと、照明条件取得部34と、配光制御部35とを備える。尚、本実施例において検出部33aは、点灯制御装置30aに含まれているが前方車外検出部21aに備えられてもよい。
記憶部32aは、情報を記憶する。ここで、記憶部32aは、任意の情報を記憶してもよい。一例として、記憶部32aは、点灯制御装置30aによって実行される制御プログラムあるいは制御パラメータなどの情報を記憶してもよい。この場合、点灯制御装置30aは、例えば、CPUなどのプロセッサを備え、当該プロセッサが記憶部32aに記憶された制御パラメータを使用して、記憶部32aに記憶された制御プログラムを実行することにより、各種の処理を実行する。
The lighting control device 30a includes a storage unit 32a, a detection unit 33a, a lighting condition acquisition unit 34, and a light distribution control unit 35. In this embodiment, the detection unit 33a is included in the lighting control device 30a, but may be provided in the front vehicle outside detection unit 21a.
The storage unit 32a stores information. Here, the storage unit 32a may store arbitrary information. As an example, the storage unit 32a may store information such as a control program or control parameters executed by the lighting control device 30a. In this case, the lighting control device 30a includes, for example, a processor such as a CPU, and the processor executes a control program stored in the storage unit 32a by using the control parameters stored in the storage unit 32a. Perform various processes.

検出部33aは、カメラ40により周期的に撮影される自動車1aの前方の画像を取得する。また、検出部33aは、レーザーレーダー42が出力するレーザーやミリ波に基づいて、自動車1aの前方の各点の三次元位置(例えば、点の方向及び距離)を計測し、各点の三次元位置を表わす画像を生成する。
検出部33aは、カメラ40、レーザーレーダー42などのセンサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報を記憶する。
検出部33aは、人判断アルゴリズムにしたがって、カメラ40が出力した画像や、レーザーレーダー42が出力するレーザーやミリ波に基づいて生成した画像に対して画像認識処理を行い、当該画像に、人であると判断できる特徴点が含まれるか否かを判定する。人判断アルゴリズムは、画像に人が含まれるか否かを、その画像に人であると判断できる特徴点が含まれるか否かを判定することによって、判断するアルゴリズムである。
人判断アルゴリズムが異なることによって、人であると判断できる特徴点が異なる場合がある。つまり、複数の人判断アルゴリズムがある場合、複数の人判断アルゴリズムの各々で、人であると判断できる特徴点が異なる場合がある。具体的には、人であると判断できる特徴点は、頭部、肩部、腕部、胴体部、足元部などの人の体の部位であることが多い。以下、一例として、人であると判断できる特徴点が、頭部、肩部、腕部、胴体部、足元部である場合について説明を続ける。
The detection unit 33a acquires an image in front of the automobile 1a that is periodically taken by the camera 40. Further, the detection unit 33a measures the three-dimensional position (for example, the direction and distance of each point) of each point in front of the automobile 1a based on the laser or millimeter wave output by the laser radar 42, and the three-dimensional position of each point. Generate an image showing the position.
The detection unit 33a stores information in which information indicating a sensor such as a camera 40 or a laser radar 42 is associated with information indicating a feature point determined to be a person by the sensor.
The detection unit 33a performs image recognition processing on the image output by the camera 40 and the image generated based on the laser or millimeter wave output by the laser radar 42 according to the human determination algorithm, and the image is subjected to image recognition processing by a person. It is determined whether or not a feature point that can be determined to exist is included. The human determination algorithm is an algorithm that determines whether or not an image contains a person, and determines whether or not the image contains feature points that can be determined to be human.
Due to the difference in the human judgment algorithm, the feature points that can be judged as a human may be different. That is, when there are a plurality of human judgment algorithms, each of the plurality of human judgment algorithms may have different characteristic points that can be determined to be a human. Specifically, the characteristic points that can be determined to be a human are often the parts of the human body such as the head, shoulders, arms, torso, and feet. Hereinafter, as an example, the case where the characteristic points that can be determined to be a human are the head, shoulders, arms, torso, and feet will be described.

検出部33aは、当該画像に、人であると判断できる特徴点が含まれる場合には、自動車1aの前方に、人が検出されたと判定する。また、検出部33aは、当該画像に、人であると判断できる特徴点が含まれない場合には、自動車1aの前方に、人が検出されないと判定する。
検出部33aは、人判別領域として、カメラ40と、レーザーレーダー42とのうち、人であると判断できる特徴点が含まれると最初に判断した画像を表す情報を出力したセンサーを示す情報を取得する。ここで、画像を表す情報は、カメラ40が出力する画像情報や、レーザーレーダー42が出力するレーザーやミリ波である。
検出部33aは、取得したセンサーを示す情報に関連する特徴点を示す情報を、センサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報から、取得する。つまり、検出部33aは、カメラ40と、レーザーレーダー42とのうち、カメラ40が出力した画像に人であると判断できる特徴点が含まれると最初に判断した場合には、人判別領域として、そのカメラ40を示す情報に関連付けて記憶されている特徴点を示す情報を取得する。
また、検出部33aは、カメラ40と、レーザーレーダー42とのうち、レーザーレーダー42が出力した画像に人であると判断できる特徴点が含まれると最初に判断した場合には、人判別領域として、そのレーザーレーダー42を示す情報に関連付けて記憶されている特徴点を示す情報を取得する。
検出部33は、取得した特徴点を示す情報を含む人の検出結果を、照明条件取得部34へ出力する。
When the image contains a feature point that can be determined to be a person, the detection unit 33a determines that a person has been detected in front of the automobile 1a. Further, when the image does not include a feature point that can be determined to be a person, the detection unit 33a determines that no person is detected in front of the automobile 1a.
The detection unit 33a acquires information indicating a sensor that outputs information representing an image that is first determined to include a feature point that can be determined to be a human among the camera 40 and the laser radar 42 as a human discrimination region. do. Here, the information representing the image is the image information output by the camera 40, the laser or the millimeter wave output by the laser radar 42.
The detection unit 33a acquires information indicating a feature point related to the acquired information indicating the sensor from information in which the information indicating the sensor and the information indicating the feature point determined to be a person by the sensor are associated with each other. .. That is, when the detection unit 33a first determines that the image output by the camera 40 includes feature points that can be determined to be human among the camera 40 and the laser radar 42, the detection unit 33a uses the camera 40 as a human identification area. The information indicating the feature point stored in association with the information indicating the camera 40 is acquired.
Further, when the detection unit 33a first determines that the image output by the laser radar 42 includes a feature point that can be determined to be a person among the camera 40 and the laser radar 42, the detection unit 33a serves as a person discrimination area. , Acquires information indicating a feature point stored in association with the information indicating the laser radar 42.
The detection unit 33 outputs the detection result of the person including the information indicating the acquired feature point to the lighting condition acquisition unit 34.

[人への照明の例]
第2の実施形態に係る自動車1aに備えられた照明システム100aによる照明の一例は、前述した図4-図7を適用できる。
[照明処理の手順の一例]
図10は、第2の実施形態に係る自動車1aに備えられた点灯制御装置30aの動作の一例を示すフローチャートである。
[Example of lighting for people]
As an example of lighting by the lighting system 100a provided in the automobile 1a according to the second embodiment, the above-mentioned FIGS. 4 to 7 can be applied.
[Example of lighting processing procedure]
FIG. 10 is a flowchart showing an example of the operation of the lighting control device 30a provided in the automobile 1a according to the second embodiment.

(ステップS21)
検出部33aは、カメラ40が出力した画像や、レーザーレーダー42が出力するレーザーやミリ波に基づいて生成した画像に対して画像認識処理を行い、当該画像に、人であると判断できる特徴点が含まれるか否かを判定することによって、人を検出する。
(ステップS22)
検出部33aは、カメラ40と、レーザーレーダー42とのうち、人を検出した順序にしたがって、人であると判断できる特徴点が含まれると最初に判断した画像を出力したセンサーを示す情報を取得する。
(ステップS23)
検出部33aは、人判別領域として、取得したセンサーを示す情報に関連する特徴点を示す情報を、センサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報から、取得する。
(ステップS24)
照明条件取得部34は、人判別領域が頭部であるか否かを判定する。
ステップS25-S31は、図8を参照して説明したステップS14-S20を適用できる。
(Step S21)
The detection unit 33a performs image recognition processing on the image output by the camera 40 and the image generated based on the laser or millimeter wave output by the laser radar 42, and the feature point that the image can be determined to be a person. Detects a person by determining whether or not is included.
(Step S22)
The detection unit 33a acquires information indicating a sensor that outputs an image of the camera 40 and the laser radar 42, which is first determined to include a feature point that can be determined to be a person according to the order in which a person is detected. do.
(Step S23)
As a human discrimination region, the detection unit 33a associates the information indicating the feature points related to the acquired information indicating the sensor with the information indicating the sensor and the information indicating the feature points determined to be a person by the sensor. Get from the information.
(Step S24)
The lighting condition acquisition unit 34 determines whether or not the person discrimination region is the head.
As steps S25-S31, steps S14-S20 described with reference to FIG. 8 can be applied.

前述した第2の実施形態では、人であると判断できる特徴点が、頭部、肩部、腕部、胴体部、足元部などの人の体の部位である場合について説明したが、この例に限られない。例えば、人であると判断できる特徴点が、目、鼻、口などの顔のパーツであってもよい。
前述した第2の実施形態では、自動車1aが、左側のマーキングライト20Lと、右側のマーキングライト20Rとを備える場合について説明したが、この限りでない。例えば、左側のマーキングライト20Lと、右側のマーキングライト20Rとのいずれか一方を自動車1aに備えるようにして、自動車1aの前方に光を照射するようにしてもよい。
前述した第2の実施形態では、マーキングライト20がLED点灯回路と、マトリクスLEDとを有する場合について説明したが、この例に限られない。例えば、マーキングライト20は、任意の照灯が用いられてもよい。例えば、照灯として走行ビームのランプは、例えば、MEMSレーザースキャニングヘッドランプ、DMDヘッドランプ、列と行の制御が可能なマトリクスADBヘッドランプ、あるいは、列のみの制御が可能なADBヘッドランプなどのうちの1以上が用いられてもよい。ここで、MEMSレーザースキャニングヘッドランプは、例えば、配光を可変に変化させることが可能な車両用のヘッドランプの一例であり、シームレスADBランプの一例である。
前述した第2の実施形態では、カメラ40と、レーザーレーダー42とのうち、人であると判断できる特徴点が含まれると最初に判断した画像を表す情報を出力したセンサーを示す情報を取得する場合について説明したが、この例に限られない。カメラ40と、レーザーレーダー42とに加え、レーダー、ソナーなどのセンサーを自動車1aに備え、自動車1aに備えられた複数のセンサーのうち、人であると判断できる特徴点が含まれると最初に判断した画像を表す情報を出力したセンサーを示す情報を取得し、同様の処理を行うようにしてもよい。
前述した第2の実施形態では、照射条件に、点灯する条件、点滅する条件、消灯する条件、減光する条件、強調点灯する条件などが含まれる場合について説明したが、この例に限られない。例えば、照射条件に、減光点滅、強調点滅する条件などが含まれてもよい。ここで、減光点滅する条件とは、マーキングライト20を点灯した状態で、光の強さを減少させたり、光を暗くしたりするとともに、周期的に点灯と消灯とを繰り返すことである。強調点滅する条件とは、マーキングライト20を点灯した状態で、光の強さを増大させたり、光を明るくしたりするとともに、周期的に点灯と消灯とを繰り返すことである。
前述した第2の実施形態では、強調点灯する条件が、マーキングライト20を点灯した状態で、光の強さを増大させたり、光を明るくしたりすることによって照明する場合について説明したが、この例に限られない。例えば、強調範囲以外の範囲が、消灯又は点滅である場合には、マーキングライト20を点灯した状態でも、カメラ40、レーザーレーダー42により強調範囲を検出できるため、光の強さを増大させたり、光を明るくしたりしなくてもよい。
前述した第2の実施形態では、減光する条件が、マーキングライト20を点灯した状態で、光の強さを減少させたり、光を暗くしたりすることによって照明する場合について説明したが、この例に限られない。例えば、マーキングライト20を点灯した状態で、人判別領域よりも減光されていれば、光の強さを減少させたり、光を暗くしたりしなくてもよい。
前述した第2の実施形態では、前方車外検出部21aにより検出された人の所定の部位の領域である人判別領域を示す情報に基づいて、点灯制御装置30aが、人の照明条件を取得する場合について説明したがこの例に限られない。例えば、後方車外検出部と、側方車外検出部とのいずれか一方又は両方により検出された人の所定の部位の領域である人判別領域を示す情報に基づいて、点灯制御装置30aが、人の照明条件を取得するようにしてもよい。
In the second embodiment described above, the case where the characteristic points that can be determined to be a human are the parts of the human body such as the head, shoulders, arms, torso, and feet has been described. Not limited to. For example, facial parts such as eyes, nose, and mouth may be features that can be determined to be human.
In the second embodiment described above, the case where the automobile 1a includes the marking light 20L on the left side and the marking light 20R on the right side has been described, but this is not the case. For example, one of the marking light 20L on the left side and the marking light 20R on the right side may be provided in the automobile 1a to irradiate the front of the automobile 1a with light.
In the second embodiment described above, the case where the marking light 20 has an LED lighting circuit and a matrix LED has been described, but the present invention is not limited to this example. For example, as the marking light 20, any illuminating light may be used. For example, the lamp of the traveling beam as an illumination lamp may be, for example, a MEMS laser scanning headlamp, a DMD headlamp, a matrix ADB headlamp capable of controlling columns and rows, or an ADB headlamp capable of controlling only columns. One or more of them may be used. Here, the MEMS laser scanning headlamp is, for example, an example of a headlamp for a vehicle capable of variably changing the light distribution, and is an example of a seamless ADB lamp.
In the second embodiment described above, the camera 40 and the laser radar 42 acquire information indicating a sensor that outputs information representing an image that is first determined to include a feature point that can be determined to be a human. The case has been described, but it is not limited to this example. In addition to the camera 40 and the laser radar 42, sensors such as radar and sonar are provided in the automobile 1a, and it is first determined that the feature points that can be determined to be humans are included among the plurality of sensors provided in the automobile 1a. Information indicating the sensor that outputs the information representing the image may be acquired, and the same processing may be performed.
In the second embodiment described above, the case where the irradiation condition includes a lighting condition, a blinking condition, a lighting condition, a dimming condition, a highlighted lighting condition, and the like has been described, but the present invention is not limited to this example. .. For example, the irradiation conditions may include conditions such as dimming blinking and highlighting blinking. Here, the condition for dimming and blinking is that the marking light 20 is turned on, the intensity of the light is reduced, the light is dimmed, and the light is turned on and off periodically. The condition for highlighting and blinking is that the marking light 20 is turned on, the intensity of the light is increased, the light is brightened, and the light is turned on and off periodically.
In the second embodiment described above, the case where the highlighting condition is to illuminate the marking light 20 by increasing the intensity of the light or brightening the light while the marking light 20 is lit has been described. Not limited to examples. For example, when the range other than the emphasized range is extinguished or blinking, the enhanced range can be detected by the camera 40 and the laser radar 42 even when the marking light 20 is turned on, so that the intensity of light can be increased. It is not necessary to brighten the light.
In the second embodiment described above, the case where the dimming condition is to illuminate the marking light 20 by reducing the intensity of the light or dimming the light while the marking light 20 is lit has been described. Not limited to examples. For example, if the marking light 20 is lit and the light is dimmed from the human discrimination area, it is not necessary to reduce the light intensity or dimming the light.
In the second embodiment described above, the lighting control device 30a acquires the lighting condition of the person based on the information indicating the person identification area which is the area of the predetermined part of the person detected by the front vehicle outside detection unit 21a. The case has been described, but it is not limited to this example. For example, the lighting control device 30a is based on the information indicating the person identification area which is the area of a predetermined part of the person detected by either or both of the rear vehicle outside detection unit and the side vehicle outside detection unit. The lighting conditions of may be acquired.

本実施形態に係る点灯制御装置30aよれば、自動車1aに、人を検出するセンサーを複数備える。点灯制御装置30aは、複数のセンサーのうち、人であると判断できる特徴点が含まれると最初に判断した画像を表す情報を出力したセンサーを示す情報を取得する。検出部33aは、取得したセンサーを示す情報に関連する特徴点を示す情報を、センサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報から取得する。点灯制御装置30aは、取得した特徴点を示す情報に基づいて、人が検出されたか否かを判別するために使用した人判別領域に応じて、最適な照射条件を選択し、選択した照射条件にしたがって、マーキングライト20の点灯状態を制御する。このように構成することによって、センサーが人を誤検出することを低減しつつ、運転者に、自動車1aの前方にいる人を早期に発見することを促すことができる。 According to the lighting control device 30a according to the present embodiment, the automobile 1a is provided with a plurality of sensors for detecting a person. The lighting control device 30a acquires information indicating a sensor that outputs information representing an image that is first determined to include a feature point that can be determined to be a human among a plurality of sensors. The detection unit 33a acquires information indicating a feature point related to the acquired information indicating the sensor from the information indicating the sensor and the information indicating the feature point determined to be a person by the sensor. The lighting control device 30a selects the optimum irradiation condition according to the person identification area used for determining whether or not a person has been detected based on the acquired information indicating the feature point, and the selected irradiation condition. Therefore, the lighting state of the marking light 20 is controlled. With such a configuration, it is possible to encourage the driver to detect a person in front of the automobile 1a at an early stage while reducing the false detection of a person by the sensor.

<構成例>
一構成例として、車両用照灯(本実施例では、前照灯部10)による光照明状態を制御する点灯制御装置(本実施例では、点灯制御装置30a)であって、人の所定の部位を検出することで、人を検出する検出部(本実施形態では、検出部33a)と、所定の部位の領域である人判別領域を示す情報に基づいて、人の照明条件を取得する照明条件取得部(本実施形態では、照明条件取得部34)とを備える、点灯制御装置。
<Configuration example>
As a configuration example, it is a lighting control device (lighting control device 30a in this embodiment) that controls a light illumination state by a vehicle lighting (headlight unit 10 in this embodiment), and is a predetermined person. Lighting that acquires lighting conditions for a person based on information indicating a detection unit (in this embodiment, the detection unit 33a) that detects a person by detecting a part and a person identification area that is an area of a predetermined part. A lighting control device including a condition acquisition unit (in this embodiment, a lighting condition acquisition unit 34).

一構成例として、照明条件取得部は、人判別領域が頭部である場合、頭部の照明条件として、所定光の照明条件を取得する。
一構成例として、照明条件取得部は、減光する条件を取得する。
一構成例として、照明条件取得部は、頭部以外の人の部位への照明条件として、点滅する条件を取得する。
一構成例として、照明条件取得部は、人判別領域が頭部とは異なる他の部位である場合、頭部への照明条件として、所定光の照明条件を取得する。
一構成例として、照明条件取得部は、頭部への照明条件として、消灯する条件を取得し、人判別領域への照明条件として、強調する条件を取得する。
一構成例として、照明条件取得部は、人判別領域および頭部以外の人の他の部位への照明条件として、点滅する条件を取得する。
一構成例として、検出部は、複数のセンサーの各々により取得された情報に基づいて、人を検出し、照明条件取得部は、人を検出したセンサーが複数ある場合、検出した順序が早いセンサーにより検出された人の所定の部位の領域である人判別領域を示す情報に基づいて、人の照明条件を取得する。
一構成例として、車両用消灯は、前照灯である。
As a configuration example, when the person discrimination region is the head, the lighting condition acquisition unit acquires the lighting condition of a predetermined light as the lighting condition of the head.
As a configuration example, the lighting condition acquisition unit acquires a dimming condition.
As a configuration example, the lighting condition acquisition unit acquires a blinking condition as a lighting condition for a part of a person other than the head.
As a configuration example, when the human discrimination region is a portion different from the head, the lighting condition acquisition unit acquires the lighting condition of a predetermined light as the lighting condition for the head.
As a configuration example, the lighting condition acquisition unit acquires a condition for turning off the light as a lighting condition for the head and a condition for emphasizing as a lighting condition for the human discrimination area.
As a configuration example, the lighting condition acquisition unit acquires a blinking condition as a lighting condition for a person discrimination area and other parts of a person other than the head.
As an example of the configuration, the detection unit detects a person based on the information acquired by each of the plurality of sensors, and the lighting condition acquisition unit detects the person in the earliest order when there are a plurality of sensors that have detected the person. Based on the information indicating the person discrimination area, which is the area of the predetermined part of the person detected by, the lighting condition of the person is acquired.
As an example of the configuration, the vehicle extinguishing is a headlight.

[第3の実施形態]
第3の実施形態に係る自動車1bの概略的な構成は、図1を適用できる。ただし、第3の実施形態に係る自動車1bは、第1の実施形態に係る自動車1と比較して、前方車外検出部21の代わりに、前方車外検出部21bを備え、点灯制御装置30の代わりに、点灯制御装置30bを備える点で、異なる。
第3の実施形態に係る照明装置が適用された自動車1bの前側部分は、図2を適用できる。
[Third Embodiment]
FIG. 1 can be applied to the schematic configuration of the automobile 1b according to the third embodiment. However, the automobile 1b according to the third embodiment is provided with the front outside detection unit 21b instead of the front outside detection unit 21 as compared with the automobile 1 according to the first embodiment, and instead of the lighting control device 30. The difference is that the lighting control device 30b is provided.
FIG. 2 can be applied to the front side portion of the automobile 1b to which the lighting device according to the third embodiment is applied.

[自動車の照明システムの概略的な機能構成]
図11は、第3の実施形態に係る自動車1bに備えられた照明システム100bの概略的な機能構成を示すブロック図である。
照明システム100bは、前照灯部10と、点灯制御装置30bと、前方車外検出部21bとを備える。また、前照灯部10と、点灯制御装置30bとによって、車両用灯具が構成される。
ここで、本実施形態では、一般的な「前後」の概念と同様に、自動車1bの運転者が通常時に向く方向であって自動車1bが通常時に進行(走行)する方向を「前(前方)」とし、それとは逆の方向を「後ろ(後方)」とする。
前方車外検出部21bは、自動車1bの前方の外側に関する情報を検出する。本実施形態では、自動車1bは、前方車外検出部21bを備えるが、他の構成例として、後方車外検出部を備えてもよい。
また、他の構成例として、自動車1bは、自動車1bの側方の外側に関する情報を検出する車外検出部(本実施形態では、「側方車外検出部」ともいう。)を備えてもよい。側方車外検出部としては、例えば、自動車1bの進行方向に対して右側の側方車外検出部と、自動車1bの進行方向に対して左側の側方車外検出部が用いられてもよい。
[Rough functional configuration of automobile lighting system]
FIG. 11 is a block diagram showing a schematic functional configuration of the lighting system 100b provided in the automobile 1b according to the third embodiment.
The lighting system 100b includes a headlight unit 10, a lighting control device 30b, and a front vehicle exterior detection unit 21b. Further, the headlight unit 10 and the lighting control device 30b constitute a vehicle lighting tool.
Here, in the present embodiment, similarly to the general concept of "front and back", the direction in which the driver of the automobile 1b faces in the normal time and the direction in which the automobile 1b travels (runs) in the normal time is "front (forward)". , And the opposite direction is "back (rear)".
The front vehicle outside detection unit 21b detects information about the front outside of the vehicle 1b. In the present embodiment, the automobile 1b includes a front vehicle outside detection unit 21b, but as another configuration example, a rear vehicle exterior detection unit may be provided.
Further, as another configuration example, the automobile 1b may include an out-of-vehicle detection unit (also referred to as a "side out-of-vehicle detection unit" in the present embodiment) for detecting information regarding the outside of the side of the automobile 1b. As the side vehicle outside detection unit, for example, a side vehicle outside detection unit on the right side with respect to the traveling direction of the vehicle 1b and a side vehicle exterior detection unit on the left side with respect to the traveling direction of the vehicle 1b may be used.

前方車外検出部21bは、前方の車外に関する任意の情報を検出する。前方車外検出部21bは、例えば、レーザーレーダー42、レーダー、ソナー、カメラ(撮像装置)40、カメラ44などのうちの2以上を備えてもよい。第3の実施形態では、カメラ40と、レーザーレーダー42と、カメラ44とを備える場合について説明を続ける。
カメラ40は、例えば、赤外光を検出する機能を備える。カメラ40は、自動車1bの所定位置(例えば室内ミラー付近)に設置されており、自車両の前方の空間を撮影する。カメラ40は、自車両の前方の空間を撮影することによって得られた画像情報を、検出部33bへ出力する。
レーザーレーダー42は、レーザーやミリ波を、自動車1bの前方に照射するとともに、照射したレーザーやミリ波を二次元状に照射し、自動車1bの前方で反射されたレーザーやミリ波を受信する。レーザーレーダー42は、受信したレーザーやミリ波を、検出部33bへ出力する。
カメラ44は、例えば、可視光を検出する機能を備える。カメラ44は、自動車1bの所定位置(例えば室内ミラー付近)に設置されており、自車両の前方の空間を撮影する。カメラ44は、自車両の前方の空間を撮影することによって得られた画像情報を、点灯制御装置30bへ出力する。
The front vehicle outside detection unit 21b detects arbitrary information regarding the front vehicle outside. The front vehicle exterior detection unit 21b may include, for example, two or more of a laser radar 42, a radar, sonar, a camera (imaging device) 40, a camera 44, and the like. In the third embodiment, the case where the camera 40, the laser radar 42, and the camera 44 are provided will be described.
The camera 40 has, for example, a function of detecting infrared light. The camera 40 is installed at a predetermined position of the automobile 1b (for example, near an indoor mirror), and photographs the space in front of the own vehicle. The camera 40 outputs the image information obtained by photographing the space in front of the own vehicle to the detection unit 33b.
The laser radar 42 irradiates the front of the automobile 1b with a laser or millimeter wave, irradiates the irradiated laser or millimeter wave in a two-dimensional manner, and receives the laser or millimeter wave reflected in front of the automobile 1b. The laser radar 42 outputs the received laser or millimeter wave to the detection unit 33b.
The camera 44 has, for example, a function of detecting visible light. The camera 44 is installed at a predetermined position of the automobile 1b (for example, near an indoor mirror), and photographs the space in front of the own vehicle. The camera 44 outputs the image information obtained by photographing the space in front of the own vehicle to the lighting control device 30b.

点灯制御装置30bは、記憶部32bと、検出部33bと、照明条件取得部34と、配光制御部35とを備える。尚、本実施例において検出部33bは、点灯制御装置30bに含まれているが前方車外検出部21bに備えられてもよい。
記憶部32bは、情報を記憶する。ここで、記憶部32bは、任意の情報を記憶してもよい。一例として、記憶部32bは、点灯制御装置30bによって実行される制御プログラムあるいは制御パラメータなどの情報を記憶してもよい。この場合、点灯制御装置30bは、例えば、CPUなどのプロセッサを備え、当該プロセッサが記憶部32bに記憶された制御パラメータを使用して、記憶部32bに記憶された制御プログラムを実行することにより、各種の処理を実行する。
The lighting control device 30b includes a storage unit 32b, a detection unit 33b, a lighting condition acquisition unit 34, and a light distribution control unit 35. In this embodiment, the detection unit 33b is included in the lighting control device 30b, but may be provided in the front vehicle outside detection unit 21b.
The storage unit 32b stores information. Here, the storage unit 32b may store arbitrary information. As an example, the storage unit 32b may store information such as a control program or control parameters executed by the lighting control device 30b. In this case, the lighting control device 30b includes, for example, a processor such as a CPU, and the processor executes a control program stored in the storage unit 32b by using the control parameters stored in the storage unit 32b. Perform various processes.

検出部33bは、カメラ40により周期的に撮影される自動車1bの前方の画像を取得する。また、検出部33bは、レーザーレーダー42が出力するレーザーやミリ波に基づいて、自動車1bの前方の各点の三次元位置(例えば、点の方向及び距離)を計測し、各点の三次元位置を表わす画像を生成する。また、検出部33bは、カメラ44により周期的に撮影される自動車1bの前方の画像を取得する。
検出部33bは、カメラ40、レーザーレーダー42、カメラ44などのセンサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報を記憶する。
また、検出部33bは、カメラ40、レーザーレーダー42、カメラ44などのセンサーを示す情報と、それらのセンサーのうち、少なくとも2つのセンサーによって人であると同時に判断した場合に、特徴点を示す情報を取得するために使用するセンサーの優先順位である優先度とを関連付けた情報を記憶する。
The detection unit 33b acquires an image in front of the automobile 1b which is periodically photographed by the camera 40. Further, the detection unit 33b measures the three-dimensional position (for example, the direction and distance of each point) of each point in front of the automobile 1b based on the laser or millimeter wave output by the laser radar 42, and the three-dimensional position of each point. Generate an image showing the position. Further, the detection unit 33b acquires an image in front of the automobile 1b which is periodically photographed by the camera 44.
The detection unit 33b stores information in which information indicating a sensor such as a camera 40, a laser radar 42, or a camera 44 is associated with information indicating a feature point determined to be a person by the sensor.
Further, the detection unit 33b has information indicating sensors such as the camera 40, the laser radar 42, and the camera 44, and information indicating feature points when at least two of these sensors determine that the person is a person at the same time. Stores information associated with the priority of the sensor used to obtain the.

検出部33bは、人判断アルゴリズムにしたがって、カメラ40が出力した画像や、レーザーレーダー42が出力するレーザーやミリ波に基づいて生成した画像や、カメラ44が出力した画像に対して画像認識処理を行い、当該画像に、人であると判断できる特徴点が含まれるか否かを判定する。人判断アルゴリズムは、画像に人が含まれるか否かを、その画像に人であると判断できる特徴点が含まれるか否かを判定することによって、判断するアルゴリズムである。
人判断アルゴリズムが異なることによって、人であると判断できる特徴点が異なる場合がある。つまり、複数の人判断アルゴリズムがある場合、複数の人判断アルゴリズムの各々で、人であると判断できる特徴点が異なる場合がある。具体的には、人であると判断できる特徴点は、頭部、肩部、腕部、胴体部、足元部などの人の体の部位であることが多い。以下、一例として、人であると判断できる特徴点が、頭部、肩部、腕部、胴体部、足元部である場合について説明を続ける。
検出部33bは、当該画像に、人であると判断できる特徴点が含まれる場合には、自動車1bの前方に、人が検出されたと判定する。また、検出部33bは、当該画像に、人であると判断できる特徴点が含まれない場合には、自動車1bの前方に、人が検出されないと判定する。
The detection unit 33b performs image recognition processing on the image output by the camera 40, the image generated based on the laser or millimeter wave output by the laser radar 42, and the image output by the camera 44 according to the human determination algorithm. This is done to determine if the image contains feature points that can be determined to be human. The human determination algorithm is an algorithm that determines whether or not an image contains a person, and determines whether or not the image contains feature points that can be determined to be human.
Due to the difference in the human judgment algorithm, the feature points that can be judged as a human may be different. That is, when there are a plurality of human judgment algorithms, each of the plurality of human judgment algorithms may have different characteristic points that can be determined to be a human. Specifically, the characteristic points that can be determined to be a human are often the parts of the human body such as the head, shoulders, arms, torso, and feet. Hereinafter, as an example, the case where the characteristic points that can be determined to be a human are the head, shoulders, arms, torso, and feet will be described.
When the image contains a feature point that can be determined to be a person, the detection unit 33b determines that a person has been detected in front of the automobile 1b. Further, when the image does not include a feature point that can be determined to be a person, the detection unit 33b determines that no person is detected in front of the automobile 1b.

検出部33bは、カメラ40と、レーザーレーダー42と、カメラ44とのうち、人であると判断できる特徴点が含まれると同時に判断した画像を表す情報を出力したセンサーを示す情報を取得する。ここで、画像を表す情報は、カメラ40が出力する画像情報や、レーザーレーダー42が出力するレーザーやミリ波や、カメラ44が出力する画像情報である。
カメラ40と、レーザーレーダー42と、カメラ44との各々は、周期的なサイクルで、画像情報と、レーザーやミリ波と、画像情報とを取得し、取得した画像情報と、レーザーやミリ波と、画像情報とを、検出部33bへ出力する。ここで、同時とは、カメラ40が画像を検出部33bへ出力したサイクルと、レーザーレーダー42がレーザーやミリ波を検出部33bへ出力したサイクルと、カメラ44が画像を検出部33bへ出力したサイクルとが同じであることである。
検出部33bは、取得したセンサーを示す情報に関連する優先度を、センサーを示す情報と、特徴点を示す情報を取得するために使用するセンサーの優先度とを関連付けた情報から、取得する。検出部33bは、取得した優先度に基づいて、優先度が最も高いセンサーを示す情報を取得する。検出部33bは、人判別領域として、取得したセンサーを示す情報に関連付けられる特徴点を示す情報を、センサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報から、取得する。
検出部33は、取得した特徴点を示す情報を含む人の検出結果を、照明条件取得部34へ出力する。
The detection unit 33b acquires information indicating a sensor that outputs information representing an image determined at the same time as including feature points that can be determined to be humans among the camera 40, the laser radar 42, and the camera 44. Here, the information representing the image is the image information output by the camera 40, the laser or millimeter wave output by the laser radar 42, or the image information output by the camera 44.
Each of the camera 40, the laser radar 42, and the camera 44 acquires image information, a laser or millimeter wave, and image information in a periodic cycle, and obtains the acquired image information and the laser or millimeter wave. , Image information is output to the detection unit 33b. Here, at the same time, the cycle in which the camera 40 outputs the image to the detection unit 33b, the cycle in which the laser radar 42 outputs the laser or millimeter wave to the detection unit 33b, and the cycle in which the camera 44 outputs the image to the detection unit 33b. The cycle is the same.
The detection unit 33b acquires the priority related to the acquired information indicating the sensor from the information associated with the information indicating the sensor and the priority of the sensor used for acquiring the information indicating the feature point. The detection unit 33b acquires information indicating the sensor having the highest priority based on the acquired priority. As a human discrimination region, the detection unit 33b associates the information indicating the feature points associated with the acquired information indicating the sensor with the information indicating the sensor and the information indicating the feature points determined to be a person by the sensor. Get from the information.
The detection unit 33 outputs the detection result of the person including the information indicating the acquired feature point to the lighting condition acquisition unit 34.

[人への照明の例]
第3の実施形態に係る自動車1bに備えられた照明システム100bによる照明の一例は、前述した図4-図7を適用できる。
[照明処理の手順の一例]
図12は、第3の実施形態に係る自動車1bに備えられた点灯制御装置30bの動作の一例を示すフローチャートである。
点灯制御装置30bは、カメラ40が出力した画像や、レーザーレーダー42が出力するレーザーやミリ波や、カメラ44が出力した画像に基づいて生成した画像に対して画像認識処理を行い、当該画像に、人であると判断できる特徴点が含まれるか否かを判定することによって、人を同時に検出する。
(ステップS41)
検出部33bは、カメラ40が出力した画像や、レーザーレーダー42が出力するレーザーやミリ波や、カメラ44が出力した画像に基づいて生成した画像に対して画像認識処理を行い、当該画像に、人であると判断できる特徴点が含まれるか否かを判定することによって、人を検出する。
(ステップS42)
検出部33bは、カメラ40と、レーザーレーダー42と、カメラ44とのうち、優先度にしたがって、人であると判断できる特徴点が含まれると判断した画像を出力したセンサーを示す情報を取得する。
[Example of lighting for people]
As an example of lighting by the lighting system 100b provided in the automobile 1b according to the third embodiment, the above-mentioned FIGS. 4 to 7 can be applied.
[Example of lighting processing procedure]
FIG. 12 is a flowchart showing an example of the operation of the lighting control device 30b provided in the automobile 1b according to the third embodiment.
The lighting control device 30b performs image recognition processing on an image output by the camera 40, a laser or millimeter wave output by the laser radar 42, or an image generated based on the image output by the camera 44, and performs image recognition processing on the image. , A person is detected at the same time by determining whether or not a feature point that can be determined to be a person is included.
(Step S41)
The detection unit 33b performs image recognition processing on the image output by the camera 40, the laser or millimeter wave output by the laser radar 42, or the image generated based on the image output by the camera 44, and the image is subjected to image recognition processing. A person is detected by determining whether or not a feature point that can be determined to be a person is included.
(Step S42)
The detection unit 33b acquires information indicating a sensor that outputs an image determined to include a feature point that can be determined to be a human according to the priority of the camera 40, the laser radar 42, and the camera 44. ..

(ステップS43)
検出部33bは、取得したセンサーを示す情報の各々に対応する優先度を、センサーを示す情報と、特徴点を示す情報を取得するために使用するセンサーの優先度とを関連付けた情報から、取得する。検出部33bは、取得した優先度に基づいて、優先度が最も高いセンサーを示す情報を取得する。検出部33bは、人判別領域として、取得したセンサーを示す情報に関連付けられる特徴点を示す情報を、センサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報から、取得する。
(ステップS44)
照明条件取得部34は、人判別領域が頭部であるか否かを判定する。照明条件取得部34は、人の検出結果に含まれる人であると判断できる特徴点を人判別領域に設定し、設定した人判別領域が頭部であるか否かを判定する。
ステップS45-S51は、図8を参照して説明したステップS14-S20を適用できる。
(Step S43)
The detection unit 33b acquires the priority corresponding to each of the acquired information indicating the sensor from the information associated with the information indicating the sensor and the priority of the sensor used for acquiring the information indicating the feature point. do. The detection unit 33b acquires information indicating the sensor having the highest priority based on the acquired priority. As a human discrimination region, the detection unit 33b associates the information indicating the feature points associated with the acquired information indicating the sensor with the information indicating the sensor and the information indicating the feature points determined to be a person by the sensor. Get from the information.
(Step S44)
The lighting condition acquisition unit 34 determines whether or not the person discrimination region is the head. The lighting condition acquisition unit 34 sets a feature point included in the detection result of a person that can be determined to be a person in the person discrimination area, and determines whether or not the set person discrimination area is the head.
As steps S45-S51, steps S14-S20 described with reference to FIG. 8 can be applied.

前述した第3の実施形態では、人であると判断できる特徴点が、頭部、肩部、腕部、胴体部、足元部などの人の体の部位である場合について説明したが、この例に限られない。例えば、人であると判断できる特徴点が、目、鼻、口などの顔のパーツであってもよい。
前述した第3の実施形態では、自動車1bが、左側のマーキングライト20Lと、右側のマーキングライト20Rとを備える場合について説明したが、この限りでない。例えば、左側のマーキングライト20Lと、右側のマーキングライト20Rとのいずれか一方を自動車1aに備えるようにして、自動車1aの前方に光を照射するようにしてもよい。
前述した第3の実施形態では、マーキングライト20がLED点灯回路と、マトリクスLEDとを有する場合について説明したが、この例に限られない。例えば、マーキングライト20は、任意の照灯が用いられてもよい。例えば、照灯として走行ビームのランプは、例えば、MEMSレーザースキャニングヘッドランプ、DMDヘッドランプ、列と行の制御が可能なマトリクスADBヘッドランプ、あるいは、列のみの制御が可能なADBヘッドランプなどのうちの1以上が用いられてもよい。ここで、MEMSレーザースキャニングヘッドランプは、例えば、配光を可変に変化させることが可能な車両用のヘッドランプの一例であり、シームレスADBランプの一例である。
前述した第3の実施形態では、カメラ40と、レーザーレーダー42と、カメラ44とのうち、人であると判断できる特徴点が含まれると判断した画像を表す情報を出力したセンサーを示す情報を、優先度に基づいて取得する場合について説明したが、この例に限られない。カメラ40と、レーザーレーダー42と、カメラ44とに加え、レーダー、ソナーなどのセンサーを自動車1bに備え、自動車1aに備えられた複数のセンサーのうち、人であると判断できる特徴点が含まれると判断した画像を表す情報を出力したセンサーを示す情報を、優先度に基づいて取得し、同様の処理を行うようにしてもよい。
また、カメラ40と、レーザーレーダー42と、カメラ44と、レーダー、ソナーなどのセンサーのうち、二つのセンサーを自動車1bに備え、自動車1aに備えられた複数のセンサーのうち、人であると判断できる特徴点が含まれると判断した画像を表す情報を出力したセンサーを示す情報を、優先度に基づいて取得し、同様の処理を行うようにしてもよい。
前述した第3の実施形態では、照射条件に、点灯する条件、点滅する条件、消灯する条件、減光する条件、強調点灯する条件などが含まれる場合について説明したが、この例に限られない。例えば、照射条件に、減光点滅する条件、強調点滅する条件などが含まれてもよい。ここで、減光点滅する条件とは、マーキングライト20を点灯した状態で、光の強さを減少させたり、光を暗くしたりするとともに、周期的に点灯と消灯とを繰り返すことである。強調点滅する条件とは、マーキングライト20を点灯した状態で、光の強さを増大させたり、光を明るくしたりするとともに、周期的に点灯と消灯とを繰り返すことである。
前述した第3の実施形態では、強調点灯する条件が、マーキングライト20を点灯した状態で、光の強さを増大させたり、光を明るくしたりすることによって照明する場合について説明したが、この例に限られない。例えば、強調範囲以外の範囲が、消灯又は点滅である場合には、マーキングライト20を点灯した状態でも、カメラ40、レーザーレーダー42、カメラ44により強調範囲を検出できるため、光の強さを増大させたり、光を明るくしたりしなくてもよい。
前述した第3の実施形態では、減光する条件が、マーキングライト20を点灯した状態で、光の強さを減少させたり、光を暗くしたりすることによって照明する場合について説明したが、この例に限られない。例えば、マーキングライト20を点灯した状態で、人判別領域よりも減光されていれば、光の強さを減少させたり、光を暗くしたりしなくてもよい。
前述した第3の実施形態では、前方車外検出部21bにより検出された人の所定の部位の領域である人判別領域を示す情報に基づいて、点灯制御装置30bが、人の照明条件を取得する場合について説明したがこの例に限られない。例えば、後方車外検出部と、側方車外検出部とのいずれか一方又は両方により検出された人の所定の部位の領域である人判別領域を示す情報に基づいて、点灯制御装置30bが、人の照明条件を取得するようにしてもよい。
In the third embodiment described above, the case where the characteristic points that can be determined to be a human are the parts of the human body such as the head, shoulders, arms, torso, and feet has been described. Not limited to. For example, facial parts such as eyes, nose, and mouth may be features that can be determined to be human.
In the third embodiment described above, the case where the automobile 1b includes the marking light 20L on the left side and the marking light 20R on the right side has been described, but this is not the case. For example, one of the marking light 20L on the left side and the marking light 20R on the right side may be provided in the automobile 1a to irradiate the front of the automobile 1a with light.
In the third embodiment described above, the case where the marking light 20 has an LED lighting circuit and a matrix LED has been described, but the present invention is not limited to this example. For example, as the marking light 20, any illuminating light may be used. For example, the lamp of the traveling beam as an illumination lamp may be, for example, a MEMS laser scanning headlamp, a DMD headlamp, a matrix ADB headlamp capable of controlling columns and rows, or an ADB headlamp capable of controlling only columns. One or more of them may be used. Here, the MEMS laser scanning headlamp is, for example, an example of a headlamp for a vehicle capable of variably changing the light distribution, and is an example of a seamless ADB lamp.
In the third embodiment described above, information indicating a sensor that outputs information representing an image determined to include a feature point that can be determined to be a human is included in the camera 40, the laser radar 42, and the camera 44. , The case of acquiring based on the priority has been described, but the present invention is not limited to this example. In addition to the camera 40, the laser radar 42, and the camera 44, sensors such as a radar and sonar are provided in the automobile 1b, and among a plurality of sensors provided in the automobile 1a, a feature point that can be determined to be a person is included. Information indicating the sensor that outputs the information indicating the image determined to be determined may be acquired based on the priority, and the same processing may be performed.
Further, among the sensors such as the camera 40, the laser radar 42, the camera 44, the radar, and the sonar, two sensors are provided in the automobile 1b, and it is determined that the person is a person among the plurality of sensors provided in the automobile 1a. Information indicating a sensor that outputs information representing an image determined to include possible feature points may be acquired based on the priority, and the same processing may be performed.
In the third embodiment described above, the case where the irradiation condition includes a lighting condition, a blinking condition, a lighting condition, a dimming condition, a highlighted lighting condition, and the like has been described, but the present invention is not limited to this example. .. For example, the irradiation condition may include a condition of dimming blinking, a condition of highlighting blinking, and the like. Here, the condition for dimming and blinking is that the marking light 20 is turned on, the intensity of the light is reduced, the light is dimmed, and the light is turned on and off periodically. The condition for highlighting and blinking is that the marking light 20 is turned on, the intensity of the light is increased, the light is brightened, and the light is turned on and off periodically.
In the third embodiment described above, the case where the highlighting condition is to illuminate the marking light 20 by increasing the intensity of the light or brightening the light while the marking light 20 is lit has been described. Not limited to examples. For example, when the range other than the emphasized range is off or blinking, the enhanced range can be detected by the camera 40, the laser radar 42, and the camera 44 even when the marking light 20 is turned on, so that the light intensity is increased. It does not have to be made to brighten or brighten the light.
In the third embodiment described above, the case where the dimming condition is to illuminate the marking light 20 by reducing the intensity of the light or dimming the light while the marking light 20 is lit has been described. Not limited to examples. For example, if the marking light 20 is lit and the light is dimmed from the human discrimination area, it is not necessary to reduce the light intensity or dimming the light.
In the third embodiment described above, the lighting control device 30b acquires the lighting condition of the person based on the information indicating the person identification area which is the area of the predetermined part of the person detected by the front vehicle outside detection unit 21b. The case has been described, but it is not limited to this example. For example, the lighting control device 30b is a person based on information indicating a person identification area which is an area of a predetermined part of a person detected by either or both of the rear vehicle outside detection unit and the side vehicle outside detection unit. The lighting conditions of may be acquired.

本実施形態に係る点灯制御装置30bよれば、自動車1bに、人を検出するセンサーを複数備える。点灯制御装置30bは、複数のセンサーのうち、人であると判断できる特徴点が含まれると同時に判断した画像を表す情報を出力したセンサーを示す情報を取得する。点灯制御装置30bは、取得したセンサーを示す情報に関連する優先度を、センサーを示す情報と、特徴点を示す情報を取得するために使用するセンサーの優先度とを関連付けた情報から、取得する。
点灯制御装置30bは、取得した優先度に基づいて、優先度が最も高いセンサーを示す情報を取得する。点灯制御装置30bは、取得したセンサーを示す情報に関連付けられる特徴点を示す情報を、センサーを示す情報と、そのセンサーによって人であると判断する特徴点を示す情報とを関連付けた情報から、取得する。
点灯制御装置30bは、取得した特徴点を示す情報に基づいて、人が検出されたか否かを判別するために使用した人判別領域に応じて、最適な照射条件を選択することによって取得し、取得した照射条件にしたがって、マーキングライト20の点灯状態を制御する。このように構成することによって、センサーが人を誤検出することを低減しつつ、運転者に、自動車1bの前方にいる人を早期に発見することを促すことができる。
According to the lighting control device 30b according to the present embodiment, the automobile 1b is provided with a plurality of sensors for detecting a person. The lighting control device 30b acquires information indicating the sensor that outputs information representing the determined image at the same time as including the feature points that can be determined to be human among the plurality of sensors. The lighting control device 30b acquires the priority related to the acquired information indicating the sensor from the information associated with the information indicating the sensor and the priority of the sensor used to acquire the information indicating the feature point. ..
The lighting control device 30b acquires information indicating the sensor having the highest priority based on the acquired priority. The lighting control device 30b acquires information indicating a feature point associated with the acquired information indicating the sensor from information indicating the sensor and information indicating the feature point determined to be a person by the sensor. do.
The lighting control device 30b is acquired by selecting the optimum irradiation conditions according to the person identification area used for determining whether or not a person is detected based on the acquired information indicating the feature points. The lighting state of the marking light 20 is controlled according to the acquired irradiation conditions. With such a configuration, it is possible to encourage the driver to detect a person in front of the automobile 1b at an early stage while reducing the false detection of a person by the sensor.

<構成例>
一構成例として、車両用照灯(本実施例では、前照灯部10)による光照明状態を制御する点灯制御装置(本実施例では、点灯制御装置30b)であって、人の所定の部位を検出することで、人を検出する検出部(本実施形態では、検出部33b)と、所定の部位の領域である人判別領域を示す情報に基づいて、人の照明条件を取得する照明条件取得部(本実施形態では、照明条件取得部34)とを備える、点灯制御装置。
<Configuration example>
As a configuration example, it is a lighting control device (lighting control device 30b in this embodiment) that controls a light illumination state by a vehicle lighting (headlight unit 10 in this embodiment), and is a predetermined person. Lighting that acquires lighting conditions for a person based on information indicating a detection unit (in this embodiment, the detection unit 33b) that detects a person by detecting a part and a person identification area that is an area of a predetermined part. A lighting control device including a condition acquisition unit (in this embodiment, a lighting condition acquisition unit 34).

一構成例として、照明条件取得部は、人判別領域が頭部である場合、頭部の照明条件として、所定光の照明条件を取得する。
一構成例として、照明条件取得部は、減光する条件を取得する。
一構成例として、照明条件取得部は、頭部以外の人の部位への照明条件として、点滅する条件を取得する。
一構成例として、照明条件取得部は、人判別領域が頭部とは異なる他の部位である場合、頭部への照明条件として、所定光の照明条件を取得する。
一構成例として、照明条件取得部は、頭部への照明条件として、消灯する条件を取得し、人判別領域への照明条件として、強調する条件を取得する。
一構成例として、照明条件取得部は、人判別領域および頭部以外の人の他の部位への照明条件として、点滅する条件を取得する。
一構成例として、検出部は、複数のセンサーの各々により取得された情報に基づいて、人を検出し、照明条件取得部は、人を検出したセンサーが複数ある場合、優先順位が高いセンサーにより検出された人の所定の部位の領域である人判別領域を示す情報に基づいて、人判別領域の照明条件を取得する。
一構成例として、車両用消灯は、前照灯である。
As a configuration example, when the person discrimination region is the head, the lighting condition acquisition unit acquires the lighting condition of a predetermined light as the lighting condition of the head.
As a configuration example, the lighting condition acquisition unit acquires a dimming condition.
As a configuration example, the lighting condition acquisition unit acquires a blinking condition as a lighting condition for a part of a person other than the head.
As a configuration example, when the human discrimination region is a portion different from the head, the lighting condition acquisition unit acquires the lighting condition of a predetermined light as the lighting condition for the head.
As a configuration example, the lighting condition acquisition unit acquires a condition for turning off the light as a lighting condition for the head and a condition for emphasizing as a lighting condition for the human discrimination area.
As a configuration example, the lighting condition acquisition unit acquires a blinking condition as a lighting condition for a person discrimination area and other parts of a person other than the head.
As an example of the configuration, the detection unit detects a person based on the information acquired by each of the plurality of sensors, and the lighting condition acquisition unit uses a sensor having a higher priority when there are a plurality of sensors that have detected a person. The lighting condition of the person discrimination area is acquired based on the information indicating the person discrimination area which is the area of the detected person's predetermined part.
As an example of the configuration, the vehicle extinguishing is a headlight.

以上に示した実施形態に係る装置(例えば、点灯制御装置30、30a、30bなど)の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、オペレーティング・システム(OS:Operating System)あるいは周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disc)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
A program for realizing the functions of the devices (for example, lighting control devices 30, 30a, 30b, etc.) according to the above-described embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium. May be processed by loading the computer system into the computer system and executing the above.
The term "computer system" as used herein may include hardware such as an operating system (OS: Operating System) or peripheral devices.
The "computer-readable recording medium" includes a flexible disk, a photomagnetic disk, a ROM (Read Only Memory), a writable non-volatile memory such as a flash memory, and a portable medium such as a DVD (Digital Versaille Disc). A storage device such as a hard disk built into a computer system.

さらに、「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークあるいは電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)あるいは電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
Further, the "computer-readable recording medium" is a volatile memory (for example, DRAM) inside a computer system that serves as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. It also includes those that hold the program for a certain period of time, such as Dynamic Random Access Memory)).
Further, the above program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program means a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the above-mentioned functions. Further, the above program may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment and includes design changes and the like within a range not deviating from the gist of the present invention.

1、1a、1b…自動車、10…前照灯部、10L…左側前照灯部、10R…右側前照灯部、11L…左側尾灯部、11R…右側尾灯部、12L…左側の前照灯ユニット、12R…右側の前照灯ユニット、13L…左側サイドミラー、13R…右側サイドミラー、14L…左側前照灯、14R…右側前照灯、15…フロントウィンドウ、16…リアウィンドウ、20L…左側のマーキングライト、20R…右側のマーキングライト、21、21a、21b…前方車外検出部、30、30a、30b…点灯制御装置、32、32a、32b…記憶部、33、33a、33b…検出部、34…照明条件取得部、35…配光制御部、40、44…カメラ、42…レーザーレーダー、50a…フード、50b…バンパカバー、100、100a、100b…照明システム 1, 1a, 1b ... Automobile, 10 ... Headlight section, 10L ... Left headlight section, 10R ... Right headlight section, 11L ... Left taillight section, 11R ... Right taillight section, 12L ... Left headlight section Unit, 12R ... right headlight unit, 13L ... left side mirror, 13R ... right side mirror, 14L ... left headlight, 14R ... right headlight, 15 ... front window, 16 ... rear window, 20L ... left side Marking light, 20R ... Right marking light, 21, 21a, 21b ... Front vehicle outside detection unit, 30, 30a, 30b ... Lighting control device, 32, 32a, 32b ... Storage unit, 33, 33a, 33b ... Detection unit, 34 ... Lighting condition acquisition unit, 35 ... Light distribution control unit, 40, 44 ... Camera, 42 ... Laser radar, 50a ... Hood, 50b ... Bumper cover, 100, 100a, 100b ... Lighting system

Claims (10)

車両用照灯による光照明状態を制御する点灯制御装置であって、
人の所定の部位を検出することで、前記人を検出する検出部と、
前記所定の部位の領域である人判別領域を示す情報に基づいて、前記人の照明条件を取得する照明条件取得部と
を備え
前記検出部は、複数のセンサーの各々により取得された情報に基づいて、前記人を検出し、
前記照明条件取得部は、前記人を検出したセンサーが複数ある場合、検出した順序が早いセンサーにより検出された前記人の前記所定の部位の領域である人判別領域を示す情報に基づいて、前記人の照明条件を取得する、点灯制御装置。
It is a lighting control device that controls the lighting state of vehicle lighting.
A detection unit that detects a person by detecting a predetermined part of the person,
A lighting condition acquisition unit for acquiring the lighting condition of the person based on the information indicating the person identification area which is the area of the predetermined part is provided .
The detection unit detects the person based on the information acquired by each of the plurality of sensors.
When there are a plurality of sensors that have detected the person, the lighting condition acquisition unit is based on the information indicating the person identification area, which is the area of the predetermined part of the person, which is detected by the sensor having the earliest detection order. A lighting control device that acquires the lighting conditions of a person .
前記照明条件取得部は、前記人判別領域が頭部である場合、前記頭部の照明条件として、所定光の照明条件を取得する、請求項1に記載の点灯制御装置。 The lighting control device according to claim 1, wherein the lighting condition acquisition unit acquires a predetermined light lighting condition as a lighting condition of the head when the person discrimination region is a head. 前記照明条件取得部は、減光する条件を取得する、請求項2に記載の点灯制御装置。 The lighting control device according to claim 2, wherein the lighting condition acquisition unit acquires a dimming condition. 前記照明条件取得部は、前記頭部以外の前記人の部位への照明条件として、点滅する条件を取得する、請求項2又は請求項3に記載の点灯制御装置。 The lighting control device according to claim 2 or 3, wherein the lighting condition acquisition unit acquires a blinking condition as a lighting condition for a part of the person other than the head. 前記照明条件取得部は、前記人判別領域が頭部とは異なる他の部位である場合、前記頭部への照明条件として、所定光の照明条件を取得する、請求項1に記載の点灯制御装置。 The lighting control according to claim 1, wherein the lighting condition acquisition unit acquires a predetermined light lighting condition as a lighting condition for the head when the person discrimination region is a portion different from the head. Device. 前記照明条件取得部は、前記頭部への照明条件として、消灯する条件を取得し、前記人判別領域への照明条件として、強調する条件を取得する、請求項5に記載の点灯制御装置。 The lighting control device according to claim 5, wherein the lighting condition acquisition unit acquires a condition for turning off the lights as a lighting condition for the head and a condition for emphasizing as a lighting condition for the person discrimination area. 前記照明条件取得部は、前記人判別領域および前記頭部以外の前記人の部位への照明条件として、点滅する条件を取得する、請求項5又は請求項6に記載の点灯制御装置。 The lighting control device according to claim 5 or 6, wherein the lighting condition acquisition unit acquires a blinking condition as a lighting condition for the person's portion other than the person discrimination area and the head. 前記検出部は、複数のセンサーの各々により取得された情報に基づいて、前記人を検出し、
前記照明条件取得部は、前記人を検出したセンサーが複数ある場合、優先順位が高いセンサーにより検出された前記人の前記所定の部位の領域である人判別領域を示す情報に基づいて、前記人の照明条件を取得する、請求項1から請求項7のいずれか一項に記載の点灯制御装置。
The detection unit detects the person based on the information acquired by each of the plurality of sensors.
When there are a plurality of sensors that have detected the person, the lighting condition acquisition unit is based on the information indicating the person discrimination area, which is the area of the predetermined part of the person, detected by the sensor having a high priority. The lighting control device according to any one of claims 1 to 7, wherein the lighting conditions of the above are acquired.
前記車両用灯は、前照灯である、請求項1から請求項のいずれか一項に記載の点灯制御装置。 The lighting control device according to any one of claims 1 to 8 , wherein the vehicle lighting is a headlight . 車両用照灯と、
請求項1から請求項のいずれか一項に記載の点灯制御装置と
を備える車両用灯具。
Vehicle headlights and
A vehicle lamp comprising the lighting control device according to any one of claims 1 to 9 .
JP2018008439A 2018-01-22 2018-01-22 Lighting control device and vehicle lighting equipment Active JP7014619B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018008439A JP7014619B2 (en) 2018-01-22 2018-01-22 Lighting control device and vehicle lighting equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018008439A JP7014619B2 (en) 2018-01-22 2018-01-22 Lighting control device and vehicle lighting equipment

Publications (2)

Publication Number Publication Date
JP2019127080A JP2019127080A (en) 2019-08-01
JP7014619B2 true JP7014619B2 (en) 2022-02-01

Family

ID=67471741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018008439A Active JP7014619B2 (en) 2018-01-22 2018-01-22 Lighting control device and vehicle lighting equipment

Country Status (1)

Country Link
JP (1) JP7014619B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090426A1 (en) * 2021-11-22 2023-05-25 株式会社小糸製作所 Personnel lamp and vehicle lamp

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006176020A (en) 2004-12-22 2006-07-06 Nissan Motor Co Ltd Pedestrian informing device and method
JP2013109911A (en) 2011-11-18 2013-06-06 Stanley Electric Co Ltd Lighting device
JP2016117456A (en) 2014-12-24 2016-06-30 三菱電機株式会社 Vehicle notification system and vehicle notification method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006176020A (en) 2004-12-22 2006-07-06 Nissan Motor Co Ltd Pedestrian informing device and method
JP2013109911A (en) 2011-11-18 2013-06-06 Stanley Electric Co Ltd Lighting device
JP2016117456A (en) 2014-12-24 2016-06-30 三菱電機株式会社 Vehicle notification system and vehicle notification method

Also Published As

Publication number Publication date
JP2019127080A (en) 2019-08-01

Similar Documents

Publication Publication Date Title
JP7048331B2 (en) Lighting control device
JP5831302B2 (en) Multi-light headlight
JP5348100B2 (en) Headlamp device, brightness control method
WO2015115083A1 (en) Headlight control device and headlight
EP3489086B1 (en) Controlling device for vehicle headlight, lighting system and method of controlling vehicle headlight
US8564204B2 (en) Vehicle headlamp apparatus and control method thereof
KR20130047214A (en) Spot lighting unit, headlamp system with spot lighting unit, and lighting method using thereof
JP2008110723A (en) Vehicular lighting system, vehicular lighting control method, and vehicular lighting control program
JP2005350010A (en) Stereoscopic vehicle exterior monitoring device
JP2011051441A (en) Headlight system for vehicle
US10821878B2 (en) Light pattern drawing device for aligning illuminated areas outside of vehicle
JP2008081074A (en) Headlamp control system
JP2013109911A (en) Lighting device
JP7014619B2 (en) Lighting control device and vehicle lighting equipment
JP6288208B1 (en) Vehicle headlight control device
JP2006011671A (en) Vehicle-mounted surrounding circumstance detection device
JP2008100541A (en) Lighting system for vehicle
JP2015058731A (en) Lighting control device for headlight of vehicle, and headlight system of vehicle
JP2012196999A (en) Vehicle lighting device and method
JP7184539B2 (en) LIGHTING CONTROL DEVICE, VEHICLE LAMP, AND LIGHTING CONTROL METHOD
WO2022196296A1 (en) Vehicle lamp control device, vehicle lamp control method and vehicle lamp system
JP4999653B2 (en) Vehicle lamp control system
CN116601051A (en) Method for operating at least one vehicle headlight and vehicle
JP2015136066A (en) Object detector
JP2012218532A (en) Lighting device for vehicle and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220120