JP2023083837A - Imaging apparatus for crew member monitoring system and the crew member monitoring system - Google Patents

Imaging apparatus for crew member monitoring system and the crew member monitoring system Download PDF

Info

Publication number
JP2023083837A
JP2023083837A JP2021197775A JP2021197775A JP2023083837A JP 2023083837 A JP2023083837 A JP 2023083837A JP 2021197775 A JP2021197775 A JP 2021197775A JP 2021197775 A JP2021197775 A JP 2021197775A JP 2023083837 A JP2023083837 A JP 2023083837A
Authority
JP
Japan
Prior art keywords
wavelength
light
occupant
monitoring system
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021197775A
Other languages
Japanese (ja)
Inventor
天童 石川
tendo Ishikawa
峰雄 福井
Mineo Fukui
修 伊藤
Osamu Ito
祥宜 中村
Yoshinobu Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyoda Gosei Co Ltd
Original Assignee
Toyoda Gosei Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Gosei Co Ltd filed Critical Toyoda Gosei Co Ltd
Priority to JP2021197775A priority Critical patent/JP2023083837A/en
Publication of JP2023083837A publication Critical patent/JP2023083837A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an imaging apparatus for a crew member monitoring system, capable of imaging data for creating a clear detection image even in the case where a crew member moves in a photographing and a camera swings, and provide a member monitoring system having the imaging apparatus.SOLUTION: The present invention provides an imaging apparatus 1 for a crew member monitoring system, comprising: a first light source 11 that irradiates a light of a first wavelength to a crew member 33 in a vehicle; a second light source 12 that irradiates the light of a second wavelength different from the first wavelength from a position different from that of the first light source 11 to the crew member 33; and a spectroscopic camera 13 that images the crew member 33 to which the light of the first wavelength and the light of the second wavelength, and acquires a data cube 20 which can fetch out a first image data 21 having information on the wavelength region containing the first wavelength and a second image data 22 having information on the wavelength region containing a second wavelength.SELECTED DRAWING: Figure 3

Description

本発明は、乗物室内で用いられる乗員モニタリングシステム用撮影装置及び乗員モニタリングシステムに関する。 The present invention relates to an imaging device for an occupant monitoring system and an occupant monitoring system used in a vehicle cabin.

従来、車両を運転する運転者を撮影した画像から、運転者の顔の向きや視線を検出する画像撮影装置であって、運転者が装着している眼鏡への光の映り込みを画像から除去することができる画像撮影装置が知られている(特許文献1を参照)。 Conventionally, an image capturing device that detects the direction of the driver's face and line of sight from an image captured by the driver driving a vehicle, and removes the reflection of light on the glasses worn by the driver from the image. There is known an image capturing device capable of capturing images (see Patent Literature 1).

眼鏡のレンズ部分やフレーム部分に光が映り込むことにより高輝度となった部分が発生すると、運転者の眼の画像情報が得られなくなり、運転者の顔の向きや視線の検出精度が低下するおそれがある。特許文献1に記載の画像撮影装置は、異なる位置に配置された、運転者を照明するための2つの光照射機を備えており、一方の光照射機から光を照明したときに撮影する運転者の画像と、他方の光照射機から光を照明したときに撮影する運転者の画像とを取得することができる。そして、これらの画像を合成して運転者が装着している眼鏡への光の映り込みが除去された画像を形成し、運転者の顔の向きや視線の検出精度を向上させることができる。 When light is reflected in the lenses and frames of eyeglasses, resulting in high-intensity areas, image information of the driver's eyes cannot be obtained, and the accuracy of detecting the direction of the driver's face and line of sight is reduced. There is a risk. The image capturing device described in Patent Document 1 includes two light illuminators arranged at different positions for illuminating the driver, and the driver is photographed when light is illuminated from one of the light illuminators. It is possible to acquire an image of the driver and an image of the driver captured when light is illuminated from the other light irradiator. Then, these images are combined to form an image from which reflection of light on the eyeglasses worn by the driver is removed, thereby improving the detection accuracy of the driver's face direction and line of sight.

特開2010-124043号公報JP 2010-124043 A

しかしながら、特許文献1に記載の画像撮影装置によれば、一方の光照射機から光を照明したときに撮影する運転者の画像と、他方の光照射機から光を照明したときに撮影する運転者の画像とを異なるタイミングで撮影する必要があるため、これらの2枚の画像を撮影する間に運転者が動いた場合や、カメラが揺れた場合に、2枚の画像の間で運転者の像に差異が生じてしまう。そのため、これら2枚の画像の合成により得られる眼鏡への光の映り込みが除去された画像において、運転者の像が不鮮明になり、運転者の状態を判定するための顔の向きや視線などの情報を精度よく検出できなくなるおそれがある。 However, according to the image capturing device described in Patent Document 1, the image of the driver captured when light is illuminated from one light irradiator and the image of the driver captured when light is illuminated from the other light irradiator Since it is necessary to capture the image of the driver at a different timing than the image of the driver, if the driver moves or shakes the camera while these two images are captured, the image of the driver will be captured between the two images. There will be a difference in the image of Therefore, in the image obtained by synthesizing these two images from which the reflection of light on the glasses is removed, the image of the driver becomes unclear, and the direction of the face, line of sight, etc. for judging the condition of the driver becomes unclear. information may not be detected accurately.

本発明の目的は、乗物室内の乗員の顔の向き、視線、開眼度などの情報を検出するための検出用画像の作成に用いられる画像データを取得する乗員モニタリングシステム用撮影装置であって、撮影時に乗員が動いた場合やカメラが揺れた場合であっても鮮明な検出用画像を作成するための画像データを取得できる乗員モニタリングシステム用撮影装置、及びその撮影装置を備えた乗員モニタリングシステムを提供することにある。 An object of the present invention is to provide an imaging device for an occupant monitoring system that acquires image data used to create a detection image for detecting information such as the direction of the face of an occupant in a vehicle, the line of sight, and the degree of eye opening, An imaging device for an occupant monitoring system that can acquire image data for creating a clear image for detection even when the occupant moves or the camera shakes during imaging, and an occupant monitoring system equipped with the imaging device. to provide.

本発明の一態様は、上記目的を達成するために、下記[1]、[2]の乗員モニタリングシステム用撮影装置、及び[3]の乗員モニタリングシステムを提供する。 In order to achieve the above object, one aspect of the present invention provides the following [1] and [2] photographing devices for an occupant monitoring system, and [3] an occupant monitoring system.

[1]乗物内の乗員に第1の波長の光を照射する第1の光源と、前記乗員に、前記第1の光源と異なる位置から、前記第1の波長と異なる第2の波長の光を照射する第2の光源と、前記第1の波長の光と前記第2の波長の光が照射された前記乗員を撮影し、前記第1の波長を含む波長域の情報を有する第1の画像データと前記第2の波長を含む波長域の情報を有する第2の画像データを異なるデータとして取り出すことができるデータキューブを取得する分光カメラと、を備えた、乗員モニタリングシステム用撮影装置。
[2]前記乗物が自動車である、上記[1]に記載の乗員モニタリングシステム用撮影装置。
[3]上記[1]又は[2]に記載の乗員モニタリングシステム用撮影装置と、前記第1の画像データと前記第2の画像データを用いて、前記第1の波長の光と前記第2の波長の光の映り込みが抑えられた、前記乗員の状態を判定するための情報の検出に用いられる検出用画像を作成する画像処理部と、を備えた、乗員モニタリングシステム。
[1] A first light source that irradiates an occupant in a vehicle with light of a first wavelength, and a light of a second wavelength that is different from the first wavelength to the occupant from a position different from the first light source. and the occupant irradiated with the light of the first wavelength and the light of the second wavelength, and the first light having information of a wavelength range including the first wavelength An imaging device for an occupant monitoring system, comprising: a spectroscopic camera that acquires a data cube capable of extracting image data and second image data having information of a wavelength region including the second wavelength as different data.
[2] The photographing device for an occupant monitoring system according to [1] above, wherein the vehicle is an automobile.
[3] Using the occupant monitoring system imaging device according to [1] or [2] above, and the first image data and the second image data, the light of the first wavelength and the second and an image processing unit that creates a detection image used for detecting information for determining the condition of the occupant, in which reflection of light with a wavelength of is suppressed.

本発明によれば、乗物室内の乗員の顔の向き、視線、開眼度などの情報を検出するための検出用画像の作成に用いられる画像データを取得する乗員モニタリングシステム用撮影装置であって、撮影時に乗員が動いた場合やカメラが揺れた場合であっても鮮明な検出用画像を作成するための画像データを取得できる乗員モニタリングシステム用撮影装置、及びその撮影装置を備えた乗員モニタリングシステムを提供することができる。 According to the present invention, an imaging device for an occupant monitoring system that acquires image data used for creating a detection image for detecting information such as the direction of the face of an occupant in a vehicle, the line of sight, and the degree of eye opening, An imaging device for an occupant monitoring system that can acquire image data for creating a clear image for detection even when the occupant moves or the camera shakes during imaging, and an occupant monitoring system equipped with the imaging device. can provide.

図1は、本実施の形態に係る撮影装置を構成する第1の光源、第2の光源、及び分光カメラの設置場所を示すための、自動車の車両室内の模式図である。FIG. 1 is a schematic diagram of the interior of an automobile for showing the installation locations of a first light source, a second light source, and a spectroscopic camera that constitute an imaging device according to the present embodiment. 図2は、撮影装置により運転席に座った乗員の顔周辺を撮影する様子を示す模式図である。FIG. 2 is a schematic diagram showing how an imaging device captures an image around the face of an occupant sitting in the driver's seat. 図3は、乗物に搭載された、撮影装置を含む乗員モニタリングシステムの構成の一例を概略的に示すブロック図である。FIG. 3 is a block diagram schematically showing an example of a configuration of an occupant monitoring system including an imaging device mounted on a vehicle. 図4は、乗員モニタリングシステムによる乗員のモニタリングの流れを概略的に示すフローチャートである。FIG. 4 is a flow chart schematically showing the flow of occupant monitoring by the occupant monitoring system. 図5は、分光カメラが取得するデータキューブの構造の模式図である。FIG. 5 is a schematic diagram of the structure of the data cube acquired by the spectroscopic camera. 図6(a)、(b)は、それぞれ第1の画像データと第2の画像データの模式図である。FIGS. 6A and 6B are schematic diagrams of the first image data and the second image data, respectively. 図7は、バス車内の乗員をモニタリングする様子を示す模式図である。FIG. 7 is a schematic diagram showing how passengers in the bus are monitored.

本発明の実施の形態に係る乗員モニタリングシステム用の撮影装置1は、乗物室内の乗員の状態を検出するための検出用画像の作成に用いられる画像データを取得する乗員モニタリングシステム用撮影装置である。 A photographing device 1 for a passenger monitoring system according to the embodiment of the present invention is a photographing device for a passenger monitoring system that acquires image data used for creating a detection image for detecting the state of a passenger in a vehicle cabin. .

撮影装置1は、乗物内の乗員に第1の波長の光を照射する第1の光源11と、その乗員に、第1の光源11と異なる位置から、第1の波長と異なる第2の波長の光を照射する第2の光源12と、第1の波長の光と第2の波長の光が照射された乗員を撮影し、第1の波長を含む波長域の情報を有する第1の画像データと第2の波長を含む波長域の情報を有する第2の画像データを異なるデータとして取り出すことができるデータキューブを取得する分光カメラ13と、を備える。 The photographing device 1 includes a first light source 11 for irradiating light of a first wavelength to an occupant in a vehicle, and a second wavelength different from the first wavelength to the occupant from a position different from the first light source 11. and a first image having information of a wavelength range including the first wavelength by photographing an occupant irradiated with the light of the first wavelength and the light of the second wavelength and a spectroscopic camera 13 that acquires a data cube that can extract second image data having information of a wavelength range including the data and the second wavelength as different data.

図1は、撮影装置1を構成する第1の光源11、第2の光源12、及び分光カメラ13の設置場所を示すための、自動車の車両室内の模式図である。図1に示されるPは分光カメラ13の設置場所の例を示し、P、Pは、第1の光源11と第2の光源12の設置場所の例を示している。 FIG. 1 is a schematic diagram of the vehicle interior of an automobile for showing the installation locations of the first light source 11, the second light source 12, and the spectroscopic camera 13 that constitute the photographing device 1. As shown in FIG. P 0 shown in FIG. 1 indicates an example of the installation location of the spectroscopic camera 13 , and P 1 and P 2 indicate examples of the installation locations of the first light source 11 and the second light source 12 .

図1に示されるように、分光カメラ13は、例えば、ステアリングホイール31のパッド部分(P)に設置される。また、第1の光源11と第2の光源12は、例えば、ステアリングホイール31のリム部分(P)や、Aピラー(フロントピラー)32(P)に設置される。例えば、分光カメラ13は、撮影対象である乗員の顔から1m以内の位置に配置され、第1の光源11と第2の光源12は、乗員の顔から2m以内の位置に配置される。 As shown in FIG. 1, the spectroscopic camera 13 is installed, for example, on the pad portion (P 0 ) of the steering wheel 31 . The first light source 11 and the second light source 12 are installed, for example, on the rim portion (P 1 ) of the steering wheel 31 or the A pillar (front pillar) 32 (P 2 ). For example, the spectroscopic camera 13 is placed within 1 m from the face of the passenger to be photographed, and the first light source 11 and the second light source 12 are placed within 2 m from the face of the passenger.

図2は、撮影装置1により運転席30に座った乗員33の顔周辺を撮影する様子を示す模式図である。図2に示される例では、第1の光源11と第2の光源12はステアリングホイール31のリム部分に設置され、分光カメラ13はステアリングホイール31のパッド部分に設置されている。 FIG. 2 is a schematic diagram showing how the photographing device 1 photographs the face and the periphery of the passenger 33 sitting in the driver's seat 30. As shown in FIG. In the example shown in FIG. 2, the first light source 11 and the second light source 12 are installed on the rim portion of the steering wheel 31, and the spectroscopic camera 13 is installed on the pad portion of the steering wheel 31. FIG.

第1の光源11から発せられた第1の波長の光と、第2の光源12から発せられた第2の波長の光は、運転席30に座った乗員33の顔周辺を照明し、照明された状態の乗員33の顔周辺を分光カメラ13が撮影し、データキューブを取得する。 The light of the first wavelength emitted from the first light source 11 and the light of the second wavelength emitted from the second light source 12 illuminate the face of an occupant 33 sitting in the driver's seat 30, thereby illuminating the area around the face. The spectroscopic camera 13 photographs the periphery of the face of the occupant 33 in this state, and acquires the data cube.

分光カメラ13は、マルチスペクトルカメラやハイパースペクトルカメラなどの、画素ごとの分光スペクトル(輝度対波長)を取得することができるカメラである。分光カメラ13が撮影により取得する画像データは、二次元の平面データに加えて波長情報を含む三次元(又は四次元以上)のデータであり、データキューブと呼ばれる。 The spectroscopic camera 13 is a camera, such as a multispectral camera or a hyperspectral camera, capable of obtaining a spectral spectrum (luminance vs. wavelength) for each pixel. The image data acquired by the spectroscopic camera 13 by photographing is three-dimensional (or four-dimensional or more) data including wavelength information in addition to two-dimensional planar data, and is called a data cube.

第1の光源11と第2の光源12は、例えば、LEDなどの発光素子を備えた照明装置である。第1の光源11の発光波長である第1の波長と、第2の光源12の発光波長である第2の波長は、分光カメラ13の分光性能により決定される。すなわち、分光カメラ13の取得したデータキューブから、第1の波長を含む波長域の情報を有する第1の画像データと第2の波長を含む波長域の情報を有する第2の画像データを異なるデータとして取り出すことができる程度に、第1の波長と第2の波長が離れていればよい。 The 1st light source 11 and the 2nd light source 12 are lighting apparatuses provided with light emitting elements, such as LED, for example. The first wavelength, which is the emission wavelength of the first light source 11 , and the second wavelength, which is the emission wavelength of the second light source 12 , are determined by the spectral performance of the spectroscopic camera 13 . That is, from the data cube acquired by the spectroscopic camera 13, the first image data having the information of the wavelength region including the first wavelength and the second image data having the information of the wavelength region including the second wavelength are different data. It suffices if the first wavelength and the second wavelength are separated to the extent that they can be extracted as .

典型的には、第1の光源11と第2の光源12は、それぞれ近赤外域の単波長域の光を発する。すなわち、第1の波長と第2の波長は、それぞれ近赤外域に含まれる。第1の画像データと第2の画像データを確実に異なるデータとして取得するため、例えば、第1の波長と第2の波長(のピーク波長)が50nm以上離れていることが好ましい。 Typically, the first light source 11 and the second light source 12 each emit light in a single wavelength region in the near-infrared region. That is, each of the first wavelength and the second wavelength is included in the near-infrared region. In order to reliably acquire the first image data and the second image data as different data, for example, it is preferable that the first wavelength and the second wavelength (the peak wavelengths thereof) are separated by 50 nm or more.

図3は、乗物に搭載された、撮影装置1を含む乗員モニタリングシステム100の構成の一例を概略的に示すブロック図である。乗員モニタリングシステム100は、乗物内の乗員33の顔周辺をモニタリングするシステムであり、例えば、モニタリングにより判定された運転者の状態に応じて警告を発することにより、わき見運転や居眠り運転を抑制することができる。 FIG. 3 is a block diagram schematically showing an example of the configuration of an occupant monitoring system 100 including the photographing device 1 mounted on a vehicle. The occupant monitoring system 100 is a system that monitors the area around the face of the occupant 33 in the vehicle. For example, by issuing a warning according to the state of the driver determined by monitoring, it is possible to suppress inattentive driving and drowsy driving. can be done.

乗員モニタリングシステム100は、第1の光源11、第2の光源12、及び分光カメラ13を有する撮影装置1と、分光カメラ13の取得したデータキューブを記憶する記憶部14と、記憶部14に記憶されたデータキューブに含まれる第1の画像データと第2の画像を用いて、第1の波長の光と前記第2の波長の光の映り込みが抑えられた、乗員33の状態を判定するための顔の向き、視線、開眼度などの情報(判定用情報と呼ぶ)の検出に用いられる検出用画像を作成する画像処理部15と、画像処理部15が作成した検出用画像を記憶する記憶部16と、記憶部16に記憶された検出用画像を解析して、判定用情報を検出する画像解析部17と、画像解析部17が検出した判定用情報に基づいて乗員33の状態を判定する状態判定部18と、状態判定部18の判定した乗員33の状態に応じて乗員33に対する警告を発する警告部19と、第1の光源11、第2の光源12、分光カメラ13、画像処理部15、画像解析部17、状態判定部18、警告部19などの動作を制御する制御部10とを備える。 The occupant monitoring system 100 includes an imaging device 1 having a first light source 11, a second light source 12, and a spectroscopic camera 13; Using the first image data and the second image included in the obtained data cube, the state of the occupant 33 in which reflection of the light of the first wavelength and the light of the second wavelength is suppressed is determined. An image processing unit 15 that creates a detection image used for detecting information (referred to as judgment information) such as face direction, line of sight, eye opening degree, etc. for the purpose, and stores the detection image created by the image processing unit 15 a storage unit 16; an image analysis unit 17 that analyzes the detection image stored in the storage unit 16 and detects determination information; a warning unit 19 that issues a warning to the occupant 33 according to the state of the occupant 33 determined by the state determination unit 18; the first light source 11; the second light source 12; the spectroscopic camera 13; It includes a control unit 10 that controls operations of a processing unit 15, an image analysis unit 17, a state determination unit 18, a warning unit 19, and the like.

乗員モニタリングシステム100を構成する制御部10、記憶部14、画像処理部15、記憶部16、画像解析部17、及び状態判定部18は、例えば、車両に搭載されたECU(エレクトロニックコントロールユニット)に実装されたMCU(マイクロコントローラーユニット)に含まれる。また、警告部19は、例えば、音や光により警告を発する車載装置である。なお、乗員モニタリングシステム100は警告部19を構成に含まないものであってもよい。この場合、警告部19は外部機器として乗員モニタリングシステム100に接続される。 The control unit 10, the storage unit 14, the image processing unit 15, the storage unit 16, the image analysis unit 17, and the state determination unit 18 that constitute the occupant monitoring system 100 are, for example, an ECU (electronic control unit) mounted on the vehicle. It is included in the implemented MCU (microcontroller unit). Also, the warning unit 19 is, for example, an in-vehicle device that issues a warning by sound or light. Note that the occupant monitoring system 100 may not include the warning unit 19 in its configuration. In this case, the warning unit 19 is connected to the occupant monitoring system 100 as an external device.

図4は、乗員モニタリングシステム100による乗員33のモニタリングの流れを概略的に示すフローチャートである。まず、第1の光源11からの第1の波長の光と第2の光源12からの第2の波長の光を同時に乗員33の顔周辺に照射し、第1の光と第2の光が照射された状態の乗員33の顔周辺を分光カメラ13により撮影する(ステップS1)。撮影により分光カメラ13が取得したデータキューブは、記憶部14に記憶される。 FIG. 4 is a flowchart schematically showing the flow of monitoring of the occupant 33 by the occupant monitoring system 100. As shown in FIG. First, light of a first wavelength from the first light source 11 and light of a second wavelength from the second light source 12 are simultaneously irradiated around the face of the occupant 33, and the first light and the second light are emitted. The area around the face of the occupant 33 in the irradiated state is photographed by the spectroscopic camera 13 (step S1). The data cube acquired by the spectroscopic camera 13 by photographing is stored in the storage unit 14 .

図5は、分光カメラ13が取得するデータキューブの構造の模式図である。図5は、それぞれ異なる波長域の情報を含む複数の画像がデータキューブ20に含まれている様子を示している。これらのデータキューブ20を構成する複数の画像に、第1の光源11の発光波長を含む波長域の情報を有する第1の画像データ21と、第2の光源12の発光波長を含む波長域の情報を有する第2の画像データ22が含まれる。 FIG. 5 is a schematic diagram of the structure of the data cube acquired by the spectroscopic camera 13. As shown in FIG. FIG. 5 shows how the datacube 20 contains a plurality of images each containing information in different wavelength ranges. First image data 21 having information on a wavelength range including the emission wavelength of the first light source 11 and information on the wavelength range including the emission wavelength of the second light source 12 in a plurality of images constituting these data cubes 20 A second image data 22 having information is included.

例えば、第1の画像データ21の波長域がλ~λであるとすると、第1の画像データ21に含まれる各画素においてλ~λの範囲外の波長の輝度がゼロである。そして、第2の光源12の発光波長である第2の波長はλ~λの範囲外にあるため、第2の光源12から発せられた光は第1の画像データ21に映り込まない。同様に、第1の光源11の発光波長である第1の波長は第2の画像データ22の波長域の範囲外にあるため、第1の光源11から発せられた光は第2の画像データ22に映り込まない。 For example, if the wavelength range of the first image data 21 is λ 1 to λ 2 , the brightness of wavelengths outside the range of λ 1 to λ 2 is zero in each pixel included in the first image data 21. . Since the second wavelength, which is the emission wavelength of the second light source 12, is outside the range of λ 1 to λ 2 , the light emitted from the second light source 12 is not reflected in the first image data 21. . Similarly, since the first wavelength, which is the emission wavelength of the first light source 11, is outside the wavelength range of the second image data 22, the light emitted from the first light source 11 is reflected in the second image data. 22 is not reflected.

図6(a)、(b)は、それぞれ第1の画像データ21と第2の画像データ22の模式図である。図6(a)、(b)に示されるように、第1の画像データ21には第1の光源11から発せられて乗員33の眼鏡に反射された第1の波長を有する光351が映り込み、第2の画像データ22には第2の光源12から発せられて乗員33の眼鏡に反射された第2の波長を有する光352が映り込む。ここで、第1の光源11と第2の光源12は異なる位置に設置されているため、第1の画像データ21の光351が映り込む位置と、第2の画像データ22の光352が映り込む位置(画像上の座標)は異なる。 6A and 6B are schematic diagrams of the first image data 21 and the second image data 22, respectively. As shown in FIGS. 6A and 6B, light 351 having the first wavelength emitted from the first light source 11 and reflected by the glasses of the occupant 33 is reflected in the first image data 21 . In addition, light 352 having the second wavelength emitted from the second light source 12 and reflected by the glasses of the occupant 33 is reflected in the second image data 22 . Here, since the first light source 11 and the second light source 12 are installed at different positions, the position where the light 351 of the first image data 21 is reflected and the light 352 of the second image data 22 are reflected. The insertion position (coordinates on the image) is different.

次に、画像処理部15が、記憶部14に記憶されたデータキューブから第1の画像データと第2の画像データを取り出し、これら第1の画像データと第2の画像データを用いて検出用画像を作成する(ステップS2)。画像処理部15により作成された検出用画像は、記憶部16に記憶される。 Next, the image processing unit 15 extracts the first image data and the second image data from the data cube stored in the storage unit 14, and uses the first image data and the second image data for detection. An image is created (step S2). The detection image created by the image processing section 15 is stored in the storage section 16 .

なお、分光カメラ13がデータキューブを取得した後、データキューブから取り出された第1の画像データと第2の画像データが記憶部14に記憶されてもよい。この場合、ステップS2において、記憶部14に記憶された第1の画像データと第2の画像データが用いられる。 Note that the first image data and the second image data extracted from the data cube may be stored in the storage unit 14 after the spectroscopic camera 13 acquires the data cube. In this case, the first image data and the second image data stored in the storage unit 14 are used in step S2.

ステップS2における検出用画像の作成は、第1の画像データ21と第2の画像データ22を用いた画像合成(加算合成、減算合成など)により行われる。具体的には、例えば、第1の画像データ21と第2の画像データ22の減算合成により差分を抽出し、光351と光352が抽出された(光351と光352の輝度が選択的に高められた)差分画像データを作成し、第1の画像データ21と第2の画像データ22の加算合成により、第1の画像データ21と第2の画像データ22の情報が加算された(光351と光352の両方を含む)加算画像データを作成し、さらに加算画像データに差分画像データを減算合成して、光351と光352が除去又はほとんど除去された検出用画像を取得する。なお、検出用画像の作成のための第1の画像データ21と第2の画像データ22の合成方法は特に限定されず、既知の種々の方法を用いることができる。 Creation of the detection image in step S2 is performed by image synthesis (additive synthesis, subtractive synthesis, etc.) using the first image data 21 and the second image data 22 . Specifically, for example, the difference is extracted by subtractive synthesis of the first image data 21 and the second image data 22, and the light 351 and the light 352 are extracted (the luminance of the light 351 and the light 352 is selectively Information of the first image data 21 and the information of the second image data 22 are added (light 351 and light 352) is created, and the difference image data is subtracted and combined with the added image data to obtain a detection image in which the light 351 and the light 352 are removed or almost removed. The method of synthesizing the first image data 21 and the second image data 22 for creating the detection image is not particularly limited, and various known methods can be used.

ステップS2における検出用画像の作成に用いられる第1の画像データ21と第2の画像データ22は、分光カメラ13により同時に取得されたものであるため、撮影時に乗員33が動いていた場合や、分光カメラ13が揺れていた場合であっても、タイムラグによる第1の画像データ21と第2の画像データ22の画像のずれは生じない。このため、撮影時に乗員33が動いていた場合や、分光カメラ13が揺れていた場合であっても、鮮明な検出用画像を作成することができる。 The first image data 21 and the second image data 22 used for creating the detection image in step S2 are obtained simultaneously by the spectroscopic camera 13. Even if the spectroscopic camera 13 is shaken, the images of the first image data 21 and the second image data 22 do not shift due to the time lag. Therefore, even if the occupant 33 is moving or the spectroscopic camera 13 is shaking at the time of photographing, a clear detection image can be created.

次に、画像解析部17が、記憶部16に記憶された検出用画像を解析して、乗員33の顔の向き、視線、開眼度などの判定用情報を検出する(ステップS3)。このとき、ステップS2において光351と光352が検出用画像から除去又はほとんど除去されているため、光351と光352が映り込んでいた部分の情報(乗員33の目の状態など)を精度よく検出することができる。また、撮影時に乗員33が動いていた場合や、分光カメラ13が揺れていた場合であっても、鮮明な検出用画像から判定用情報を精度よく検出することができる。 Next, the image analysis unit 17 analyzes the detection image stored in the storage unit 16 to detect determination information such as the face orientation, line of sight, and degree of eye opening of the occupant 33 (step S3). At this time, since the light 351 and the light 352 have been removed or almost removed from the detection image in step S2, the information of the portion where the light 351 and the light 352 were reflected (such as the eye condition of the passenger 33) can be obtained with high accuracy. can be detected. Further, even if the occupant 33 is moving or the spectroscopic camera 13 is shaking at the time of photographing, the determination information can be accurately detected from the clear detection image.

次に、状態判定部18が、画像解析部17が検出した判定用情報に基づいて乗員33の状態を判定する(ステップS4)。例えば、乗員33の顔の向きや視線が正面を向いていない場合にはわき見をしていると判定し、開眼度が低い場合は眠気を催していると判定する。 Next, the state determination unit 18 determines the state of the occupant 33 based on the determination information detected by the image analysis unit 17 (step S4). For example, it is determined that the occupant 33 is looking aside when the direction of the face or line of sight of the occupant 33 is not facing the front, and it is determined that the occupant 33 is drowsy when the eye opening degree is low.

次に、警告部19が、状態判定部18の判定した乗員33の状態に応じて、乗員33に対して警告を発する(ステップS5)。例えば、状態判定部18により、わき見をしていると判定された場合は、わき見をせずに運転することを音声により警告し、眠気を催していると判定された場合は、音や光による覚醒を促すような警告を発する。 Next, the warning unit 19 issues a warning to the occupant 33 according to the state of the occupant 33 determined by the state determination unit 18 (step S5). For example, if the state determination unit 18 determines that the driver is inattentive, the driver is warned by voice to avoid driving without looking aside, and if it is determined that the driver is drowsy, the driver is notified by sound or light. Issue a wake-up alert.

上記では、撮影装置1を備えた乗員モニタリングシステム100を用いて、自動車の車両室内の運転者のモニタリングを実施する場合について説明したが、モニタリングの対象は運転者以外の乗員であってもよく、また、自動車以外の乗物、例えば電車、飛行機などの乗員であってもよい。運転者以外の乗員をモニタリングする場合、例えば、乗員の体調異常などの状態を判定することができる。 In the above description, the occupant monitoring system 100 equipped with the imaging device 1 is used to monitor the driver in the vehicle interior of the vehicle. It may also be a passenger of a vehicle other than an automobile, such as a train or an airplane. When monitoring a passenger other than the driver, it is possible to determine the condition of the passenger, such as an abnormality in physical condition, for example.

図7は、バス車内の乗員をモニタリングする様子を示す模式図である(第1の光源11と第2の光源12の図示は省略する)。図7に示される例では、バスの天井に設置された撮影装置1の分光カメラ13により、座席42に座った複数の乗員33a~33eをモニタリングする。 FIG. 7 is a schematic diagram showing how passengers in the bus are monitored (illustration of the first light source 11 and the second light source 12 is omitted). In the example shown in FIG. 7, a plurality of passengers 33a to 33e sitting on seats 42 are monitored by the spectroscopic camera 13 of the photographing device 1 installed on the ceiling of the bus.

このような場合、例えば、乗員の体調異常や異常行動などの状態を判定することができる。また、分光カメラ13を用いているため、外光や車内照明による影響を低減し、朝や夜間での状態検知精度を向上させることができる。さらに、第1の光源11と第2の光源12として近赤外光源を用いることにより、窓ガラス41への乗員33a~33eの映り込みを低減し、誤検知を抑えることができる。 In such a case, for example, it is possible to determine the condition of the occupant, such as abnormal physical condition or abnormal behavior. In addition, since the spectroscopic camera 13 is used, it is possible to reduce the influence of external light and lighting inside the vehicle and improve the state detection accuracy in the morning and at night. Furthermore, by using near-infrared light sources as the first light source 11 and the second light source 12, it is possible to reduce the reflection of the passengers 33a to 33e on the window glass 41 and suppress erroneous detection.

(実施の形態の効果)
上記本発明の実施の形態によれば、第1の画像データ21と第2の画像データ22を分光カメラ13により同時に取得することにより、撮影時に乗員33が動いていた場合や、分光カメラ13が揺れていた場合であっても、鮮明な検出用画像を作成することができる。これにより、乗員33の顔の向き、視線、開眼度などの判定用情報を精度よく検出し、乗員33の状態を精度よく判定することができる。このため、例えば、運転者のわき見、居眠りなどを抑制や、自動運転レベル3~4の運転権限移譲における安定的な状態判定(例えば、運転者への権限移譲時に運転可能な状態であるかの判定)に非常に有用である。
(Effect of Embodiment)
According to the above-described embodiment of the present invention, by simultaneously acquiring the first image data 21 and the second image data 22 by the spectroscopic camera 13, it is possible to detect when the occupant 33 is moving at the time of photographing or when the spectroscopic camera 13 is A clear image for detection can be created even in the case of shaking. As a result, it is possible to accurately detect the determination information such as the direction of the face of the occupant 33, the line of sight, and the degree of eye opening, and to determine the state of the occupant 33 with high accuracy. For this reason, for example, it is possible to suppress inattentiveness and dozing off of the driver, and to make stable state judgments when transferring driving authority at autonomous driving levels 3 to 4 (for example, whether the driver is in a state where driving is possible when authority is transferred to the driver). judgment).

以上、本発明の実施の形態を説明したが、本発明は、上記の実施の形態に限定されず、発明の主旨を逸脱しない範囲内において種々変形実施が可能である。また、発明の主旨を逸脱しない範囲内において上記実施の形態の構成要素を任意に組み合わせることができる。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Also, the constituent elements of the above-described embodiments can be arbitrarily combined without departing from the gist of the invention.

また、上記の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない点に留意すべきである。 Moreover, the above embodiments do not limit the invention according to the scope of claims. Also, it should be noted that not all combinations of features described in the embodiments are essential to the means for solving the problems of the invention.

1 撮影装置
10 制御部
11 第1の光源
12 第2の光源
13 分光カメラ
14、16 記憶部
15 画像処理部
17 画像解析部
18 状態判定部
19 警告部
100 乗員モニタリングシステム
Reference Signs List 1 imaging device 10 control unit 11 first light source 12 second light source 13 spectroscopic camera 14, 16 storage unit 15 image processing unit 17 image analysis unit 18 state determination unit 19 warning unit 100 occupant monitoring system

Claims (3)

乗物内の乗員に第1の波長の光を照射する第1の光源と、
前記乗員に、前記第1の光源と異なる位置から、前記第1の波長と異なる第2の波長の光を照射する第2の光源と、
前記第1の波長の光と前記第2の波長の光が照射された前記乗員を撮影し、前記第1の波長を含む波長域の情報を有する第1の画像データと前記第2の波長を含む波長域の情報を有する第2の画像データを異なるデータとして取り出すことができるデータキューブを取得する分光カメラと、
を備えた、
乗員モニタリングシステム用撮影装置。
a first light source for illuminating an occupant in the vehicle with a first wavelength of light;
a second light source that irradiates the occupant with light of a second wavelength different from the first wavelength from a position different from that of the first light source;
photographing the occupant irradiated with the light of the first wavelength and the light of the second wavelength; a spectroscopic camera that acquires a data cube that can extract the second image data having information of the wavelength range including as different data;
with
Imager for occupant monitoring system.
前記乗物が自動車である、
請求項1に記載の乗員モニタリングシステム用撮影装置。
wherein the vehicle is an automobile;
The imaging device for an occupant monitoring system according to claim 1.
請求項1又は2に記載の乗員モニタリングシステム用撮影装置と、
前記第1の画像データと前記第2の画像データを用いて、前記第1の波長の光と前記第2の波長の光の映り込みが抑えられた、前記乗員の状態を判定するための情報の検出に用いられる検出用画像を作成する画像処理部と、
を備えた、
乗員モニタリングシステム。
An imaging device for an occupant monitoring system according to claim 1 or 2;
Information for determining the state of the occupant in which reflection of the light of the first wavelength and the light of the second wavelength is suppressed using the first image data and the second image data An image processing unit that creates a detection image used for detection of
with
Occupant monitoring system.
JP2021197775A 2021-12-06 2021-12-06 Imaging apparatus for crew member monitoring system and the crew member monitoring system Pending JP2023083837A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021197775A JP2023083837A (en) 2021-12-06 2021-12-06 Imaging apparatus for crew member monitoring system and the crew member monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021197775A JP2023083837A (en) 2021-12-06 2021-12-06 Imaging apparatus for crew member monitoring system and the crew member monitoring system

Publications (1)

Publication Number Publication Date
JP2023083837A true JP2023083837A (en) 2023-06-16

Family

ID=86731634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021197775A Pending JP2023083837A (en) 2021-12-06 2021-12-06 Imaging apparatus for crew member monitoring system and the crew member monitoring system

Country Status (1)

Country Link
JP (1) JP2023083837A (en)

Similar Documents

Publication Publication Date Title
JP4853389B2 (en) Face image capturing device
CN106627586B (en) In-vehicle sensor, vehicle lamp, vehicle, and road surface condition sensor
CN104512411B (en) Vehicle control system and imaging sensor
US8830324B2 (en) Vehicle monitoring camera and vehicle monitoring camera system
CN102971776B (en) Obstacle detection system and method, obstacle detector
JP2006248363A (en) Driver lighting system, driver photographing device and driver monitoring device
CN111160081B (en) Monitoring system
JP2006242909A (en) System for discriminating part of object
JP7331483B2 (en) Imaging control device
US11146715B2 (en) Camera system, driver/passenger monitoring system, moving vehicle, image capturing method, and non-transitory storage medium
US20220180722A1 (en) Systems and methods for detecting distracted driving by a driver of a vehicle
JP2023083837A (en) Imaging apparatus for crew member monitoring system and the crew member monitoring system
JP2009029350A (en) Occupant detection device for vehicle
US20170158130A1 (en) System to detect vehicle lamp performance
JP2017085414A (en) Imaging system, lamp fitting for vehicle and vehicle
KR101917289B1 (en) Camera System for a Vehicle
WO2018170538A1 (en) System and method of capturing true gaze position data
JP5182567B2 (en) Crew monitoring device
WO2014061175A1 (en) State monitoring device
CN115668960A (en) Optical detection device
WO2019044434A1 (en) Object detection system
CN115398883B (en) Infrared imaging device and infrared imaging system
WO2019167332A1 (en) Vehicle display control device, vehicle display system, vehicle display control method and program
US20240096045A1 (en) Synchronizing image frames by super sampling
JP7483152B2 (en) Lighting control device, biological information acquisition device, and lighting control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231225