JP2017175199A - Target range setting method for vehicle cabin camera, and vehicle cabin camera - Google Patents

Target range setting method for vehicle cabin camera, and vehicle cabin camera Download PDF

Info

Publication number
JP2017175199A
JP2017175199A JP2016055844A JP2016055844A JP2017175199A JP 2017175199 A JP2017175199 A JP 2017175199A JP 2016055844 A JP2016055844 A JP 2016055844A JP 2016055844 A JP2016055844 A JP 2016055844A JP 2017175199 A JP2017175199 A JP 2017175199A
Authority
JP
Japan
Prior art keywords
image
target range
setting
face
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016055844A
Other languages
Japanese (ja)
Inventor
明彦 杉川
Akihiko Sugikawa
明彦 杉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2016055844A priority Critical patent/JP2017175199A/en
Publication of JP2017175199A publication Critical patent/JP2017175199A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a target range setting technique for a vehicle cabin camera, capable of setting a target range in a short time.SOLUTION: A target range setting method for a vehicle cabin camera includes: a first image acquisition step for acquiring a first image, which includes a face part of a driver, by a camera having a built-in image processor; a second image acquisition step for acquiring, by the camera, a second image which includes a face part irradiated with illumination light; a difference acquisition step for comparing the first image with the second image to acquire a luminance difference; an identification step for identifying the face part in a camera imaging range on the basis of the difference; and a setting step for setting, based on the identified part, a target range in which the face part exists in the imaging range.SELECTED DRAWING: Figure 9

Description

本発明の実施形態は、居眠り運転や脇見運転をしているか否かを判定するために運転者の顔を撮影する車室内用カメラに関する。   Embodiments described herein relate generally to a vehicle interior camera that captures a driver's face in order to determine whether or not he is driving a nap or looking aside.

従来、夜間の撮影時には、近赤外線投光器を用いて被写体を照らすとともに長時間露光にして撮影を行い、昼間の撮影時には、近赤外線投光器による投光を行わずに短時間露光にして撮影を行う撮影装置がある(例えば、特許文献1参照)。   Conventionally, when shooting at night, use a near-infrared projector to illuminate the subject and shoot with a long exposure, and when shooting in the daytime, shoot with a short exposure without using a near-infrared projector. There is an apparatus (for example, refer to Patent Document 1).

特開2005−295340号公報JP 2005-295340 A

近年、居眠り運転や脇見運転を防止するために、運転者の顔を車室内用カメラで撮影して居眠り運転などをしているか否かを判定し、居眠り運転などをしている場合には、警報音などを発する装置がある。このような装置では、カメラの撮影範囲において顔が存在する範囲(目標範囲)を設定し、この範囲のみを顔認識システムで処理することで、居眠り運転などの判定処理の速度を向上させている。しかしながら、太陽光などに基づく外乱光が、運転者の顔やその周囲の部分を照らしていると、カメラの撮影範囲のいずれの部分が顔の部分であるかの特定が困難になってしまう。特に、運転者が脇見をしたときなど、一時的に顔の部分が特定できなくなったときに、再び顔の部分を特定しようとすると、カメラの撮影範囲の全ての範囲を探索しなければならず、顔が存在する範囲を再設定する処理に時間がかかってしまうという課題がある。   In recent years, in order to prevent a drowsy driving or a side-by-side driving, it is determined whether the driver's face is photographed with a camera in the vehicle interior to do a drowsy driving, etc. There are devices that emit alarm sounds. In such an apparatus, a range (target range) where a face exists in the shooting range of the camera is set, and only this range is processed by the face recognition system, thereby improving the speed of determination processing such as a snooze driving. . However, when disturbance light based on sunlight or the like illuminates the driver's face and the surrounding area, it becomes difficult to specify which part of the shooting range of the camera is the face part. In particular, if the face part cannot be specified temporarily, such as when the driver looks aside, if you try to specify the face part again, you must search the entire camera shooting range. There is a problem that it takes time to reset the range in which the face exists.

本発明の実施形態はこのような事情を考慮してなされたもので、短時間で目標範囲を設定することができる車室内用カメラの目標範囲の設定技術を提供することを目的とする。   The embodiment of the present invention has been made in view of such circumstances, and an object thereof is to provide a technology for setting a target range of a vehicle interior camera that can set a target range in a short time.

本発明の実施形態に係る車室内用カメラの目標範囲の設定方法は、画像処理プロセッサを内蔵するカメラによって運転者の顔の部分を含む第1画像を取得する第1画像取得ステップと、照明光が照射された前記顔の部分を含む第2画像を前記カメラによって取得する第2画像取得ステップと、前記第1画像と前記第2画像とを比較して輝度の差分を取得する差分取得ステップと、前記差分に基づいて前記カメラの撮影範囲における前記顔の部分を特定する特定ステップと、前記特定した部分に基づいて前記撮影範囲における前記顔の部分が存在する目標範囲を設定する設定ステップと、を含む。   A method for setting a target range of a vehicle interior camera according to an embodiment of the present invention includes: a first image acquisition step of acquiring a first image including a driver's face portion by a camera incorporating an image processor; and illumination light. A second image acquisition step of acquiring a second image including the face portion irradiated with a light by the camera; and a difference acquisition step of acquiring a luminance difference by comparing the first image and the second image; A specifying step for specifying the face portion in the shooting range of the camera based on the difference, and a setting step for setting a target range in which the face portion in the shooting range exists based on the specified portion; including.

運転者を撮影する車室内用カメラが搭載された自動車を示す図。The figure which shows the motor vehicle equipped with the vehicle interior camera which image | photographs a driver | operator. 車室内用カメラを示す正面図。The front view which shows the camera for vehicle interiors. 車室内用カメラを示す側面図。The side view which shows the vehicle interior camera. 車室内用カメラの構成を示すブロック図。The block diagram which shows the structure of the camera for vehicle interiors. 第1画像および第2画像の生成態様を示す説明図。Explanatory drawing which shows the production | generation aspect of a 1st image and a 2nd image. 各種タイミングを示すタイミングチャート。The timing chart which shows various timings. 目標範囲の設定態様を示す説明図。Explanatory drawing which shows the setting aspect of a target range. 運転状況判定処理を示すフローチャート。The flowchart which shows a driving | running condition determination process. 目標範囲設定処理を示すフローチャート。The flowchart which shows a target range setting process.

以下、本実施形態を添付図面に基づいて説明する。図1の符号1は、本実施形態の車室内用カメラである。この車室内用カメラ1は、自動車2の車室内の運転者Dの顔の画像を撮影するために設けられ、画像処理プロセッサを内蔵する。例えば、車室内用カメラ1は、自動車2の車内のダッシュボード3におけるハンドル4のベース5の上面に取り付けられる。この車室内用カメラ1は、レンズ10(図2参照)が運転者Dの方向を向いた状態で取り付けられる。   Hereinafter, this embodiment is described based on an accompanying drawing. Reference numeral 1 in FIG. 1 denotes a vehicle interior camera according to the present embodiment. The vehicle interior camera 1 is provided to capture an image of the face of the driver D in the vehicle interior of the automobile 2 and incorporates an image processing processor. For example, the vehicle interior camera 1 is attached to the upper surface of the base 5 of the handle 4 in the dashboard 3 in the car 2. The vehicle interior camera 1 is attached in a state where the lens 10 (see FIG. 2) faces the driver D.

また、車室内用カメラ1は、自動車2に搭載されたスピーカ(図示略)を制御する音制御部(図示略)にケーブル(図示略)を介して接続される。車室内用カメラ1により撮影した運転者Dの顔の画像に基づいて、居眠り運転や脇見運転などをしているか否かを判定し、居眠り運転や脇見運転などをしている場合にスピーカから警告音を報知するようにしている。   The vehicle interior camera 1 is connected to a sound control unit (not shown) for controlling a speaker (not shown) mounted on the automobile 2 via a cable (not shown). Based on the image of the face of the driver D photographed by the vehicle interior camera 1, it is determined whether the driver is dozing or looking aside, and a warning is given from the speaker when the driver is asleep or looking aside Sound is reported.

なお、本実施形態では、後付けで自動車2に取り付けることができる小型の車室内用カメラ1を例示している。また、車室内用カメラ1を自動車2の一部として組み込んでも良く、自動車2の製造時に車室内用カメラ1が搭載されるものであっても良い。   In addition, in this embodiment, the small camera 1 for vehicle interiors which can be attached to the motor vehicle 2 by retrofit is illustrated. Further, the vehicle interior camera 1 may be incorporated as a part of the automobile 2, or the vehicle interior camera 1 may be mounted when the automobile 2 is manufactured.

図2に示すように、車室内用カメラ1は、小型の箱状をなす筐体の正面側に設けられたレンズ10を備える。このレンズ10の周囲には、近赤外光照射部11が設けられている。また、近赤外光照射部11は、運転者Dの顔の部分に特定波長の照明光を照射するための装置であって、レンズ10の周囲を囲む6個(複数)のLEDランプで構成された装置である。本実施例では、近赤外光照射部11を用いて近赤外光で構成される照明光が照射可能となっている。例えば、波長が880〜940nmの範囲の近赤外光の照明光が照射される。なお、本実施形態では、複数のLEDランプで近赤外光照射部11を構成しているが、高輝度の照明光を照射する1つのLEDランプで近赤外光照射部11を構成しても良い。   As shown in FIG. 2, the vehicle interior camera 1 includes a lens 10 provided on the front side of a small box-shaped housing. A near-infrared light irradiation unit 11 is provided around the lens 10. The near-infrared light irradiation unit 11 is a device for irradiating the face of the driver D with illumination light having a specific wavelength, and is composed of six (plural) LED lamps surrounding the lens 10. Device. In the present embodiment, illumination light composed of near infrared light can be irradiated using the near infrared light irradiation unit 11. For example, near-infrared illumination light having a wavelength in the range of 880 to 940 nm is irradiated. In the present embodiment, the near-infrared light irradiation unit 11 is configured by a plurality of LED lamps. However, the near-infrared light irradiation unit 11 is configured by one LED lamp that irradiates high-luminance illumination light. Also good.

図3に示すように、レンズ10の光軸Lの延長線上には、近赤外光を透過する透過フィルタ12が設けられる。さらに、透過フィルタ12の背面側には、静止画像や動画像などの映像を撮影するのに用いられる撮像素子13が設けられている。なお、撮像素子13は、CCDまたはCMOSイメージセンサなどの可視光や赤外線の波長領域の感度を有する撮像素子13が用いられている。本実施形態では、透過フィルタ12を透過した近赤外光が撮像素子13により受光される。   As shown in FIG. 3, a transmission filter 12 that transmits near-infrared light is provided on an extension line of the optical axis L of the lens 10. Further, on the back side of the transmission filter 12, an image sensor 13 that is used to capture a video such as a still image or a moving image is provided. Note that the imaging element 13 is an imaging element 13 having sensitivity in the visible or infrared wavelength region, such as a CCD or CMOS image sensor. In the present embodiment, near-infrared light transmitted through the transmission filter 12 is received by the image sensor 13.

なお、車室内用カメラ1では、その撮影範囲において顔が存在する目標範囲を設定する。そして、居眠り運転などの判定を行うときには、この目標範囲のみを判定の対象とする。このようにすることで、撮影範囲の全範囲を判定の対象にすることと比較して、少ない情報量で判定を実行することができ、処理負荷が低減されるばかりか、処理速度が向上される。   In the vehicle interior camera 1, a target range in which a face exists in the shooting range is set. Then, when determining such as a drowsy driving, only this target range is set as a determination target. In this way, it is possible to execute the determination with a small amount of information as compared with the case where the entire photographing range is the target of determination, and not only the processing load is reduced but also the processing speed is improved. The

本実施形態では、車室内用カメラ1により画像を撮影するときに、シングルフレーム式のハイダイナミックレンジ合成(HDR:high dynamic range imaging)が可能になっている。なお、ダイナミックレンジとは、撮像素子13が検知することができる最も明るい部分と暗い部分の範囲のことである。さらに、ハイダイナミックレンジ合成とは、幅広いダイナミックレンジを記録、表示するために開発された画像合成技術のことである。   In the present embodiment, when the vehicle interior camera 1 captures an image, single frame high dynamic range imaging (HDR) is possible. The dynamic range is the range of the brightest part and the dark part that can be detected by the image sensor 13. Furthermore, high dynamic range composition is an image composition technique developed for recording and displaying a wide dynamic range.

なお、車室内用カメラ1では、通常方式による撮影とHDR方式による撮影との2種類の撮影方式を切り換えて行うことができる。本実施形態では、運転者Dの居眠り運転などを判定する運転状況判定処理(図8参照)を行うときには、通常方式により撮影した画像を使用する。また、車室内用カメラ1の撮影範囲において運転者Dの顔の部分を特定して目標範囲を設定する目標範囲設定処理(図9参照)を行うときには、HDR方式により撮影した画像を使用する。なお、運転者Dの顔の部分が一時的に車室内用カメラ1の撮影範囲から外れたときや、運転者Dが一時的に背後を振り向いたときなど、顔の部分が特定できなくなったときに、目標範囲設定処理を用いて再び顔の部分を特定するようにしている。   Note that the vehicle interior camera 1 can perform switching between two types of shooting methods: normal method shooting and HDR method shooting. In the present embodiment, when performing a driving state determination process (see FIG. 8) for determining the driver's D dozing operation or the like, an image captured by the normal method is used. Further, when performing a target range setting process (see FIG. 9) in which the face portion of the driver D is specified and the target range is set in the shooting range of the vehicle interior camera 1, an image shot by the HDR method is used. When the face part of the driver D is temporarily out of the shooting range of the vehicle interior camera 1 or when the driver D temporarily turns around, the face part cannot be specified. In addition, the face portion is specified again using the target range setting process.

また、シングルフレーム式のHDRについて、図5および図6を参照して説明する。撮像素子13は、光を検出して電荷を発生させるフォトダイオードで構成される光電変換素子が横方向および縦方向に整列されている。そして、横方向に並んだ1列の光電変換素子を1のラインとし、複数のラインが縦方向に並設されている。これらのライン毎に取得した各画素を合成することで画像を生成する。HDRを用いた撮影では、撮像素子13で画像を撮影するときに、撮像素子13の各ラインに応じて異なる露光時間で撮影を行う。   A single frame type HDR will be described with reference to FIGS. In the imaging device 13, photoelectric conversion elements configured by photodiodes that detect light and generate charges are aligned in the horizontal direction and the vertical direction. One row of photoelectric conversion elements arranged in the horizontal direction is defined as one line, and a plurality of lines are arranged in parallel in the vertical direction. An image is generated by synthesizing each pixel acquired for each line. In shooting using HDR, when shooting an image with the image sensor 13, shooting is performed with different exposure times depending on each line of the image sensor 13.

図5に示すように、シングルフレーム式のHDRを用いた撮影では、第1露光時間の撮影(短時間露光)と、この第1露光時間よりも長い第2露光時間(長時間露光)の撮影と、をライン毎に行う。なお、本実施形態では、HDRを用いた撮影を行うときに、短時間露光を行うラインと長時間露光を行うラインとが縦方向に交互に並設される。そして、短時間露光を行うラインに基づいて取得した各画素を合成することで第1画像を生成する。また、長時間露光を行うラインに基づいて取得した各画素を合成することで第2画像を生成する。   As shown in FIG. 5, in shooting using a single frame type HDR, shooting with a first exposure time (short exposure) and shooting with a second exposure time (long exposure) longer than the first exposure time. And for each line. In the present embodiment, when performing photographing using HDR, lines for performing short-time exposure and lines for performing long-time exposure are alternately arranged in the vertical direction. And a 1st image is produced | generated by synthesize | combining each pixel acquired based on the line which performs short-time exposure. Moreover, a 2nd image is produced | generated by synthesize | combining each pixel acquired based on the line which performs long-time exposure.

なお、通常方式の撮影では、全てのラインで同一の露光時間で撮影を行うとともに、全てのラインに基づいて取得した各画素を合成することで1の画像を生成する。つまり、シングルフレーム式のHDRを用いた撮影により生成された第1画像および第2画像は、通常方式の撮影により生成された画像と比較して解像度が半減された画像になる。   Note that in normal-type shooting, shooting is performed for all lines with the same exposure time, and one image is generated by combining the pixels acquired based on all lines. That is, the first image and the second image generated by photographing using the single frame type HDR are images whose resolution is halved compared to the image generated by the photographing of the normal method.

図6に示すように、シングルフレーム式のHDRを用いた撮影では、1フレームにおいて、短時間露光と長時間露光とが行われる。本実施形態では、1秒間に30フレームの撮影が可能となっている。つまり、1フレームが33ミリ秒の撮影態様を例示している。例えば、1フレームにおいて、短時間露光と長時間露光とが同じタイミングで開始される。そして、先に短時間露光が終了し、その後に長時間露光が終了する。つまり、短時間露光と長時間露光の終了タイミングが異なっている。   As shown in FIG. 6, in shooting using a single frame type HDR, a short exposure and a long exposure are performed in one frame. In this embodiment, 30 frames can be captured per second. That is, an example of a shooting mode in which one frame is 33 milliseconds is illustrated. For example, in one frame, the short exposure and the long exposure are started at the same timing. Then, the short-time exposure ends first, and then the long-time exposure ends. That is, the end timings of the short time exposure and the long time exposure are different.

また、1フレームにおいて短時間露光の終了タイミングT1から長時間露光の終了タイミングT2までに、近赤外光照射部11(LEDランプ)を用いて照明光を照射するLED点灯タイミングが設けられる。この照明光の照射は、短時間露光の終了タイミングT1以後に開始され、長時間露光の終了タイミングT2以前に終了する。つまり、長時間露光の期間には、運転者Dの顔の部分が近赤外光照射部11の照明光により照らされる期間が含まれる。   In addition, an LED lighting timing for irradiating illumination light using the near-infrared light irradiation unit 11 (LED lamp) is provided from a short-time exposure end timing T1 to a long-time exposure end timing T2 in one frame. This illumination light irradiation starts after the end timing T1 of the short-time exposure and ends before the end timing T2 of the long-time exposure. That is, the long exposure period includes a period in which the face portion of the driver D is illuminated by the illumination light of the near infrared light irradiation unit 11.

なお、1フレームの撮影において、運転者Dの顔の部分を特定できなかったときは、HDRを用いた撮影が継続される。また、運転者Dの顔の部分を特定できたときは、通常方式の撮影に切り替わる。   In addition, when the face portion of the driver D cannot be specified in one frame shooting, shooting using the HDR is continued. Further, when the face portion of the driver D can be identified, the normal mode shooting is switched.

本実施形態では、1フレームにおいて、長時間露光の時間が、短時間露光の時間の3倍の長さになっている。なお、運転者Dの顔の部分を特定するときには、短時間露光により撮影された第1画像の各画素の輝度を3倍にすることで、長時間露光により撮影された第2画像と同じ露光時間で撮影されたときの輝度に相当する値にする。   In this embodiment, in one frame, the long exposure time is three times the short exposure time. When specifying the face portion of the driver D, the same exposure as that of the second image photographed by the long-time exposure is performed by triple the luminance of each pixel of the first image photographed by the short-time exposure. The value is equivalent to the brightness when the picture was taken in time.

次に、車室内用カメラ1の撮影範囲において運転者Dの顔の部分を特定するときの画像処理の態様について、図7を参照して説明する。まず、第1画像の各画素の輝度を3倍にし、第2画像と同じ露光時間で撮影されたときの輝度に相当する値にする。この第1画像には、外乱光により輝度が高い部分が存在する。なお、外乱光とは、自動車2の車外から差し込む太陽光などの近赤外光を含む光によって明るく照らされた部分である。また、第1画像の撮影タイミング中には、近赤外光照射部11(LEDランプ)を用いた照明光が照射されていないので、運転者Dの顔の部分の輝度は低くなっている。   Next, an aspect of image processing when the face portion of the driver D is specified in the imaging range of the vehicle interior camera 1 will be described with reference to FIG. First, the brightness of each pixel of the first image is tripled to a value corresponding to the brightness when the image is taken with the same exposure time as the second image. In the first image, there is a portion with high luminance due to disturbance light. The disturbance light is a portion that is brightly illuminated by light including near-infrared light such as sunlight inserted from outside the vehicle 2. Further, during the timing of capturing the first image, the illumination light using the near-infrared light irradiation unit 11 (LED lamp) is not irradiated, so the brightness of the face portion of the driver D is low.

さらに、第2画像にも、外乱光により輝度が高い部分が存在する。また、第2画像の撮影タイミング中には、近赤外光照射部11(LEDランプ)を用いた照明光が照射されるので、運転者Dの顔の部分の輝度が高くなっている。つまり、第2画像には、照明光の照射により輝度が高くなった部分が存在する。   Further, the second image also has a portion with high luminance due to ambient light. Moreover, since the illumination light using the near-infrared light irradiation part 11 (LED lamp) is irradiated during the imaging | photography timing of a 2nd image, the brightness | luminance of the driver | operator's D face part is high. That is, the second image includes a portion whose luminance is increased by irradiation with illumination light.

そして、第1画像の各画素と第2画像の各画素とをそれぞれ比較して近赤外光に対応する輝度の差分を取得し、これら差分に基づいて差分画像を生成する。この差分画像では、第1画像および第2画像の両方で輝度が高い部分や輝度が低い部分、つまり、輝度の差が小さい部分が、輝度が低い状態で再現される。また、第1画像および第2画像の一方で輝度が高い部分や輝度が低い部分、つまり、輝度の差が大きい部分が、輝度が高い状態で再現される。   Then, each pixel of the first image and each pixel of the second image are respectively compared to acquire a luminance difference corresponding to near-infrared light, and a difference image is generated based on these differences. In this difference image, a portion having a high luminance or a portion having a low luminance in both the first image and the second image, that is, a portion having a small difference in luminance is reproduced with a low luminance. In addition, one of the first image and the second image having a high luminance or a low luminance, that is, a portion having a large luminance difference is reproduced with a high luminance.

例えば、外乱光により輝度が高い部分は、第1画像および第2画像の両方に存在するので、この部分は、差分画像において輝度が低い部分となる。これに対して、照明光の照射により輝度が高くなった運転者Dの顔の部分は、第2画像にのみ存在するので、この部分は、差分画像において輝度が高い部分となる。   For example, since a portion having high luminance due to disturbance light exists in both the first image and the second image, this portion is a portion having low luminance in the difference image. On the other hand, the portion of the face of the driver D whose luminance is increased by irradiation of illumination light exists only in the second image, and this portion is a portion having high luminance in the difference image.

さらに、この差分画像の各画素を所定の閾値で2階調化した2値化画像を生成する。このようにすることで、顔の部分が明確に特定される。このように、輝度の差に基づいて顔の部分の特定ができるので、短時間で運転者Dの顔の部分の撮影範囲を特定することができる。そして、特定された顔の部分が含まれる所定領域を目標範囲として設定する。例えば、特定された顔の部分の外接矩形座標(外接四角形)を求めて目標範囲として設定しても良いし、特定された顔の部分を中心とした所定の円形領域を目標範囲として設定しても良い。また、差分画像において輝度が高い部分が複数箇所に存在する場合には、その中で最も大きい領域を顔の部分として特定しても良い。   Further, a binarized image is generated in which each pixel of this difference image is binarized with a predetermined threshold. In this way, the face portion is clearly identified. Thus, since the face part can be specified based on the difference in luminance, the photographing range of the face part of the driver D can be specified in a short time. Then, a predetermined area including the specified face portion is set as a target range. For example, the circumscribed rectangular coordinates (circumscribed rectangle) of the specified face part may be obtained and set as the target range, or a predetermined circular area centered on the specified face part may be set as the target range. Also good. Further, when there are a plurality of high-luminance portions in the difference image, the largest region among them may be specified as the face portion.

次に、本実施形態の車室内用カメラ1が実行する運転状況判定処理および目標範囲設定処理について図4、図8および図9を用いて説明する。なお、フローチャートの各ステップの説明にて、例えば「ステップS11」と記載する箇所を「S11」と略記する。   Next, a driving situation determination process and a target range setting process executed by the vehicle interior camera 1 of the present embodiment will be described with reference to FIGS. 4, 8, and 9. In the description of each step in the flowchart, for example, a portion described as “Step S11” is abbreviated as “S11”.

図4に示すように、本実施形態の車室内用カメラ1は、撮影の制御を行う撮影制御部20などの各種処理を行う画像処理プロセッサを含む撮影モジュールを備える。撮影制御部20は、近赤外光照射部11や撮像素子13を制御して画像の撮影を行う。   As shown in FIG. 4, the vehicle interior camera 1 according to the present embodiment includes a photographing module including an image processing processor that performs various processes such as a photographing control unit 20 that performs photographing control. The imaging control unit 20 controls the near-infrared light irradiation unit 11 and the image sensor 13 to capture an image.

図8に示すように、車室内用カメラ1が起動されて運転状況判定処理が開始されると、まず、目標範囲設定処理が実行される(S11)。この目標範囲設定処理では、車室内用カメラ1の撮影範囲において運転者Dの顔の部分を特定して目標範囲を設定する。   As shown in FIG. 8, when the vehicle interior camera 1 is activated and the driving situation determination process is started, first, a target range setting process is executed (S11). In this target range setting process, the face range of the driver D is specified in the shooting range of the vehicle interior camera 1 to set the target range.

図9に示すように、目標範囲設定処理では、まず、撮像素子13を用いて画像の撮影が開始される(S21:撮影ステップ)。この撮影は、シングルフレーム式のHDRを用いた撮影となっている(図5および図6参照)。そして、1フレームの開始時点において、短時間露光の撮影が開始されるとともに、長時間露光の撮影が開始される。   As shown in FIG. 9, in the target range setting process, first, imaging of an image is started using the imaging element 13 (S21: imaging step). This shooting is performed using a single frame type HDR (see FIGS. 5 and 6). Then, at the start time of one frame, short-exposure shooting is started and long-exposure shooting is started.

次に、短時間露光の終了タイミングT1になると、短時間露光の撮影が終了する(S22)。そして、撮像素子13の短時間露光に対応する各ラインで取得した各画素の検出情報が第1画像生成部21に転送される。また、この第1画像生成部21に転送された検出情報に基づいて第1画像が生成される(S23:第1画像生成ステップ)。さらに、第1画像生成部21にて生成された第1画像を第1画像取得部23が取得し、この第1画像が第1画像記憶部26に転送され、第1画像記憶部26に記憶される(S24:第1画像取得ステップ)。   Next, when the short-time exposure end timing T1 is reached, the short-time exposure photographing ends (S22). Then, detection information of each pixel acquired in each line corresponding to the short-time exposure of the image sensor 13 is transferred to the first image generation unit 21. A first image is generated based on the detection information transferred to the first image generation unit 21 (S23: first image generation step). Further, the first image acquisition unit 23 acquires the first image generated by the first image generation unit 21, and the first image is transferred to the first image storage unit 26 and stored in the first image storage unit 26. (S24: first image acquisition step).

次に、近赤外光照射部11(LEDランプ)を用いて照明光を照射するLED点灯タイミングが開始される。そして、一定時間点灯した後に、LED点灯タイミングが終了する(S25:照射ステップ)。このように、1フレームにおいて短時間露光(第1露光時間)の終了後から長時間露光(第2露光時間)の終了前までに特定波長である近赤外光の照明光を照射することで、照明光が照射された顔の部分を含む第2画像を取得することができる。   Next, the LED lighting timing which irradiates illumination light using the near infrared light irradiation part 11 (LED lamp) is started. And after lighting for a fixed time, LED lighting timing is complete | finished (S25: irradiation step). In this way, by irradiating near-infrared illumination light having a specific wavelength from the end of the short exposure (first exposure time) to the end of the long exposure (second exposure time) in one frame. The second image including the part of the face irradiated with the illumination light can be acquired.

次に、長時間露光の終了タイミングT2になると、長時間露光の撮影が終了する(S26)。そして、撮像素子13の長時間露光に対応する各ラインで取得した各画素の検出情報が第2画像生成部22に転送される。また、この第2画像生成部22に転送された検出情報に基づいて第2画像が生成される(S27:第2画像生成ステップ)。さらに、第2画像生成部22にて生成された第2画像を第2画像取得部24が取得し、この第2画像が第2画像記憶部27に転送され、第2画像記憶部27に記憶される(S28:第2画像取得ステップ)。   Next, when the long exposure end timing T2 is reached, the long exposure shooting ends (S26). Then, detection information of each pixel acquired in each line corresponding to the long exposure of the image sensor 13 is transferred to the second image generation unit 22. A second image is generated based on the detection information transferred to the second image generation unit 22 (S27: second image generation step). Further, the second image acquisition unit 24 acquires the second image generated by the second image generation unit 22, and the second image is transferred to the second image storage unit 27 and stored in the second image storage unit 27. (S28: Second image acquisition step).

次に、第1画像記憶部26に記憶された第1画像の輝度が、輝度倍加部29にて倍加される(S29:倍加ステップ)。本実施形態では、第1画像の輝度が3倍される。つまり、第1画像の輝度が、第2画像と同じ露光時間で撮影されたときの輝度に相当する値に倍加される。この輝度が倍加された第1画像と第2画像記憶部27に記憶された第2画像とが、差分画像取得部30に転送される。この差分画像取得部30では、第1画像の各画素と第2画像の各画素とをそれぞれ比較して近赤外光に対応する輝度の差分を取得する。そして、差分画像取得部30は、これら差分に基づいて画像を生成し、差分画像を取得する(S30:差分取得ステップ)。なお、差分画像取得部30が差分画像を取得したときに、第1画像記憶部26および第2画像記憶部27の記憶内容が消去される。   Next, the luminance of the first image stored in the first image storage unit 26 is doubled by the luminance doubling unit 29 (S29: doubling step). In the present embodiment, the brightness of the first image is tripled. That is, the brightness of the first image is doubled to a value corresponding to the brightness when the first image is taken with the same exposure time. The first image obtained by doubling the luminance and the second image stored in the second image storage unit 27 are transferred to the difference image acquisition unit 30. The difference image acquisition unit 30 compares each pixel of the first image and each pixel of the second image to acquire a luminance difference corresponding to near-infrared light. And the difference image acquisition part 30 produces | generates an image based on these differences, and acquires a difference image (S30: difference acquisition step). When the difference image acquisition unit 30 acquires the difference image, the stored contents of the first image storage unit 26 and the second image storage unit 27 are deleted.

次に、差分画像取得部30にて取得された差分画像が2値化画像取得部31に転送される。この2値化画像取得部31では、差分画像の各画素を所定の閾値で2階調化する。そして、2値化画像取得部31は、2階調化した各画素に基づいて2値化画像を取得する(S31)。   Next, the difference image acquired by the difference image acquisition unit 30 is transferred to the binarized image acquisition unit 31. In the binarized image acquisition unit 31, each pixel of the difference image is binarized with a predetermined threshold. Then, the binarized image acquisition unit 31 acquires a binarized image based on each pixel that has been binarized (S31).

次に、2値化画像取得部31にて取得された2値化画像が設定用顔部分特定部32に転送される。この設定用顔部分特定部32では、2値化画像に基づいて運転者Dの顔の部分に相当する範囲が特定できたか否かを判定する(S32:特定ステップ)。例えば、2値化画像において輝度が高い部分(白色の部分)の面積が、予め設定された特定の第1閾値よりも大きい場合や、予め設定された特定の第2閾値よりも小さい場合は、顔の部分に相当する範囲が特定できなかったと判定する。また、2値化画像において輝度が高い部分(白色の部分)の面積が、予め設定された特定の第1閾値よりも小さく、かつ第2閾値よりも大きい場合は、顔の部分に相当する範囲が特定できたと判定する。   Next, the binarized image acquired by the binarized image acquiring unit 31 is transferred to the setting face part specifying unit 32. The setting face part specifying unit 32 determines whether or not a range corresponding to the face part of the driver D has been specified based on the binarized image (S32: specifying step). For example, when the area of the high luminance portion (white portion) in the binarized image is larger than a predetermined specific first threshold value or smaller than a predetermined specific second threshold value, It is determined that the range corresponding to the face portion could not be specified. In addition, when the area of the high-luminance portion (white portion) in the binarized image is smaller than the predetermined first threshold value and larger than the second threshold value, the range corresponding to the face portion Is determined to have been identified.

そして、設定用顔部分特定部32において、顔の部分に相当する範囲が特定できなかったと判定された場合は、前述したS21に戻る。一方、顔の部分に相当する範囲が特定できたと判定された場合は、目標範囲設定部33において目標範囲が設定される(S33:設定ステップ)。設定された目標範囲は判定用顔部分特定部34に転送され、運転者Dの居眠り運転などを判定するときの判定の対象となる。目標範囲が設定されると、当該目標範囲設定処理を終了し、運転状況判定処理に戻る。   When the setting face part specifying unit 32 determines that the range corresponding to the face part could not be specified, the process returns to S21 described above. On the other hand, when it is determined that the range corresponding to the face portion can be specified, the target range is set by the target range setting unit 33 (S33: setting step). The set target range is transferred to the determination face part specifying unit 34 and is a target of determination when the driver D is determined to doze. When the target range is set, the target range setting process ends, and the process returns to the driving situation determination process.

図8に戻り、運転状況判定処理では、通常方式により撮影した第3画像に基づいて、運転者Dが居眠り運転などをしているか否かの判定を開始する。まず、第3画像を撮影するときには、近赤外光照射部11(LEDランプ)を点灯して運転者Dの顔の部分に照明光を照射する(S12)。さらに、撮像素子13を用いて第3画像の撮影を行う(S13)。そして、撮影後に、近赤外光照射部11(LEDランプ)を消灯する(S14)。   Returning to FIG. 8, in the driving state determination process, determination of whether or not the driver D is dozing or driving is started based on the third image captured by the normal method. First, when the third image is taken, the near-infrared light irradiation unit 11 (LED lamp) is turned on to irradiate the face of the driver D with illumination light (S12). Further, a third image is taken using the image sensor 13 (S13). Then, after photographing, the near infrared light irradiation unit 11 (LED lamp) is turned off (S14).

次に、撮像素子13にて撮影された第3画像を第3画像取得部25が取得し、この第3画像が第3画像記憶部28に転送され、第3画像記憶部28に記憶される(S15:第3画像取得ステップ)。そして、この第3画像が判定用顔部分特定部34に転送される。この判定用顔部分特定部34では、第3画像に含まれる目標範囲の部分に基づいて、運転者Dの顔の部分が特定できたか否かを判定する(S16)。   Next, the third image acquisition unit 25 acquires the third image captured by the image sensor 13, and the third image is transferred to the third image storage unit 28 and stored in the third image storage unit 28. (S15: Third image acquisition step). Then, the third image is transferred to the determination face part specifying unit 34. The determination face part specifying unit 34 determines whether or not the face part of the driver D has been specified based on the target range part included in the third image (S16).

ここで、運転者Dの顔の部分が特定できなかった場合、例えば、運転者Dの顔の部分が一時的に車室内用カメラ1の撮影範囲から外れた場合や、運転者Dが一時的に背後を振り向いた場合は、前述した目標範囲設定処理(S11)に戻り、再び目標範囲を設定する。一方、運転者Dの顔の部分が特定できた場合は、特定した顔の部分の範囲に応じて、目標範囲補正部35が目標範囲の補正を行う(S17)。そして、補正された目標範囲は判定用顔部分特定部34に転送される。なお、特定した顔の部分の範囲が、既に設定された目標範囲と同一である場合は、目標範囲の補正の処理を省略しても良い。   Here, when the face portion of the driver D cannot be specified, for example, when the face portion of the driver D is temporarily out of the shooting range of the vehicle interior camera 1 or when the driver D is temporarily If the user turns back, the process returns to the target range setting process (S11) described above and sets the target range again. On the other hand, when the face portion of the driver D can be specified, the target range correction unit 35 corrects the target range according to the specified face portion range (S17). Then, the corrected target range is transferred to the determination face part specifying unit 34. Note that when the range of the specified face portion is the same as the target range that has already been set, the processing for correcting the target range may be omitted.

次に、運転状況判定部36は、第3画像に含まれる目標範囲の解析を行い、運転者Dの運転状況を判定する(S18)。そして、運転状況判定部36は、第3画像に含まれる運転者Dの顔の部分に基づいて、居眠り運転や脇見運転などをしているか否かを判定する(S19:判定ステップ)。ここで、居眠り運転や脇見運転などをしていない場合は、前述したS12に戻り、前述のステップを繰り返す。一方、居眠り運転や脇見運転などをしている場合は、警告出力部37が音制御部(図示略)などに警告音を出力する旨の警告信号を出力する(S20:出力ステップ)。そして、前述したS12に戻り、前述のステップを繰り返す。なお、警告信号を取得した音制御部(図示略)は、スピーカ(図示略)を用いて警告音を所定時間出力する制御を行う。   Next, the driving condition determination unit 36 analyzes the target range included in the third image and determines the driving condition of the driver D (S18). Then, the driving state determination unit 36 determines whether or not a dozing driving or a side-by-side driving is performed based on the face portion of the driver D included in the third image (S19: determination step). Here, when the driver does not take a nap or looks aside, the process returns to S12 described above and the above steps are repeated. On the other hand, when the driver is dozing or looking aside, the warning output unit 37 outputs a warning signal to the effect that a warning sound is output to the sound control unit (not shown) (S20: output step). And it returns to S12 mentioned above and repeats the above-mentioned step. The sound control unit (not shown) that has acquired the warning signal performs control for outputting a warning sound for a predetermined time using a speaker (not shown).

また、運転状況判定部36で判定に使用された第3画像は、第3画像記憶部28から消去しても良い。なお、運転状況判定部36で判定に使用された第3画像を消去せずに、撮影時刻に対応付けて保存されるようにしても良い。さらに、居眠り運転や脇見運転などをしていると判定されたときの第3画像のみを保存し、それ以外の第3画像を消去しても良い。   Further, the third image used for the determination by the driving state determination unit 36 may be deleted from the third image storage unit 28. Note that the third image used for the determination by the driving state determination unit 36 may be stored in association with the shooting time without being deleted. Furthermore, only the third image when it is determined that the driver is dozing or looking aside may be stored, and the other third images may be deleted.

このように、本実施形態では、1フレームの撮影において、運転者Dの顔の部分を特定することが可能であるので、短時間で目標範囲を設定することができる。また、1フレームで第1画像と第2画像との撮影が同時に行えるので、短時間で第1画像と第2画像との取得を行うことができる。   As described above, in the present embodiment, it is possible to specify the face portion of the driver D in one frame shooting, and thus it is possible to set the target range in a short time. Further, since the first image and the second image can be taken simultaneously in one frame, the first image and the second image can be acquired in a short time.

また、第1画像の輝度を第2露光時間に相当する値に倍加させることで、第1画像と第2画像とで露光時間が異なっていても、第1画像と第2画像とを比較して輝度の差分を取得する処理を行うことができる。   In addition, by doubling the brightness of the first image to a value corresponding to the second exposure time, the first image and the second image are compared even if the exposure time differs between the first image and the second image. Thus, it is possible to perform a process of acquiring a luminance difference.

なお、本実施形態では、通常方式による撮影とHDR方式による撮影との2種類の撮影方式を切り換えて行うことができるものとしたが、HDR方式による撮影のみが可能なカメラを用いても良い。つまり、運転状況判定処理(図8参照)を行うときであっても、HDR方式による撮影を行っても良い。   In the present embodiment, it is assumed that the two types of shooting methods, the normal method and the HDR method, can be switched, but a camera capable of only the HDR method may be used. That is, even when the driving situation determination process (see FIG. 8) is performed, shooting by the HDR method may be performed.

本実施形態をまとめると、HDR方式による撮影を行って運転者Dの顔の部分を特定するときに以下のような手順となる。
(1)短時間露光の画像の取り込み終了後に一定時間LEDを投射する。
(2)LED投射によって人の顔の部分は周囲より明るくなる。
(3)長時間露光の画像の取り込みを行う。
(4)短時間露光の画像の輝度を、短時間露光と長時間露光との比であるα倍する。
(5)上記α倍した画像と上記(3)の長時間露光の画像との差分画像を求める。
(6)閾値処理を行い、差分の大きい領域を求め、領域検出を行い、最大のものを顔の領域とする。
To summarize the present embodiment, the following procedure is used when the face portion of the driver D is specified by performing shooting using the HDR method.
(1) An LED is projected for a certain period of time after completion of short-time exposure image capture.
(2) The portion of the human face becomes brighter than the surroundings due to the LED projection.
(3) Long-exposure images are captured.
(4) The brightness of the short-time exposure image is multiplied by α, which is the ratio between the short-time exposure and the long-time exposure.
(5) A difference image between the image multiplied by α and the long-time exposure image of (3) is obtained.
(6) Threshold processing is performed to obtain a region having a large difference, region detection is performed, and the largest one is set as a face region.

また、運転者Dが居眠り運転や脇見運転をしているか否かを第3画像の目標範囲に基づいて判定することで、目標範囲のみを用いて判定処理を行えば良いので、居眠り運転や脇見運転の判定処理速度を向上できる。   Further, by determining whether or not the driver D is dozing driving or looking aside based on the target range of the third image, the determination process may be performed using only the target range. Driving determination processing speed can be improved.

また、近赤外光照射部11により運転者Dの顔の部分に照射される照明光が近赤外光であることで、近赤外光は人間の目に見えない光であるため、運転者Dの顔に近赤外光が照射されても運転の妨げになることがない。   Further, since the illumination light applied to the face portion of the driver D by the near infrared light irradiation unit 11 is near infrared light, the near infrared light is light that is not visible to human eyes. Even if the near-infrared light is irradiated to the face of the person D, driving is not hindered.

また、本実施形態の車室内用カメラ1の目標範囲の設定方法は、居眠り運転や脇見運転などをしているか否かを判定するために用いられているが、この目標範囲の設定方法を、居眠り運転や脇見運転以外の判定に用いる車室内用カメラ1に適用しても良い。例えば、運転者Dの顔を個々に識別可能な運転者認識システムに適用しても良い。   In addition, the method for setting the target range of the vehicle interior camera 1 of the present embodiment is used to determine whether or not a doze driving or a side-by-side driving is performed. You may apply to the camera 1 for vehicle interiors used for determination other than a dozing driving or a side-view driving. For example, the present invention may be applied to a driver recognition system that can individually identify the face of the driver D.

なお、本実施形態では、目標範囲が運転者Dの顔の部分となっているが、例えば、運転者Dの両目の部分のみを目標範囲として設定しても良い。この目の部分のみを目標範囲とすることで、さらに少ない情報量で判定を実行することができ、処理負荷が低減される。   In the present embodiment, the target range is the face portion of the driver D, but for example, only the portions of both eyes of the driver D may be set as the target range. By setting only this eye portion as the target range, the determination can be executed with a smaller amount of information, and the processing load is reduced.

なお、本実施形態では、居眠り運転や脇見運転をしていると判定したときに所定の警告音の出力を行っているが、警告音以外にも、カーナビゲーションシステムの表示画面に所定の警告表示を行っても良い。また、居眠り運転や脇見運転をしていると判定したときに、その旨を出力して、運転者Dの居眠り運転や脇見運転を記録するものであっても良い。   In this embodiment, a predetermined warning sound is output when it is determined that the driver is dozing or looking aside. In addition to the warning sound, a predetermined warning is displayed on the display screen of the car navigation system. May be performed. Further, when it is determined that the driver is dozing or looking aside, a message to that effect may be output and the driver D's falling asleep or looking aside may be recorded.

なお、本実施形態では、1秒間に30フレームの撮影周期を例示しているが、その他の撮影周期で撮影を行っても良い。例えば、1秒間に60フレームの撮影周期であっても良い。また、本実施形態では、第1画像および第2画像を撮影するときと、第3画像の撮影をするときとで、撮影周期が同一となっているが、第1画像および第2画像を撮影するときと、第3画像の撮影をするときとで、撮影周期が異なるものであっても良い。   In the present embodiment, a shooting cycle of 30 frames per second is illustrated, but shooting may be performed at other shooting cycles. For example, an imaging cycle of 60 frames per second may be used. In the present embodiment, the shooting period is the same when shooting the first image and the second image and when shooting the third image, but the first image and the second image are shot. The shooting cycle may be different between when the third image is shot and when the third image is shot.

なお、本実施形態では、1フレームにおいて、長時間露光の時間が短時間露光の時間の3倍の長さになっているが、長時間露光の時間が短時間露光の時間の3倍に限らず、2倍や4倍や5倍の長さであっても良い。また、長時間露光の時間は、短時間露光の時間の整数倍でなくても良く、第1画像と第2画像の輝度の差を比較するときには、第1画像の各画素の輝度を長時間露光の時間に対応する倍率で倍加すれば良い。   In this embodiment, the long exposure time is three times the short exposure time in one frame, but the long exposure time is limited to three times the short exposure time. Instead, it may be twice, four times, or five times as long. The long exposure time may not be an integral multiple of the short exposure time. When comparing the luminance difference between the first image and the second image, the luminance of each pixel of the first image is set to a long time. What is necessary is just to double by the magnification | multiplying_factor corresponding to the time of exposure.

なお、本実施形態では、第3画像の撮影を行うときに近赤外光照射部11を点灯して運転者Dの顔の部分に照明光を照射するようにしているが、照度センサなどを車室内用カメラ1に設けて運転者Dの周囲の明るさを検知可能とし、太陽光の照射などによって充分に明るいと判定される場合には、第3画像の撮影を行うときに近赤外光照射部11を点灯することを省略しても良い。   In this embodiment, when the third image is taken, the near infrared light irradiation unit 11 is turned on to irradiate the face of the driver D with illumination light. When it is provided in the vehicle interior camera 1 so that the brightness around the driver D can be detected and it is determined that the brightness is sufficiently bright due to sunlight irradiation or the like, the near-infrared light is taken when the third image is taken. Turning on the light irradiation unit 11 may be omitted.

以上説明した実施形態によれば、第1画像と第2画像とを比較して輝度の差分を取得し、輝度の差に基づいて顔の部分の特定ができるので、短時間で目標範囲を設定することができる。   According to the embodiment described above, the luminance difference is obtained by comparing the first image and the second image, and the face portion can be specified based on the luminance difference, so the target range can be set in a short time. can do.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1…車室内用カメラ、2…自動車、3…ダッシュボード、4…ハンドル、5…ベース、10…レンズ、11…近赤外光照射部、12…透過フィルタ、13…撮像素子、20…撮影制御部、21…第1画像生成部、22…第2画像生成部、23…第1画像取得部、24…第2画像取得部、25…第3画像取得部、26…第1画像記憶部、27…第2画像記憶部、28…第3画像記憶部、29…輝度倍加部、30…差分画像取得部、31…2値化画像取得部、32…設定用顔部分特定部、33…目標範囲設定部、34…判定用顔部分特定部、35…目標範囲補正部、36…運転状況判定部、37…警告出力部。 DESCRIPTION OF SYMBOLS 1 ... Vehicle interior camera, 2 ... Automobile, 3 ... Dashboard, 4 ... Handle, 5 ... Base, 10 ... Lens, 11 ... Near infrared light irradiation part, 12 ... Transmission filter, 13 ... Imaging element, 20 ... Photographing Control unit, 21 ... first image generation unit, 22 ... second image generation unit, 23 ... first image acquisition unit, 24 ... second image acquisition unit, 25 ... third image acquisition unit, 26 ... first image storage unit , 27 ... second image storage unit, 28 ... third image storage unit, 29 ... luminance doubling unit, 30 ... difference image acquisition unit, 31 ... binarized image acquisition unit, 32 ... setting face part specifying unit, 33 ... Target range setting unit 34... Judgment face part specifying unit 35... Target range correction unit 36 36 driving state determination unit 37 37 warning output unit.

Claims (7)

画像処理プロセッサを内蔵するカメラによって運転者の顔の部分を含む第1画像を取得する第1画像取得ステップと、
照明光が照射された前記顔の部分を含む第2画像を前記カメラによって取得する第2画像取得ステップと、
前記第1画像と前記第2画像とを比較して輝度の差分を取得する差分取得ステップと、
前記差分に基づいて前記カメラの撮影範囲における前記顔の部分を特定する特定ステップと、
前記特定した部分に基づいて前記撮影範囲における前記顔の部分が存在する目標範囲を設定する設定ステップと、
を含む車室内用カメラの目標範囲の設定方法。
A first image acquisition step of acquiring a first image including a part of the driver's face by a camera incorporating an image processing processor;
A second image acquisition step of acquiring a second image including the portion of the face irradiated with illumination light by the camera;
A difference obtaining step of obtaining a luminance difference by comparing the first image and the second image;
A specifying step of specifying a part of the face in the shooting range of the camera based on the difference;
A setting step for setting a target range where the face portion in the shooting range exists based on the specified portion;
Of setting the target range of a vehicle interior camera including
1フレームにおいて第1露光時間の撮影と前記第1露光時間よりも長い第2露光時間の撮影とを撮像素子のライン毎に行う撮影ステップと、
前記第1露光時間に対応する各ラインに基づいて前記第1画像を生成する第1画像生成ステップと、
前記第2露光時間に対応する各ラインに基づいて前記第2画像を生成する第2画像生成ステップと、
を含む請求項1に記載の車室内用カメラの目標範囲の設定方法。
An imaging step of performing imaging for the first exposure time and imaging for the second exposure time longer than the first exposure time for each line of the image sensor in one frame;
A first image generation step of generating the first image based on each line corresponding to the first exposure time;
A second image generation step of generating the second image based on each line corresponding to the second exposure time;
A method for setting a target range of a vehicle interior camera according to claim 1.
1フレームにおいて前記第1露光時間の終了後から前記第2露光時間の終了前までに前記照明光を照射する照射ステップを含む請求項2に記載の車室内用カメラの目標範囲の設定方法。   The method for setting a target range of a vehicle interior camera according to claim 2, further comprising: an irradiation step of irradiating the illumination light after the first exposure time ends before the second exposure time ends in one frame. 前記第1画像の輝度を前記第2露光時間に相当する値に倍加させる倍加ステップを含む請求項2または請求項3に記載の車室内用カメラの目標範囲の設定方法。   The method for setting a target range of a vehicle interior camera according to claim 2 or 3, further comprising a doubling step of doubling the luminance of the first image to a value corresponding to the second exposure time. 前記目標範囲を含む第3画像を取得する第3画像取得ステップと、
前記運転者が居眠り運転や脇見運転をしているか否かを前記第3画像の前記目標範囲に基づいて判定する判定ステップと、
を含む請求項1から請求項4のいずれか1項に記載の車室内用カメラの目標範囲の設定方法。
A third image acquisition step of acquiring a third image including the target range;
A determination step of determining whether the driver is dozing driving or looking aside based on the target range of the third image;
The method for setting a target range of a vehicle interior camera according to any one of claims 1 to 4, further comprising:
前記照明光は、近赤外光となっている請求項1から請求項5のいずれか1項に記載の車室内用カメラの目標範囲の設定方法。   The method for setting a target range of a vehicle interior camera according to any one of claims 1 to 5, wherein the illumination light is near infrared light. 画像処理プロセッサを内蔵するカメラによって運転者の顔の部分を含む第1画像を取得する第1画像取得部と、
照明光が照射された前記顔の部分を含む第2画像を前記カメラによって取得する第2画像取得部と、
前記第1画像と前記第2画像とを比較して輝度の差分を取得する差分取得部と、
前記差分に基づいて前記カメラの撮影範囲における前記顔の部分を特定する特定部と、
前記特定した部分に基づいて前記撮影範囲における前記顔の部分が存在する目標範囲を設定する設定部と、
を備える車室内用カメラ。
A first image acquisition unit that acquires a first image including a portion of the driver's face with a camera that includes an image processing processor;
A second image acquisition unit that acquires, by the camera, a second image including the face portion irradiated with illumination light;
A difference acquisition unit that compares the first image with the second image to acquire a luminance difference;
A specifying unit that specifies a part of the face in the shooting range of the camera based on the difference;
A setting unit that sets a target range in which the face portion in the shooting range exists based on the specified portion;
A vehicle interior camera.
JP2016055844A 2016-03-18 2016-03-18 Target range setting method for vehicle cabin camera, and vehicle cabin camera Pending JP2017175199A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016055844A JP2017175199A (en) 2016-03-18 2016-03-18 Target range setting method for vehicle cabin camera, and vehicle cabin camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016055844A JP2017175199A (en) 2016-03-18 2016-03-18 Target range setting method for vehicle cabin camera, and vehicle cabin camera

Publications (1)

Publication Number Publication Date
JP2017175199A true JP2017175199A (en) 2017-09-28

Family

ID=59971547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016055844A Pending JP2017175199A (en) 2016-03-18 2016-03-18 Target range setting method for vehicle cabin camera, and vehicle cabin camera

Country Status (1)

Country Link
JP (1) JP2017175199A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019106262A1 (en) 2018-03-13 2019-09-19 Omron Corporation imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019106262A1 (en) 2018-03-13 2019-09-19 Omron Corporation imaging device

Similar Documents

Publication Publication Date Title
JP4853389B2 (en) Face image capturing device
JP5045212B2 (en) Face image capturing device
CN104838644B (en) Seek the camera chain and method of detection zone image information
CN109496187A (en) For handling video data to control the system and method to detect and eliminate flickering light source by dynamic exposure
JP2007135140A (en) Imaging apparatus
JP2008123137A (en) On-vehicle image processor and control method therefor
CN107709096A (en) For handling streaming transmitting video image to correct the system and method for the flickering of amplitude modulated light
CN107431758B (en) Imaging apparatus, imaging method, signal processing apparatus, signal processing method, and recording medium
JP6935815B2 (en) Illumination imager
JP2004048456A (en) Image pickup system
JP4782491B2 (en) Imaging device
US20190125174A1 (en) Electronic endoscope system
JP6212257B2 (en) Electronic endoscope system
JP2017175199A (en) Target range setting method for vehicle cabin camera, and vehicle cabin camera
JP2003087644A (en) Device and method for picking up and displaying image and program
JP2004048345A (en) Imaging systems
JP2012248992A (en) Digital camera
JP6780543B2 (en) Image imaging system and image imaging device
US8681263B2 (en) Imager capturing an image with a rolling shutter using flicker detection
US20170320434A1 (en) Imaging apparatus and car
JP2009042098A (en) Object detector of image processing type
JP2020101395A (en) Headlight tester, program, and recording medium
JP6541510B2 (en) Image pickup apparatus, control method thereof and program
JP2018125585A (en) Peripheral situation understanding supporting system
JP2011160133A (en) Wide dynamic range imaging apparatus