JP2018148423A - Direction detection device and operation control device - Google Patents

Direction detection device and operation control device Download PDF

Info

Publication number
JP2018148423A
JP2018148423A JP2017042059A JP2017042059A JP2018148423A JP 2018148423 A JP2018148423 A JP 2018148423A JP 2017042059 A JP2017042059 A JP 2017042059A JP 2017042059 A JP2017042059 A JP 2017042059A JP 2018148423 A JP2018148423 A JP 2018148423A
Authority
JP
Japan
Prior art keywords
exposure
unit
setting
photometric
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017042059A
Other languages
Japanese (ja)
Other versions
JP6631561B2 (en
Inventor
健治 成瀬
Kenji Naruse
健治 成瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017042059A priority Critical patent/JP6631561B2/en
Publication of JP2018148423A publication Critical patent/JP2018148423A/en
Application granted granted Critical
Publication of JP6631561B2 publication Critical patent/JP6631561B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a direction detection device and the like capable of appropriately controlling the exposure in an imaging unit.SOLUTION: A line-of-sight operation device 100 functions as a direction detection device and detects the line-of-sight direction of an operator U who is on a vehicle by using a face image PF of the operator U. The line-of-sight operation device 100 includes an exposure evaluation unit 22, an exposure setting unit 23, an error detection unit 36, and a map generation unit 38. The exposure evaluation unit 22 acquires information on a light measurement amount indicating the brightness around the operator U. The exposure setting unit 23 sets an exposure value based on the light measurement amount and controls the exposure in an imaging unit 10. The error detection unit 36 detects a state of an error in which the line-of-sight direction cannot be detected from the face image PF. The map generation unit 38 records occurrence of an error and learns a permission range of a settable exposure value. The exposure setting unit 23 sets the exposure value within the permission range set in the map generation unit 38 with respect to the light measurement amount acquired by the exposure evaluation unit 22.SELECTED DRAWING: Figure 1

Description

この明細書による開示は、顔画像を用いて視線又は顔の方向を検出する技術に関する。   The disclosure according to this specification relates to a technique for detecting a line of sight or a face direction using a face image.

従来、例えば特許文献1には、車両に搭乗する搭乗者の顔を撮影するカメラを備えた車両用撮像装置が開示されている。こうした車両用撮像装置では、視線検出に必要な瞳孔の位置及び角膜反射光の位置等が顔画像から検出されるように、カメラにおける露光の設定は、搭乗者の周囲の明るさ等に応じて、自動的に制御される。   Conventionally, for example, Patent Document 1 discloses an imaging apparatus for a vehicle including a camera that captures a face of a passenger boarding the vehicle. In such a vehicular imaging device, the exposure setting in the camera is set according to the brightness of the surroundings of the occupant so that the position of the pupil and the position of the cornea reflected light necessary for detecting the line of sight are detected from the face image. Automatically controlled.

特開2016‐49260号公報JP-A-2016-49260

さて、車両の走行によれば、例えばトンネルへの進入時等にて、搭乗者の周囲の明るさが急変する。このような明るさの急変するシーンを予め網羅的に想定することは、非常に困難である。そして、予め想定困難な要因により明るさが急変すると、カメラ等の撮像部の露出は、適切な範囲内から外れてしまい得る。その結果、視線等の方向を顔画像から検出できないエラーの状態が、継続的に発生し続ける虞があった。   Now, according to the running of the vehicle, for example, when the vehicle enters the tunnel, the brightness around the passenger changes suddenly. It is very difficult to comprehensively assume such scenes with sudden changes in brightness. If the brightness changes abruptly due to factors that are difficult to imagine in advance, the exposure of the imaging unit such as a camera may be out of the appropriate range. As a result, there is a possibility that an error state in which the direction of the line of sight or the like cannot be detected from the face image continues to occur.

本開示は、上記問題点に鑑みてなされたものであり、その目的は、撮像部における露出を適切に制御可能な方向検出装置及び操作制御装置を提供することにある。   The present disclosure has been made in view of the above problems, and an object thereof is to provide a direction detection device and an operation control device capable of appropriately controlling exposure in an imaging unit.

上記目的を達成するため、開示された一つの態様は、移動体に搭乗する搭乗者(U)の顔を撮影する撮像部(10)にて撮像される顔画像(PF)を用いて搭乗者の視線及び顔の少なくとも一方の方向を検出する方向検出装置であって、搭乗者の周囲の明るさを示す測光量の情報を取得する測光量取得部(22)と、測光量に基づき、撮像部にて用いられる露出値を設定し、撮像部における露出を制御する露出設定部(23)と、顔画像から方向が検出できないエラーの状態を検知するエラー検知部(36)と、エラーの発生を、測光量及び露出値と関連づけて記録し、記録したエラーの発生率に基づいて、測光量に対し設定可能な露出値の許可範囲を学習する設定学習部(38)と、を備え、露出設定部は、測光量取得部にて取得された測光量に対し、設定学習部にて設定された許可範囲内の露出値を設定する方向検出装置とされている。   In order to achieve the above object, one disclosed aspect is that a passenger uses a face image (PF) imaged by an imaging unit (10) that captures the face of a passenger (U) boarding a moving body. A direction detection device that detects at least one direction of the line of sight and the face, and a photometric quantity acquisition unit (22) that acquires information of the photometric quantity indicating the brightness of the occupant's surroundings, and imaging based on the photometric quantity An exposure setting unit (23) for setting an exposure value used in the image pickup unit and controlling the exposure in the imaging unit, an error detection unit (36) for detecting an error state in which the direction cannot be detected from the face image, and an error occurrence And a setting learning unit (38) that learns an allowable range of exposure values that can be set for the photometric amount based on the recorded error occurrence rate, and the exposure. The setting unit measures the measurement acquired by the photometry acquisition unit. The amount to, there is a direction detecting device for setting an exposure value within the set allowed range by setting learning unit.

また、開示された一つの態様は、移動体に搭乗する搭乗者(U)によって操作可能な操作対象機器(110)と接続される操作制御装置であって、搭乗者の顔を撮影する撮像部(10)にて撮像される顔画像(PF)を用いて、搭乗者の視線及び顔の少なくとも一方の方向を検出する方向検出部(35)と、方向検出部にて検出された方向に基づき、操作対象機器の作動を制御する動作制御部(40)と、搭乗者の周囲の明るさを示す測光量の情報を取得する測光量取得部(22)と、測光量に基づき、撮像部にて用いられる露出値を設定し、撮像部における露出を制御する露出設定部(23)と、顔画像から方向が検出できないエラーの状態を検知するエラー検知部(36)と、エラーの発生を、測光量及び露出値と関連づけて記録し、記録したエラーの発生率に基づいて、測光量に対し設定可能な露出値の許可範囲を学習する設定学習部(38)と、を備え、露出設定部は、測光量取得部にて取得された測光量に対し、設定学習部にて設定された許可範囲内の露出値を設定する操作制御装置とされている。   Moreover, one disclosed aspect is an operation control device connected to an operation target device (110) that can be operated by a passenger (U) boarding a moving body, and an imaging unit that captures the face of the passenger Based on the direction detected by the direction detector and the direction detector (35) that detects at least one direction of the line of sight of the passenger and the face using the face image (PF) captured in (10). An operation control unit (40) for controlling the operation of the operation target device, a light measurement amount acquisition unit (22) for acquiring information on a light measurement amount indicating the brightness around the occupant, and an imaging unit based on the light measurement amount An exposure setting unit (23) for setting an exposure value used for controlling the exposure in the imaging unit, an error detection unit (36) for detecting an error state in which the direction cannot be detected from the face image, Record and record in relation to the photometric quantity and exposure value. A setting learning unit (38) that learns a permissible range of exposure values that can be set for photometric light based on the error occurrence rate, and the exposure setting unit performs photometry obtained by the photometric light acquisition unit. The operation control device sets the exposure value within the permitted range set by the setting learning unit with respect to the amount.

これらの態様によれば、視線又は顔の方向が顔画像から検出できないエラーの発生が記録される。そして、エラーの発生率に基づき、測光量に対して設定可能な露出値の範囲が学習される。このように、方向検出での出力段におけるエラーの発生が、露出値の設定にフィードバックされれば、予め想定困難な要因によるエラーの発生は、方向検出装置の使用を通じて徐々に低減され得る。以上によれば、方向検出装置及び操作制御装置は、撮像部における露出を適切な範囲内に制御できる。   According to these aspects, the occurrence of an error in which the line of sight or the direction of the face cannot be detected from the face image is recorded. Based on the error occurrence rate, a range of exposure values that can be set for the photometric amount is learned. As described above, if the occurrence of an error in the output stage in the direction detection is fed back to the setting of the exposure value, the occurrence of an error due to a factor that cannot be assumed in advance can be gradually reduced through the use of the direction detection device. Based on the above, the direction detection device and the operation control device can control the exposure in the imaging unit within an appropriate range.

尚、上記括弧内の参照番号は、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、技術的範囲を何ら制限するものではない。   Note that the reference numbers in the parentheses merely show an example of a correspondence relationship with a specific configuration in an embodiment described later, and do not limit the technical scope at all.

第一実施形態による視線操作装置を含む車載された構成の全体像を示すブロック図である。It is a block diagram which shows the whole image of the structure mounted in-vehicle including the gaze control apparatus by 1st embodiment. 視線計測部による視線計測処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the gaze measurement process by a gaze measurement part. 露出設定に起因する視線検出への影響を比較して示す図である。It is a figure which compares and shows the influence on the gaze detection resulting from exposure setting. マップ生成部によるマップ生成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the map production | generation process by a map production | generation part. 測光量と適切な露出値との関係を説明する図であって、図5Aは、測光量に応じたエラー率の変化を露出設定毎に示す図であり、図5Bは、設定可否マップの一例を示す図であり、図5Cは、露出設定可否マップに基づいてエラー限界特性がどうなるかを模式的に示した図である。FIG. 5A is a diagram for explaining a relationship between a photometric amount and an appropriate exposure value, and FIG. 5A is a diagram illustrating a change in an error rate according to the photometric amount for each exposure setting, and FIG. 5B is an example of a setting availability map. FIG. 5C is a diagram schematically showing the error limit characteristics based on the exposure setting availability map. トンネルの通過時における露出制御の推移を示すタイムチャートである。It is a time chart which shows transition of exposure control at the time of passage of a tunnel. 露出制御部による露出制御処理の詳細を、図8と共に示すフローチャートである。It is a flowchart which shows the detail of the exposure control process by an exposure control part with FIG. 露出制御部による露出制御処理の詳細を、図7と共に示すフローチャートである。It is a flowchart which shows the detail of the exposure control process by an exposure control part with FIG. 急変予測部による急変予測処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the sudden change prediction process by the sudden change prediction part. 露出設定部による急変検出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the sudden change detection process by an exposure setting part. 第二実施形態による露出制御の推移を示すタイムチャートである。It is a time chart which shows transition of exposure control by a second embodiment. 変形例1による露出制御の推移を示すタイムチャートである。10 is a time chart showing a transition of exposure control according to Modification 1.

以下、本開示の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。そして、複数の実施形態及び変形例に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。   Hereinafter, a plurality of embodiments of the present disclosure will be described based on the drawings. In addition, the overlapping description may be abbreviate | omitted by attaching | subjecting the same code | symbol to the corresponding component in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other part of the configuration. Moreover, not only the combination of the configurations explicitly described in the description of each embodiment, but also the configuration of a plurality of embodiments can be partially combined even if they are not explicitly described, as long as there is no problem in the combination. And the combination where the structure described in several embodiment and the modification is not specified shall also be disclosed by the following description.

(第一実施形態)
図1に示す本開示の第一実施形態による視線操作装置100は、例えばナビゲーション装置110と共に車両に搭載されている。視線操作装置100は、ナビゲーション装置110と直接的又は間接的に電気接続されている。視線操作装置100は、顔画像PFを用いて操作者Uの視線の方向を検出する。視線操作装置100は、操作者Uの視線の方向を検出し、検出した視線の方向に対応した作動をナビゲーション装置110に実行させる。操作者Uは、車両に搭乗する搭乗者であり、一例として運転者等である。視線操作装置100の機能により、操作者Uは、運転中に手を使うことなく、視線の方向によってナビゲーション装置110を操作できる。
(First embodiment)
A line-of-sight operating device 100 according to the first embodiment of the present disclosure shown in FIG. 1 is mounted on a vehicle together with, for example, a navigation device 110. The line-of-sight operating device 100 is electrically connected to the navigation device 110 directly or indirectly. The line-of-sight operating device 100 detects the direction of the line of sight of the operator U using the face image PF. The line-of-sight operating device 100 detects the direction of the line of sight of the operator U, and causes the navigation device 110 to execute an action corresponding to the detected direction of the line of sight. The operator U is a passenger boarding the vehicle, and is a driver or the like as an example. With the function of the line-of-sight operating device 100, the operator U can operate the navigation device 110 according to the direction of the line of sight without using a hand during driving.

視線操作装置100は、撮像部10、露出制御部20、視線計測部30、動作制御部40、及び外部通信部50を備えている。   The line-of-sight operating device 100 includes an imaging unit 10, an exposure control unit 20, a line-of-sight measurement unit 30, an operation control unit 40, and an external communication unit 50.

撮像部10は、操作者Uの顔及びその周囲を撮影するカメラ装置である。撮像部10は、操作者Uの顔画像PFを撮像し、露出制御部20に逐次出力する。撮像部10は、光源11、光学系12、イメージセンサ13、及びコントローラ14を有している。   The imaging unit 10 is a camera device that captures the face of the operator U and its surroundings. The imaging unit 10 captures the face image PF of the operator U and sequentially outputs it to the exposure control unit 20. The imaging unit 10 includes a light source 11, an optical system 12, an image sensor 13, and a controller 14.

光源11は、例えば近赤外光を操作者Uへ向けて放射する近赤外光源である。光学系12は、イメージセンサ13と光学的に結合されている。光学系12は、レンズ、及びバンドパスフィルタ(以下、「band-pass filter:BPF」)等を含む構成である。イメージセンサ13は、光学系12によって導入された光から、顔の周囲を撮像した顔画像PFを撮像する。コントローラ14は、光源11及びイメージセンサ13と電気的に接続された制御部である。コントローラ14は、露出制御部20から取得する発光制御値に基づき、光源11の発光時間を調整する。コントローラ14は、露出制御部20から取得する露出値に基づき、イメージセンサ13における露出時間、絞り値、及びISO感度等を調整する。   The light source 11 is a near infrared light source that radiates near infrared light toward the operator U, for example. The optical system 12 is optically coupled to the image sensor 13. The optical system 12 includes a lens, a band-pass filter (hereinafter “band-pass filter: BPF”), and the like. The image sensor 13 captures a face image PF obtained by capturing the periphery of the face from the light introduced by the optical system 12. The controller 14 is a control unit that is electrically connected to the light source 11 and the image sensor 13. The controller 14 adjusts the light emission time of the light source 11 based on the light emission control value acquired from the exposure control unit 20. The controller 14 adjusts the exposure time, aperture value, ISO sensitivity, and the like in the image sensor 13 based on the exposure value acquired from the exposure control unit 20.

露出制御部20は、撮像部10にて操作者Uの顔が適切に撮像されるように、撮像部10の露出を制御する露出制御処理(図7及び図8参照)を繰り返し行う。露出制御部20は、画像取得部21、露出評価部22、及び露出設定部23を有している。   The exposure control unit 20 repeatedly performs an exposure control process (see FIGS. 7 and 8) for controlling the exposure of the imaging unit 10 so that the image of the operator U is appropriately captured by the imaging unit 10. The exposure control unit 20 includes an image acquisition unit 21, an exposure evaluation unit 22, and an exposure setting unit 23.

画像取得部21は、イメージセンサ13にて撮像された顔画像PFの画像データを逐次取得する。画像取得部21は、取得した画像データを視線計測部30に出力する。   The image acquisition unit 21 sequentially acquires image data of the face image PF captured by the image sensor 13. The image acquisition unit 21 outputs the acquired image data to the line-of-sight measurement unit 30.

露出評価部22は、操作者Uの周囲の明るさを示す測光量の情報を取得する。具体的に、露出評価部22は、測光量に対応する情報として、画像取得部21にて取得された顔画像PFについての平均輝度を算出する。露出評価部22は、平均輝度の算出にあたり、顔画像PFの中央及び顔の範囲等、特定の領域の重要度を高めた加重平均を算出してもよい。   The exposure evaluation unit 22 acquires information on the photometric quantity indicating the brightness around the operator U. Specifically, the exposure evaluation unit 22 calculates an average luminance for the face image PF acquired by the image acquisition unit 21 as information corresponding to the photometric amount. In calculating the average luminance, the exposure evaluation unit 22 may calculate a weighted average in which the importance of a specific area such as the center of the face image PF and the face range is increased.

露出設定部23は、測光量に基づき、イメージセンサ13の制御に用いられる露出値及び光源11の制御に用いられる発光制御値を設定する。具体的に、露出設定部23は、露出評価部22にて算出される平均輝度が予め設定された目標輝度に近づくように、露出値及び発光制御値を調整する。露出設定部23は、設定した露出値及び発光制御値を、コントローラ14へ向けて逐次送信する。露出値は、外光が少なくなるほど、露出時間が長くなるように設定され、外光が多くなると、露出時間が短くるように設定される。   The exposure setting unit 23 sets an exposure value used for controlling the image sensor 13 and a light emission control value used for controlling the light source 11 based on the photometric amount. Specifically, the exposure setting unit 23 adjusts the exposure value and the light emission control value so that the average luminance calculated by the exposure evaluation unit 22 approaches a preset target luminance. The exposure setting unit 23 sequentially transmits the set exposure value and light emission control value to the controller 14. The exposure value is set so that the exposure time increases as the external light decreases, and the exposure time decreases as the external light increases.

視線計測部30は、撮像部10にて撮像された顔画像PFを用いて、操作者Uの視線の方向を検出する。視線計測部30は、操作者Uの視線方向だけでなく、顔の方向(以下、「顔向き」)を検出可能であってもよい。視線計測部30は、視線計測処理(図2参照)を繰り返し行う。視線計測部30は、フレームメモリ31、顔検出部32、顔部品検出部33、目検出部34、幾何計算部35、エラー検知部36、方向計測メモリ37、及びマップ生成部38を有している。   The line-of-sight measurement unit 30 detects the direction of the line of sight of the operator U using the face image PF captured by the imaging unit 10. The line-of-sight measurement unit 30 may be capable of detecting not only the line-of-sight direction of the operator U but also the face direction (hereinafter, “face orientation”). The line-of-sight measurement unit 30 repeatedly performs the line-of-sight measurement process (see FIG. 2). The line-of-sight measurement unit 30 includes a frame memory 31, a face detection unit 32, a face part detection unit 33, an eye detection unit 34, a geometric calculation unit 35, an error detection unit 36, a direction measurement memory 37, and a map generation unit 38. Yes.

フレームメモリ31は、画像取得部21から顔画像PFを取得する。フレームメモリ31は、少なくとも1フレーム分の顔画像PFを一時的に保持可能な記憶部である。フレームメモリ31に記憶された顔画像PFは、顔検出部32、顔部品検出部33、及び目検出部34からの同時アクセスが可能である。   The frame memory 31 acquires the face image PF from the image acquisition unit 21. The frame memory 31 is a storage unit that can temporarily hold a face image PF for at least one frame. The face image PF stored in the frame memory 31 can be accessed simultaneously from the face detection unit 32, the face part detection unit 33, and the eye detection unit 34.

顔検出部32は、顔画像PFにおける顔の輪郭部分の濃淡などの特徴から、操作者Uの顔を検出する(S31参照)。顔部品検出部33は、目、鼻、口等の顔部品周辺の濃淡及び位置関係等の特徴から、これら顔部品を検出する(S32参照)。目検出部34は、顔検出部32による顔検出又は顔部品検出部33による顔部品検出により、大まかに特定された目の場所から、円形状のパターンマッチングを行うことで、虹彩又は瞳孔を精密に検出する(S33参照)。幾何計算部35は、顔部品の位置関係、瞼と目との位置関係から視線方向及び顔向きを計算する。視線方向及び顔向きの検出結果は、計測メモリに格納される。   The face detection unit 32 detects the face of the operator U from features such as the density of the outline of the face in the face image PF (see S31). The face part detection unit 33 detects these face parts from the features such as shades and positional relationships around the face parts such as eyes, nose and mouth (see S32). The eye detection unit 34 performs precise patterning of the iris or pupil by performing circular pattern matching from the roughly specified eye location by face detection by the face detection unit 32 or face part detection by the face part detection unit 33. (See S33). The geometric calculation unit 35 calculates the line-of-sight direction and the face direction from the positional relationship between the face parts and the positional relationship between the eyelids and the eyes. The detection results of the gaze direction and the face direction are stored in the measurement memory.

エラー検知部36は、視線計測処理(図2参照)によって顔画像PFから視線方向又は顔向きが検出できない場合に、エラーの状態を検知する。図3に示すように、撮像部10の露出が明るさに対して適正に制御されていれば、顔の輪郭の検出、並びに目の虹彩及びプルキニエ等の抽出は、共に正常に行われる。一方で、露出オーバーの場合、目の虹彩及びプルキニエ等の抽出が正常に行われ得るものの、顔の輪郭の検出が困難になる。また、露出アンダーの場合、顔の輪郭の検出が正常に行われ得るものの、目の虹彩及びプルキニエ等の抽出は、困難になる。図1に示すエラー検知部36は、上記の露出オーバー及び露出アンダーのいずれかによるエラーの状態を検知すると、エラーの発生情報をマップ生成部38に通知する。   The error detection unit 36 detects an error state when the line-of-sight direction or the face direction cannot be detected from the face image PF by the line-of-sight measurement process (see FIG. 2). As shown in FIG. 3, if the exposure of the imaging unit 10 is appropriately controlled with respect to the brightness, the detection of the face contour and the extraction of the iris, Purkinje, and the like are both performed normally. On the other hand, in the case of overexposure, the iris of the eye, Purkinje, etc. can be extracted normally, but the detection of the face contour becomes difficult. In the case of underexposure, detection of the facial contour can be performed normally, but extraction of the iris and Purkinje of the eyes becomes difficult. The error detection unit 36 illustrated in FIG. 1 notifies the map generation unit 38 of error occurrence information when detecting an error state due to either overexposure or underexposure.

方向計測メモリ37は、顔検出部32、顔部品検出部33、及び目検出部34により、演算のための記憶領域として利用される。方向計測メモリ37には、幾何計算部35にて検出された視線方向及び顔向きの情報が格納されている。これらの情報は、動作制御部40によって参照される。   The direction measurement memory 37 is used as a storage area for calculation by the face detection unit 32, the face part detection unit 33, and the eye detection unit 34. The direction measurement memory 37 stores information on the line-of-sight direction and the face direction detected by the geometric calculation unit 35. These pieces of information are referred to by the operation control unit 40.

マップ生成部38は、視線方向及び顔向きの検出エラーの発生情報を、エラー検知部36から取得する。マップ生成部38は、エラーが発生した顔画像PFの撮像時における露出値及び測光量の情報を、露出評価部22及び露出設定部23から取得する。マップ生成部38は、エラーの発生を測光量及び露出値と関連づけて記録する。マップ生成部38は、マップ生成処理(図4参照)を継続的に実施することにより、現在の測光量に対し設定可能な露出値の許可範囲を学習し、設定可否マップ(図5B参照)を生成する。   The map generation unit 38 acquires, from the error detection unit 36, information on occurrence of detection errors for the line-of-sight direction and the face direction. The map generation unit 38 acquires from the exposure evaluation unit 22 and the exposure setting unit 23 information on the exposure value and the photometric quantity at the time of capturing the face image PF in which an error has occurred. The map generation unit 38 records the occurrence of an error in association with the photometric amount and the exposure value. The map generation unit 38 continuously performs the map generation process (see FIG. 4), thereby learning the allowable range of exposure values that can be set for the current photometric amount, and setting the availability map (see FIG. 5B). Generate.

具体的に、マップ生成部38は、幾何計算部35によって視線検出が出力される毎に、エラー検知部36から取得するエラーの発生情報に基づき、エラーの発生率(以下、「エラー率」)を監視する(S41参照)。視線検出のエラー率は、視線検出におけるエラー発生回数を、視線検出の出力回数で除算した値である。エラー率は、分子及び分母共に、露出値及び測光量に分けて計算される。視線検出の出力回数が少ない場合、エラー率に生じる誤差を低減するため、検出回数に応じた補正係数が掛け合わされてもよい。   Specifically, the map generation unit 38 generates an error occurrence rate (hereinafter referred to as “error rate”) based on error occurrence information acquired from the error detection unit 36 every time the line-of-sight detection is output by the geometric calculation unit 35. Is monitored (see S41). The line-of-sight detection error rate is a value obtained by dividing the number of occurrences of line-of-sight detection errors by the number of line-of-sight detection outputs. The error rate is calculated separately for both the numerator and denominator by exposure value and photometric quantity. When the number of eye-gaze detection outputs is small, a correction coefficient corresponding to the number of detections may be multiplied to reduce an error in the error rate.

マップ生成部38は、エラー率が規定値以上になったか否かを判定する(S42参照)。図5に示すように、露出時間が短くなるほど、操作者Uの周囲が明るくなっても、エラー率の上昇は、生じ難くなる。反対に、露出時間が長くなるほど、操作者Uの周囲が暗くなっても、エラー率の上昇は、生じ難くなる。   The map generation unit 38 determines whether or not the error rate is equal to or higher than a specified value (see S42). As shown in FIG. 5, the shorter the exposure time, the less likely the error rate will increase even if the surroundings of the operator U become brighter. On the contrary, as the exposure time becomes longer, the error rate is less likely to increase even if the surroundings of the operator U become dark.

図1に示すマップ生成部38は、エラー率が規定値以上となった場合に、エラーログとして、露出値(露出量)及び測光量を記録する(S43参照)。マップ生成部38は、記録したエラーログを統計分析し、エラー率に基づく設定可否マップを生成する(S44参照)。図5Bに示すように設定可否マップは、測光量に対して、各露出値が設定可能か否かを規定している。露出値の設定可否マップは、露出設定部23に提供される。設定可否マップの「○」の範囲が設定可を示す許可範囲であり、「×」の範囲が設定不可となる許可範囲外である。許可範囲では、エラー率が規定値以下となり、許可範囲外では、エラー率は、規程値を超える。尚、顔向きについてのエラー率は、視線方向のエラー率と同様の方法によって算出可能である。   The map generation unit 38 shown in FIG. 1 records an exposure value (exposure amount) and a photometric amount as an error log when the error rate is equal to or higher than a specified value (see S43). The map generation unit 38 statistically analyzes the recorded error log, and generates a setting availability map based on the error rate (see S44). As shown in FIG. 5B, the setting availability map defines whether or not each exposure value can be set for the photometric quantity. The exposure value setting availability map is provided to the exposure setting unit 23. The range of “◯” in the setting availability map is a permission range indicating that setting is possible, and the range of “x” is outside the permission range where setting is not possible. In the permitted range, the error rate is less than or equal to the specified value, and outside the permitted range, the error rate exceeds the specified value. The error rate for the face direction can be calculated by the same method as the error rate for the line-of-sight direction.

図1に示す視線計測部30は、視線方向及び顔向き等の検出結果の出力毎に、エラー率が規定値を超える露出条件を記録する。そして、エラーが生じない範囲で露出制御されるように、エラーの発生情報は、露出制御部20及び撮像部10の露出設定にフィードバックされる。   The line-of-sight measurement unit 30 illustrated in FIG. 1 records an exposure condition in which the error rate exceeds a specified value for each output of detection results such as a line-of-sight direction and a face direction. The error occurrence information is fed back to the exposure settings of the exposure control unit 20 and the imaging unit 10 so that the exposure is controlled within a range where no error occurs.

動作制御部40は、動作指示部41及び急変予測部42を有している。動作指示部41は、方向計測メモリ37から視線方向及び顔向きの情報を取得する。動作指示部41は、視線方向及び顔向きに基づき、ナビゲーション装置110に指示する動作を設定する。急変予測部42は、車両の移動に伴う測光量の急変を予測する。急変予測部42は、例えば地図データに基づき、車両がトンネル等に進入する少し前のタイミング、及び車両がトンネルから出る少し前のタイミングで、測光量の急変を予測する。急変予測部42は、車両周囲の明るさ急変を予測するための情報を、外部通信部50を通じて取得する。   The operation control unit 40 includes an operation instruction unit 41 and a sudden change prediction unit 42. The operation instruction unit 41 acquires information on the line-of-sight direction and the face direction from the direction measurement memory 37. The operation instruction unit 41 sets an operation to instruct the navigation device 110 based on the line-of-sight direction and the face direction. The sudden change prediction unit 42 predicts a sudden change in the photometric quantity accompanying the movement of the vehicle. The sudden change prediction unit 42 predicts a sudden change in the photometric quantity at a timing just before the vehicle enters the tunnel or the like and a timing just before the vehicle leaves the tunnel, for example, based on the map data. The sudden change prediction unit 42 acquires information for predicting a sudden change in brightness around the vehicle through the external communication unit 50.

外部通信部50は、ナビゲーション装置110と直接的又は間接的に電気接続されている。外部通信部50は、ナビゲーション装置110から、車両の進行方向の地図データ等を取得する。外部通信部50は、地図データに基づき、トンネル等の位置情報を取得し、急変予測部42に提供する。外部通信部50は、動作指示部41にて設定された動作を、指令信号としてナビゲーション装置110に出力する。動作指示部41及び外部通信部50による制御により、操作者Uは、視線方向等による表示画面のスクロール及びアイコンの選択等を行うことができる。   The external communication unit 50 is electrically connected to the navigation device 110 directly or indirectly. The external communication unit 50 acquires map data and the like of the traveling direction of the vehicle from the navigation device 110. The external communication unit 50 acquires location information such as a tunnel based on the map data, and provides it to the sudden change prediction unit 42. The external communication unit 50 outputs the operation set by the operation instruction unit 41 to the navigation device 110 as a command signal. Under the control of the operation instruction unit 41 and the external communication unit 50, the operator U can perform scrolling of the display screen, selection of icons, and the like according to the line-of-sight direction.

ナビゲーション装置110は、GNSS(Global Navigation Satellite System)受信機111、地図データベース(以下、「地図DB」)112、表示器113、及び通信機114を備えている。GNSS受信機111は、車両の現在位置を測位する。地図DB112は、大量の地図データを格納した記憶装置である。表示器113は、表示画面に車両の現在位置と周辺の地図データとを表示する。通信機114は、情報センター120に設けられた情報データベース(以下、「情報DB」)121から、交通規制情報等を取得する。ナビゲーション装置110は、上記の構成により、運転者である操作者Uに、目的地までのルートを案内する。   The navigation device 110 includes a GNSS (Global Navigation Satellite System) receiver 111, a map database (hereinafter “map DB”) 112, a display 113, and a communication device 114. The GNSS receiver 111 measures the current position of the vehicle. The map DB 112 is a storage device that stores a large amount of map data. The display 113 displays the current position of the vehicle and surrounding map data on the display screen. The communication device 114 acquires traffic regulation information and the like from an information database (hereinafter “information DB”) 121 provided in the information center 120. With the above configuration, the navigation device 110 guides the route to the destination to the operator U who is a driver.

次に、露出制御部20にて実施される露出制御の詳細を、図6に基づき、図1を参照しつつ説明する。図6に示すタイムチャートは、車両がトンネルを通過する場合の露出制御の推移を示している。尚、図6では、実線がフィードバックを含む露出制御の推移であり、破線は、比較のためのフィードバックを行わない露出制御の推移である。   Next, details of exposure control performed by the exposure control unit 20 will be described with reference to FIG. 1 based on FIG. 6. The time chart shown in FIG. 6 shows the transition of exposure control when the vehicle passes through the tunnel. In FIG. 6, the solid line represents the transition of exposure control including feedback, and the broken line represents the transition of exposure control without feedback for comparison.

時刻t1以前の通常走行時において、露出時間は、顔画像PFから算出される測光量に基づき、設定可否マップ(図5B参照)にて設定可能とされた許可範囲内で制御されている。そして、時刻1では、ナビゲーション装置110から取得する地図データに基づき、急変予測部42が、進行方向のトンネルの入口を検出する。急変予測部42にて、明から暗への明るさ変化が先読みされると、露出設定部23は、明るさの変化が生じる少し前から、露出時間を露出オーバー側へシフトするような露出値の調整を行う。具体的に、露出時間は、通常時の露出フィードバック計算値とオーバー側シフト設定値との総和に設定される。シフト後の露出時間は、現在の測光量に対する上限値を超えないように、上限値に対し余裕度を取った値に設定される。尚、露出時間の上限値及び下限値は、設定可否マップと実質同一の考え方で設定可能であり、エラー率が規定値以下になる領域の境界値である。   During normal travel before time t1, the exposure time is controlled within a permission range that can be set in the setting availability map (see FIG. 5B) based on the photometric quantity calculated from the face image PF. At time 1, the sudden change prediction unit 42 detects the entrance of the tunnel in the traveling direction based on the map data acquired from the navigation device 110. When the brightness change from light to dark is prefetched by the sudden change prediction unit 42, the exposure setting unit 23 sets an exposure value that shifts the exposure time to the overexposed side slightly before the change in brightness occurs. Make adjustments. Specifically, the exposure time is set to the sum of the normal exposure feedback calculation value and the overshift setting value. The exposure time after the shift is set to a value with a margin with respect to the upper limit value so as not to exceed the upper limit value for the current photometric amount. Note that the upper limit value and the lower limit value of the exposure time can be set based on substantially the same concept as the setting availability map, and are boundary values in a region where the error rate is equal to or less than a specified value.

時刻2にてトンネルへ進入すると、明から暗への明るさの急変が生じる。このとき、予め行われていた露出時間のシフトにより、測光量に露出値が追従する追従時間は、短縮され得る。その結果、エラーの防止、或いはエラーからの極めて短時間での正常復帰が可能になる。   When entering the tunnel at time 2, a sudden change in brightness from light to dark occurs. At this time, the follow-up time for the exposure value to follow the photometric amount can be shortened by the exposure time shift performed in advance. As a result, it is possible to prevent an error or return to normal from an error in a very short time.

さらに時刻t2では、測光量の急変の検出をトリガとして、露出制御部20は、測光量に応じて露出値を変化させる応答制御の制御ゲインを高く設定する。これにより、露出時間の応答遅れが短縮される。具体的に、制御ゲインは、通常値から、予め設定された加速制御用ゲインに切り替えられる。加速制御用ゲインは、時刻t2から時刻t3までの制御対象範囲にて、一時的に設定される。加速制御用ゲインを用いて算定された露出値が設定可否マップの許可範囲内である場合、算定された露出値は、そのままコントローラ14で用いられる。一方、加速制御用ゲインを用いて算定された露出値が設定可否マップの許可範囲外である場合、算定された露出値は、許可範囲に入るように補正される。以上のように、制御対象範囲内においても、露出値は、視線方向の検出に適していると学習された値のみが使用される。   Further, at time t2, the exposure control unit 20 sets a control gain for response control that changes the exposure value in accordance with the photometric quantity to be high, with detection of a sudden change in the photometric quantity as a trigger. Thereby, the response delay of exposure time is shortened. Specifically, the control gain is switched from a normal value to a preset acceleration control gain. The acceleration control gain is temporarily set in the control target range from time t2 to time t3. When the exposure value calculated using the acceleration control gain is within the allowable range of the setting availability map, the calculated exposure value is used as it is by the controller 14. On the other hand, when the exposure value calculated using the acceleration control gain is outside the allowable range of the setting availability map, the calculated exposure value is corrected so as to fall within the allowable range. As described above, even within the control target range, only a value learned to be suitable for detection of the line-of-sight direction is used as the exposure value.

そして時刻4では、急変予測部42が、進行方向のトンネルの出口を検出し、暗から明への明るさ変化を先読みする。その結果、露出設定部23は、明るさの変化が生じる少し前から、露出時間を露出アンダー側へシフトするような露出値の調整を行う。具体的に、露出時間は、通常時の露出フィードバック計算値とアンダー側シフト設定値との総和に設定される。シフト後の露出時間は、現在の測光量に対する下限値を超えないように、下限値に対し余裕度を取った値に設定される。オーバー側シフト設置値は、露出時間を長くするような正の値であり、アンダー側シフト設定値は、露出時間を短くするような負の値である。   At time 4, the sudden change prediction unit 42 detects the exit of the tunnel in the traveling direction, and pre-reads the brightness change from dark to bright. As a result, the exposure setting unit 23 adjusts the exposure value so as to shift the exposure time to the underexposure side slightly before the change in brightness occurs. Specifically, the exposure time is set to the sum of the normal exposure feedback calculation value and the under shift setting value. The exposure time after the shift is set to a value with a margin with respect to the lower limit value so as not to exceed the lower limit value for the current photometric amount. The over shift setting value is a positive value that increases the exposure time, and the under shift setting value is a negative value that decreases the exposure time.

時刻5では、トンネル出口への接近により、暗から明への明るさの急変が生じると、測光量の急変の検出をトリガとして、露出値を制御する制御ゲインは、通常値から加速制御用ゲインへと切り替えられる。時刻t6では、車両がトンネルの出口を通過する。暗から明への明るさの急変の場合でも、加速制御用ゲインは、時刻t5から時刻t7までの制御対象範囲にて、一時的に設定される。以上により、露出時間は、明るさが急変する過渡期間においても、上限値及び下限値の間で推移するようになる。   At time 5, when a sudden change in brightness from dark to bright occurs due to the approach to the tunnel exit, the control gain for controlling the exposure value triggered by the detection of the sudden change in the photometric quantity is changed from the normal value to the acceleration control gain. Can be switched to. At time t6, the vehicle passes through the tunnel exit. Even in the case of a sudden change in brightness from dark to bright, the acceleration control gain is temporarily set in the control target range from time t5 to time t7. As described above, the exposure time shifts between the upper limit value and the lower limit value even in the transition period in which the brightness changes suddenly.

尚、急変予測部42による明るさ変化の先読み方法は、適宜変更されてよい。例えば急変予測部42は、車両に設けられた周辺監視カメラ又はドライブレコーダ等の進行方向の画像から、将来的な車両周囲の明るさを予測してもよい。さらに、ナビゲーション装置110にて、直射日光が操作者Uの顔に当たることを計算し、その情報が急変予測部42に提供されてもよい。   Note that the method of pre-reading the brightness change by the sudden change prediction unit 42 may be changed as appropriate. For example, the sudden change prediction unit 42 may predict the future brightness around the vehicle from an image in the traveling direction of a periphery monitoring camera or a drive recorder provided in the vehicle. Further, the navigation device 110 may calculate that the direct sunlight hits the face of the operator U, and the information may be provided to the sudden change prediction unit 42.

以上のタイムチャートに例示した制御を実現するため、視線操作装置100にて実施される制御の詳細を、図7〜図9に基づき、図1及び図6を参照しつつ、説明する。図7〜図9に記載の各フローは、視線操作装置100の起動に伴って開始され、視線操作装置100の停止まで繰り返し実施される。   Details of the control performed by the line-of-sight operating device 100 in order to realize the control exemplified in the above time chart will be described based on FIGS. 7 to 9 and with reference to FIGS. Each flow described in FIGS. 7 to 9 is started when the line-of-sight operating device 100 is activated, and is repeatedly performed until the line-of-sight operating device 100 is stopped.

図7及び図8に示す露出制御処理は、主に露出制御部20にて実施され、検出エラーが規定値以下に抑制されるように、露出設定可否マップを使用して露出値を設定する処理である。露出制御処理のS51では、顔画像PFの撮像毎に露出の制御を行い、S52に進む。S52では、露出制御の初期化が済んでいるか否かを判定し、初期化が完了している場合は、S55に進む。一方で、初期化が済んでいない場合は、S53に進む。   The exposure control process shown in FIGS. 7 and 8 is performed mainly by the exposure control unit 20, and sets the exposure value using the exposure setting availability map so that the detection error is suppressed to a predetermined value or less. It is. In S51 of the exposure control process, exposure control is performed every time the face image PF is captured, and the process proceeds to S52. In S52, it is determined whether or not the exposure control has been initialized. If the initialization has been completed, the process proceeds to S55. On the other hand, if the initialization has not been completed, the process proceeds to S53.

S53では、起動時に用いられる仮の値として設定値の初期値をロードし、S54に進む。S54では、初期化済みのフラグをセットし、S55に進む。S55では、マップ生成処理(図4参照)によって新たに更新された設定可否マップのデータがあるか否かを判定する。S55にて、更新データが無いと判定した場合、S57に進む。一方、S55にて、更新データがあると判定した場合、S56に進む。S56では、設定可否マップを更新し、S57に進む。   In S53, the initial value of the set value is loaded as a temporary value used at the time of activation, and the process proceeds to S54. In S54, an initialized flag is set, and the process proceeds to S55. In S55, it is determined whether or not there is data of a setting availability map newly updated by the map generation processing (see FIG. 4). If it is determined in S55 that there is no update data, the process proceeds to S57. On the other hand, if it is determined in S55 that there is update data, the process proceeds to S56. In S56, the setting availability map is updated, and the process proceeds to S57.

S57では、顔画像PFから測光量を算出し、目標光量を計算する。一例として、S57では、顔画像PFから算出する平均輝度から、現在の明るさを推定し、顔画像PFの目標輝度を計算し、S58に進む。   In S57, a photometric amount is calculated from the face image PF, and a target light amount is calculated. As an example, in S57, the current brightness is estimated from the average brightness calculated from the face image PF, the target brightness of the face image PF is calculated, and the process proceeds to S58.

S58では、後述する急変予測処理(図9参照)により、測光量の急変予測フラグがセットされているか否かを判定する。S58にて、急変予測フラグを検出していない場合、S60に進む。一方、S58にて、急変予測フラグを検出した場合、S59に進む。S59では、測光量の目標光量を予め設定された所定値、増量又は減量し、S60に進む。具体的に、明から暗への急変が予測される場合、露出時間にオーバー側シフト設定値が加算されるように、目標光量の増量を行う(図6 時刻t1〜t2参照)。反対に、暗から明への急変が予測される場合、露出時間にアンダー側シフト設定値が加算されるように、目標光量の減量を行う(図6 時刻t4〜t5参照)。   In S58, it is determined whether or not the sudden change prediction flag of the photometric quantity is set by a sudden change prediction process (see FIG. 9) described later. When the sudden change prediction flag is not detected in S58, the process proceeds to S60. On the other hand, when the sudden change prediction flag is detected in S58, the process proceeds to S59. In S59, the target light quantity of the photometric quantity is increased by a predetermined value, increased or decreased, and the process proceeds to S60. Specifically, when a sudden change from light to dark is predicted, the target light amount is increased so that the overshift setting value is added to the exposure time (see times t1 to t2 in FIG. 6). On the other hand, when a sudden change from dark to bright is predicted, the target light amount is reduced so that the under shift setting value is added to the exposure time (see times t4 to t5 in FIG. 6).

S60では、後述する急変検出処理(図10参照)により、測光量の急変フラグがセットされているか否かを判定する。S60にて、急変フラグを検出していない場合、S61に進む。S61では、顔画像の測光量(平均輝度)が目標光量(目標輝度)になるよう、露出量(露出値)を計算する。加えてS61では、露出値を制御する制御ゲインを、通常値に設定し、S63に進む。   In S60, it is determined whether or not the sudden change flag of the photometric quantity is set by a sudden change detection process (see FIG. 10) described later. If the sudden change flag is not detected in S60, the process proceeds to S61. In S61, the exposure amount (exposure value) is calculated so that the photometric light amount (average luminance) of the face image becomes the target light amount (target luminance). In addition, in S61, the control gain for controlling the exposure value is set to a normal value, and the process proceeds to S63.

一方、S60にて、急変フラグが検出された場合、S62に進む。S62でも、顔画像の測光量(平均輝度)が目標光量(目標輝度)になるよう、露出量(露出値)を計算する。加えてS62では、制御ゲインを通常値から増量させる。具体的には、制御ゲインを通常値から、応答性の高い加速制御用ゲインに切り替え、S63に進む(図6 時刻t2〜t3,時刻t5〜t6参照)。   On the other hand, when the sudden change flag is detected in S60, the process proceeds to S62. Also in S62, the exposure amount (exposure value) is calculated so that the photometric light amount (average luminance) of the face image becomes the target light amount (target luminance). In addition, in S62, the control gain is increased from the normal value. Specifically, the control gain is switched from the normal value to the acceleration response gain with high responsiveness, and the process proceeds to S63 (see time t2 to t3 and time t5 to t6 in FIG. 6).

S63では、S61又はS62にて計算した露出値、即ち、露出時間と測光量との関係を設定可否マップと照合し、S64に進む。S64では、S61又はS62にて計算した露出値がそのまま設定可能か否かを判定する。S64にて、計算した値の設定が可能であると判定した場合、S66に進み、露出値をコントローラ14へ向けて送信する。   In S63, the exposure value calculated in S61 or S62, that is, the relationship between the exposure time and the photometric quantity is collated with the setting availability map, and the process proceeds to S64. In S64, it is determined whether or not the exposure value calculated in S61 or S62 can be set as it is. If it is determined in S64 that the calculated value can be set, the process proceeds to S66 and the exposure value is transmitted to the controller 14.

一方、S64にて、計算した値が設定否の範囲であると判定した場合、S65に進む。S65では、露出時間と測定量との関係を補正する。具体的に、S66では、設定可否マップにおける設定否の領域に入らないように、シフト設定値及び加速制御用ゲイン等の調整を行い、補正値を含む露出値を再計算して、S66に進む。S66では、S65にて再計算した補正済みの露出値をコントローラ14へ向けて送信する。   On the other hand, if it is determined in S64 that the calculated value is within the setting rejection range, the process proceeds to S65. In S65, the relationship between the exposure time and the measured amount is corrected. Specifically, in S66, the shift setting value, the acceleration control gain, and the like are adjusted so as not to enter the setting rejection area in the setting availability map, the exposure value including the correction value is recalculated, and the process proceeds to S66. . In S66, the corrected exposure value recalculated in S65 is transmitted to the controller 14.

図9に示す急変予測処理は、主に急変予測部42にて実施され、ナビゲーション装置110から取得する地図データに基づき、前方のトンネル等を検出し(図6 時刻t1,t4参照)、露出制御モードを変更させる処理である。急変予測処理のS71では、測光量が急変する予測情報、即ち前方のトンネル等の情報を、ナビゲーション装置110等の他機器から受信し、S72に進む。   The sudden change prediction process shown in FIG. 9 is mainly performed by the sudden change predicting unit 42, detects a forward tunnel or the like based on map data acquired from the navigation device 110 (see times t1 and t4 in FIG. 6), and controls exposure. This is a process for changing the mode. In S71 of the sudden change prediction process, prediction information in which the photometric quantity changes suddenly, that is, information such as a tunnel ahead is received from another device such as the navigation device 110, and the process proceeds to S72.

S72では、S71にて、測光量の急変が予測される情報を検出したか否かを判定する。S72にて、急変予測情報を検出していない場合、急変予測処理を一旦終了する。一方、S72にて、急変予測情報を検出した場合、S73に進む。S73では、測光量の急変予測フラグをセットし、S74に進む。   In S72, it is determined in S71 whether or not information for which a sudden change in the photometric quantity is predicted is detected. If the sudden change prediction information is not detected in S72, the sudden change prediction process is temporarily terminated. On the other hand, when the sudden change prediction information is detected in S72, the process proceeds to S73. In S73, the abrupt change prediction flag of the photometric quantity is set, and the process proceeds to S74.

S74では、タイマーのセット済みフラグがセットされているか否かを判定する。S74にて、タイマーがセット済みと判定した場合、急変予測処理を一旦終了する。一方、タイマーがセット済みでないと判定した場合、S75に進む。S75では、タイマーをセットし、S76に進む。S76では、タイマーのセット済みフラグをセットし、急変予測処理を一旦終了する。尚、S75によるタイマーのセットにより、露出制御部20は、測光量の急変検出の待機した状態となる。また、タイマーの値は、図10に示す急変検出処理でも利用される。   In S74, it is determined whether the set flag of the timer is set. If it is determined in S74 that the timer has been set, the sudden change prediction process is temporarily terminated. On the other hand, if it is determined that the timer has not been set, the process proceeds to S75. In S75, a timer is set, and the process proceeds to S76. In S76, the set flag of the timer is set, and the sudden change prediction process is temporarily ended. Note that the exposure control unit 20 is in a standby state for detecting a sudden change in the photometric quantity by setting the timer in S75. The timer value is also used in the sudden change detection process shown in FIG.

図10に示す急変検出処理は、主に露出制御部20にて実施され、撮像部10にて撮像された顔画像PFの変化に基づき、明るさの急変を検出する処理である。急変検出処理のS81では、顔画像PFの平均輝度から、測光量が急変したかどうか監視し、S82に進む。S82では、S81の監視によって測光量の急変を検出したか否かを判定する。S82にて、測光量の急変を検出した場合、S83に進む。S83では、測光量の急変フラグをセットし、急変検出処理を一旦終了する。   The sudden change detection process illustrated in FIG. 10 is a process that is mainly performed by the exposure control unit 20 and detects a sudden change in brightness based on a change in the face image PF captured by the imaging unit 10. In S81 of the sudden change detection process, it is monitored from the average luminance of the face image PF whether or not the photometric amount has changed suddenly, and the process proceeds to S82. In S82, it is determined whether or not a sudden change in the photometric quantity is detected by monitoring in S81. If a sudden change in the photometric quantity is detected in S82, the process proceeds to S83. In S83, the sudden change flag of the photometric quantity is set, and the sudden change detection process is temporarily ended.

一方、S82にて、測光量の急変を検出していない場合、S84に進む。S84では、急変予測処理のS75にて設定されたタイマーの値に基づき、急変の待機状態がタイムアウトしたか否かを判定する。タイマーの値が所定値未満の場合、急変検出処理を一旦終了する。対して、タイマーの値が所定値以上の場合、タイムアウトと判定し、S85に進む。S85では、測光量の急変検出の待機を中止し、S86に進む。S86では、タイマーの終了処理を行い、急変検出処理を一旦終了する。   On the other hand, if a sudden change in the photometric quantity is not detected in S82, the process proceeds to S84. In S84, based on the timer value set in S75 of the sudden change prediction process, it is determined whether or not the sudden change standby state has timed out. If the timer value is less than the predetermined value, the sudden change detection process is temporarily terminated. On the other hand, if the value of the timer is equal to or greater than the predetermined value, it is determined that a timeout has occurred, and the process proceeds to S85. In S85, the standby for sudden change detection of the photometric quantity is stopped, and the process proceeds to S86. In S86, a timer termination process is performed, and the sudden change detection process is temporarily terminated.

ここまで説明した第一実施形態では、視線方向が顔画像PFから検出できないエラーの発生が記録される。そして、エラーの発生率に基づき、測光量に対して設定可能な露出値の範囲が学習される。このように、視線の方向検出での出力段におけるエラーの発生が、露出値の設定にフィードバックされれば、予め想定困難な要因によるエラーの発生は、視線操作装置100の使用を通じて徐々に低減され得る。以上によれば、視線操作装置100は、撮像部10における露出を適切な範囲内に制御できる。   In the first embodiment described so far, the occurrence of an error in which the line-of-sight direction cannot be detected from the face image PF is recorded. Based on the error occurrence rate, a range of exposure values that can be set for the photometric amount is learned. As described above, if the occurrence of an error in the output stage in the detection of the direction of the line of sight is fed back to the setting of the exposure value, the occurrence of an error due to a difficult factor to be assumed in advance is gradually reduced through the use of the line-of-sight operating device 100. obtain. Based on the above, the line-of-sight operating device 100 can control the exposure in the imaging unit 10 within an appropriate range.

加えて第一実施形態によれば、測光量の急変が予測された場合に、露出値は、こうした明るさの変化に対応する側に予めシフトされる。加えて、シフト後の露出値は、現在の測光量に対し設定可能とされた範囲内に収められている。以上によれば、露出値は、測光量の急変の前後において、エラーの頻発する範囲にはみ出ることなく、正常な範囲内に維持され得る。   In addition, according to the first embodiment, when a sudden change in the photometric quantity is predicted, the exposure value is shifted in advance to the side corresponding to such a change in brightness. In addition, the exposure value after the shift is within a range that can be set for the current photometric amount. According to the above, the exposure value can be maintained within a normal range before and after the sudden change in the photometric amount without protruding into a range where errors frequently occur.

また第一実施形態によれば、シフト後の露出値は、設定可否マップにて設定可能とされた露出値の範囲の上限又は下限の境界値に対して、余裕度を有している(図6参照)。故に、急変前に露出値がエラーの頻発する範囲にはみ出る事態は、抑制され得る。   Further, according to the first embodiment, the shifted exposure value has a margin with respect to the upper or lower boundary value of the exposure value range that can be set in the setting availability map (FIG. 6). Therefore, it is possible to suppress a situation in which the exposure value protrudes into a range where errors frequently occur before sudden change.

さらに第一実施形態では、制御対象範囲にて、測光量に応じて露出値を変化させる制御ゲインが通常値から加速制御用ゲインへと一時的に高められる。故に、トンネル等の通過に伴い、測光量が急変した場合でも、露出値は、エラーが頻発しないような範囲内に収まるように、急変した測光量に追従可能となる。   Furthermore, in the first embodiment, the control gain for changing the exposure value according to the photometric quantity is temporarily increased from the normal value to the acceleration control gain in the control target range. Therefore, even when the photometric quantity changes suddenly with passage through a tunnel or the like, the exposure value can follow the suddenly changed photometric quantity so that it falls within a range where errors do not occur frequently.

加えて第一実施形態によれば、一時的に高めた加速制御用ゲインに従う露出値が許可範囲外にはみ出した場合でも、露出設定部23は、許可範囲内に露出値を補正する。以上によれば、明るさの急変時に想定し得ない事態が生じた場合でも、エラーの頻発は、防止され得る。   In addition, according to the first embodiment, the exposure setting unit 23 corrects the exposure value within the permitted range even when the exposure value according to the acceleration control gain temporarily increased exceeds the permitted range. According to the above, even if a situation that cannot be assumed at the time of a sudden change in brightness occurs, frequent occurrence of errors can be prevented.

また第一実施形態のように、設定可否マップの形態で学習結果が保持されていれば、露出設定部23は、現在の測光量に対して、露出値を低負荷の処理で迅速に選択することが可能になる。故に、測光量に対する露出値の追従性が容易に向上可能となり、エラーの頻発は、いっそう低減され得る。   In addition, as in the first embodiment, if the learning result is held in the form of a setting availability map, the exposure setting unit 23 quickly selects an exposure value for the current photometric amount with low-load processing. It becomes possible. Therefore, the followability of the exposure value with respect to the photometric quantity can be easily improved, and the frequent occurrence of errors can be further reduced.

尚、第一実施形態では、操作者Uが「搭乗者」に相当し、露出評価部22が「測光量取得部」に相当し、幾何計算部35が「方向検出部」に相当する。また、マップ生成部38が「設定学習部」に相当し、ナビゲーション装置110が「操作対象機器」に相当し、視線操作装置100が「方向検出装置」及び「操作制御装置」に相当する。   In the first embodiment, the operator U corresponds to a “passenger”, the exposure evaluation unit 22 corresponds to a “photometric amount acquisition unit”, and the geometric calculation unit 35 corresponds to a “direction detection unit”. The map generation unit 38 corresponds to a “setting learning unit”, the navigation device 110 corresponds to an “operation target device”, and the line-of-sight operation device 100 corresponds to a “direction detection device” and an “operation control device”.

(第二実施形態)
図11に示す本開示の第二実施形態は、第一実施形態の変形例である。第二実施形態の露出制御部20(図1参照)では、測光量の急変検出に基づく制御ゲインの増量制御が省略されている。露出制御部20は、時刻1の直後にて、明るさ変化の先読みに基づき、露出オーバー側へ露出時間をシフトする一方で、時刻t2〜t3の制御対象範囲では、制御ゲインの通常値を使用して、測光量の増加に追従するよう露出時間をオーバー側に延長させる。同様に、露出制御部20は、時刻4の直後にて、明るさ変化の先読みに基づき、露出アンダー側へ露出時間をシフトする一方で、時刻t5〜t6の制御対象範囲では、制御ゲインの通常値を使用して、測光量に追従するよう露出時間をアンダー側に短縮させる。
(Second embodiment)
The second embodiment of the present disclosure shown in FIG. 11 is a modification of the first embodiment. In the exposure control unit 20 (see FIG. 1) of the second embodiment, control gain increase control based on detection of a sudden change in the photometric quantity is omitted. The exposure control unit 20 shifts the exposure time to the overexposure side immediately after time 1 based on the look-ahead of the brightness change, while using the normal value of the control gain in the control target range from time t2 to t3. Then, the exposure time is extended to the over side so as to follow the increase in the photometric quantity. Similarly, immediately after time 4, the exposure control unit 20 shifts the exposure time to the underexposure side based on the look-ahead of the brightness change, while the control gain range is normal in the control target range from time t5 to t6. Use the value to shorten the exposure time to the underside to follow the photometric quantity.

ここまで説明した第二実施形態では、露出シフトが実施される一方で、制御ゲインの増量は、実施されない。こうした第二実施形態でも、第一実施形態と同様に、方向検出でのエラーの発生は、設定可否マップとして学習され、露出値の設定にフィードバックされる。以上によれば、エラー傾向が高い露出設定が使用されなくなるため、撮像部10(図1参照)における露出は、視線方向が検出可能な範囲内に制御可能となる。尚、図11でも、実線がフィードバックを含む露出制御の推移であり、破線は、比較のためのフィードバックを行わない露出制御の推移である。   In the second embodiment described so far, while the exposure shift is performed, the increase of the control gain is not performed. Also in the second embodiment, as in the first embodiment, occurrence of an error in direction detection is learned as a setting availability map and fed back to the exposure value setting. According to the above, since the exposure setting with a high error tendency is not used, the exposure in the imaging unit 10 (see FIG. 1) can be controlled within a range in which the line-of-sight direction can be detected. In FIG. 11, the solid line represents the transition of exposure control including feedback, and the broken line represents the transition of exposure control without performing feedback for comparison.

(他の実施形態)
以上、本開示の複数の実施形態について説明したが、本開示は、上記実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
Although a plurality of embodiments of the present disclosure have been described above, the present disclosure is not construed as being limited to the above embodiments, and can be applied to various embodiments and combinations without departing from the gist of the present disclosure. can do.

上記第二実施形態の変形例1では、図12に示すように、制御ゲインの増量制御が省略される。こうした変形例1でも、方向検出でのエラーの発生は、設定可否マップとして学習され、露出値の設定にフィードバックされる。以上によれば、測光量の急変する時刻t1〜t2及び時刻t3〜t4の期間において、露出制御部は、露出アンダー及び露出オーバーを生じさせることなく、方向検出に適した顔画像を撮像可能な露出時間を設定し続けることができる。尚、図12でも、実線がフィードバックを含む露出制御の推移であり、破線は、比較のためのフィードバックを行わない露出制御の推移である。   In the first modification of the second embodiment, as shown in FIG. 12, the control gain increase control is omitted. Even in the first modification, the occurrence of an error in direction detection is learned as a setting availability map and fed back to the exposure value setting. As described above, the exposure control unit can capture a face image suitable for direction detection without causing underexposure and overexposure during the period from time t1 to t2 and time t3 to t4 when the photometric quantity changes suddenly. You can continue to set the exposure time. In FIG. 12, the solid line represents the transition of exposure control including feedback, and the broken line represents the transition of exposure control without feedback for comparison.

上記実施形態では、視線方向と顔向きの両方が検出されていた。しかし、視線操作装置によって検出される方向は、視線方向だけであってもよく、又は顔向きだけであってもよい。加えて、マップ生成部は、視線方向及び顔向きのそれぞれについての設定可否マップを生成してもよく、又は視線方向及び顔向きの両方の検出エラーに基づく一つの設定可否マップを生成してもよい。さらに、視線方向又は顔向きの検出エラーの情報は、設定可否マップとは異なる形態で学習されてもよい。例えば、視線方向又は顔向きの検出エラーに基づき、測光量に対し設定可能な露出値の許可範囲を規定する識別器(関数)が生成されてもよい。   In the embodiment, both the line-of-sight direction and the face direction are detected. However, the direction detected by the line-of-sight operating device may be only the line-of-sight direction or only the face direction. In addition, the map generation unit may generate a setting availability map for each of the gaze direction and the face orientation, or may generate one setting availability map based on detection errors for both the gaze direction and the face orientation. Good. Furthermore, the detection error information of the line-of-sight direction or the face direction may be learned in a form different from the setting availability map. For example, a discriminator (function) that defines a permissible range of exposure values that can be set for the photometric amount may be generated based on a detection error in the gaze direction or the face direction.

上記実施形態における測光量は、顔画像の平均輝度として計測されていた。しかし、露出制御部は、光量を計測する計測器から測光量の計測データを逐次取得し、取得した測光量の計測データに基づいて、露出値を設定してもよい。   The photometric quantity in the above embodiment is measured as the average luminance of the face image. However, the exposure control unit may sequentially acquire measurement data of the photometric quantity from a measuring instrument that measures the quantity of light, and set the exposure value based on the acquired measurement data of the photometric quantity.

上記実施形態では、本開示による露出制御を視線操作装置に適用した例を説明したが、上述の露出制御は、動作制御部を備えない方向検出装置に適用されてもよい。さらに、顔画像は、視線操作装置又は方向検出装置とは別体の撮像部によって撮像され、有線通信又は無線通信によって視線操作装置又は方向検出装置に送信されてもよい。また、視線操作装置での視線検出によって操作可能な操作対象機器は、ナビゲーション装置に限定されない。例えば、視線操作装置によって遠隔操作が可能な操作対象機器は、オーディオ装置、空調制御装置、及び車両に持ち込まれた通信端末等であってもよい。   In the above-described embodiment, an example in which the exposure control according to the present disclosure is applied to the line-of-sight operating device has been described. However, the above-described exposure control may be applied to a direction detection device that does not include an operation control unit. Furthermore, the face image may be captured by an imaging unit separate from the line-of-sight operating device or the direction detecting device, and transmitted to the line-of-sight operating device or the direction detecting device through wired communication or wireless communication. In addition, the operation target device that can be operated by the line-of-sight detection by the line-of-sight operation device is not limited to the navigation device. For example, the operation target device that can be remotely operated by the line-of-sight operation device may be an audio device, an air conditioning control device, and a communication terminal brought into the vehicle.

上記実施形態では、移動体としての車両に視線操作装置が搭載された例を説明した。しかし、移動体は、車両に限定されず、船舶、航空機、及び輸送機器等であってもよい。視線操作装置は、移動体に搭載された構成に限定されず、使用者によって移動体に持ち込まれる構成であってもよい。   In the above embodiment, an example in which the line-of-sight operating device is mounted on a vehicle as a moving body has been described. However, the moving body is not limited to a vehicle, and may be a ship, an aircraft, a transportation device, or the like. The line-of-sight operating device is not limited to the configuration mounted on the moving body, and may be configured to be brought into the moving body by the user.

PF 顔画像、U 操作者(搭乗者)、10 撮像部、22 露出評価部(測光量取得部)、23 露出設定部、35 幾何計算部(方向検出部)、36 エラー検知部、38 マップ生成部(設定学習部)、40 動作制御部、42 急変予測部、100 視線操作装置(方向検出装置,操作制御装置)、110 ナビゲーション装置(操作対象機器) PF face image, U operator (passenger), 10 imaging unit, 22 exposure evaluation unit (photometric amount acquisition unit), 23 exposure setting unit, 35 geometric calculation unit (direction detection unit), 36 error detection unit, 38 map generation Unit (setting learning unit), 40 operation control unit, 42 sudden change prediction unit, 100 gaze operation device (direction detection device, operation control device), 110 navigation device (operation target device)

Claims (7)

移動体に搭乗する搭乗者(U)の顔を撮影する撮像部(10)にて撮像される顔画像(PF)を用いて前記搭乗者の視線及び顔の少なくとも一方の方向を検出する方向検出装置であって、
前記搭乗者の周囲の明るさを示す測光量の情報を取得する測光量取得部(22)と、
前記測光量に基づき、前記撮像部にて用いられる露出値を設定し、前記撮像部における露出を制御する露出設定部(23)と、
前記顔画像から前記方向が検出できないエラーの状態を検知するエラー検知部(36)と、
前記エラーの発生を、前記測光量及び前記露出値と関連づけて記録し、記録した前記エラーの発生率に基づいて、前記測光量に対し設定可能な前記露出値の許可範囲を学習する設定学習部(38)と、を備え、
前記露出設定部は、前記測光量取得部にて取得された前記測光量に対し、前記設定学習部にて設定された前記許可範囲内の前記露出値を設定する方向検出装置。
Direction detection for detecting at least one of the line of sight of the passenger and the face using a face image (PF) imaged by an imaging unit (10) that captures the face of the passenger (U) boarding the moving body A device,
A photometric quantity acquisition unit (22) for acquiring photometric quantity information indicating brightness around the passenger;
An exposure setting unit (23) for setting an exposure value used in the imaging unit based on the photometric quantity and controlling the exposure in the imaging unit;
An error detection unit (36) for detecting an error state in which the direction cannot be detected from the face image;
A setting learning unit that records the occurrence of the error in association with the light measurement amount and the exposure value, and learns the allowable range of the exposure value that can be set for the light measurement amount based on the recorded error occurrence rate. (38)
The direction detection device, wherein the exposure setting unit sets the exposure value within the permission range set by the setting learning unit with respect to the photometric amount acquired by the photometric amount acquisition unit.
前記移動体の移動に伴う前記測光量の急変を予測する急変予測部(42)、をさらに備え、
前記露出設定部は、前記急変予測部にて前記測光量の急変が予測された場合に、前記測光量が急変する以前に、明るさの変化に対応する側への前記露出値のシフトを行い、
前記露出値のシフト後の値は、前記測光量取得部にて取得されている前記測光量に対し、前記設定学習部にて設定可能とされた範囲内の値である請求項1に記載の方向検出装置。
A sudden change prediction unit (42) for predicting a sudden change in the photometric quantity accompanying the movement of the moving body,
The exposure setting unit shifts the exposure value to the side corresponding to a change in brightness before the sudden change in the photometric amount when the sudden change in the photometric amount is predicted by the sudden change prediction unit. ,
The value after the shift of the exposure value is a value within a range that can be set by the setting learning unit with respect to the photometric amount acquired by the photometric amount acquisition unit. Direction detection device.
前記露出設定部は、前記設定学習部にて設定可能とされた範囲の境界値に対し余裕度のある値に、シフト後の前記露出値を設定する請求項2に記載の方向検出装置。   The direction detection device according to claim 2, wherein the exposure setting unit sets the shifted exposure value to a value having a margin with respect to a boundary value of a range that can be set by the setting learning unit. 前記露出設定部は、
前記測光量取得部にて取得される前記測光量の監視により、前記測光量の急変を検出し、
前記測光量の急変が生じている期間にて、前記測光量に応じて前記露出値を変化させる応答制御の制御ゲインを、前記測光量の急変が生じる以前よりも高める請求項1〜3のいずれか一項に記載の方向検出装置。
The exposure setting unit
By monitoring the photometric quantity acquired by the photometric quantity acquisition unit, a sudden change in the photometric quantity is detected,
4. The control gain of response control for changing the exposure value in accordance with the photometric amount during a period in which the sudden change in the photometric amount is higher than before the sudden change in the photometric amount. The direction detection device according to claim 1.
前記露出設定部は、
前記測光量の急変が生じている期間にて、補正された前記制御ゲインに従う前記露出値が、前記設定学習部にて設定された前記許可範囲内であるか否かを判定し、
前記露出値が前記許可範囲内から外れていた場合に、前記許可範囲内に収まるよう前記露出値を補正する請求項4に記載の方向検出装置。
The exposure setting unit
It is determined whether or not the exposure value according to the corrected control gain is within the permission range set by the setting learning unit during a period in which the abrupt change in the photometric amount occurs.
The direction detection device according to claim 4, wherein when the exposure value is out of the permitted range, the exposure value is corrected so as to be within the permitted range.
前記設定学習部は、互いに異なる値の前記測光量に対して、複数の前記露出値がそれぞれ設定可能か否かを規定した設定可否マップを生成し、
前記露出設定部は、前記測光量取得部にて取得されている前記測光量に対し、前記設定可否マップにて設定可能と規定された前記露出値を選択する請求項1〜5のいずれか一項に記載の方向検出装置。
The setting learning unit generates a setting availability map that defines whether or not a plurality of the exposure values can be set for each of the light metering amounts having different values.
The said exposure setting part selects the said exposure value prescribed | regulated that it can set with the said setting availability map with respect to the said photometric quantity acquired by the said photometric quantity acquisition part. The direction detection device according to item.
移動体に搭乗する搭乗者(U)によって操作可能な操作対象機器(110)と接続される操作制御装置であって、
前記搭乗者の顔を撮影する撮像部(10)にて撮像される顔画像(PF)を用いて、前記搭乗者の視線及び顔の少なくとも一方の方向を検出する方向検出部(35)と、
前記方向検出部にて検出された前記方向に基づき、前記操作対象機器の作動を制御する動作制御部(40)と、
前記搭乗者の周囲の明るさを示す測光量の情報を取得する測光量取得部(22)と、
前記測光量に基づき、前記撮像部にて用いられる露出値を設定し、前記撮像部における露出を制御する露出設定部(23)と、
前記顔画像から前記方向が検出できないエラーの状態を検知するエラー検知部(36)と、
前記エラーの発生を、前記測光量及び前記露出値と関連づけて記録し、記録した前記エラーの発生率に基づいて、前記測光量に対し設定可能な前記露出値の許可範囲を学習する設定学習部(38)と、を備え、
前記露出設定部は、前記測光量取得部にて取得された前記測光量に対し、前記設定学習部にて設定された前記許可範囲内の前記露出値を設定する操作制御装置。
An operation control device connected to an operation target device (110) operable by a passenger (U) who rides on a moving body,
A direction detection unit (35) for detecting at least one direction of the line of sight of the passenger and the face, using a face image (PF) imaged by an imaging unit (10) for imaging the face of the passenger;
An operation control unit (40) for controlling the operation of the operation target device based on the direction detected by the direction detection unit;
A photometric quantity acquisition unit (22) for acquiring photometric quantity information indicating brightness around the passenger;
An exposure setting unit (23) for setting an exposure value used in the imaging unit based on the photometric quantity and controlling the exposure in the imaging unit;
An error detection unit (36) for detecting an error state in which the direction cannot be detected from the face image;
A setting learning unit that records the occurrence of the error in association with the light measurement amount and the exposure value, and learns the allowable range of the exposure value that can be set for the light measurement amount based on the recorded error occurrence rate. (38)
The operation setting device, wherein the exposure setting unit sets the exposure value within the permission range set by the setting learning unit with respect to the light measurement obtained by the light measurement acquisition unit.
JP2017042059A 2017-03-06 2017-03-06 Direction detection device and operation control device Active JP6631561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017042059A JP6631561B2 (en) 2017-03-06 2017-03-06 Direction detection device and operation control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017042059A JP6631561B2 (en) 2017-03-06 2017-03-06 Direction detection device and operation control device

Publications (2)

Publication Number Publication Date
JP2018148423A true JP2018148423A (en) 2018-09-20
JP6631561B2 JP6631561B2 (en) 2020-01-15

Family

ID=63591697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017042059A Active JP6631561B2 (en) 2017-03-06 2017-03-06 Direction detection device and operation control device

Country Status (1)

Country Link
JP (1) JP6631561B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167842A (en) * 2003-12-04 2005-06-23 Denso Corp Exposure control apparatus for on-vehicle monitoring camera
JP2009116742A (en) * 2007-11-08 2009-05-28 Aisin Seiki Co Ltd Onboard image processor, image processing method, and program
JP2014207618A (en) * 2013-04-15 2014-10-30 リコーイメージング株式会社 Imaging apparatus, imaging method, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167842A (en) * 2003-12-04 2005-06-23 Denso Corp Exposure control apparatus for on-vehicle monitoring camera
JP2009116742A (en) * 2007-11-08 2009-05-28 Aisin Seiki Co Ltd Onboard image processor, image processing method, and program
JP2014207618A (en) * 2013-04-15 2014-10-30 リコーイメージング株式会社 Imaging apparatus, imaging method, and recording medium

Also Published As

Publication number Publication date
JP6631561B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
US9876950B2 (en) Image capturing apparatus, control method thereof, and storage medium
RU2453884C1 (en) Driver imaging device and method of driver imaging
CN101387732B (en) Imaging apparatus, imaging apparatus control method, and computer program
US8750699B2 (en) Image capture apparatus
JP5366028B2 (en) Face image capturing device
US20200169678A1 (en) Driver's eye position detecting device and method, imaging device having image sensor with rolling shutter driving system, and illumination control method thereof
US8265475B2 (en) Focus-point selection system, autofocus system, and camera
US20190204914A1 (en) Line of sight measurement device
TWI593578B (en) Vehicle and automatic adjusting system, automatic adjusting method using same
US20200221005A1 (en) Method and device for tracking photographing
US9762786B2 (en) Image pickup device, light projection device, beam light control method, and program
KR20130074764A (en) Mirror controller and computer readable storage medium
CN102681292B (en) Image pickup apparatus
WO2018163492A9 (en) Driving mode switching control device, method, and program
JP6631561B2 (en) Direction detection device and operation control device
US10904451B2 (en) Image pickup apparatus controlling flashes, and control method therefor
JP2018163322A5 (en)
US8964108B2 (en) Photographing and electronic apparatus using same based on light blocking analysis
CN113853548A (en) Dimming light that disturbs the viewer's vision
US20160100102A1 (en) Imaging Device and Water Droplet Adhesion Determining Method
JP2012011810A (en) Face image pickup apparatus for vehicle
CN110622064A (en) Control method, control device, imaging system, aircraft, and storage medium
US10440274B2 (en) Imaging apparatus capable of imaging with the use of an illumination apparatus including a flash unit capable of changing a radiation direction, control method for the same, and program
US11025813B2 (en) Control apparatus, image pickup apparatus, control method and memory medium
KR101456384B1 (en) Apparatus and the method for capturing a jump image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R151 Written notification of patent or utility model registration

Ref document number: 6631561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250