JP6513321B2 - 車両用撮像制御装置、ドライバモニタリング装置、及び、車両用撮像制御方法 - Google Patents

車両用撮像制御装置、ドライバモニタリング装置、及び、車両用撮像制御方法 Download PDF

Info

Publication number
JP6513321B2
JP6513321B2 JP2019502037A JP2019502037A JP6513321B2 JP 6513321 B2 JP6513321 B2 JP 6513321B2 JP 2019502037 A JP2019502037 A JP 2019502037A JP 2019502037 A JP2019502037 A JP 2019502037A JP 6513321 B2 JP6513321 B2 JP 6513321B2
Authority
JP
Japan
Prior art keywords
area
passenger
unit
vehicle
seat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019502037A
Other languages
English (en)
Other versions
JPWO2018158809A1 (ja
Inventor
和樹 國廣
和樹 國廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6513321B2 publication Critical patent/JP6513321B2/ja
Publication of JPWO2018158809A1 publication Critical patent/JPWO2018158809A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Exposure Control For Cameras (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、車両に搭載された撮像部を、制御の対象とする装置に関するものである。
撮像部が撮影した画像を画像処理することで、車両に搭乗している人を対象とした種々のモニタリング処理を行う装置が知られている。当該装置が有する搭乗者に対するモニタリングの処理モードとしては、例えば、運転席にいる搭乗者の状態判定、及び、搭乗者の個人認証等が挙げられる。その際、適切なモニタリング処理が行われるためには、撮像部が撮影した画像の中で、モニタリング処理に特に必要な領域が、適切に撮影されていることが望まれる。例えば、搭乗者に対する処理モードが、運転席にいる搭乗者の状態判定である場合は、運転席にいる搭乗者の顔が存在する領域が、モニタリング処理で特に必要な領域となる。この領域が適切に撮影されていないと、運転席にいる搭乗者の状態、例えば居眠り又は脇見等を適切に判定することは難しい。
例えば特許文献1には、取得した画像を分析して人物の顔領域を抽出し、抽出した顔領域の明るさが最適値となる補正量を算出し、当該補正量に基づいて画像の明るさを補正する画像処理方法が記載されている。
特開2004−153315号公報
車両の搭乗者を対象とした種々のモニタリング処理が行われる場合、搭乗者に対する処理モードの変化に伴って、モニタリング処理に必要な領域が変化する場合がある。例えば、運転席にいる搭乗者の顔が存在する領域のみが必要であった状況から、助手席にいる搭乗者の顔が存在する領域もまた必要となる場合等が考えられる。
しかしながら、特許文献1の画像処理方法では、このような処理モードの変化について想定がされていない。したがって、当該画像処理方法は、処理モードが変化する場合に、モニタリング処理で必要な領域が適切に写った画像を得ることができるものではなかった。
この発明は、上記のような課題を解決するためになされたもので、処理モードの変化に対応した露光制御ができる車両用撮像制御装置を得ることを目的とする。
この発明に係る車両用撮像制御装置は、車両に搭載された撮像部が出力した、運転席及び助手席を含む車両内部を撮影した画像情報を取得する画像取得部と、画像取得部が取得した画像情報を用いて、モニタリングの対象となる領域の輝度情報を検出する輝度検出部と、車両情報を取得する車両情報取得部と、車両情報取得部が取得した車両情報を用いて、搭乗者に対するモニタリングの処理モードとして、車両が走行中の場合は運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択し、車両が走行中ではない場合は運転席又は助手席にいる搭乗者を認証する個人認証モードを選択するモード選択部と、モニタリングの対象となる領域のうち、モード選択部が運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択した場合は当該搭乗者の顔が存在する領域を選択し、モード選択部が運転席又は助手席にいる搭乗者を認証する個人認証モードを選択した場合は当該搭乗者の顔が存在する領域を選択する領域選択部と、領域選択部が選択した領域の輝度情報を用いて、撮像部の露光条件を算出し、撮像部に算出した露光条件での撮影を指示する制御信号を出力する露光制御部とを備える。
露光制御部は、領域選択部が複数の領域を選択した場合、複数の領域の輝度情報を用いて、撮像部の露光条件を算出するものであり、領域選択部により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離はないと判定した場合には、領域選択部により選択された複数の領域の輝度情報の平均値が目標値となる露光条件を算出することを特徴とするものである。
この発明によれば、搭乗者に対する処理モードに対応する領域を選択し、選択した領域の輝度情報を用いて、露光条件を算出するので、処理モードの変化に対応した露光制御ができる。
この発明の実施の形態1に係る車両用撮像制御装置の構成を示すブロック図である。 この発明の実施の形態1に係る車両用撮像制御装置を搭載した車両の内部の様子を示す図である。 図2に示す車両内部の様子を撮影した際の画像である。 図4A及び図4Bは、この発明の実施の形態1に係る車両用撮像制御装置を備えるドライバモニタリング装置のハードウェア構成例を示す図である。 この発明の実施の形態1に係る車両用撮像制御装置の処理の一例を示すフローチャートである。 この発明の実施の形態1に係る車両用撮像制御装置の処理の一例を示すフローチャートであり、図5に続く処理を示す。 この発明の実施の形態1に係る車両用撮像制御装置の処理の一例を示すフローチャートであり、図6に続く処理を示す。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る車両用撮像制御装置の構成を示すブロック図である。図1では、実施の形態1に係る車両用撮像制御装置が、ドライバモニタリング装置1に内蔵された場合を示している。
ドライバモニタリング装置1は、車両に搭載されて、当該車両にいる搭乗者を対象とした種々のモニタリング処理を行うものである。ドライバモニタリング装置1は、撮像部2と、画像取得部3と、輝度検出部4と、車両情報取得部5と、モード選択部6と、領域選択部7と、露光制御部8と、画像処理部9とを有する。
図2は、車両内部の様子の一例を示す図である。撮像部2が、搭乗者A,Bの前方に設置されている。搭乗者Aは、ステアリング100が前方に設置された運転席にいて、車両を運転する。搭乗者Bは、運転席の隣の助手席にいる。CID(Center Information Display)101は、ナビゲーション機能及びAV(Audio Visual)機能等を有する装置(不図示)の入出力装置である。搭乗者A,Bは、CID101に対してタッチ操作を行い、目的地を入力したり、楽曲の再生を指示したりする。図2は、右ハンドル車の場合であり、左ハンドル車の場合は、図2に示す配置が左右反転する。
撮像部2は、運転席及び助手席を含む車両内部を撮影して、その画像情報を画像取得部3へ出力するカメラである。撮像部2は、露光制御部8が出力する制御信号によって、撮影時の露光条件が制御される。露光条件は、露光時間又はISO感度等のカメラパラメータである。なお、露光条件は、露光時間及びISO感度に限らず、露光に関するカメラパラメータであればよい。撮像部2は、運転席及び助手席を含む車両内部を撮影できる位置に設置される。その際、車両内部の全体等といったより広範囲を撮影できるように、その設置位置及び画角等が調整されてもよい。
画像取得部3は、撮像部2が出力した画像情報を取得し、その画像情報を輝度検出部4及び画像処理部9へ出力する。
図3は、撮像部2が出力する画像情報で示される画像の一例である。この画像は、図2に示す車両内部の様子を撮影したものに相当する。画像内には、運転席にいる搭乗者Aの顔が存在する領域T1、助手席にいる搭乗者Bの顔が存在する領域T2等が写っている。
輝度検出部4は、画像取得部3が取得して出力した画像情報を用いて、領域選択部7が選択したモニタリングの対象となる領域の輝度情報を検出する。
モニタリングの対象となる領域とは、少なくともその領域をモニタリングしておけば、画像処理部9による後述の各処理モードでの処理を行える領域を指す。例えば、画像処理部9が後述の運転者状態判定モード及び個人認証モードという2つの処理モードを有するものである場合、図3に示す領域T1及びT2はいずれも、モニタリングの対象となる領域と言える。モニタリングの対象となる領域の画像上での位置は、撮像部2の設置位置及び設置角度等に応じて決まるものであり、ドライバモニタリング装置1を設置するにあたり、不図示のメモリに記憶されている。または、輝度検出部4が、画像取得部3が出力した画像情報を用いて、搭乗者の顔の位置を抽出するなどして、モニタリングの対象となる領域を動的に算出してもよい。
輝度検出部4は、検出した輝度情報を露光制御部8に出力する。
車両情報取得部5は、不図示のECU(Electronic Control Unit)等から車両情報を取得する。車両情報は、車両の走行状態を含め車両に関する各種の情報であり、車速、シフトポジション、ブレーキ操作、イグニッションのON/OFF及びドアの開閉状態等が含まれる。車両情報取得部5は、取得した車両情報をモード選択部6へ出力する。
モード選択部6は、車両情報取得部5が取得して出力した車両情報を用いて、画像処理部9が有する搭乗者に対するモニタリングの処理モードの中から、いずれかの処理モードを選択する。モード選択部6は、選択結果を領域選択部7へ出力する。
領域選択部7は、モニタリングの対象となる領域のうち、モード選択部6が選択した処理モードに対応する領域を選択する。領域選択部7は、選択結果を輝度検出部4へ出力する。
露光制御部8は、輝度検出部4が検出した領域の輝度情報を用いて、撮像部2の露光条件を算出する。そして、露光制御部8は、撮像部2に算出した露光条件での撮影を指示する制御信号を出力する。
画像処理部9は、画像取得部3が取得して出力した画像情報を用いた画像処理を行い、搭乗者に対するモニタリング処理を行う。
モニタリングの処理モードとしては、例えば、運転席にいる搭乗者の状態を判定する、運転者状態判定モードが挙げられる。運転者状態判定モードは、運転席にいる搭乗者について、居眠り又は脇見検知、デッドマン検知(運転不能状態検知ともいう)、漫然状態検知、見落とし検知、安全確認検知、又は、異常行動検知等を行うモードである。
また他にも、例えば、運転席又は助手席にいる搭乗者の個人を認証する、個人認証モードが挙げられる。この個人認証モードでは、搭乗者が誰であるかが認証される。これにより、予め登録された人物でないと、車両の運転ができないようにする。なお、個人認証モードによる認証結果は、上記の用途以外にも利用されものであってよい。認証結果は、例えば、搭乗者に応じてCID101の表示内容を制御するために利用されてもよい。認証された搭乗者がナビゲーション機能を利用する際によく設定する目的地、また、認証された搭乗者がAV機能を利用する際によく再生する楽曲等が、CID101に選択項目として優先的に表示されるような制御が行われる。
画像処理部9は、状況に応じてモニタリングの処理モードを切り替える。画像処理部9は、例えば車両情報取得部5を介して車両情報を取得し、取得した車両情報に基づき処理モードを切り替える。画像処理部9は、車両の走行中は、運転者状態判定モードを実行し、それ以外のときは個人認証モードを実行する。
画像取得部3と、輝度検出部4と、車両情報取得部5と、モード選択部6と、領域選択部7と、露光制御部8とが、車両用撮像制御装置を構成する。
ここで、ドライバモニタリング装置1のハードウェア構成例について、図4A及び図4Bを用いて説明する。
ドライバモニタリング装置1の画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の各機能は、処理回路により実現される。当該処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。CPUは、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)とも呼ばれる。
図4Aは、ドライバモニタリング装置1の画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の各部の機能を、専用のハードウェアである処理回路200で実現した場合のハードウェア構成例を示す図である。処理回路200は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の各部の機能を別個の処理回路200を組み合わせて実現してもよいし、各部の機能を1つの処理回路200で実現してもよい。
処理回路200は、バス201を介して入力装置202と接続される。入力装置202は、撮像部2である。
図4Bは、ドライバモニタリング装置1の画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の各部の機能を、メモリ203に格納されるプログラムを実行するCPU204で実現した場合のハードウェア構成例を示す図である。この場合、画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組合せにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリ203に格納される。CPU204は、メモリ203に格納されたプログラムを読み出して実行することにより、画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の各部の機能を実現する。すなわち、ドライバモニタリング装置1は、後述する図5、図6及び図7のフローチャートで示すステップST1〜ステップST3、ステップST10〜ステップST13及びステップST20〜ステップST24が結果的に実行されることになるプログラム等を格納するためのメモリ203を有する。また、これらのプログラムは、画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の手順又は方法をコンピュータに実行させるものであるとも言える。ここで、メモリ203は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)等の、不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、ドライバモニタリング装置1の画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の各部の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6及び領域選択部7については専用のハードウェアとしての処理回路でその機能を実現し、露光制御部8及び画像処理部9については処理回路がメモリに格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組合せによって、上記の画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7、露光制御部8及び画像処理部9の各機能を実現することができる。
次に、上記のように構成された車両用撮像制御装置による処理について、図5、図6及び図7に示すフローチャートを用いてその一例を説明する。
なお、撮像部2は、画像取得部3へ画像情報を常時出力している。また、画像取得部3及び車両情報取得部5及び画像処理部9は、それぞれの処理を常時実行している。
図5は、モード選択部6による処理を示すフローチャートである。
モード選択部6は、車両情報取得部5が取得して出力した車両情報を用いて、車両が走行中であるかを判定する(ステップST1)。モード選択部6は、例えば車速を用いて、ステップST1の判定を行う。より具体的には、例えば車速が1km/h以上であれば、走行中であると判定される。
走行中であると判定した場合(ステップST1;YES)、モード選択部6は、運転者状態判定モードを、搭乗者に対するモニタリングの処理モードとして選択する(ステップST2)。
一方、走行中ではないと判定した場合(ステップST1;NO)、モード選択部6は、個人認証モードを、搭乗者に対するモニタリングの処理モードとして選択する(ステップST3)。
モード選択部6による選択結果は、領域選択部7へ出力される。
図6は、領域選択部7による処理を示すフローチャートである。
領域選択部7は、モード選択部6により、運転者状態判定モードが選択されたかを判定する(ステップST10)。
運転者状態判定モードが選択された場合(ステップST10;YES)、領域選択部7は、運転席にいる搭乗者の顔が存在する領域、図3であれば領域T1を選択する(ステップST11)。ステップST11の処理の後は、ステップST12の処理に移る。
一方、運転者状態判定モードが選択されていない場合(ステップST10;NO)、そのままステップST12の処理に移る。
続いて、領域選択部7は、モード選択部6により、個人認証モードが選択されたかを判定する(ステップST12)。
個人認証モードが選択された場合(ステップST12;YES)、領域選択部7は、運転席又は助手席にいる搭乗者の顔が存在する領域、図3であれば領域T1又はT2を選択する(ステップST13)。なお、運転席及び助手席に搭乗者がいる場合には、領域T1及びT2が選択され、助手席に搭乗者がいない場合には、領域T1のみが選択されるようにすることができる。各席に搭乗者がいるかいないかは、シートセンサを設け、当該シートセンサの検知結果を、車両情報取得部5が取得する車両情報に含めるようにして、ドライバモニタリング装置1にて判定可能である。ステップST13の処理が終わると、領域選択部7は処理を終える。
一方、個人認証モードが選択されていない場合(ステップST12;NO)、領域選択部7は処理を終える。
領域選択部7による選択結果は、輝度検出部4へ出力される。
図7は、輝度検出部4及び露光制御部8による処理を示すフローチャートである。図7では、領域選択部7により複数の領域が選択された場合を例に説明する。具体的には、個人認証モードで領域T1及びT2が選択された場合である。
輝度検出部4は、画像取得部3が取得して出力した画像情報を用いて、領域選択部7が選択したモニタリングの対象となる領域の輝度情報を検出する(ステップST20)。ここでは、領域の平均輝度を、当該領域の輝度情報として検出する。つまり、領域選択部7が選択したモニタリングの対象となる領域ごとに、平均輝度が検出される。検出した輝度情報は、露光制御部8に出力される。
続いて、露光制御部8は、輝度検出部4が検出した輝度情報を用いて、優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離があるかを判定する(ステップST21)。具体的には、優先領域の平均輝度と、優先領域以外の領域の平均輝度との差が、設定値以上であるかを判定する。
優先領域とは、領域選択部7により選択された領域の中で、最も優先度が高い領域を指す。個人認証モードでは、助手席よりも運転席にいる搭乗者の個人認証が重要となるので、運転席にいる搭乗者の顔が存在する領域を、優先領域とすることが考えられる。なお、このような基準に拘らず、領域の優先度は、適宜設定されてよい。例えば、運転席ではずっと同じ搭乗者が座っているものの、人の乗り降りにより助手席にいる搭乗者が頻繁に変わる場合は、助手席にいる搭乗者の顔が存在する領域を、優先領域とすることが考えられる。乗り降りの有無は、例えばシートセンサにより検知可能である。
輝度情報の乖離が設定値以上である場合(ステップST21;YES)、露光制御部8は、優先領域の輝度情報が目標値となる露光条件を算出する(ステップST22)。
目標値は、各処理モードでのモニタリング処理が適切に行える程度の値に設定される。なお、目標値は、ただ1つの値を指すのではなく、一定範囲内に含まれる値の全てを指していてもよい。つまり、モニタリング処理が適切に行える値の下限値から上限値までの全ての値を一括りに目標値としてよい。
一方、輝度情報の乖離が設定値未満である場合(ステップST21;NO)、露光制御部8は、領域選択部7が選択した複数の領域の輝度情報の平均値が目標値となる露光条件を算出する(ステップST23)。
例えば、優先領域が極端に明るく、それ以外の領域が極端に暗い場合は、優先領域及びそれ以外の領域をいずれも適切な明るさにすることは難しい。優先領域の明るさを抑えようとすれば、それ以外の領域は更に暗くなり、反対に、優先領域以外の領域の暗さを和らげようとすれば、優先領域は更に明るくなってしまうからである。そこで、ステップST21〜ST23のようにして、優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離がある場合は、優先領域以外の領域については輝度の調整を諦め、設定値以上の乖離が無い場合に、領域選択部7により選択された領域全てに対して、まんべんなく輝度の調整を行う。
つまり、ステップST21の判定で用いられる設定値は、領域選択部7により選択された領域全てで、輝度の改善が見込める程度の値以下に設定される。
続いて、露光制御部8は、算出した露光条件での撮影を指示する制御信号を撮像部2に出力する(ステップST24)。撮像部2は、受け取った制御信号に従い、露光条件を変更して、変更後の露光条件で撮影した画像情報を、画像取得部3に出力する。
なお、領域選択部7によって選択された領域が1つの場合は、その領域の輝度情報が目標値となるような露光条件が算出される。
図5、図6及び図7のフローチャートに示す処理は、ドライバモニタリング装置1への電源投入後、繰り返し行われる。
このようにして、露光制御部8は、撮像部2に対して、画像処理部9が行おうとしている処理モードに対応する領域が、適切な輝度となるような露光条件での撮影を、以後行わせる。
なお、上記では、車両用撮像制御装置がドライバモニタリング装置1に内蔵された場合を示した。しかしながら、車両用撮像制御装置を構成する画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7及び露光制御部8を外部サーバ内に構築して、当該外部サーバが撮像部2及び画像処理部9との間で情報を送受信することにより、撮像部2の露光制御を遠隔で行うようにしてもよい。また、その際、撮像部2及び画像処理部9と外部サーバとを、スマートフォン等の携帯端末を介して互いに通信可能に接続することで、撮像部2及び画像処理部9と外部サーバとの間で情報の送受信が行われるように構築してもよい。
また、画像取得部3、輝度検出部4、車両情報取得部5、モード選択部6、領域選択部7及び露光制御部8を携帯端末内に構築して、当該携帯端末を車両用撮像制御装置として機能させてもよい。
また、上記では、領域の平均輝度を当該領域の輝度情報としたが、輝度の最頻値又は輝度の中央値を領域の輝度情報としてもよい。
また、上記では、輝度検出部4は、領域選択部7による選択結果を取得して、選択された領域についてのみ輝度情報を検出し、露光制御部8に出力するものとした。しかしながら、輝度検出部4がモニタリングの対象となる全ての領域について輝度情報を検出して露光制御部8に出力し、その中から露光制御部8が領域選択部7によって選択された領域の輝度情報を抽出して処理に用いるようにしてもよい。つまり、図3を用いて説明すると、輝度検出部4は、領域T1及びT2の輝度情報を検出し、露光制御部8は、走行中であれば領域T1、走行中でなければ領域T1又はT2の輝度情報を抽出して、露光条件を算出する処理を行うようにしてもよい。なおこの場合は、領域選択部7による選択結果は、輝度検出部4に代えて露光制御部8へ出力される。
以上のように、この実施の形態1に係る車両用撮像制御装置によれば、モード選択部6は、車両情報を用いて処理モードを選択し、領域選択部7は、選択された処理モードに対応する領域を選択する。そして、露光制御部8は、選択された領域の輝度情報を用いて、撮像部2に設定すべき露光条件を算出する。露光制御部8は、撮像部2に対して、算出した露光条件での撮影を以後行わせる。このようにして、処理モードの変化に対応した露光制御ができる。
必要な領域が適切に撮影されることにより、画像処理部9によるモニタリング処理の精度が向上する。
また、撮像部2には、モニタリングの対象となる領域が全て撮影範囲に入るカメラを1台設けるだけでよい。つまり、撮像部2として複数のカメラを設け、モニタリングの対象となる領域と一対一に対応させる必要はない。必要なカメラの台数が減ることで、コストを抑えることができる。
また、露光制御部8は、領域選択部7が複数の領域を選択した場合、複数の領域の輝度情報を用いて、撮像部2の露光条件を算出することとした。このようにして、複数の領域が選択された場合は、それら複数の領域を考慮して露光条件が算出される。
また、露光制御部8は、領域選択部7により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離はないと判定した場合には、領域選択部7により選択された複数の領域の輝度情報の平均値が目標値となる露光条件を算出することとした。このようにして、複数の領域が選択された場合に、それらの領域が適切な輝度で撮影されるようにすることができる。
また、露光制御部8は、領域選択部7により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離があると判定した場合には、当該優先領域の輝度情報が目標値となる露光条件を算出することとした。このようにして、優先すべき領域は、適切な輝度で撮影されるようにすることができる。
また、車両用撮像制御装置と、撮像部2と、画像取得部3が取得した画像情報を用いて、搭乗者に対するモニタリング処理を行う画像処理部9とを、車両に搭載されたドライバモニタリング装置1に備えることとした。このように、車両に搭載されたドライバモニタリング装置1として使うことができる。
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
以上のように、この発明に係る車両用撮像制御装置は、処理モードの変化に対応した露光制御ができるので、撮像部を備えるドライバモニタリング装置に内蔵して、当該撮像部を制御する装置として用いるのに適している。
1 ドライバモニタリング装置、2 撮像部、3 画像取得部、4 輝度検出部、5 車両情報取得部、6 モード選択部、7 領域選択部、8 露光制御部、9 画像処理部、100 ステアリング、101 CID、200 処理回路、201 バス、202 入力装置、203 メモリ、204 CPU。

Claims (6)

  1. 車両に搭載された撮像部が出力した、運転席及び助手席を含む車両内部を撮影した画像情報を取得する画像取得部と、
    前記画像取得部が取得した画像情報を用いて、モニタリングの対象となる領域の輝度情報を検出する輝度検出部と、
    車両情報を取得する車両情報取得部と、
    前記車両情報取得部が取得した車両情報を用いて、搭乗者に対するモニタリングの処理モードとして、車両が走行中の場合は運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択し、車両が走行中ではない場合は運転席又は助手席にいる搭乗者を認証する個人認証モードを選択するモード選択部と、
    モニタリングの対象となる領域のうち、前記モード選択部が運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択した場合は当該搭乗者の顔が存在する領域を選択し、前記モード選択部が運転席又は助手席にいる搭乗者を認証する個人認証モードを選択した場合は当該搭乗者の顔が存在する領域を選択する領域選択部と、
    前記領域選択部が選択した領域の輝度情報を用いて、前記撮像部の露光条件を算出し、前記撮像部に算出した露光条件での撮影を指示する制御信号を出力する露光制御部とを備え
    前記露光制御部は、前記領域選択部が複数の領域を選択した場合、前記複数の領域の輝度情報を用いて、前記撮像部の露光条件を算出するものであり、
    前記領域選択部により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離はないと判定した場合には、前記領域選択部により選択された複数の領域の輝度情報の平均値が目標値となる露光条件を算出することを特徴とする車両用撮像制御装置。
  2. 車両に搭載された撮像部が出力した、運転席及び助手席を含む車両内部を撮影した画像情報を取得する画像取得部と、
    前記画像取得部が取得した画像情報を用いて、モニタリングの対象となる領域の輝度情報を検出する輝度検出部と、
    車両情報を取得する車両情報取得部と、
    前記車両情報取得部が取得した車両情報を用いて、搭乗者に対するモニタリングの処理モードとして、車両が走行中の場合は運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択し、車両が走行中ではない場合は運転席又は助手席にいる搭乗者を認証する個人認証モードを選択するモード選択部と、
    モニタリングの対象となる領域のうち、前記モード選択部が運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択した場合は当該搭乗者の顔が存在する領域を選択し、前記モード選択部が運転席又は助手席にいる搭乗者を認証する個人認証モードを選択した場合は当該搭乗者の顔が存在する領域を選択する領域選択部と、
    前記領域選択部が選択した領域の輝度情報を用いて、前記撮像部の露光条件を算出し、前記撮像部に算出した露光条件での撮影を指示する制御信号を出力する露光制御部とを備え
    前記露光制御部は、前記領域選択部が複数の領域を選択した場合、前記複数の領域の輝度情報を用いて、前記撮像部の露光条件を算出するものであり、
    前記領域選択部により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離があると判定した場合には、当該優先領域の輝度情報が目標値となる露光条件を算出することを特徴とする車両用撮像制御装置。
  3. 車両に搭載された撮像部が出力した、運転席及び助手席を含む車両内部を撮影した画像情報を取得する画像取得部と、
    前記画像取得部が取得した画像情報を用いて、モニタリングの対象となる領域の輝度情報を検出する輝度検出部と、
    車両情報を取得する車両情報取得部と、
    前記車両情報取得部が取得した車両情報を用いて、搭乗者に対するモニタリングの処理モードとして、車両が走行中の場合は運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択し、車両が走行中ではない場合は運転席又は助手席にいる搭乗者を認証する個人認証モードを選択するモード選択部と、
    モニタリングの対象となる領域のうち、前記モード選択部が運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択した場合は当該搭乗者の顔が存在する領域を選択し、前記モード選択部が運転席又は助手席にいる搭乗者を認証する個人認証モードを選択した場合は当該搭乗者の顔が存在する領域を選択する領域選択部と、
    前記領域選択部が選択した領域の輝度情報を用いて、前記撮像部の露光条件を算出し、前記撮像部に算出した露光条件での撮影を指示する制御信号を出力する露光制御部とを備え
    前記露光制御部は、前記領域選択部が複数の領域を選択した場合、前記複数の領域の輝度情報を用いて、前記撮像部の露光条件を算出するものであり、
    前記領域選択部により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離はないと判定した場合には、前記領域選択部により選択された複数の領域の輝度情報の平均値が目標値となる露光条件を算出し、
    前記領域選択部により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離があると判定した場合には、当該優先領域の輝度情報が目標値となる露光条件を算出することを特徴とする車両用撮像制御装置。
  4. 請求項1から請求項3のうちの何れか1項に記載の車両用撮像制御装置と、
    前記撮像部と、
    前記画像取得部が取得した画像情報を用いて、搭乗者に対するモニタリング処理を行う画像処理部とを備えることを特徴とする、車両に搭載されたドライバモニタリング装置。
  5. 画像取得部が、車両に搭載された撮像部が出力した、運転席及び助手席を含む車両内部を撮影した画像情報を取得する画像取得ステップと、
    輝度検出部が、前記画像取得ステップにより取得された画像情報を用いて、モニタリングの対象となる領域の輝度情報を検出する輝度検出ステップと、
    車両情報取得部が、車両情報を取得する車両情報取得ステップと、
    モード選択部が、前記車両情報取得ステップにより取得された車両情報を用いて、搭乗者に対するモニタリングの処理モードとして、車両が走行中の場合は運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択し、車両が走行中ではない場合は運転席又は助手席にいる搭乗者を認識する個人認証モードを選択するモード選択ステップと、
    領域選択部が、モニタリングの対象となる領域のうち、前記モード選択ステップにより運転席にいる搭乗者の状態を判定する運転者状態判定モードが選択された場合は当該搭乗者の顔が存在する領域を選択し、前記モード選択ステップにより運転席又は助手席にいる搭乗者を認証する個人認証モードが選択された場合は当該搭乗者の顔が存在する領域を選択する領域選択ステップと、
    露光制御部が、前記領域選択ステップにより選択された領域の輝度情報を用いて、前記撮像部の露光条件を算出し、前記撮像部に算出した露光条件での撮影を指示する制御信号を出力する露光制御ステップとを備え
    前記露光制御部は、前記領域選択部が複数の領域を選択した場合、前記複数の領域の輝度情報を用いて、前記撮像部の露光条件を算出するものであり、
    前記領域選択部により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離はないと判定した場合には、前記領域選択部により選択された複数の領域の輝度情報の平均値が目標値となる露光条件を算出することを特徴とする車両用撮像制御方法。
  6. 画像取得部が、車両に搭載された撮像部が出力した、運転席及び助手席を含む車両内部を撮影した画像情報を取得する画像取得ステップと、
    輝度検出部が、前記画像取得ステップにより取得された画像情報を用いて、モニタリングの対象となる領域の輝度情報を検出する輝度検出ステップと、
    車両情報取得部が、車両情報を取得する車両情報取得ステップと、
    モード選択部が、前記車両情報取得ステップにより取得された車両情報を用いて、搭乗者に対するモニタリングの処理モードとして、車両が走行中の場合は運転席にいる搭乗者の状態を判定する運転者状態判定モードを選択し、車両が走行中ではない場合は運転席又は助手席にいる搭乗者を認識する個人認証モードを選択するモード選択ステップと、
    領域選択部が、モニタリングの対象となる領域のうち、前記モード選択ステップにより運転席にいる搭乗者の状態を判定する運転者状態判定モードが選択された場合は当該搭乗者の顔が存在する領域を選択し、前記モード選択ステップにより運転席又は助手席にいる搭乗者を認証する個人認証モードが選択された場合は当該搭乗者の顔が存在する領域を選択する領域選択ステップと、
    露光制御部が、前記領域選択ステップにより選択された領域の輝度情報を用いて、前記撮像部の露光条件を算出し、前記撮像部に算出した露光条件での撮影を指示する制御信号を出力する露光制御ステップとを備え
    前記露光制御部は、前記領域選択部が複数の領域を選択した場合、前記複数の領域の輝度情報を用いて、前記撮像部の露光条件を算出するものであり、
    前記領域選択部により選択された複数の領域の中で、最も優先度が高い領域である優先領域とそれ以外の領域との間に設定値以上の輝度情報の乖離があると判定した場合には、当該優先領域の輝度情報が目標値となる露光条件を算出することを特徴とする車両用撮像制御方法。
JP2019502037A 2017-02-28 2017-02-28 車両用撮像制御装置、ドライバモニタリング装置、及び、車両用撮像制御方法 Active JP6513321B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/007726 WO2018158809A1 (ja) 2017-02-28 2017-02-28 車両用撮像制御装置、ドライバモニタリング装置、及び、車両用撮像制御方法

Publications (2)

Publication Number Publication Date
JP6513321B2 true JP6513321B2 (ja) 2019-05-15
JPWO2018158809A1 JPWO2018158809A1 (ja) 2019-06-27

Family

ID=63370708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019502037A Active JP6513321B2 (ja) 2017-02-28 2017-02-28 車両用撮像制御装置、ドライバモニタリング装置、及び、車両用撮像制御方法

Country Status (5)

Country Link
US (1) US10735664B2 (ja)
JP (1) JP6513321B2 (ja)
CN (1) CN110326289B (ja)
DE (1) DE112017006801B4 (ja)
WO (1) WO2018158809A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11538257B2 (en) * 2017-12-08 2022-12-27 Gatekeeper Inc. Detection, counting and identification of occupants in vehicles
JP6698963B2 (ja) * 2018-02-19 2020-05-27 三菱電機株式会社 搭乗者状態検出装置、搭乗者状態検出システム及び搭乗者状態検出方法
US20190367038A1 (en) * 2018-06-04 2019-12-05 Sharp Kabushiki Kaisha Driver monitoring device
US10867193B1 (en) 2019-07-10 2020-12-15 Gatekeeper Security, Inc. Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection
US11196965B2 (en) 2019-10-25 2021-12-07 Gatekeeper Security, Inc. Image artifact mitigation in scanners for entry control systems
JP2022102494A (ja) 2020-12-25 2022-07-07 スズキ株式会社 乗員監視装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4178017B2 (ja) * 2002-10-28 2008-11-12 富士フイルム株式会社 画像処理方法及びデジタルカメラ
JP4380412B2 (ja) * 2004-05-10 2009-12-09 株式会社デンソー 撮像制御装置及びプログラム
JP2009206811A (ja) * 2008-02-27 2009-09-10 Funai Electric Co Ltd 撮像装置
CN102044144B (zh) * 2009-10-21 2012-10-03 厦门雅迅网络股份有限公司 一种出租车车载通信终端及其数据处理方法
CN202014332U (zh) * 2010-12-28 2011-10-19 公信电子股份有限公司 车载网络结合车内情境监控系统
JP2013123180A (ja) 2011-12-12 2013-06-20 Denso Corp モニタリング装置
JP5505434B2 (ja) * 2012-02-09 2014-05-28 株式会社デンソー 脇見判定装置
US20140306799A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle Intruder Alert Detection and Indication
JP2014235410A (ja) 2013-06-05 2014-12-15 株式会社デンソー 撮像制御装置
US9881221B2 (en) * 2013-10-24 2018-01-30 Conduent Business Services, Llc Method and system for estimating gaze direction of vehicle drivers
CN104240440A (zh) * 2014-10-10 2014-12-24 江阴延利汽车饰件股份有限公司 一种出租车人员实时监控方法
JP6237725B2 (ja) * 2015-07-27 2017-11-29 トヨタ自動車株式会社 乗員情報取得装置及び車両制御システム
JP6641916B2 (ja) * 2015-11-20 2020-02-05 オムロン株式会社 自動運転支援装置、自動運転支援システム、自動運転支援方法および自動運転支援プログラム
CN105329204A (zh) * 2015-12-02 2016-02-17 赵立 一种识别车乘人员是否系安全带的监控系统及方法
CN105640516A (zh) * 2016-01-02 2016-06-08 无锡桑尼安科技有限公司 一种出租车驾驶员状态自动预警方法
US10318831B2 (en) * 2016-07-21 2019-06-11 Gestigon Gmbh Method and system for monitoring the status of the driver of a vehicle
WO2018117631A1 (en) * 2016-12-21 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and method of operating the same

Also Published As

Publication number Publication date
US10735664B2 (en) 2020-08-04
CN110326289A (zh) 2019-10-11
JPWO2018158809A1 (ja) 2019-06-27
DE112017006801B4 (de) 2020-10-22
WO2018158809A1 (ja) 2018-09-07
CN110326289B (zh) 2020-09-01
DE112017006801T5 (de) 2019-10-10
US20190373157A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP6513321B2 (ja) 車両用撮像制御装置、ドライバモニタリング装置、及び、車両用撮像制御方法
US20120002052A1 (en) Obstacle detection apparatus, obstacle detection system having same, and obstacle detection method
JP6969254B2 (ja) 画像処理装置及びプログラム
US11327478B2 (en) Program for operating vehicle from outside vehicle
WO2016104166A1 (ja) 撮像システム
JP2005199814A (ja) 車載アプリケーション選択システム及び車載アプリケーション選択装置
EP3560770A1 (en) Occupant information determination apparatus
JP4757932B2 (ja) 車両用撮像装置の露出制御装置及び露出制御方法
JP5924227B2 (ja) 車載カメラの取り付け誤差検出装置
KR20170079045A (ko) 차량용 사용자 인터페이스 제공 방법 및 장치
JP2018147329A (ja) 画像処理装置、画像処理システム、及び画像処理方法
WO2016121406A1 (ja) 画像処理装置、画像処理システム、車両、撮像装置、および画像処理方法
JP2023030736A (ja) カメラ制御装置、カメラ制御プログラム、および、ドライバモニタリングシステム
JP7238868B2 (ja) ドライバ支援システム
JP2009159568A (ja) 異常検出装置および方法、並びに、プログラム
US20210383566A1 (en) Line-of-sight detection apparatus and line-of-sight detection method
WO2019220557A1 (ja) 車両用画像処理装置および画像処理方法
JPWO2020129146A1 (ja) 表示制御装置及び表示制御方法
JP7483060B2 (ja) 手検出装置、ジェスチャー認識装置および手検出方法
WO2021240668A1 (ja) ジェスチャ検出装置およびジェスチャ検出方法
JP7051014B2 (ja) 顔検出処理装置および顔検出処理方法
US20240174248A1 (en) Vehicle warning apparatus
JP7258262B2 (ja) 調整装置、調整システム、表示装置、乗員監視装置、および、調整方法
JP6706896B2 (ja) 操作者判定装置
KR20140120650A (ko) 차량용 제스처 인식 시스템 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190115

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190409

R150 Certificate of patent or registration of utility model

Ref document number: 6513321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250