JPWO2018116373A1 - 画像認証装置、画像認証方法および自動車 - Google Patents

画像認証装置、画像認証方法および自動車 Download PDF

Info

Publication number
JPWO2018116373A1
JPWO2018116373A1 JP2018557266A JP2018557266A JPWO2018116373A1 JP WO2018116373 A1 JPWO2018116373 A1 JP WO2018116373A1 JP 2018557266 A JP2018557266 A JP 2018557266A JP 2018557266 A JP2018557266 A JP 2018557266A JP WO2018116373 A1 JPWO2018116373 A1 JP WO2018116373A1
Authority
JP
Japan
Prior art keywords
face
vehicle
authentication
area
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018557266A
Other languages
English (en)
Other versions
JP6807951B2 (ja
Inventor
太郎 熊谷
太郎 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018116373A1 publication Critical patent/JPWO2018116373A1/ja
Application granted granted Critical
Publication of JP6807951B2 publication Critical patent/JP6807951B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

検出された顔領域が、車両の前方乗車席に着座する乗員を認証するために設定された領域内に位置しているか否か判定を行う領域判定部(3)と、顔領域が設定された領域内に位置していると判定された場合に、検出された人物の顔の要素の撮像画像における位置情報に基づいて、人物の顔の向きを検出する顔向き検出部(4)と、検出された人物の顔の向きが、車両の前方乗車席に着座する乗員を認証するために設定された顔向きの範囲内であるか否か判定を行う顔向き判定部(5)と、人物の顔の向きが設定された顔向きの範囲内であると判定した場合に、顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、顔領域が検出された人物の認証を行う認証処理部(6)とを備える。

Description

この発明は、車両に搭載され、車両の乗員を認証する技術に関するものである。
車両の運転席に着座している乗員、または運転席および助手席に着座している乗員を撮像し、撮像画像を用いて例えば乗員の顔認証を行い、認証された乗員に適したサービスを提供するシステムが存在する。
運転席に着座している乗員の顔認証を行うシステムとして、例えば特許文献1には車両の運転席に対する着座を着座センサにて検知した場合、車両のドアが施錠された場合、車両のドアが閉じられた場合、車両の運転席のシートベルトが装着された場合、車両が走行開始した場合、または、車両が停止した場合等のトリガが発生した場合に、車内カメラが運転者の顔の撮像画像を取得し、取得した撮像画像を運転者の顔認証に用いる運転者特定システムが開示されている。
また、特許文献1の運転者特定システムにおいて運転席および助手席に着座している乗員の顔認証を行う場合には、運転席の乗員を撮像する車内カメラと、助手席の乗員を撮像する車内カメラの複数の車内カメラを用意する、または運転席および助手席を撮像することができる1台の広角のカメラを用いて運転席の乗員および助手席の乗員を撮像している。
特開2015−71319号公報
上述した特許文献1に開示された技術では、着座センサの検知等のトリガが発生した後に乗員の顔の撮像画像を取得するため、運転席および助手席に着座している乗員をそれぞれ異なるカメラで撮像する場合には、乗員以外の人物の画像の認証を行ってしまう誤認証の発生は少ない。しかし、上述した特許文献1に開示された技術において、1台のカメラで運転席の乗員および助手席の乗員を撮像すると、撮像画像に後部座席に着座している乗員、または車両の外側の窓付近にいる人物が映り込み、映り込んだ乗員または人物の画像に基づいた認証を行ってしまい、誤認証が発生するというという課題があった。
この発明は、上記のような課題を解決するためになされたもので、運転席および助手席に着座する乗員を同時に撮像可能な撮像範囲を撮像した撮像画像において、認証の対象となる乗員以外の人物に対して認証処理が行われる誤認証の発生を抑制することを目的とする。
この発明に係る車載画像認証装置は、車両の運転席および助手席に着座する乗員を同時に撮像可能な撮像範囲を撮像した撮像画像から、人物の顔が位置する顔領域を検出する顔検出部と、顔検出部が検出した顔領域の撮像画像から、人物の顔の要素を検出する顔要素検出部と、顔検出部が検出した顔領域が、運転席および助手席に着座する乗員を認証するために設定された領域内に位置しているか否か判定を行う領域判定部と、領域判定部が、顔領域が設定された領域内に位置していると判定した場合に、顔要素検出部が検出した人物の顔の要素の撮像画像における位置情報に基づいて、人物の顔の向きを検出する顔向き検出部と、顔向き検出部が検出した人物の顔の向きが、運転席および助手席に着座する乗員を認証するために設定された顔向きの範囲内であるか否か判定を行う顔向き判定部と、顔向き判定部が、人物の顔の向きが設定された顔向きの範囲内であると判定した場合に、顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、顔領域が検出された人物の認証を行う認証処理部とを備えるものである。
この発明によれば、運転席および助手席に着座する乗員を同時に撮像可能な撮像範囲を撮像した撮像画像において、認証の対象となる乗員以外の人物に対して認証処理が行われる誤認証の発生を抑制することができる。
実施の形態1に係る車載画像認証装置の構成を示すブロック図である。 実施の形態1に係る車載画像認証装置を搭載した車両内部を上方から見た図である。 図3A、図3Bは、実施の形態1による車載画像認証装置のハードウェア構成例を示す図である。 実施の形態1に係る車載画像認証装置を搭載した車両の車室内を前方から見た図であり、領域判定部に設定された領域を示す図である。 図5A、図5Bは、車載画像認証装置の顔向き判定部に設定された角度範囲の一例を示す図である。 実施の形態1に係る車載画像認証装置の動作を示すフローチャートである。 実施の形態1に係る車載画像認証装置のその他の構成を示すブロック図である。 実施の形態1に係る車載画像認証装置のその他の動作を示すフローチャートである。 実施の形態2に係る車載画像認証装置の構成を示すブロック図である。 実施の形態2に係る車載画像認証装置の動作を示すフローチャートである。 実施の形態3に係る車載画像認証装置の構成を示すブロック図である。 実施の形態3に係る車載画像認証装置の動作を示すフローチャートである。 実施の形態4に係る車載画像認証装置の構成を示すブロック図である。 実施の形態4に係る車載画像認証装置の動作を示すフローチャートである。 実施の形態5に係る車載画像認証装置の構成を示すブロック図である。 実施の形態5に係る車載画像認証装置の動作を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る車載画像認証装置100の構成を示すブロック図である。
車載画像認証装置100は、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6を備える。また、車載画像認証装置100は、カメラ200、記憶装置300および制御装置400と接続されている。
図1で示した構成以外にも、カメラ200および記憶装置300の少なくとも一方を車載画像認証装置100が備えるように構成してもよい。
図2は、車載画像認証装置100を搭載した車両500内部を上方から見た図である。
カメラ200は、例えば広角カメラ等で構成され、少なくとも運転席501および助手席502に着座する乗員503,504を同時に撮像可能な位置に配置される。カメラ200が撮像した撮像画像は、車載画像認証装置100の顔検出部1に入力される。図2の例では、カメラ200の撮像範囲を、領域Aで示している。領域A内には、運転席501および助手席502に着座する乗員503,504に加えて、認証の対象でない人物X、Yが存在する。以下では、車載画像認証装置100が人物X,Yの撮像画像を用いて、人物X,Yの認証を行ってしまうのを抑制する構成について説明する。
顔検出部1は、カメラ200から入力された撮像画像の解析を行い、人の顔が撮像された領域(以下、顔領域と記載する)と、当該顔領域の撮像画像の特徴情報とを検出する。顔検出部1は、撮像画像上に顔領域を囲む矩形を設定し、設定した矩形の各頂点の座標値を取得する。顔検出部1が取得する座標値は、撮像画像における座標値である。顔検出部1は、取得した顔領域の撮像画像の特徴情報および座標値を顔要素検出部2および認証処理部6に出力する。顔検出部1は、取得した顔領域の座標値を領域判定部3に出力する。ここで、撮像画像の特徴情報とは、例えば、顔の大きさを正規化した上での、目、鼻、口、頬の部分のコントラスト値などである。
顔要素検出部2は、顔検出部1から入力された顔領域内で、人の顔を構成する要素(以下、顔要素と記載する)を検出する。顔要素とは、例えば、目、鼻、口、耳および髪型等である。顔要素検出部2は、顔検出部1から入力された顔領域の座標値から、検出した顔要素が撮像された領域の座標値を取得する。顔要素検出部2が取得する座標値も、撮像画像における座標値である。顔要素検出部2は、各顔要素が描画された領域全体の座標値を取得してもよいし、各要素が描画された領域の輪郭の座標値のみを取得してもよい。顔要素検出部2は、検出した顔要素の座標値を顔向き検出部4に出力する。
領域判定部3は、顔検出部1から入力された顔領域の座標値が、車両の前方乗車席に着座する乗員を認証するために予め設定された領域内に位置しているか否か判定を行う。ここで、車両の前方乗車席とは、車両の運転席および助手席のうちの少なくともいずれか一方である。領域判定部3は、車両の運転席または助手席のどちらに着座しているとしている人物であっても認証可能なように、領域判定を行う。
領域判定部3は、運転席に着座する乗員を認証するために設定された領域の座標値、および助手席に着座する乗員を認証するために設定された領域の座標値を、バッファまたは記憶領域(図示せず)に格納している。
領域判定部3は、顔領域の座標値が予め設定された領域内に位置していないと判定した場合、顔要素検出部2に対して検出処理の停止を指示する。
領域判定部3は、顔領域の座標値が予め設定された領域内に位置していると判定した場合、当該判定結果を顔向き検出部4に出力する。領域判定部3に予め設定された領域の詳細については後述する。
顔向き検出部4は、領域判定部3から顔領域の座標値が予め設定された領域内に位置しているとの判定結果が入力されると、顔要素検出部2から入力された顔要素の座標値に基づいて、顔の向きを検出する。顔向き検出部4の検出処理の詳細は後述する。顔向き検出部4は、検出した顔の向きを顔向き判定部5に出力する。
顔向き判定部5は、顔向き検出部4が検出した顔の向きが、車両の前方乗車席に着座する乗員を認証するために予め設定された角度範囲内であるか否か判定を行う。顔向き判定部5は、運転席に着座する乗員を認証するために設定された角度範囲、および助手席に着座する乗員を認証するために設定された角度範囲を、バッファまたは記憶領域(図示せず)に予め格納している。顔向き判定部5は、顔向きが予め設定された角度範囲内であると判定した場合、判定結果を認証処理部6に出力する。顔向き判定部5に予め設定された角度範囲の詳細については後述する。
認証処理部6は、顔向き判定部5から顔向きが予め設定された角度範囲内であるとの判定結果が入力されると、顔検出部1から入力された顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証を行う。認証処理部6は、認証結果を制御装置400に出力する。認証処理部6は、顔領域の撮像画像が撮像された人物を認証した場合、例えば、当該人物に予め割り当てられたIDを記憶装置300から取得し、取得したIDを認証結果として制御装置400に出力する。
一方、認証処理部6は、顔領域の撮像画像が撮像された人物を認証できなかった場合、例えば当該人物が記憶装置300に登録されていないことを示す情報を認証結果として制御装置400に出力する。
記憶装置300は、車載画像認証装置100を搭載した車両のユーザの顔の特徴情報が登録されている。車両のユーザとは、当該車両を運転する可能性のある乗員、および助手席に着座する可能性のある乗員が含まれるものとする。記憶装置300に登録される顔の特徴情報は、カメラ200を用いて事前に撮像された画像の特徴情報、またはその他の撮像手段を用いて事前に撮像された画像の特徴情報である。また、記憶装置300は、各ユーザの顔の特徴情報を、各ユーザを特定する情報、例えばIDと関連付けて記憶する。顔の特徴情報に関連付けて記憶する情報は、種々設定可能である。
制御装置400は、車載画像認証装置100が搭載された車両を制御する装置である。制御装置400は、例えば運転席および助手席の座席シートの位置および傾きを調整する制御装置、音響装置を制御する制御装置等である。制御装置400は、認証処理部6から入力される認証結果に基づいて、認証された乗員に適した制御、例えばユーザの好みの座席シートの位置および傾き、ユーザの好みの音響条件等の制御を行う。
次に、車載画像認証装置100のハードウェア構成例を説明する。
図3A、図3Bは、実施の形態1による車載画像認証装置100のハードウェア構成例を示す図である。
車載画像認証装置100における、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6は、図3Aに示すように専用のハードウェアである処理回路100aであってもよいし、図3Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
図3Aに示すように、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6が専用のハードウェアである場合、処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit),FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図3Bに示すように、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6がプロセッサ100bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6の各機能を実現する。即ち、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6は、プロセッサ100bにより実行されるときに、後述する図6に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、車載画像認証装置100における処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、領域判定部3に乗員を認証するために予め設定された領域の詳細について図4を参照して説明する。
図4は、実施の形態1に係る車載画像認証装置100を搭載した車両の車室内を前方から見た図であり、領域判定部3に設定された領域を示す図である。
図4では、車両500内の運転席501および助手席502に乗員503,504が着座した場合を想定し、乗員503,504を点線で示している。
運転席501の外側に第1のピラー505および助手席502の外側に第2のピラー506が位置している。矩形領域507は、運転席501に着座する乗員を認証するために、領域判定部3に設定される領域である。矩形領域508は、助手席502に着座する乗員を認証するために、領域判定部3に設定される領域である。矩形領域507,508は、車外に位置する人物Xおよび車両500の後部座席に着座する人物Yの誤認証を抑制するように設定される。
また、図4では、矩形領域が設定される場合を例に示したが、設定される領域は矩形に限定されるものではない。
矩形領域507は、運転席501のヘッドレスト501aの周囲に設定される。矩形領域507の車室内の天井側の位置は、運転席501のヘッドレスト501aの上部から車室内の天井側に所定の距離(例えば15cm程度)離間させた位置に設定される。矩形領域507の車外側の位置は、運転席501の背もたれ501bの側面から車外側に所定の距離(例えば、20cm程度)離間させた位置に設定される。矩形領域507の助手席502側の位置は、運転席501の背もたれ501bの側面から助手席502側に所定の距離(例えば、10cm程度)離間させた位置に設定される。
同様に、矩形領域508は、助手席502のヘッドレスト502aの周囲に設定される。矩形領域508の車室内の天井側の位置は、助手席502のヘッドレスト502aの上部から車室内の天井側に所定の距離(例えば15cm程度)離間させた位置に設定される。矩形領域508の車外側の位置は、助手席502の背もたれ502bの側面から車外側に所定の距離(例えば、20cm程度)離間させた位置に設定される。矩形領域508の運転席501側の位置は、助手席502の背もたれ502bの側面から運転席501側に所定の距離(例えば、10cm程度)離間させた位置に設定される。
ヘッドレスト501a,502aから車室内の天井側の距離、および背もたれ501b,502bから所定の距離は、車外の人物および後部座席の人物の顔が領域内に入らないように適宜設定される値である。なお、上述した矩形領域507および矩形領域508の設定は一例であり、車両500外の人物および車両500の後部座席の人物の顔を誤認証するのを抑制することができる設定であれば適宜適用可能である。
次に、顔向き判定部5に乗員を認証するために予め設定された角度範囲の詳細について説明する。
図5Aおよび図5Bは、車載画像認証装置100の顔向き判定部5に設定された角度範囲の一例を示す図である。
顔向き判定部5に設定された角度範囲には、車両の車幅方向の角度範囲と、車両の高さ方向の角度範囲がある。
図5Aは、実施の形態1に係る車載画像認証装置100を搭載した車両の車室内を上方から見た図であり、顔向き判定部5に設定された車両の車幅方向の角度範囲を示す図である。図5Bは実施の形態1に係る車載画像認証装置100を搭載した車両に着座した人物を横方向から見た図であり、顔向き判定部5に設定された車両の高さ方向の角度範囲を示す図である。
まず、図5Aを参照して顔向き判定部5に設定された車両の車幅方向の角度範囲について説明する。
運転席501に着座する乗員503に対して設定された車両の車幅方向の角度範囲は、直線509aおよび直線509bで挟まれた領域Bで示した範囲である。直線509aは、乗員503の左右の目の中心位置503aと前方の第3のピラー510を結んだ直線509cを、車両500の外側にθa°(例えば、10°または20°等)広げた直線である。直線509bは、乗員503の左右の目の中心位置503aとカメラ200のレンズの中心を結んだ直線509dを、助手席502側にθb°(例えば、10°または20°等)広げた直線である。なお、直線509c,509dは、乗員503の左右の目の中心位置503aを中心としてθa°,θb°広げている。
同様に、助手席502に着座する乗員504に対して設定された車両の車幅方向の角度範囲は、直線511aおよび直線511bで挟まれた領域Cで示した範囲である。直線511aは、乗員504の左右の目の中心位置504aと助手席502前方の第4のピラー512を結んだ直線511cを、車両500の外側にθc°(例えば、10°または20°等)広げた直線である。直線511bは、乗員504の左右の目の中心位置504aとカメラ200のレンズの中心を結んだ直線511dを、運転席501側にθd°(例えば、10°または20°等)広げた直線である。なお、直線511c,511dは、乗員504の左右の目の中心位置504aを中心としてθc°,θd°広げている。
次に、図5Bを参照して顔向き判定部5に設定された車両の高さ方向の角度範囲について説明する。
運転席501に着座する乗員503および助手席502に着座する乗員504に対して設定された角度範囲は、図5Bの領域Dで示した範囲である。領域Dは、乗員504,504の眉間と鼻の頭頂部の中間点を通り、車両500が走行する道路に対して水平な直線503b,504bを中心として、車両500の天井側にθe°、車両500の底部側にθf°の範囲である。
乗員503が、領域B且つ領域D内を視認している場合、顔向き判定部5は、乗員503の顔向きが乗員を認証するために予め設定された角度範囲内であると判定する。同様に、乗員504が、領域C且つ領域D内を視認している場合、顔向き判定部5は、乗員504の顔向きが乗員を認証するために予め設定された角度範囲内であると判定する。
次に、車載画像認証装置100の動作について説明する。
図6は、実施の形態1に係る車載画像認証装置100の動作を示すフローチャートである。
顔検出部1は、カメラ200から入力された撮像画像を解析し、顔領域の検出処理を行う(ステップST1)。顔検出部1は、顔領域を検出しなかった場合(ステップST1;NO)、ステップST1の検出処理を繰り返す。一方、顔検出部1は、顔領域を検出した場合(ステップST1;YES)、検出した顔領域を囲む矩形領域の各頂点の座標値を取得する(ステップST2)。
顔要素検出部2は、ステップST1で検出された顔領域の撮像画像から顔要素を検出する(ステップST3)。ステップST3では、例えば、顔要素検出部2が予め設定された顔要素(例えば、目、鼻、口および耳)を、予め設定された順に検出する。顔要素検出部2は、ステップST3で検出した顔要素の座標値を取得する(ステップST4)。顔要素検出部2は、後述するステップST5の判定処理が行われている間、上述したステップST3およびステップST4の処理を繰り返し行っているものとする。顔要素検出部2は、得られた顔要素の座標値をバッファ(図示せず)等に一時格納している。
領域判定部3は、ステップST2で取得された座標値を頂点とする矩形領域が、車両の前方乗車席に着座する乗員を認証するために予め設定された領域内に位置しているか否か判定を行う(ステップST5)。顔領域を囲む矩形領域が車両の前方乗車席に着座する乗員を認証するために予め設定された領域内に位置していない場合(ステップST5;NO)、顔要素検出部2に対して検出処理の停止を指示し(ステップST6)、ステップST1の処理に戻る。
一方、顔領域を囲む矩形領域が車両の前方乗車席に着座する乗員を認証するために設定された領域内に位置している場合(ステップST5;YES)、顔向き検出部4は、ステップST3およびステップST4の処理により検出および取得された顔要素の座標値の位置関係および時系列的な変化に基づいて、顔領域の撮像画像が撮像された人物の顔向きを検出する(ステップST7)。
顔向き判定部5は、ステップST7で検出された顔向きが、車両の前方乗車席に着座する乗員を認証するために設定された角度範囲内であるか否か判定を行う(ステップST8)。顔向きが設定された角度範囲内でない場合(ステップST8;NO)、ステップST1の処理に戻る。
一方、顔向きが設定された角度範囲内である場合(ステップST8;YES)、認証処理部6は、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う(ステップST9)。認証処理部6は、ステップST9の認証結果を制御装置400に出力し(ステップST10)、処理を終了する。
カメラ200が、図4および図5で示したように、運転席と助手席の間に配置され、運転席に着座する乗員と助手席に着座する乗員それぞれの認証を行う場合には、顔検出部1が複数の顔領域を検出する場合もある。
以上のように、この実施の形態1によれば、車両の運転席および助手席に着座する乗員を撮像可能な撮像範囲を撮像した撮像画像から、人物の顔が位置する顔領域と、当該顔領域の特徴情報とを検出する顔検出部1と、検出された顔領域の撮像画像を解析し、人物の顔の要素を検出する顔要素検出部2と、検出された顔領域が、車両の前方乗車席に着座する乗員を認証するために設定された領域内に位置しているか否か判定を行う領域判定部3と、検出された人物の顔の要素の撮像画像における位置情報に基づいて、人物の顔の向きを算出する顔向き検出部4と、算出された人物の顔の向きが、車両の前方乗車席に着座する乗員を認証するために設定された顔向きの範囲内であるか否か判定を行う顔向き判定部5と、設定された顔向きの範囲内であると判定した場合に、顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、顔領域が検出された人物の認証を行う認証処理部6とを備えるように構成したので、認証対象である人物以外が映り込んだ撮像画像であっても、認証対象である人物の顔画像を抽出して認証を行うことができる。これにより、車載のカメラが1台であっても、運転席に着座する乗員および助手席に着座する乗員を認証することができる。さらに、認証に適していない位置に存在する人物に対して認証処理が実行されるのを防止することができる。
上述した実施の形態1では、顔向き判定部5が人物の顔の向きが、車両の前方乗車席に着座する乗員を認証するために設定された顔向きの範囲内であるか否か判定を行い、設定された顔向きの範囲内であると判定した場合に、認証処理部6が、顔領域が検出された人物の認証を行う構成を示した。認証処理部6は、上述した人物の顔の向きに加えて、例えば人物の目が開いているか否かに基づいて、顔領域が検出された人物の認証を行うように構成することも可能である。人物の顔の向きに加えて、人物の目が開いているか否かに基づいて人物の認証を行う車載画像認証装置100の構成を図7に示している。
図7は、実施の形態1に係る車載画像認証装置100のその他の構成を示すブロック図である。
図7では、図1で示した車載画像認証装置100の顔向き判定部5に開眼判定部5aを追加して構成した例を示している。以下では、上述した車載画像認証装置100の構成要素と同一または相当する部分には、図1で使用した符号と同一の符号を付して説明を省略または簡略化する。
顔要素検出部2は、顔検出部1から入力された顔領域内で、顔要素として、目、鼻、口、耳および髪型に加えて、例えば目じり、上瞼および下瞼を検出する。顔要素検出部2は、検出した顔要素の座標値を顔向き検出部4および開眼判定部5aに出力する。
顔向き判定部5は、顔向き検出部4が検出した顔の向きが、車両の前方乗車席に着座する乗員を認証するために予め設定された角度範囲内であるか否か判定を行う。顔向き判定部5は、顔向きが予め設定された角度範囲内であると判定した場合、開眼判定部5aは、顔要素検出部2から入力された顔要素の座標値に基づいて、人物の目が開いているか否かの判定を行う。具体的には、開眼判定部5aは、目、目じり、上瞼および下瞼等の目に関する座標値を用いて、人物の目が開いているか否かの判定を行う。例えば、開眼判定部5aは、上瞼と下瞼の座標値の差が閾値以上であった場合に、人物の目が開いていると判定する。顔向き判定部5は、顔向きの判定結果と目が開いているか否かの判定結果とを認証処理部6に出力する。
認証処理部6は、顔向き判定部5から顔向きが予め設定された角度範囲内であり、且つ開眼判定部5aから人物の目が開いているとの判定結果が入力されると、顔検出部1から入力された顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証を行う。認証処理部6は、認証結果を制御装置400に出力する。
次に、人物の顔の向きに加えて、人物の目が開いているか否かの判定を行う、車載画像認証装置100の動作について説明する。
図8は、実施の形態1に係る車載画像認証装置100のその他の動作を示すフローチャートである。なお、以下では上述した車載画像認証装置100と同一のステップには図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST8において、顔向きが設定された角度範囲内であると判定された場合(ステップST8;YES)、開眼判定部5aは、人物の目が開いているか否か判定を行う(ステップST8a)。人物の目が開いていない場合(ステップST8a;NO)、ステップST1の処理に戻る。一方、人物の目が開いている場合(ステップST8a;YES)、認証処理部6は、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う(ステップST9)。認証処理部6は、ステップST9の認証結果を制御装置400に出力し(ステップST10)、処理を終了する。
このように、顔要素検出部2が検出した人物の顔の要素の撮像画像における位置情報に基づいて、例えば人物の目が開いているか否か判定を行う開眼判定部5aを備え、認証処理部6は、人物の顔の向きが設定された顔向きの範囲内であり、且つ開眼判定部5aが人物の目が開いていると判定した場合に、人物の認証を行うように構成したので、認証に適さない位置に存在する人物、または目を閉じている人物に対して認証処理が実行されるのを防止することができる。
実施の形態2.
この実施の形態2では、顔領域の撮像画像が撮像された人物が認証されるまで、複数回認証処理を繰り返す構成を示す。
図9は、実施の形態2に係る車載画像認証装置100Aの構成を示すブロック図である。
実施の形態2に係る車載画像認証装置100Aは、実施の形態1で示した車載画像認証装置100の認証処理部6に終了判定部6aを追加して構成している。
以下では、実施の形態1に係る車載画像認証装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
終了判定部6aは、認証処理部6が顔領域の撮像画像が撮像された人物を、認証しなかった場合に、規定の回数、または規定の期間、認証処理を繰り返したか判定を行う。終了判定部6aは、例えば認証処理部6が行った照合処理の回数をカウントし、カウントした回数をバッファ等の一時格納領域(図示せず)に格納する。終了判定部6aは、格納した回数が規定の回数未満である場合には、認証処理を繰り返すように顔検出部1に指示する。
また、終了判定部6aは、例えば車両500からシフト位置情報を取得し、シフト位置が停止位置(P)から停止位置(P以外)へ移動したか判定を行ってもよい。終了判定部6aは、車両500のシフト位置が停止位置(P以外)へ移動するまで期間、認証処理を繰り返すように顔検出部1に指示する。
また、終了判定部6aは、例えば車両500から車速情報を取得し、車両500の車速が1km/h以上になったか判定を行ってもよい。終了判定部6aは、車両500の車速が1km/h以上となるまで期間、認証処理を繰り返すように顔検出部1に指示する。
次に、車載画像認証装置100Aの動作について説明する。
図10は、実施の形態2に係る車載画像認証装置100Aの動作を示すフローチャートである。なお、図10のフローチャートでは、終了判定部6aが照合処理の回数に基づいて判定する場合を示している。
なお、以下では実施の形態1に係る車載画像認証装置100と同一のステップには図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST9において、認証処理部6が認証処理を行うと、終了判定部6aは顔領域の撮像画像が撮像された人物が認証されたか否か判定を行う(ステップST11)。顔領域の撮像画像が撮像された人物の認証がされたと判定した場合(ステップST11;YES)、ステップST10の処理に進む。
一方、顔領域の撮像画像が撮像された人物の認証がされていないと判定した場合(ステップST11;NO)、終了判定部6aは照合回数に「1」加算し(ステップST12)、加算後の照合回数が規定の回数以上であるか否か判定を行う(ステップST13)。認証回数が規定の回数未満であった場合(ステップST13;NO)、終了判定部6aは顔検出部1に対して再度認証処理を行うように指示する(ステップST14)。一方、認証回数が規定の回数以上であった場合(ステップST13;YES),ステップST10の処理に進む。
以上のように、この実施の形態2によれば、認証処理部6が、顔領域が検出された人物を認証できなかった場合に、認証処理部6の認証回数または認証時間が規定の回数または規定の時間に到達したか否か判定を行い、到達していない場合に、顔検出部1に対して再度、顔領域の検出を指示する終了判定部6aを備えるように構成したので、人物を撮像したタイミングが適切でなかった場合に、再度適切なタイミングで撮像された撮像画像の認証処理を実行することができる。具体的には、車両500に人物が乗り込む際に、顔に髪の毛がかかり撮像画像から人物を認証することができなかった場合に、再度新たな撮像画像に基づいて認証処理を実行することができる。これにより、記憶装置300に登録されたユーザであるにも関わらず、認証されないとの不具合を抑制することができる。
実施の形態3.
この実施の形態3では、検出された顔向きに基づいて認証処理部6の照合閾値を変化させる構成を示す。
図11は、実施の形態3に係る車載画像認証装置100Bの構成を示すブロック図である。
実施の形態3に係る車載画像認証装置100Bは、実施の形態1で示した車載画像認証装置100に照合閾値決定部7を追加して構成している。
以下では、実施の形態1に係る車載画像認証装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
認証処理部6が、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合する場合、記憶装置300に登録された際の顔の向きと、顔領域の撮像画像の顔の向きが近い状態であれば、一致度を高く算出する。一方、認証処理部6は、記憶装置300に登録された際の顔の向きと、顔領域の撮像画像の顔の向きが異なる場合には、一致度を低く算出する。認証処理部6は、算出した一致度が照合閾値以上であるか否かに基づいて認証を行う。そのため、認証処理部6は、顔領域の撮像画像の顔向きによって、同一人物でも認証する場合と、認証しない場合がある。
そこで、照合閾値決定部7は、顔領域の撮像画像の顔向きに応じて、認証処理部6が認証を行う際の照合閾値を決定する。
まず、記憶装置300は、各ユーザの顔の特徴情報を、各ユーザを特定する情報および認証用の撮像画像の顔向きを示す情報と関連付けて記憶しているものとする。
照合閾値決定部7は、顔向き判定部5から顔向きが予め設定された角度範囲内であるとの判定結果が入力されると、記憶装置300から照合に用いる認証用の撮像画像の特徴情報と、顔向きを示す情報を取得する。照合閾値決定部7は、認証用の撮像画像の顔向きと、顔向き判定部5において予め設定された角度範囲内であると判定された顔領域の撮像画像の顔向きとを比較する。照合閾値決定部7は、認証用の撮像画像の顔向きと、顔領域の撮像画像の顔向きの角度が近いほど、照合閾値を規定値よりも高く設定する。一方、照合閾値決定部7は、認証用の撮像画像の顔向きと、顔領域の撮像画像の顔向きの角度が離れるほど、照合閾値を規定値よりも低く設定する。
認証処理部6は、照合閾値決定部7が設定した照合閾値に基づいて、顔検出部1から入力される顔領域の撮像画像の特徴情報と、照合閾値決定部7が記憶装置300から取得した認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う。
照合閾値決定部7は、顔向き以外の条件に基づいて、照合閾値を決定してもよい。例えば、照合閾値決定部7は、顔領域の撮像画像における座標値と、記憶装置300に登録された認証用の撮像画像での顔領域の座標値との関係に基づいて、照合閾値を決定する。具体的に、照合閾値決定部7は、画像における顔領域の位置に基づいて照合閾値を決定してもよい。顔領域の位置が撮像画像の端である場合には、顔を横方向から撮像する可能性があるため、照合閾値決定部7は照合閾値を規定値よりも低く設定する。
次に、車載画像認証装置100Bの動作について説明する。
図12は、実施の形態3に係る車載画像認証装置100Bの動作を示すフローチャートである。なお、以下では実施の形態1に係る車載画像認証装置100と同一のステップには図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
また、図12のフローチャートでは、照合閾値決定部7が顔領域の撮像画像の顔向きに基づいて照合閾値を決定する場合を示している。
ステップST8において、顔向きが設定された角度範囲内であると判定された場合(ステップST8;YES)、照合閾値決定部7は記憶装置300から認証用の撮像画像の特徴情報と当該認証用の撮像画像の顔向きを示す情報を取得する(ステップST21)。照合閾値決定部7は、ステップST21で取得した認証用の撮像画像の顔向きと、顔向き検出部4が検出した顔向きとを比較して、照合閾値を決定する(ステップST22)。なお、照合閾値決定部7は、顔向き検出部4が検出した顔向きを顔向き判定部5を介して取得する。
認証処理部6は、ステップST22で決定された照合閾値に基づいて、顔検出部1から入力される顔領域の撮像画像の特徴情報と、ステップST21で取得された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う(ステップST9a)。認証処理部6は、ステップST9aの認証結果を制御装置400に出力し(ステップST10)、処理を終了する。
以上のように、この実施の形態3によれば、顔領域の撮像画像における位置、および顔向き検出部4が検出した人物の顔の向きの少なくとも1つに基づいて、照合閾値を決定する照合閾値決定部7を備え、認証処理部6は、顔検出部1が検出した顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、照合結果が照合閾値以上であるか否かに基づいて人物の認証を行うように構成したので、認証処理を行う際の撮像画像における位置および顔向きの条件を緩和することができる。さらに、認証処理を行う際の撮像画像における位置および顔向きが、認証用の撮像画像と異なる場合にも、認証性能を向上させることができる。
なお、上述した実施の形態3では、認証用の撮像画像毎に認証用の顔向きが蓄積されている場合を例に示したが、認証用の撮像画像が予め設定された顔向き角度で撮像される場合には、当該顔向き角度を記憶装置300に登録すればよい。また、予め設定された顔向き角度で撮像される場合、当該顔向き角度を照合閾値決定部7が保持するように構成してもよい。
なお、上述した実施の形態3では、実施の形態1で示した車載画像認証装置100の認証処理部6に照合閾値決定部7を追加する構成を示したが、実施の形態2で示した車載画像認証装置100Aの認証処理部6にさらに照合閾値決定部7を追加してもよい。
実施の形態4.
この実施の形態4では、ある車両状態の検知をトリガとして認証処理を開始する構成を示す。
図13は、実施の形態4に係る車載画像認証装置100Cの構成を示すブロック図である。
実施の形態4に係る車載画像認証装置100Cは、実施の形態1で示した車載画像認証装置100に車両情報取得部8および車両状態判定部9を追加して構成している。
以下では、実施の形態1に係る車載画像認証装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
車両情報取得部8は、例えば車両センサ、ナビゲーション装置およびGPS受信機(図示せず)等から、車両情報を取得する。車両情報は、例えば、ドアの開錠および施錠を示す情報、ドアの開閉を示す情報、シートベルトの着脱を示す情報、イグニッションのON/OFF状態を示す情報、人感センサのON/OFF状態を示す情報、シフトレバーの位置を示す情報、車両速度を示す情報、ナビゲーション装置の案内状態を示す情報および自車両の位置情報等である。車両情報取得部8は、これらの車両情報のうちの少なくともいずれか1つを取得し、車両状態判定部9に出力する。
車両状態判定部9は、車両情報取得部8が取得した車両情報を参照し、車両状態が乗員を認証するために予め設定された状態になったことを検知した場合に、顔検出部1に対して撮像画像から顔検出の処理を行うように指示する。
上述した車両情報の例では、車両状態判定部9は、ドアの開錠、ドアのオープン、シートベルトの装着、イグニッションのON、人感センサのON、シフトレバーがドライブの位置に移動、車両速度が0km/hを超えた、ナビゲーション装置が案内を開始した、自車両が自宅を出発した等のいずれかを検知した場合に、顔検出部1に対して撮像画像から顔検出の処理を行うように指示する。
次に、車載画像認証装置100Cのハードウェア構成例を説明する。なお、実施の形態4の車載画像認証装置100Cのハードウェア構成例を示す図は、実施の形態1で示した図3Aおよび図3Bと同一であることから、図示を省略する。また、実施の形態1と同一の構成の説明も省略する。
車載画像認証装置100Cにおける車両情報取得部8および車両状態判定部9は、図3Aに示すように専用のハードウェアである処理回路100aであってもよいし、図3Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
また、図3Bに示すように、車両情報取得部8および車両状態判定部9がプロセッサ100bである場合、車両情報取得部8および車両状態判定部9の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、車両情報取得部8および車両状態判定部9の機能を実現する。即ち、車両情報取得部8および車両状態判定部9は、プロセッサ100bにより実行されるときに、後述する図14に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、車両情報取得部8および車両状態判定部9の手順または方法をコンピュータに実行させるものであるともいえる。
なお、車両情報取得部8および車両状態判定部9の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、車載画像認証装置100Cにおける処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、車載画像認証装置100Cの動作について説明する。
図14は、実施の形態4に係る車載画像認証装置100Cの動作を示すフローチャートである。
車両状態判定部9は、車両情報取得部8が取得した車両情報を参照し、車両状態が予め設定した状態になったか否か判定を行う(ステップST31)。車両状態が予め設定した状態になっていない場合(ステップST31;NO)、車両状態判定部9はステップST31の処理を繰り返す。一方、車両状態が予め設定した状態になった場合(ステップST31;YES)、車両状態判定部9は顔検出部1に対して顔領域の検出処理を指示する(ステップST32)。その後、車載画像認証装置100Cは、ステップST1からステップST10の処理を行う。
なお、上記では、領域判定部3に設定された領域は、予め設定されているとして説明を行ったが、当該領域判定部3に設定された領域は固定された領域であってもよいし、車両状態判定部9が参照する車両情報の種別に応じて設定される領域であってもよい。
例えば、車両状態判定部9が、ドアのオープンを検知した場合をトリガとして認証処理を開始させる場合と、シートベルトの装着を検知した場合をトリガとして認証処理を開始させる場合とで、領域判定部3に設定される領域を変化させる。
車両状態判定部9がドアのオープンの検知をトリガとする場合、領域判定部3に設定される領域は、運転席側ドアおよび助手席側ドア寄りに設定される。一方、車両状態判定部9がシートベルト装着の検知をトリガとする場合、領域判定部3に設定される領域は、運転席および助手席のヘッドレスト近傍に設定される。
領域判定部3は、車両状態判定部9がトリガとする車両状態に応じた設定領域を予め蓄積しておき、車両状態判定部9から入力される判定結果に応じた設定領域を読み出す。または、車両状態判定部9が、車両状態に応じた設定領域を蓄積しておき、判定結果に応じた設定領域を領域判定部3に対して設定してもよい。
領域判定部3が判定に用いる領域を車両状態に応じて設定することにより、常に認証処理に適した位置において顔領域が存在するか否かの判定処理を行うことができる。
以上のように、この実施の形態4によれば、車両の車両情報を参照し、車両の車両状態が車両の前方乗車席に着座する乗員を認証するために設定された状態になったと判定した場合に、顔検出部1に対して顔領域の検出を指示する車両状態判定部9を備えるように構成したので、認証対象である人物以外が映り込んだ撮像画像であっても、設定された車両状態になった時に認証対象である人物の顔画像を抽出して認証を行うことができ、認証に適していない位置に存在する人物に対して認証処理が実行されるのを防止することができる。これにより、車載のカメラが1台であっても、車両の前方乗車席に着座する乗員を認証することができる。
また、この実施の形態4によれば、領域判定部3に設定される車両の前方乗車席に着座する乗員を認証するための領域は、固定された領域、車両状態判定部9が参照する車両情報の種別に応じて設定される領域であるように構成したので、認証処理に適した位置において顔領域が存在するか否かの判定処理を行うことができる。
なお、上述した実施の形態4では、実施の形態1で示した車載画像認証装置100に車両情報取得部8および車両状態判定部9を追加する構成を示したが、実施の形態2で示した車載画像認証装置100Aに車両情報取得部8および車両状態判定部9を追加して構成してもよい。
実施の形態5.
この実施の形態5では、車両情報に基づいて、認証処理の照合閾値を設定する構成を示す。
図15は、実施の形態5に係る車載画像認証装置100Dの構成を示すブロック図である。
実施の形態5に係る車載画像認証装置100Dは、実施の形態1で示した車載画像認証装置100に車両情報取得部8および車両状態判定部9を追加し、さらに認証処理部6に照合閾値決定部7aを追加して構成している。
以下では、実施の形態1、実施の形態3および実施の形態4に係る車載画像認証装置100,100B,100Cの構成要素と同一または相当する部分には、実施の形態1、実施の形態3および実施の形態4で使用した符号と同一の符号を付して説明を省略または簡略化する。
車両状態判定部9は、車両情報取得部8から入力された車両の位置情報を参照し、車両が予め設定された特定の地点に位置していることを検知した場合に、検知したことを当該地点の位置情報と共に認証処理部6の照合閾値決定部7aに通知する。
記憶装置300は、各ユーザの顔の特徴情報と、各ユーザを特定する情報(例えば、ID)と、特定の地点の位置情報とを関連付けて記憶している。
照合閾値決定部7aは、顔向き判定部5から顔向きが予め設定された角度範囲内であるとの判定結果が入力されると、記憶装置300を参照し、車両状態判定部9から通知された位置情報と一致する位置情報が付されたユーザを探索する。照合閾値決定部7aは、ユーザを探索すると、探索したユーザの照合閾値を規定値よりも低く設定する処理を行う。
認証処理部6は、照合閾値決定部7aが設定した照合閾値に基づいて、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300から取得した認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う。
例えば、車両の現在位置情報が、車両を保有するユーザの自宅に位置している場合、当該車両の前方乗車席に着座する乗員は、車両を保有するユーザの家族である場合が多いと考えられる。そこで、車両状態判定部9は、車両の位置情報を参照し、車両が予め設定された地点として、車両を保有するユーザの自宅に位置していることを検知した場合に、検知したことを当該自宅の位置情報と共に照合閾値決定部7aに通知する。照合閾値決定部7aは、記憶装置300を参照し、自宅の位置情報が付されたユーザを探索し、探索されたユーザの照合閾値を規定値よりも低く設定する処理を行う。認証処理部6は、照合閾値決定部7aにおいて、車両を保有するユーザおよび当該ユーザの家族の照合閾値が規定値よりも低く設定された照合閾値に基づいて、顔領域の撮像画像が撮像された人物の認証処理を行う。
次に、車載画像認証装置100Dの動作について説明する。
図16は、実施の形態5に係る車載画像認証装置100Dの動作を示すフローチャートである。
車両状態判定部9は、車両情報取得部8が取得した車両情報を参照し、車両状態が予め設定した状態になったか否か判定を行う(ステップST31)。車両状態が予め設定した状態になっていない場合(ステップST31;NO)、車両状態判定部9はステップST31の処理を繰り返す。一方、車両状態が予め設定した状態になった場合(ステップST31;YES)、ステップST32の処理に進む。ステップST32以降の処理と並行して、車両状態判定部9は車両情報取得部8が取得した車両の位置情報を参照し、車両が予め設定された特定の地点に位置しているか否か判定を行う(ステップST41)。
車両が特定の地点に位置していない場合(ステップST41;NO)、ステップST9bの所に進む。一方、車両が特定の地点に位置している場合(ステップST41;YES)、車両状態判定部9は、車両が特定の地点に位置していること、および車両の位置情報を認証処理部6の照合閾値決定部7aに通知する(ステップST42)。その後、処理は、ステップST43の処理に進む。
ステップST1からステップST8の処理が行われ、顔向きが設定された角度範囲内である場合(ステップST8;YES)、照合閾値決定部7aは、記憶装置300を参照し、ステップST42で通知された車両の位置情報と一致する位置情報が付されたユーザが存在するか否か判定を行う(ステップST43)。ユーザが存在しない場合(ステップST43;NO)、ステップST9bの処理に進む。一方、ユーザが存在する場合(ステップST43;YES)、照合閾値決定部7aは探索したユーザの照合閾値を規定値よりも低く設定する(ステップST44)。認証処理部6は、ステップST44において照合閾値が設定されている場合には、当該照合閾値に基づいて、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像が撮像された人物の認証処理を行う(ステップST9b)、認証処理部6は、ステップST9bの認証結果を制御装置400に出力し(ステップST10)、処理を終了する。
ステップST9bにおいて、照合閾値が規定値よりも低く設定されている場合に、当該低く設定された照合閾値を適用して認証処理が行われる。これにより、車両がユーザの自宅等、特定の地点に位置している場合に、登録された家族の照合閾値を低く設定することができ、当該家族が認証されやすくなる。
以上のように、この実施の形態5によれば、車両状態判定部9による車両が特定の地点に位置しているとの判定結果に基づいて、照合閾値を決定する照合閾値決定部7bを備え、認証処理部6は、顔検出部1が検出した顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、照合結果が照合閾値以上であるか否かに基づいて人物の認証を行い、照合閾値決定部7bは、車両状態判定部9による車両が特定の地点に位置しているとの判定結果に基づいて、照合閾値を決定するように構成したので、車両が特定の地点に位置している場合に、認証処理を行う際の条件を緩和することができる。
なお、上述した実施の形態5では、実施の形態1の車載画像認証装置100に、照合閾値決定部7a、車両情報取得部8および車両状態判定部9を追加して設ける構成を示したが、実施の形態3で示した車載画像認証装置100Bに車両情報取得部8および車両状態判定部9を追加して設け、照合閾値決定部7に照合閾値決定部7aの機能を追加して設ける構成としてもよい。
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る車載画像認証装置は、認証対象および認証対象外の人物の顔が撮像された撮像画像から認証対象の人物の顔画像を抽出して認証させることが可能なため、ユーザ毎に制御が行われる車両などに適用し、ユーザの認証精度の向上に用いるのに適している。
1 顔検出部、2 顔要素検出部、3 領域判定部、4 顔向き検出部、5 顔向き判定部、5a 開眼判定部、6 認証処理部、6a 終了判定部、7,7a 照合閾値決定部、8 車両情報取得部、9 車両状態判定部、100,100A,100B,100C,100D 車載画像認証装置、200 カメラ、300 記憶装置、400 制御装置、500 車両、501 運転席、502 助手席、503,504 乗員。
この発明は、車両に搭載され、車両の乗員を認証する技術に関するものである。
車両の運転席に着座している乗員、または運転席および助手席に着座している乗員を撮像し、撮像画像を用いて例えば乗員の顔認証を行い、認証された乗員に適したサービスを提供するシステムが存在する。
運転席に着座している乗員の顔認証を行うシステムとして、例えば特許文献1には車両の運転席に対する着座を着座センサにて検知した場合、車両のドアが施錠された場合、車両のドアが閉じられた場合、車両の運転席のシートベルトが装着された場合、車両が走行開始した場合、または、車両が停止した場合等のトリガが発生した場合に、車内カメラが運転者の顔の撮像画像を取得し、取得した撮像画像を運転者の顔認証に用いる運転者特定システムが開示されている。
また、特許文献1の運転者特定システムにおいて運転席および助手席に着座している乗員の顔認証を行う場合には、運転席の乗員を撮像する車内カメラと、助手席の乗員を撮像する車内カメラの複数の車内カメラを用意する、または運転席および助手席を撮像することができる1台の広角のカメラを用いて運転席の乗員および助手席の乗員を撮像している。
特開2015−71319号公報
上述した特許文献1に開示された技術では、着座センサの検知等のトリガが発生した後に乗員の顔の撮像画像を取得するため、運転席および助手席に着座している乗員をそれぞれ異なるカメラで撮像する場合には、乗員以外の人物の画像の認証を行ってしまう誤認証の発生は少ない。しかし、上述した特許文献1に開示された技術において、1台のカメラで運転席の乗員および助手席の乗員を撮像すると、撮像画像に後部座席に着座している乗員、または車両の外側の窓付近にいる人物が映り込み、映り込んだ乗員または人物の画像に基づいた認証を行ってしまい、誤認証が発生するというという課題があった。
この発明は、上記のような課題を解決するためになされたもので、運転席および助手席に着座する乗員を同時に撮像可能な撮像範囲を撮像した撮像画像において、認証の対象となる乗員以外の人物に対して認証処理が行われる誤認証の発生を抑制することを目的とする。
この発明に係る画像認証装置は、車両の運転席および助手席に着座する乗員を同時に撮像可能な撮像範囲を撮像した撮像画像から、人物の顔が位置する顔領域を検出する顔検出部と、顔検出部が検出した顔領域の撮像画像から、人物の顔の要素を検出する顔要素検出部と、顔検出部が検出した顔領域が、車両の前方乗車席に着座する乗員を認証するために撮像範囲の一部に設定された領域内に位置しているか否か判定を行う領域判定部と、領域判定部が、顔領域が設定された領域内に位置していると判定した場合に顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、顔領域が検出された人物の認証を行う認証処理部とを備えるものである。
この発明によれば、運転席および助手席に着座する乗員を同時に撮像可能な撮像範囲を撮像した撮像画像において、認証の対象となる乗員以外の人物に対して認証処理が行われる誤認証の発生を抑制することができる。
実施の形態1に係る画像認証装置の構成を示すブロック図である。 実施の形態1に係る画像認証装置を搭載した車両内部を上方から見た図である。 図3A、図3Bは、実施の形態1による画像認証装置のハードウェア構成例を示す図である。 実施の形態1に係る画像認証装置を搭載した車両の車室内を前方から見た図であり、領域判定部に設定された領域を示す図である。 図5A、図5Bは、画像認証装置の顔向き判定部に設定された角度範囲の一例を示す図である。 実施の形態1に係る画像認証装置の動作を示すフローチャートである。 実施の形態1に係る画像認証装置のその他の構成を示すブロック図である。 実施の形態1に係る画像認証装置のその他の動作を示すフローチャートである。 実施の形態2に係る画像認証装置の構成を示すブロック図である。 実施の形態2に係る画像認証装置の動作を示すフローチャートである。 実施の形態3に係る画像認証装置の構成を示すブロック図である。 実施の形態3に係る画像認証装置の動作を示すフローチャートである。 実施の形態4に係る画像認証装置の構成を示すブロック図である。 実施の形態4に係る画像認証装置の動作を示すフローチャートである。 実施の形態5に係る画像認証装置の構成を示すブロック図である。 実施の形態5に係る画像認証装置の動作を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る画像認証装置100の構成を示すブロック図である。
像認証装置100は、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6を備える。また、画像認証装置100は、カメラ200、記憶装置300および制御装置400と接続されている。
図1で示した構成以外にも、カメラ200および記憶装置300の少なくとも一方を画像認証装置100が備えるように構成してもよい。
図2は、画像認証装置100を搭載した車両500内部を上方から見た図である。
カメラ200は、例えば広角カメラ等で構成され、少なくとも運転席501および助手席502に着座する乗員503,504を同時に撮像可能な位置に配置される。カメラ200が撮像した撮像画像は、画像認証装置100の顔検出部1に入力される。図2の例では、カメラ200の撮像範囲を、領域Aで示している。領域A内には、運転席501および助手席502に着座する乗員503,504に加えて、認証の対象でない人物X、Yが存在する。以下では、画像認証装置100が人物X,Yの撮像画像を用いて、人物X,Yの認証を行ってしまうのを抑制する構成について説明する。
顔検出部1は、カメラ200から入力された撮像画像の解析を行い、人の顔が撮像された領域(以下、顔領域と記載する)と、当該顔領域の撮像画像の特徴情報とを検出する。顔検出部1は、撮像画像上に顔領域を囲む矩形を設定し、設定した矩形の各頂点の座標値を取得する。顔検出部1が取得する座標値は、撮像画像における座標値である。顔検出部1は、取得した顔領域の撮像画像の特徴情報および座標値を顔要素検出部2および認証処理部6に出力する。顔検出部1は、取得した顔領域の座標値を領域判定部3に出力する。ここで、撮像画像の特徴情報とは、例えば、顔の大きさを正規化した上での、目、鼻、口、頬の部分のコントラスト値などである。
顔要素検出部2は、顔検出部1から入力された顔領域内で、人の顔を構成する要素(以下、顔要素と記載する)を検出する。顔要素とは、例えば、目、鼻、口、耳および髪型等である。顔要素検出部2は、顔検出部1から入力された顔領域の座標値から、検出した顔要素が撮像された領域の座標値を取得する。顔要素検出部2が取得する座標値も、撮像画像における座標値である。顔要素検出部2は、各顔要素が描画された領域全体の座標値を取得してもよいし、各要素が描画された領域の輪郭の座標値のみを取得してもよい。顔要素検出部2は、検出した顔要素の座標値を顔向き検出部4に出力する。
領域判定部3は、顔検出部1から入力された顔領域の座標値が、車両の前方乗車席に着座する乗員を認証するために予め設定された領域内に位置しているか否か判定を行う。ここで、車両の前方乗車席とは、車両の運転席および助手席のうちの少なくともいずれか一方である。領域判定部3は、車両の運転席または助手席のどちらに着座しているとしている人物であっても認証可能なように、領域判定を行う。
領域判定部3は、運転席に着座する乗員を認証するために設定された領域の座標値、および助手席に着座する乗員を認証するために設定された領域の座標値を、バッファまたは記憶領域(図示せず)に格納している。
領域判定部3は、顔領域の座標値が予め設定された領域内に位置していないと判定した場合、顔要素検出部2に対して検出処理の停止を指示する。
領域判定部3は、顔領域の座標値が予め設定された領域内に位置していると判定した場合、当該判定結果を顔向き検出部4に出力する。領域判定部3に予め設定された領域の詳細については後述する。
顔向き検出部4は、領域判定部3から顔領域の座標値が予め設定された領域内に位置しているとの判定結果が入力されると、顔要素検出部2から入力された顔要素の座標値に基づいて、顔の向きを検出する。顔向き検出部4の検出処理の詳細は後述する。顔向き検出部4は、検出した顔の向きを顔向き判定部5に出力する。
顔向き判定部5は、顔向き検出部4が検出した顔の向きが、車両の前方乗車席に着座する乗員を認証するために予め設定された角度範囲内であるか否か判定を行う。顔向き判定部5は、運転席に着座する乗員を認証するために設定された角度範囲、および助手席に着座する乗員を認証するために設定された角度範囲を、バッファまたは記憶領域(図示せず)に予め格納している。顔向き判定部5は、顔向きが予め設定された角度範囲内であると判定した場合、判定結果を認証処理部6に出力する。顔向き判定部5に予め設定された角度範囲の詳細については後述する。
認証処理部6は、顔向き判定部5から顔向きが予め設定された角度範囲内であるとの判定結果が入力されると、顔検出部1から入力された顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証を行う。認証処理部6は、認証結果を制御装置400に出力する。認証処理部6は、顔領域の撮像画像が撮像された人物を認証した場合、例えば、当該人物に予め割り当てられたIDを記憶装置300から取得し、取得したIDを認証結果として制御装置400に出力する。
一方、認証処理部6は、顔領域の撮像画像が撮像された人物を認証できなかった場合、例えば当該人物が記憶装置300に登録されていないことを示す情報を認証結果として制御装置400に出力する。
記憶装置300は、画像認証装置100を搭載した車両のユーザの顔の特徴情報が登録されている。車両のユーザとは、当該車両を運転する可能性のある乗員、および助手席に着座する可能性のある乗員が含まれるものとする。記憶装置300に登録される顔の特徴情報は、カメラ200を用いて事前に撮像された画像の特徴情報、またはその他の撮像手段を用いて事前に撮像された画像の特徴情報である。また、記憶装置300は、各ユーザの顔の特徴情報を、各ユーザを特定する情報、例えばIDと関連付けて記憶する。顔の特徴情報に関連付けて記憶する情報は、種々設定可能である。
制御装置400は、画像認証装置100が搭載された車両を制御する装置である。制御装置400は、例えば運転席および助手席の座席シートの位置および傾きを調整する制御装置、音響装置を制御する制御装置等である。制御装置400は、認証処理部6から入力される認証結果に基づいて、認証された乗員に適した制御、例えばユーザの好みの座席シートの位置および傾き、ユーザの好みの音響条件等の制御を行う。
次に、画像認証装置100のハードウェア構成例を説明する。
図3A、図3Bは、実施の形態1による画像認証装置100のハードウェア構成例を示す図である。
像認証装置100における、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6は、図3Aに示すように専用のハードウェアである処理回路100aであってもよいし、図3Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
図3Aに示すように、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6が専用のハードウェアである場合、処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit),FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図3Bに示すように、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6がプロセッサ100bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6の各機能を実現する。即ち、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6は、プロセッサ100bにより実行されるときに、後述する図6に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、顔検出部1、顔要素検出部2、領域判定部3、顔向き検出部4、顔向き判定部5および認証処理部6の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、画像認証装置100における処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、領域判定部3に乗員を認証するために予め設定された領域の詳細について図4を参照して説明する。
図4は、実施の形態1に係る画像認証装置100を搭載した車両の車室内を前方から見た図であり、領域判定部3に設定された領域を示す図である。
図4では、車両500内の運転席501および助手席502に乗員503,504が着座した場合を想定し、乗員503,504を点線で示している。
運転席501の外側に第1のピラー505および助手席502の外側に第2のピラー506が位置している。矩形領域507は、運転席501に着座する乗員を認証するために、領域判定部3に設定される領域である。矩形領域508は、助手席502に着座する乗員を認証するために、領域判定部3に設定される領域である。矩形領域507,508は、車外に位置する人物Xおよび車両500の後部座席に着座する人物Yの誤認証を抑制するように設定される。
また、図4では、矩形領域が設定される場合を例に示したが、設定される領域は矩形に限定されるものではない。
矩形領域507は、運転席501のヘッドレスト501aの周囲に設定される。矩形領域507の車室内の天井側の位置は、運転席501のヘッドレスト501aの上部から車室内の天井側に所定の距離(例えば15cm程度)離間させた位置に設定される。矩形領域507の車外側の位置は、運転席501の背もたれ501bの側面から車外側に所定の距離(例えば、20cm程度)離間させた位置に設定される。矩形領域507の助手席502側の位置は、運転席501の背もたれ501bの側面から助手席502側に所定の距離(例えば、10cm程度)離間させた位置に設定される。
同様に、矩形領域508は、助手席502のヘッドレスト502aの周囲に設定される。矩形領域508の車室内の天井側の位置は、助手席502のヘッドレスト502aの上部から車室内の天井側に所定の距離(例えば15cm程度)離間させた位置に設定される。矩形領域508の車外側の位置は、助手席502の背もたれ502bの側面から車外側に所定の距離(例えば、20cm程度)離間させた位置に設定される。矩形領域508の運転席501側の位置は、助手席502の背もたれ502bの側面から運転席501側に所定の距離(例えば、10cm程度)離間させた位置に設定される。
ヘッドレスト501a,502aから車室内の天井側の距離、および背もたれ501b,502bから所定の距離は、車外の人物および後部座席の人物の顔が領域内に入らないように適宜設定される値である。なお、上述した矩形領域507および矩形領域508の設定は一例であり、車両500外の人物および車両500の後部座席の人物の顔を誤認証するのを抑制することができる設定であれば適宜適用可能である。
次に、顔向き判定部5に乗員を認証するために予め設定された角度範囲の詳細について説明する。
図5Aおよび図5Bは、画像認証装置100の顔向き判定部5に設定された角度範囲の一例を示す図である。
顔向き判定部5に設定された角度範囲には、車両の車幅方向の角度範囲と、車両の高さ方向の角度範囲がある。
図5Aは、実施の形態1に係る画像認証装置100を搭載した車両の車室内を上方から見た図であり、顔向き判定部5に設定された車両の車幅方向の角度範囲を示す図である。図5Bは実施の形態1に係る画像認証装置100を搭載した車両に着座した人物を横方向から見た図であり、顔向き判定部5に設定された車両の高さ方向の角度範囲を示す図である。
まず、図5Aを参照して顔向き判定部5に設定された車両の車幅方向の角度範囲について説明する。
運転席501に着座する乗員503に対して設定された車両の車幅方向の角度範囲は、直線509aおよび直線509bで挟まれた領域Bで示した範囲である。直線509aは、乗員503の左右の目の中心位置503aと前方の第3のピラー510を結んだ直線509cを、車両500の外側にθa°(例えば、10°または20°等)広げた直線である。直線509bは、乗員503の左右の目の中心位置503aとカメラ200のレンズの中心を結んだ直線509dを、助手席502側にθb°(例えば、10°または20°等)広げた直線である。なお、直線509c,509dは、乗員503の左右の目の中心位置503aを中心としてθa°,θb°広げている。
同様に、助手席502に着座する乗員504に対して設定された車両の車幅方向の角度範囲は、直線511aおよび直線511bで挟まれた領域Cで示した範囲である。直線511aは、乗員504の左右の目の中心位置504aと助手席502前方の第4のピラー512を結んだ直線511cを、車両500の外側にθc°(例えば、10°または20°等)広げた直線である。直線511bは、乗員504の左右の目の中心位置504aとカメラ200のレンズの中心を結んだ直線511dを、運転席501側にθd°(例えば、10°または20°等)広げた直線である。なお、直線511c,511dは、乗員504の左右の目の中心位置504aを中心としてθc°,θd°広げている。
次に、図5Bを参照して顔向き判定部5に設定された車両の高さ方向の角度範囲について説明する。
運転席501に着座する乗員503および助手席502に着座する乗員504に対して設定された角度範囲は、図5Bの領域Dで示した範囲である。領域Dは、乗員504,504の眉間と鼻の頭頂部の中間点を通り、車両500が走行する道路に対して水平な直線503b,504bを中心として、車両500の天井側にθe°、車両500の底部側にθf°の範囲である。
乗員503が、領域B且つ領域D内を視認している場合、顔向き判定部5は、乗員503の顔向きが乗員を認証するために予め設定された角度範囲内であると判定する。同様に、乗員504が、領域C且つ領域D内を視認している場合、顔向き判定部5は、乗員504の顔向きが乗員を認証するために予め設定された角度範囲内であると判定する。
次に、画像認証装置100の動作について説明する。
図6は、実施の形態1に係る画像認証装置100の動作を示すフローチャートである。
顔検出部1は、カメラ200から入力された撮像画像を解析し、顔領域の検出処理を行う(ステップST1)。顔検出部1は、顔領域を検出しなかった場合(ステップST1;NO)、ステップST1の検出処理を繰り返す。一方、顔検出部1は、顔領域を検出した場合(ステップST1;YES)、検出した顔領域を囲む矩形領域の各頂点の座標値を取得する(ステップST2)。
顔要素検出部2は、ステップST1で検出された顔領域の撮像画像から顔要素を検出する(ステップST3)。ステップST3では、例えば、顔要素検出部2が予め設定された顔要素(例えば、目、鼻、口および耳)を、予め設定された順に検出する。顔要素検出部2は、ステップST3で検出した顔要素の座標値を取得する(ステップST4)。顔要素検出部2は、後述するステップST5の判定処理が行われている間、上述したステップST3およびステップST4の処理を繰り返し行っているものとする。顔要素検出部2は、得られた顔要素の座標値をバッファ(図示せず)等に一時格納している。
領域判定部3は、ステップST2で取得された座標値を頂点とする矩形領域が、車両の前方乗車席に着座する乗員を認証するために予め設定された領域内に位置しているか否か判定を行う(ステップST5)。顔領域を囲む矩形領域が車両の前方乗車席に着座する乗員を認証するために予め設定された領域内に位置していない場合(ステップST5;NO)、顔要素検出部2に対して検出処理の停止を指示し(ステップST6)、ステップST1の処理に戻る。
一方、顔領域を囲む矩形領域が車両の前方乗車席に着座する乗員を認証するために設定された領域内に位置している場合(ステップST5;YES)、顔向き検出部4は、ステップST3およびステップST4の処理により検出および取得された顔要素の座標値の位置関係および時系列的な変化に基づいて、顔領域の撮像画像が撮像された人物の顔向きを検出する(ステップST7)。
顔向き判定部5は、ステップST7で検出された顔向きが、車両の前方乗車席に着座する乗員を認証するために設定された角度範囲内であるか否か判定を行う(ステップST8)。顔向きが設定された角度範囲内でない場合(ステップST8;NO)、ステップST1の処理に戻る。
一方、顔向きが設定された角度範囲内である場合(ステップST8;YES)、認証処理部6は、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う(ステップST9)。認証処理部6は、ステップST9の認証結果を制御装置400に出力し(ステップST10)、処理を終了する。
カメラ200が、図4および図5で示したように、運転席と助手席の間に配置され、運転席に着座する乗員と助手席に着座する乗員それぞれの認証を行う場合には、顔検出部1が複数の顔領域を検出する場合もある。
以上のように、この実施の形態1によれば、車両の運転席および助手席に着座する乗員を撮像可能な撮像範囲を撮像した撮像画像から、人物の顔が位置する顔領域と、当該顔領域の特徴情報とを検出する顔検出部1と、検出された顔領域の撮像画像を解析し、人物の顔の要素を検出する顔要素検出部2と、検出された顔領域が、車両の前方乗車席に着座する乗員を認証するために設定された領域内に位置しているか否か判定を行う領域判定部3と、検出された人物の顔の要素の撮像画像における位置情報に基づいて、人物の顔の向きを算出する顔向き検出部4と、算出された人物の顔の向きが、車両の前方乗車席に着座する乗員を認証するために設定された顔向きの範囲内であるか否か判定を行う顔向き判定部5と、設定された顔向きの範囲内であると判定した場合に、顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、顔領域が検出された人物の認証を行う認証処理部6とを備えるように構成したので、認証対象である人物以外が映り込んだ撮像画像であっても、認証対象である人物の顔画像を抽出して認証を行うことができる。これにより、車載のカメラが1台であっても、運転席に着座する乗員および助手席に着座する乗員を認証することができる。さらに、認証に適していない位置に存在する人物に対して認証処理が実行されるのを防止することができる。
上述した実施の形態1では、顔向き判定部5が人物の顔の向きが、車両の前方乗車席に着座する乗員を認証するために設定された顔向きの範囲内であるか否か判定を行い、設定された顔向きの範囲内であると判定した場合に、認証処理部6が、顔領域が検出された人物の認証を行う構成を示した。認証処理部6は、上述した人物の顔の向きに加えて、例えば人物の目が開いているか否かに基づいて、顔領域が検出された人物の認証を行うように構成することも可能である。人物の顔の向きに加えて、人物の目が開いているか否かに基づいて人物の認証を行う画像認証装置100の構成を図7に示している。
図7は、実施の形態1に係る画像認証装置100のその他の構成を示すブロック図である。
図7では、図1で示した画像認証装置100の顔向き判定部5に開眼判定部5aを追加して構成した例を示している。以下では、上述した画像認証装置100の構成要素と同一または相当する部分には、図1で使用した符号と同一の符号を付して説明を省略または簡略化する。
顔要素検出部2は、顔検出部1から入力された顔領域内で、顔要素として、目、鼻、口、耳および髪型に加えて、例えば目じり、上瞼および下瞼を検出する。顔要素検出部2は、検出した顔要素の座標値を顔向き検出部4および開眼判定部5aに出力する。
顔向き判定部5は、顔向き検出部4が検出した顔の向きが、車両の前方乗車席に着座する乗員を認証するために予め設定された角度範囲内であるか否か判定を行う。顔向き判定部5は、顔向きが予め設定された角度範囲内であると判定した場合、開眼判定部5aは、顔要素検出部2から入力された顔要素の座標値に基づいて、人物の目が開いているか否かの判定を行う。具体的には、開眼判定部5aは、目、目じり、上瞼および下瞼等の目に関する座標値を用いて、人物の目が開いているか否かの判定を行う。例えば、開眼判定部5aは、上瞼と下瞼の座標値の差が閾値以上であった場合に、人物の目が開いていると判定する。顔向き判定部5は、顔向きの判定結果と目が開いているか否かの判定結果とを認証処理部6に出力する。
認証処理部6は、顔向き判定部5から顔向きが予め設定された角度範囲内であり、且つ開眼判定部5aから人物の目が開いているとの判定結果が入力されると、顔検出部1から入力された顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証を行う。認証処理部6は、認証結果を制御装置400に出力する。
次に、人物の顔の向きに加えて、人物の目が開いているか否かの判定を行う、画像認証装置100の動作について説明する。
図8は、実施の形態1に係る画像認証装置100のその他の動作を示すフローチャートである。なお、以下では上述した画像認証装置100と同一のステップには図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST8において、顔向きが設定された角度範囲内であると判定された場合(ステップST8;YES)、開眼判定部5aは、人物の目が開いているか否か判定を行う(ステップST8a)。人物の目が開いていない場合(ステップST8a;NO)、ステップST1の処理に戻る。一方、人物の目が開いている場合(ステップST8a;YES)、認証処理部6は、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う(ステップST9)。認証処理部6は、ステップST9の認証結果を制御装置400に出力し(ステップST10)、処理を終了する。
このように、顔要素検出部2が検出した人物の顔の要素の撮像画像における位置情報に基づいて、例えば人物の目が開いているか否か判定を行う開眼判定部5aを備え、認証処理部6は、人物の顔の向きが設定された顔向きの範囲内であり、且つ開眼判定部5aが人物の目が開いていると判定した場合に、人物の認証を行うように構成したので、認証に適さない位置に存在する人物、または目を閉じている人物に対して認証処理が実行されるのを防止することができる。
実施の形態2.
この実施の形態2では、顔領域の撮像画像が撮像された人物が認証されるまで、複数回認証処理を繰り返す構成を示す。
図9は、実施の形態2に係る画像認証装置100Aの構成を示すブロック図である。
実施の形態2に係る画像認証装置100Aは、実施の形態1で示した画像認証装置100の認証処理部6に終了判定部6aを追加して構成している。
以下では、実施の形態1に係る画像認証装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
終了判定部6aは、認証処理部6が顔領域の撮像画像が撮像された人物を、認証しなかった場合に、規定の回数、または規定の期間、認証処理を繰り返したか判定を行う。終了判定部6aは、例えば認証処理部6が行った照合処理の回数をカウントし、カウントした回数をバッファ等の一時格納領域(図示せず)に格納する。終了判定部6aは、格納した回数が規定の回数未満である場合には、認証処理を繰り返すように顔検出部1に指示する。
また、終了判定部6aは、例えば車両500からシフト位置情報を取得し、シフト位置が停止位置(P)から停止位置(P以外)へ移動したか判定を行ってもよい。終了判定部6aは、車両500のシフト位置が停止位置(P以外)へ移動するまで期間、認証処理を繰り返すように顔検出部1に指示する。
また、終了判定部6aは、例えば車両500から車速情報を取得し、車両500の車速が1km/h以上になったか判定を行ってもよい。終了判定部6aは、車両500の車速が1km/h以上となるまで期間、認証処理を繰り返すように顔検出部1に指示する。
次に、画像認証装置100Aの動作について説明する。
図10は、実施の形態2に係る画像認証装置100Aの動作を示すフローチャートである。なお、図10のフローチャートでは、終了判定部6aが照合処理の回数に基づいて判定する場合を示している。
なお、以下では実施の形態1に係る画像認証装置100と同一のステップには図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST9において、認証処理部6が認証処理を行うと、終了判定部6aは顔領域の撮像画像が撮像された人物が認証されたか否か判定を行う(ステップST11)。顔領域の撮像画像が撮像された人物の認証がされたと判定した場合(ステップST11;YES)、ステップST10の処理に進む。
一方、顔領域の撮像画像が撮像された人物の認証がされていないと判定した場合(ステップST11;NO)、終了判定部6aは照合回数に「1」加算し(ステップST12)、加算後の照合回数が規定の回数以上であるか否か判定を行う(ステップST13)。認証回数が規定の回数未満であった場合(ステップST13;NO)、終了判定部6aは顔検出部1に対して再度認証処理を行うように指示する(ステップST14)。一方、認証回数が規定の回数以上であった場合(ステップST13;YES),ステップST10の処理に進む。
以上のように、この実施の形態2によれば、認証処理部6が、顔領域が検出された人物を認証できなかった場合に、認証処理部6の認証回数または認証時間が規定の回数または規定の時間に到達したか否か判定を行い、到達していない場合に、顔検出部1に対して再度、顔領域の検出を指示する終了判定部6aを備えるように構成したので、人物を撮像したタイミングが適切でなかった場合に、再度適切なタイミングで撮像された撮像画像の認証処理を実行することができる。具体的には、車両500に人物が乗り込む際に、顔に髪の毛がかかり撮像画像から人物を認証することができなかった場合に、再度新たな撮像画像に基づいて認証処理を実行することができる。これにより、記憶装置300に登録されたユーザであるにも関わらず、認証されないとの不具合を抑制することができる。
実施の形態3.
この実施の形態3では、検出された顔向きに基づいて認証処理部6の照合閾値を変化させる構成を示す。
図11は、実施の形態3に係る画像認証装置100Bの構成を示すブロック図である。
実施の形態3に係る画像認証装置100Bは、実施の形態1で示した画像認証装置100に照合閾値決定部7を追加して構成している。
以下では、実施の形態1に係る画像認証装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
認証処理部6が、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合する場合、記憶装置300に登録された際の顔の向きと、顔領域の撮像画像の顔の向きが近い状態であれば、一致度を高く算出する。一方、認証処理部6は、記憶装置300に登録された際の顔の向きと、顔領域の撮像画像の顔の向きが異なる場合には、一致度を低く算出する。認証処理部6は、算出した一致度が照合閾値以上であるか否かに基づいて認証を行う。そのため、認証処理部6は、顔領域の撮像画像の顔向きによって、同一人物でも認証する場合と、認証しない場合がある。
そこで、照合閾値決定部7は、顔領域の撮像画像の顔向きに応じて、認証処理部6が認証を行う際の照合閾値を決定する。
まず、記憶装置300は、各ユーザの顔の特徴情報を、各ユーザを特定する情報および認証用の撮像画像の顔向きを示す情報と関連付けて記憶しているものとする。
照合閾値決定部7は、顔向き判定部5から顔向きが予め設定された角度範囲内であるとの判定結果が入力されると、記憶装置300から照合に用いる認証用の撮像画像の特徴情報と、顔向きを示す情報を取得する。照合閾値決定部7は、認証用の撮像画像の顔向きと、顔向き判定部5において予め設定された角度範囲内であると判定された顔領域の撮像画像の顔向きとを比較する。照合閾値決定部7は、認証用の撮像画像の顔向きと、顔領域の撮像画像の顔向きの角度が近いほど、照合閾値を規定値よりも高く設定する。一方、照合閾値決定部7は、認証用の撮像画像の顔向きと、顔領域の撮像画像の顔向きの角度が離れるほど、照合閾値を規定値よりも低く設定する。
認証処理部6は、照合閾値決定部7が設定した照合閾値に基づいて、顔検出部1から入力される顔領域の撮像画像の特徴情報と、照合閾値決定部7が記憶装置300から取得した認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う。
照合閾値決定部7は、顔向き以外の条件に基づいて、照合閾値を決定してもよい。例えば、照合閾値決定部7は、顔領域の撮像画像における座標値と、記憶装置300に登録された認証用の撮像画像での顔領域の座標値との関係に基づいて、照合閾値を決定する。具体的に、照合閾値決定部7は、画像における顔領域の位置に基づいて照合閾値を決定してもよい。顔領域の位置が撮像画像の端である場合には、顔を横方向から撮像する可能性があるため、照合閾値決定部7は照合閾値を規定値よりも低く設定する。
次に、画像認証装置100Bの動作について説明する。
図12は、実施の形態3に係る画像認証装置100Bの動作を示すフローチャートである。なお、以下では実施の形態1に係る画像認証装置100と同一のステップには図6で使用した符号と同一の符号を付し、説明を省略または簡略化する。
また、図12のフローチャートでは、照合閾値決定部7が顔領域の撮像画像の顔向きに基づいて照合閾値を決定する場合を示している。
ステップST8において、顔向きが設定された角度範囲内であると判定された場合(ステップST8;YES)、照合閾値決定部7は記憶装置300から認証用の撮像画像の特徴情報と当該認証用の撮像画像の顔向きを示す情報を取得する(ステップST21)。照合閾値決定部7は、ステップST21で取得した認証用の撮像画像の顔向きと、顔向き検出部4が検出した顔向きとを比較して、照合閾値を決定する(ステップST22)。なお、照合閾値決定部7は、顔向き検出部4が検出した顔向きを顔向き判定部5を介して取得する。
認証処理部6は、ステップST22で決定された照合閾値に基づいて、顔検出部1から入力される顔領域の撮像画像の特徴情報と、ステップST21で取得された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う(ステップST9a)。認証処理部6は、ステップST9aの認証結果を制御装置400に出力し(ステップST10)、処理を終了する。
以上のように、この実施の形態3によれば、顔領域の撮像画像における位置、および顔向き検出部4が検出した人物の顔の向きの少なくとも1つに基づいて、照合閾値を決定する照合閾値決定部7を備え、認証処理部6は、顔検出部1が検出した顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、照合結果が照合閾値以上であるか否かに基づいて人物の認証を行うように構成したので、認証処理を行う際の撮像画像における位置および顔向きの条件を緩和することができる。さらに、認証処理を行う際の撮像画像における位置および顔向きが、認証用の撮像画像と異なる場合にも、認証性能を向上させることができる。
なお、上述した実施の形態3では、認証用の撮像画像毎に認証用の顔向きが蓄積されている場合を例に示したが、認証用の撮像画像が予め設定された顔向き角度で撮像される場合には、当該顔向き角度を記憶装置300に登録すればよい。また、予め設定された顔向き角度で撮像される場合、当該顔向き角度を照合閾値決定部7が保持するように構成してもよい。
なお、上述した実施の形態3では、実施の形態1で示した画像認証装置100の認証処理部6に照合閾値決定部7を追加する構成を示したが、実施の形態2で示した画像認証装置100Aの認証処理部6にさらに照合閾値決定部7を追加してもよい。
実施の形態4.
この実施の形態4では、ある車両状態の検知をトリガとして認証処理を開始する構成を示す。
図13は、実施の形態4に係る画像認証装置100Cの構成を示すブロック図である。
実施の形態4に係る画像認証装置100Cは、実施の形態1で示した画像認証装置100に車両情報取得部8および車両状態判定部9を追加して構成している。
以下では、実施の形態1に係る画像認証装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
車両情報取得部8は、例えば車両センサ、ナビゲーション装置およびGPS受信機(図示せず)等から、車両情報を取得する。車両情報は、例えば、ドアの開錠および施錠を示す情報、ドアの開閉を示す情報、シートベルトの着脱を示す情報、イグニッションのON/OFF状態を示す情報、人感センサのON/OFF状態を示す情報、シフトレバーの位置を示す情報、車両速度を示す情報、ナビゲーション装置の案内状態を示す情報および自車両の位置情報等である。車両情報取得部8は、これらの車両情報のうちの少なくともいずれか1つを取得し、車両状態判定部9に出力する。
車両状態判定部9は、車両情報取得部8が取得した車両情報を参照し、車両状態が乗員を認証するために予め設定された状態になったことを検知した場合に、顔検出部1に対して撮像画像から顔検出の処理を行うように指示する。
上述した車両情報の例では、車両状態判定部9は、ドアの開錠、ドアのオープン、シートベルトの装着、イグニッションのON、人感センサのON、シフトレバーがドライブの位置に移動、車両速度が0km/hを超えた、ナビゲーション装置が案内を開始した、自車両が自宅を出発した等のいずれかを検知した場合に、顔検出部1に対して撮像画像から顔検出の処理を行うように指示する。
次に、画像認証装置100Cのハードウェア構成例を説明する。なお、実施の形態4の画像認証装置100Cのハードウェア構成例を示す図は、実施の形態1で示した図3Aおよび図3Bと同一であることから、図示を省略する。また、実施の形態1と同一の構成の説明も省略する。
像認証装置100Cにおける車両情報取得部8および車両状態判定部9は、図3Aに示すように専用のハードウェアである処理回路100aであってもよいし、図3Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
また、図3Bに示すように、車両情報取得部8および車両状態判定部9がプロセッサ100bである場合、車両情報取得部8および車両状態判定部9の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、車両情報取得部8および車両状態判定部9の機能を実現する。即ち、車両情報取得部8および車両状態判定部9は、プロセッサ100bにより実行されるときに、後述する図14に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、車両情報取得部8および車両状態判定部9の手順または方法をコンピュータに実行させるものであるともいえる。
なお、車両情報取得部8および車両状態判定部9の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、画像認証装置100Cにおける処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、画像認証装置100Cの動作について説明する。
図14は、実施の形態4に係る画像認証装置100Cの動作を示すフローチャートである。
車両状態判定部9は、車両情報取得部8が取得した車両情報を参照し、車両状態が予め設定した状態になったか否か判定を行う(ステップST31)。車両状態が予め設定した状態になっていない場合(ステップST31;NO)、車両状態判定部9はステップST31の処理を繰り返す。一方、車両状態が予め設定した状態になった場合(ステップST31;YES)、車両状態判定部9は顔検出部1に対して顔領域の検出処理を指示する(ステップST32)。その後、画像認証装置100Cは、ステップST1からステップST10の処理を行う。
なお、上記では、領域判定部3に設定された領域は、予め設定されているとして説明を行ったが、当該領域判定部3に設定された領域は固定された領域であってもよいし、車両状態判定部9が参照する車両情報の種別に応じて設定される領域であってもよい。
例えば、車両状態判定部9が、ドアのオープンを検知した場合をトリガとして認証処理を開始させる場合と、シートベルトの装着を検知した場合をトリガとして認証処理を開始させる場合とで、領域判定部3に設定される領域を変化させる。
車両状態判定部9がドアのオープンの検知をトリガとする場合、領域判定部3に設定される領域は、運転席側ドアおよび助手席側ドア寄りに設定される。一方、車両状態判定部9がシートベルト装着の検知をトリガとする場合、領域判定部3に設定される領域は、運転席および助手席のヘッドレスト近傍に設定される。
領域判定部3は、車両状態判定部9がトリガとする車両状態に応じた設定領域を予め蓄積しておき、車両状態判定部9から入力される判定結果に応じた設定領域を読み出す。または、車両状態判定部9が、車両状態に応じた設定領域を蓄積しておき、判定結果に応じた設定領域を領域判定部3に対して設定してもよい。
領域判定部3が判定に用いる領域を車両状態に応じて設定することにより、常に認証処理に適した位置において顔領域が存在するか否かの判定処理を行うことができる。
以上のように、この実施の形態4によれば、車両の車両情報を参照し、車両の車両状態が車両の前方乗車席に着座する乗員を認証するために設定された状態になったと判定した場合に、顔検出部1に対して顔領域の検出を指示する車両状態判定部9を備えるように構成したので、認証対象である人物以外が映り込んだ撮像画像であっても、設定された車両状態になった時に認証対象である人物の顔画像を抽出して認証を行うことができ、認証に適していない位置に存在する人物に対して認証処理が実行されるのを防止することができる。これにより、車載のカメラが1台であっても、車両の前方乗車席に着座する乗員を認証することができる。
また、この実施の形態4によれば、領域判定部3に設定される車両の前方乗車席に着座する乗員を認証するための領域は、固定された領域、車両状態判定部9が参照する車両情報の種別に応じて設定される領域であるように構成したので、認証処理に適した位置において顔領域が存在するか否かの判定処理を行うことができる。
なお、上述した実施の形態4では、実施の形態1で示した画像認証装置100に車両情報取得部8および車両状態判定部9を追加する構成を示したが、実施の形態2で示した画像認証装置100Aに車両情報取得部8および車両状態判定部9を追加して構成してもよい。
実施の形態5.
この実施の形態5では、車両情報に基づいて、認証処理の照合閾値を設定する構成を示す。
図15は、実施の形態5に係る画像認証装置100Dの構成を示すブロック図である。
実施の形態5に係る画像認証装置100Dは、実施の形態1で示した画像認証装置100に車両情報取得部8および車両状態判定部9を追加し、さらに認証処理部6に照合閾値決定部7aを追加して構成している。
以下では、実施の形態1、実施の形態3および実施の形態4に係る画像認証装置100,100B,100Cの構成要素と同一または相当する部分には、実施の形態1、実施の形態3および実施の形態4で使用した符号と同一の符号を付して説明を省略または簡略化する。
車両状態判定部9は、車両情報取得部8から入力された車両の位置情報を参照し、車両が予め設定された特定の地点に位置していることを検知した場合に、検知したことを当該地点の位置情報と共に認証処理部6の照合閾値決定部7aに通知する。
記憶装置300は、各ユーザの顔の特徴情報と、各ユーザを特定する情報(例えば、ID)と、特定の地点の位置情報とを関連付けて記憶している。
照合閾値決定部7aは、顔向き判定部5から顔向きが予め設定された角度範囲内であるとの判定結果が入力されると、記憶装置300を参照し、車両状態判定部9から通知された位置情報と一致する位置情報が付されたユーザを探索する。照合閾値決定部7aは、ユーザを探索すると、探索したユーザの照合閾値を規定値よりも低く設定する処理を行う。
認証処理部6は、照合閾値決定部7aが設定した照合閾値に基づいて、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300から取得した認証用の撮像画像の特徴情報とを照合し、顔領域の撮像画像が撮像された人物の認証処理を行う。
例えば、車両の現在位置情報が、車両を保有するユーザの自宅に位置している場合、当該車両の前方乗車席に着座する乗員は、車両を保有するユーザの家族である場合が多いと考えられる。そこで、車両状態判定部9は、車両の位置情報を参照し、車両が予め設定された地点として、車両を保有するユーザの自宅に位置していることを検知した場合に、検知したことを当該自宅の位置情報と共に照合閾値決定部7aに通知する。照合閾値決定部7aは、記憶装置300を参照し、自宅の位置情報が付されたユーザを探索し、探索されたユーザの照合閾値を規定値よりも低く設定する処理を行う。認証処理部6は、照合閾値決定部7aにおいて、車両を保有するユーザおよび当該ユーザの家族の照合閾値が規定値よりも低く設定された照合閾値に基づいて、顔領域の撮像画像が撮像された人物の認証処理を行う。
次に、画像認証装置100Dの動作について説明する。
図16は、実施の形態5に係る画像認証装置100Dの動作を示すフローチャートである。
車両状態判定部9は、車両情報取得部8が取得した車両情報を参照し、車両状態が予め設定した状態になったか否か判定を行う(ステップST31)。車両状態が予め設定した状態になっていない場合(ステップST31;NO)、車両状態判定部9はステップST31の処理を繰り返す。一方、車両状態が予め設定した状態になった場合(ステップST31;YES)、ステップST32の処理に進む。ステップST32以降の処理と並行して、車両状態判定部9は車両情報取得部8が取得した車両の位置情報を参照し、車両が予め設定された特定の地点に位置しているか否か判定を行う(ステップST41)。
車両が特定の地点に位置していない場合(ステップST41;NO)、ステップST9bの所に進む。一方、車両が特定の地点に位置している場合(ステップST41;YES)、車両状態判定部9は、車両が特定の地点に位置していること、および車両の位置情報を認証処理部6の照合閾値決定部7aに通知する(ステップST42)。その後、処理は、ステップST43の処理に進む。
ステップST1からステップST8の処理が行われ、顔向きが設定された角度範囲内である場合(ステップST8;YES)、照合閾値決定部7aは、記憶装置300を参照し、ステップST42で通知された車両の位置情報と一致する位置情報が付されたユーザが存在するか否か判定を行う(ステップST43)。ユーザが存在しない場合(ステップST43;NO)、ステップST9bの処理に進む。一方、ユーザが存在する場合(ステップST43;YES)、照合閾値決定部7aは探索したユーザの照合閾値を規定値よりも低く設定する(ステップST44)。認証処理部6は、ステップST44において照合閾値が設定されている場合には、当該照合閾値に基づいて、顔検出部1から入力される顔領域の撮像画像の特徴情報と、記憶装置300に登録された認証用の撮像画像の特徴情報とを照合し、顔領域の撮像が撮像された人物の認証処理を行う(ステップST9b)、認証処理部6は、ステップST9bの認証結果を制御装置400に出力し(ステップST10)、処理を終了する。
ステップST9bにおいて、照合閾値が規定値よりも低く設定されている場合に、当該低く設定された照合閾値を適用して認証処理が行われる。これにより、車両がユーザの自宅等、特定の地点に位置している場合に、登録された家族の照合閾値を低く設定することができ、当該家族が認証されやすくなる。
以上のように、この実施の形態5によれば、車両状態判定部9による車両が特定の地点に位置しているとの判定結果に基づいて、照合閾値を決定する照合閾値決定部7bを備え、認証処理部6は、顔検出部1が検出した顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、照合結果が照合閾値以上であるか否かに基づいて人物の認証を行い、照合閾値決定部7bは、車両状態判定部9による車両が特定の地点に位置しているとの判定結果に基づいて、照合閾値を決定するように構成したので、車両が特定の地点に位置している場合に、認証処理を行う際の条件を緩和することができる。
なお、上述した実施の形態5では、実施の形態1の画像認証装置100に、照合閾値決定部7a、車両情報取得部8および車両状態判定部9を追加して設ける構成を示したが、実施の形態3で示した画像認証装置100Bに車両情報取得部8および車両状態判定部9を追加して設け、照合閾値決定部7に照合閾値決定部7aの機能を追加して設ける構成としてもよい。
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る画像認証装置は、認証対象および認証対象外の人物の顔が撮像された撮像画像から認証対象の人物の顔画像を抽出して認証させることが可能なため、ユーザ毎に制御が行われる車両などに適用し、ユーザの認証精度の向上に用いるのに適している。
1 顔検出部、2 顔要素検出部、3 領域判定部、4 顔向き検出部、5 顔向き判定部、5a 開眼判定部、6 認証処理部、6a 終了判定部、7,7a 照合閾値決定部、8 車両情報取得部、9 車両状態判定部、100,100A,100B,100C,100D 像認証装置、200 カメラ、300 記憶装置、400 制御装置、500 車両、501 運転席、502 助手席、503,504 乗員。

Claims (11)

  1. 車両の運転席および助手席に着座する乗員を同時に撮像可能な撮像範囲を撮像した撮像画像から、人物の顔が位置する顔領域と、当該顔領域の特徴情報とを検出する顔検出部と、
    前記顔検出部が検出した前記顔領域の撮像画像から、前記人物の顔の要素を検出する顔要素検出部と、
    前記顔検出部が検出した前記顔領域が、前記車両の前方乗車席に着座する前記乗員を認証するために設定された領域内に位置しているか否か判定を行う領域判定部と、
    前記領域判定部が、前記顔領域が前記設定された領域内に位置していると判定した場合に、前記顔要素検出部が検出した前記人物の顔の要素の前記撮像画像における位置情報に基づいて、前記人物の顔の向きを検出する顔向き検出部と、
    前記顔向き検出部が検出した前記人物の顔の向きが、前記車両の前方乗車席に着座する前記乗員を認証するために設定された顔向きの範囲内であるか否か判定を行う顔向き判定部と、
    前記顔向き判定部が、前記人物の顔の向きが前記設定された顔向きの範囲内であると判定した場合に、前記顔領域の撮像画像の特徴情報と、予め蓄積された認証用の撮像画像の特徴情報とを照合し、前記顔領域が検出された前記人物の認証を行う認証処理部とを備えた車載画像認証装置。
  2. 前記顔要素検出部が検出した前記人物の顔の要素の前記撮像画像における位置情報に基づいて、前記人物の目が開いているか否か判定を行う開眼判定部を備え、
    前記認証処理部は、前記人物の顔の向きが前記設定された顔向きの範囲内であり、且つ前記開眼判定部が前記人物の目が開いていると判定した場合に、前記人物の認証を行うことを特徴とする請求項1記載の車載画像認証装置。
  3. 前記認証処理部が、前記顔領域が検出された前記人物を認証できなかった場合に、当該認証処理部の認証回数または認証時間が規定の回数または規定の時間に到達したか否か判定を行い、到達していない場合に、前記顔検出部に対して再度、前記顔領域の検出を指示する終了判定部を備えたことを特徴とする請求項1記載の車載画像認証装置。
  4. 前記顔領域の前記撮像画像における位置、および前記顔向き検出部が検出した前記人物の顔の向きの少なくとも1つに基づいて、照合閾値を決定する照合閾値決定部を備え、
    前記認証処理部は、前記顔検出部が検出した前記顔領域の撮像画像の特徴情報と、予め蓄積された前記認証用の撮像画像の特徴情報とを照合し、照合結果が前記照合閾値以上であるか否かに基づいて前記人物の認証を行うことを特徴とする請求項1記載の車載画像認証装置。
  5. 前記車両の車両情報を参照し、前記車両の車両状態が前記車両の前方乗車席に着座する前記乗員を認証するために設定された状態になったと判定した場合に、前記顔検出部に対して前記顔領域の検出を指示する車両状態判定部を備えたことを特徴とする請求項1記載の車載画像認証装置。
  6. 前記領域判定部に設定される前記車両の前方乗車席に着座する乗員を認証するための領域は、固定された領域、または前記車両状態判定部が参照する車両情報の種別に応じて設定される領域であることを特徴とする請求項5記載の車載画像認証装置。
  7. 前記認証処理部が、前記顔領域が検出された前記人物を認証できなかった場合に、当該認証処理部の認証回数または認証時間が規定の回数または規定の時間に到達したか否か判定を行い、到達していない場合に、前記顔検出部に対して再度、前記顔領域の検出を指示する終了判定部を備えたことを特徴とする請求項5記載の車載画像認証装置。
  8. 前記顔領域の前記撮像画像における位置、および前記顔向き検出部が検出した前記人物の顔の向きの少なくとも1つに基づいて、照合閾値を決定する照合閾値決定部を備え、
    前記認証処理部は、前記顔検出部が検出した前記顔領域の撮像画像の特徴情報と、予め蓄積された前記認証用の撮像画像の特徴情報とを照合し、照合結果が前記照合閾値以上であるか否かに基づいて前記人物の認証を行うことを特徴とする請求項5記載の車載画像認証装置。
  9. 前記車両状態判定部による前記車両が特定の地点に位置しているとの判定結果に基づいて、照合閾値を決定する照合閾値決定部を備え、
    前記認証処理部は、前記顔検出部が検出した前記顔領域の撮像画像の特徴情報と、予め蓄積された前記認証用の撮像画像の特徴情報とを照合し、照合結果が前記照合閾値以上であるか否かに基づいて前記人物の認証を行うことを特徴とする請求項5記載の車載画像認証装置。
  10. 前記車両状態判定部が参照する前記車両情報は、前記車両のドアの開錠および施錠を示す情報、前記車両のドアの開閉を示す情報、前記車両のシートベルトの着脱を示す情報、前記車両のイグニッションのON/OFF状態を示す情報、前記車両の人感センサのON/OFF状態を示す情報、前記車両のシフトレバーの位置を示す情報、前記車両の車両速度を示す情報、前記車両のナビゲーション装置の案内状態を示す情報および前記車両の位置情報のうちの少なくとも1つを含むことを特徴とする請求項5記載の車載画像認証装置。
  11. 前記車両の前記運転席および前記助手席に着座する乗員を同時に撮像可能な撮像範囲を撮像するカメラを備えたことを特徴とする請求項1記載の車載画像認証装置。
JP2018557266A 2016-12-20 2016-12-20 画像認証装置、画像認証方法および自動車 Active JP6807951B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/087933 WO2018116373A1 (ja) 2016-12-20 2016-12-20 車載画像認証装置

Publications (2)

Publication Number Publication Date
JPWO2018116373A1 true JPWO2018116373A1 (ja) 2019-06-24
JP6807951B2 JP6807951B2 (ja) 2021-01-06

Family

ID=62626966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018557266A Active JP6807951B2 (ja) 2016-12-20 2016-12-20 画像認証装置、画像認証方法および自動車

Country Status (5)

Country Link
US (1) US11087120B2 (ja)
JP (1) JP6807951B2 (ja)
CN (1) CN110088761B (ja)
DE (1) DE112016007536T5 (ja)
WO (1) WO2018116373A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230199041A1 (en) * 2021-12-21 2023-06-22 Nevolane Business Gmbh Remote collaboration platform

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671837B2 (en) * 2015-09-08 2020-06-02 Nec Corporation Face recognition system, face recognition method, display control apparatus, display control method, and display control program
US11465631B2 (en) * 2017-12-08 2022-10-11 Tesla, Inc. Personalization system and method for a vehicle based on spatial locations of occupants' body portions
CN108921117A (zh) * 2018-07-11 2018-11-30 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
SG11202102210TA (en) * 2018-09-06 2021-04-29 Nec Solution Innovators Ltd Device for deciding face image candidate for authentication, method for deciding face image candidate for authentication, program, and recording medium
CN111071113A (zh) * 2018-10-19 2020-04-28 上海商汤智能科技有限公司 车辆座椅智能调节方法和装置、车辆、电子设备、介质
US11386678B2 (en) * 2018-11-13 2022-07-12 Denso International America, Inc. Driver authentication for vehicle-sharing fleet
WO2020166002A1 (ja) * 2019-02-14 2020-08-20 三菱電機株式会社 搭乗者状態検出装置
JP7255226B2 (ja) * 2019-02-15 2023-04-11 日本電気株式会社 処理システム及び処理方法
JP7234678B2 (ja) * 2019-02-15 2023-03-08 日本電気株式会社 処理システム及び処理方法
CN112149482A (zh) * 2019-06-28 2020-12-29 深圳市商汤科技有限公司 驾驶员在岗状态检测方法、装置、设备和计算机存储介质
WO2021001942A1 (ja) * 2019-07-02 2021-01-07 三菱電機株式会社 運転者監視装置及び運転者監視方法
JP6906023B2 (ja) * 2019-08-13 2021-07-21 本田技研工業株式会社 車両用認証装置
JP7358263B2 (ja) * 2020-02-12 2023-10-10 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP7427463B2 (ja) 2020-02-12 2024-02-05 本田技研工業株式会社 車両制御装置、車両制御方法、及び車両制御用プログラム
JP7363758B2 (ja) 2020-12-23 2023-10-18 株式会社デンソー 状態監視装置及び状態監視プログラム
KR20220165030A (ko) * 2021-06-07 2022-12-14 현대자동차주식회사 차량 및 그 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060095A (ja) * 1999-08-23 2001-03-06 Auto Network Gijutsu Kenkyusho:Kk 車載音量調整装置
JP2006306191A (ja) * 2005-04-27 2006-11-09 Denso Corp 車両用個人認証システム
JP2007308069A (ja) * 2006-05-19 2007-11-29 Toyota Motor Corp 車両用防眩装置
JP2010213749A (ja) * 2009-03-13 2010-09-30 Omron Corp 車両動作制御装置および方法、並びにプログラム
JP2015115028A (ja) * 2013-12-16 2015-06-22 株式会社ニコン 顔認証装置、顔認証システム、顔認証方法、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4325271B2 (ja) * 2003-05-12 2009-09-02 日産自動車株式会社 状態検出装置及び状態検出システム
JP2005066023A (ja) * 2003-08-25 2005-03-17 Nissan Motor Co Ltd 運転者状態検出装置
JP2007062503A (ja) * 2005-08-30 2007-03-15 Toyota Motor Corp 車載機器制御装置
JP2008071172A (ja) * 2006-09-14 2008-03-27 Toshiba Corp 顔認証装置、顔認証方法および入退場管理装置
JP5045128B2 (ja) * 2007-02-01 2012-10-10 オムロン株式会社 顔認証装置
JP2009284442A (ja) * 2008-05-26 2009-12-03 Fujitsu Ten Ltd 人物認証装置および人物認証方法
JP6147056B2 (ja) 2013-03-29 2017-06-14 株式会社メガチップス 画像検出装置及び制御プログラム並びに画像検出方法
JP2015071319A (ja) 2013-10-01 2015-04-16 株式会社オートネットワーク技術研究所 運転者特定システム
JP6187817B2 (ja) * 2013-10-09 2017-08-30 アイシン精機株式会社 顔検出装置、方法およびプログラム
CN105701445A (zh) * 2014-12-15 2016-06-22 爱信精机株式会社 判定装置及判定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060095A (ja) * 1999-08-23 2001-03-06 Auto Network Gijutsu Kenkyusho:Kk 車載音量調整装置
JP2006306191A (ja) * 2005-04-27 2006-11-09 Denso Corp 車両用個人認証システム
JP2007308069A (ja) * 2006-05-19 2007-11-29 Toyota Motor Corp 車両用防眩装置
JP2010213749A (ja) * 2009-03-13 2010-09-30 Omron Corp 車両動作制御装置および方法、並びにプログラム
JP2015115028A (ja) * 2013-12-16 2015-06-22 株式会社ニコン 顔認証装置、顔認証システム、顔認証方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230199041A1 (en) * 2021-12-21 2023-06-22 Nevolane Business Gmbh Remote collaboration platform

Also Published As

Publication number Publication date
CN110088761B (zh) 2023-11-14
WO2018116373A1 (ja) 2018-06-28
US20210174065A1 (en) 2021-06-10
JP6807951B2 (ja) 2021-01-06
DE112016007536T5 (de) 2019-09-26
US11087120B2 (en) 2021-08-10
CN110088761A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
JP6807951B2 (ja) 画像認証装置、画像認証方法および自動車
US20060215884A1 (en) Apparatus for authenticating vehicle driver
EP1700761B1 (en) Apparatus for authenticating vehicle driver
JP2005096744A (ja) 乗員認証装置
US10824886B2 (en) Occupant monitoring device for vehicle
WO2019180876A1 (ja) 体格推定装置および体格推定方法
KR101165106B1 (ko) 얼굴 인식에 기반한 운전자 인증 장치 및 방법
JP2010100142A (ja) 車両デバイス制御装置
EP3560770A1 (en) Occupant information determination apparatus
JP2008062805A (ja) 車輌用後視鏡装置
KR102266354B1 (ko) 다중설정을 위한 생체인증 장치 및 방법
CN110789477A (zh) 试驾车辆的控制方法及装置、云平台、车载智能设备
WO2021044566A1 (ja) 体格判定装置および体格判定方法
CN107791985B (zh) 乘员分类以及提供在机动车中安全装置的乘员分类的方法
JP7446492B2 (ja) 車両監視装置、車両監視システム、及び車両監視方法
WO2022254501A1 (ja) 個人認証装置及び個人認証システム
JP2010208416A (ja) 車載装置設定装置、車載装置設定プログラム及び方法
WO2022195715A1 (ja) 乗員検知装置及び乗員検知システム
US20220272269A1 (en) Occupant monitoring device for vehicle
JP7378681B2 (ja) 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム
JP7370456B2 (ja) 乗員状態判定装置および乗員状態判定方法
WO2021192007A1 (ja) 顔検出装置
US11390249B2 (en) Vehicle vision system
WO2022018830A1 (ja) 撮像装置及び情報処理装置
KR20210154310A (ko) 차량 및 그 제어방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201208

R150 Certificate of patent or registration of utility model

Ref document number: 6807951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250