JP3999983B2 - Operator monitoring device - Google Patents

Operator monitoring device Download PDF

Info

Publication number
JP3999983B2
JP3999983B2 JP2002059375A JP2002059375A JP3999983B2 JP 3999983 B2 JP3999983 B2 JP 3999983B2 JP 2002059375 A JP2002059375 A JP 2002059375A JP 2002059375 A JP2002059375 A JP 2002059375A JP 3999983 B2 JP3999983 B2 JP 3999983B2
Authority
JP
Japan
Prior art keywords
operator
face image
captured
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002059375A
Other languages
Japanese (ja)
Other versions
JP2003256813A (en
Inventor
彰夫 岡崎
明 戸島
憲一 平松
宏治 三上
素直 和田
正雄 菅
章裕 笠原
幸一 野口
直樹 遠藤
康彦 鈴木
秀夫 清水
達 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002059375A priority Critical patent/JP3999983B2/en
Publication of JP2003256813A publication Critical patent/JP2003256813A/en
Application granted granted Critical
Publication of JP3999983B2 publication Critical patent/JP3999983B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、たとえば、航空機、走行車両、船舶などの操作者(運転者)を、操作者の顔画像といった生体情報(バイオメトリクス)に基づいた本人認証技術を応用して監視する操作者監視装置に関する。
【0002】
【従来の技術】
従来、バイオメトリクスとしては、指紋、手形、声紋、サイン、網膜、虹彩などが実用化されている。これらは、方式的には、装置に直に触れる「接触形」と触れる必要のない「非接触形」とに分類することができる。
すなわち、上記バイオメトリクスの例のうち、指紋、手形、サインは「接触形」に属するものである。ただし、サインは本人が署名するという行動を起こさなければならないという点で、指紋などとは多少性質が異なっている。
【0003】
これに対して、本人が意識する必要があるという点では、同様なバイオメトリクスが声紋(音声)照合であるが、これは「非接触形」に属する。また、カメラから対象部位の画像を取込んで処理するという点で、網膜や虹彩は「非接触形」に属すると言えるが、網膜は眼球の奥に位置し、眼をレンズにほとんど接触させる必要があるため、接触形に近いものである。
なお、虹彩は、眼球の表面に現れているため、離れた位置からのカメラで入力可能であるが、微細パターンであるため、離せる距離にはおのずと限界がある。これに対して最近、注目を集めている非接触形のバイオメトリクスが、顔画像から得られる顔パターンによる個人識別である。顔パターンは虹彩パターンよりもスケールが大きいため、比較的離れた位置からでも入力が可能あること、人間どうしの個人識別においても使われており、人間系との親和性がよい点が大きな特徴である。
【0004】
【発明が解決しようとする課題】
従来、たとえば、航空機、走行車両、船舶などの特に、公共の交通機関の不正な操作者(運転者)の交代に関しては、管理・防止する有効な一般的手段は存在しなかった。
可能な手段としては、ICカードなどを用いた身分証明手段を携帯して、運転・操作席付近に設置されたICカードリーダに読取らせて自動的に本人確認することが考えられるが、操作性が必ずしも良いとは言えず、また、盗難、故意の貸出しの可能性があるなど、セキュリティレベルが必ずしも高いとは言えない。
【0005】
一方、従来からの顔画像を用いた個人認証システムは、通常のビデオカメラを適当な位置に1台設置し、正面または正面に近い顔画像を取込んで、あらかじめ同様な条件で登録した顔画像とパターン照合を行なうものであった。
たとえば、文献1(「動画像を用いた顔認識システム」信学技報 PRMU97-50,1997年6月;山口、福井、前田著)や、文献2(「形状抽出とパターン照合 の組合せによる顔特徴点抽出」信学論D−II.Vol.j-80-D-II No.8 1997年8 月 ;福井、山口著)に示されるような、カメラをやや下方に設置して、下から見上げた顔画像を取り込んで登録・照合を行なうシステムが提案されている。顔画像による本人確認は、非接触により対象者の顔画像を取込めるという利点を持つが、操作者の確認に効果的に応用された例は従来、見当たらない。
【0006】
そこで、本発明は、顔画像照合方式の自然さや利便性という長所を最大限活かし、全体としてのセキュリティレベルを従来よりも大幅に向上させ、操作者の交代管理、正当性確認、不正者の検知などを行なうことができる操作者監視装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の操作者監視装置は、被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を初期の顔画像として登録する顔画像登録手段と、所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像と前記顔画像登録手段により登録された顔画像とを照合することにより、操作者が交代したか否かを判定する判定手段と、この判定手段により操作者が交代したと判定された場合、判定時に取込んだ操作者の顔画像を新たな登録顔画像として前記顔画像登録手段に登録する制御手段とを具備している。
【0008】
また、本発明の操作者監視装置は、被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を初期の顔画像として登録する顔画像登録手段と、この顔画像登録手段による顔画像の登録時に取込まれた操作者の顔画像を、あらかじめ正当な操作者の顔画像が登録されている正当者リストの顔画像と照合することにより、当該操作者は正当な操作者であるか否かを確認する第1の確認手段と、この第1の確認手段により正当な操作者であると認められた場合、所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像と前記顔画像登録手段により登録された顔画像とを照合することにより、操作者が交代したか否かを判定する判定手段と、この判定手段により操作者が交代したと判定された場合、前記判定手段の判定時に取込まれた操作者の顔画像を前記正当者リストの顔画像と照合することにより、当該操作者は正当な操作者であるか否かを確認する第2の確認手段と、前記第1、第2の確認手段により正当な操作者でないと認められた場合、あらかじめ定められた所定の動作を行なう制御手段とを具備している。
【0009】
また、本発明の操作者監視装置は、被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を初期の顔画像として登録する顔画像登録手段と、この顔画像登録手段による顔画像の登録時に取込まれた操作者の顔画像を、あらかじめ特定の不正な操作者の顔画像が登録されている不正者リストの顔画像と照合することにより、当該操作者は特定の不正な操作者であるか否かを確認する第1の確認手段と、この第1の確認手段により特定の不正な操作者でないと認められた場合、所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像と前記顔画像登録手段により登録された顔画像とを照合することにより、操作者が交代したか否かを判定する判定手段と、この判定手段により操作者が交代したと判定された場合、前記判定手段の判定時に取込まれた操作者の顔画像を前記不正者リストの顔画像と照合することにより、当該操作者は特定の不正な操作者であるか否かを確認する第2の確認手段と、前記第1、第2の確認手段により特定の不正な操作者であると認められた場合、あらかじめ定められた所定の動作を行なう制御手段とを具備している。
【0010】
また、本発明の操作者監視装置は、被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を、あらかじめ正当な操作者の顔画像が登録されている正当者リストの顔画像と照合することにより、当該操作者は正当な操作者であるか否かを確認する第1の確認手段と、この第1の確認手段により正当な操作者であると認められた場合、所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を前記正当者リストの顔画像と照合することにより、当該操作者は正当な操作者であるか否かを確認する第2の確認手段と、前記第1、第2の確認手段により正当な操作者でないと認められた場合、あらかじめ定められた所定の動作を行なう制御手段とを有し、前記第1、第2の確認手段のうち少なくともいずれか一方の確認手段は、正当者リストの顔画像との照合の結果、正当な操作者であると認められた場合、さらに、被操作物のハンドルに対する左右への操作者の手の握る圧力の付加順序があらかじめ定められた順序であるか否かによる本人確認手段を用いて再度、当該操作者は正当な操作者であるか否かを確認することを特徴とする
さらに、本発明の操作者監視装置は、被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を初期の顔画像として登録する顔画像登録手段と、所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像と前記顔画像登録手段により登録された顔画像とを照合することにより、操作者が交代したか否かを判定する判定手段と、この判定手段により操作者が交代したと判定された場合、前記判定手段の判定時に取込んだ操作者の顔画像を新たな登録顔画像として前記顔画像登録手段に登録するとともに、少なくとも当該取込まれた操作者の顔画像を記録媒体に記録するか、あるいは、あらかじめ定められた所へ伝送する制御手段とを具備している。
【0011】
【発明の実施の形態】
まず、本発明の実施の形態を説明する前に本発明の概要について説明しておく。本発明は、大きく分けて以下に示す(1)〜(5)の5つの発明から構成される。
(1)顔照合により操作者の交代の検知、管理を行なう。
・操作者が被操作物(航空機、走行車両、船舶など)を操作しているときの顔画像を取込み可能な位置および向きに少なくとも1個のカメラ(画像入力手段)を設置する(複数個設置も可能)。この場合、カメラは、たとえば、被操作物を操作するハンドルの中心位置、あるいは、操作者の前面に位置する操作卓や操作パネルに設けて、操作者に対し下斜め方向から見た顔画像を撮像する。
【0012】
・操作が開始される時点で、その時点の操作者の顔画像を取込み、所定の処理を施した顔画像を初期の顔画像として登録する。この場合、操作が開始される時点は、たとえば、被操作物のハンドルに所定値以上の圧力がかかったとき、あるいは、操作者が着座する座席の荷重が所定値以上かかったとき、あるいは、常時、一定周期でカメラより画像を取込み、画像解析により変化を検知したときである。
【0013】
・所定のタイミングで操作者の顔画像を取込み、登録された顔画像との照合を行なうことにより、操作者が交代したかどうかの判定を行なう。この場合、所定のタイミングは、たとえば、操作者が着座する座席の荷重が一旦ゼロになってから再度荷重が加わった時点、あるいは、常時、一定の周期とする。
【0014】
・操作者の交代を検知したならば、所定の動作を行なう。この場合、所定の動作としては、たとえば、その時点で取込まれた顔画像を新たな顔画像として登録する。あるいは、その時点で取込まれた顔画像と時間などの属性情報を記録装置で記録するか、あらかじめ決められた所へ伝送する。
(2)顔照合により操作者の交代検知および正当性確認を行なう。
・操作者が被操作物を操作しているときの顔画像を取込み可能な位置および向きに少なくとも1個のカメラ(画像入力手段)を設置する(複数個設置も可能)。
【0015】
・操作が開始される時点で、その時点の操作者の顔画像を取込み、所定の処理を施した顔画像を初期の顔画像として登録する。同時に、あらかじめ正当な操作者の顔画像が登録された正当者リスト内の顔画像との照合確認を行なう。確認の結果、もし正当な操作者として認められなかった場合は、所定の動作を実行する。
【0016】
・所定のタイミングで操作者の顔画像を取込み、登録された顔画像との照合を行なうことにより、操作者が交代したかどうかの判定を行なう。操作者の交代を検知したならば、あらかじめ正当な操作者の顔画像が登録された正当者リスト内の顔画像との照合確認を行なう。確認の結果、もし正当な操作者として認められなかった場合は、所定の動作を実行する。
・正当な操作者として認められなかった場合の動作として、当該被操作物の操作を不能とする。あるいは、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ通報する。
(3)上記(2)の変形タイプ1
・操作の開始、操作者の交代時点において、顔画像の照合と他の本人確認手段を組合わせる。この場合、他の本人確認手段としては、被操作物のハンドルに対する左右への操作者の手の握る圧力の付加順序(たとえば、右から左へ、などの順序)を暗証コード代わりとする。すなわち、ハンドルに対する左右への手の握る圧力の付加順序があらかじめ定められた順序であるか否かにより本人確認を行なう。あるいは、操作者の音声照合による本人確認手段であってもよい。
(4)上記(2)の変形タイプ2
・正当者リストとの照合の代わりに、あるいは、正当者リストとの照合により正当な操作者でないと認められた場合に、あらかじめ特定の不正な操作者の顔画像が登録されている不正者リスト(いわゆる、ブラックリスト)内の顔画像との照合確認を行なう。確認の結果、もし不正な操作者として認められる場合は、所定の動作を実行する。
(5)上記(2)の変形タイプ3
・操作者の交代を検知した後に、正当者リストや不正者リスト(ブラックリスト)との照合を行なうのでなく、直ちに、正当者リストや不正者リストとの照合を行なう。
【0017】
なお、上記(1)〜(5)の発明は、単独であっても、互いに組合せても実施可能であることは説明するまでもないことである。
【0018】
以下、本発明の実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。第1の実施の形態は、前述した(1)の発明に対応している。
図1は、第1の実施の形態に係る操作者監視装置の構成を概略的に示すものである。図1において、画像入力手段としての複数のビデオカメラ(以後、単にカメラと称す。複数でなく1個でもよい)1−1,1−2,…,1−Nは、被操作物(たとえば、航空機、走行車両、船舶など)を操作する操作者の顔画像を撮像して入力するもので、本実施の形態では、モノクロの撮影が可能なビデオカメラを採用している。
【0019】
カメラ1−1,1−2,…,1−Nの各出力は、それぞれキャプチャボード2−1,2−2,…,2−Nの入力にそれぞれ接続されている。すなわち、カメラ1−1からのビデオ信号(アナログデータ)1は、A/D変換回路2−1aによりデジタルデータに変換された後、画像メモリ2−1bに一旦格納される。ここでは、説明の簡略化のために、図示を省略しているが、キャプチャボード2−2,…,2−N内にも、同様にA/D変換回路、画像メモリが配置されており、ビデオ信号2〜Nについても、キャプチャボード2−2,…,2−N内において同様の処理がなされる。
なお、カメラ1−1,1−2,…,1−NがUSB(ユニバーサル・シリアル・バス)インタフェイスを備えている場合には、A/D変換回路2−1aは不要となり、USBインタフェイスを別途設けることになる。
【0020】
キャプチャボード2−1,2−2,…,2−Nと、記録インタフェイス3、処理プロセッサ4、ワークメモリ5、表示ボード6、登録手段としての辞書7は、システムバス8を介して通信自在に接続されている。表示ボード6には、ディスプレイ9が接続されている。辞書7は、複数の辞書データ(基準の顔特徴データ)が登録(記憶)される。
【0021】
処理プロセッサ4は、各カメラ1−1,1−2,…,1−Nに対して、同期を取るための制御信号を送信し、各カメラ1−1,1−2,…,1−Nから送られる顔画像に係るデジタルデータを取込み、当該データに対して、ワークメモリ5や辞書7を用いながら、後述するような顔画像の登録、照合処理を行なう。
【0022】
記録インタフェイス3には、記録手段としてのハードディスク装置などの記録装置10が接続されている。記録装置10は、操作者の顔画像や顔特徴データなどをハードディスクなどの記録媒体に記録するものである。
また、システムバス8には、座席荷重検出手段としての座席荷重検出装置11が接続されている。座席荷重検出装置11は、操作者が着座する被操作物の座席の荷重を検出するものである。さらに、システムバス8には、通信制御部12が接続されている。通信制御部12は、外部装置、たとえば、本装置を運営する企業の監視センタなどと通信を行なうためのものである。
【0023】
図2、図3は、カメラの配置例を示している。図2(a)は、カメラが1個の場合で、たとえば、被操作物を操作するハンドル21の中心部にカメラ1−1が設置されていて、操作者の頭部に対し下斜め方向から見た顔画像を撮像するように、位置および向きが設定されている。なお、図2(b)は操作者の頭部22に対し真上から見た図、図2(c)は操作者の頭部22に対し真横から見た図を示している。
図3は、カメラが複数個の場合で、たとえば、操作者の前面に位置する操作パネル23にカメラ1−1,1−2が設置されていて、操作者の頭部に対し下斜め方向から見た顔画像を撮像するようになっている。
図4は、たとえば、図2のカメラ1−1で撮像された操作者の顔画像の一例を示しており、操作者の顔を下斜め方向から見た顔画像を捕らえていることがわかる。
【0024】
以下、図5に示すフローチャートを参照して、第1の実施の形態に係る操作者監視装置の処理プロセッサ4による顔画像の登録処理を説明する。なお、以下の説明は、たとえば、図2のようにカメラが1つ設置された場合である。
まず、処理プロセッサ4は、管理番号の発行を行なう(ステップS1)。次に、カメラ1−1からの入力画像を取込む(ステップS2)。次に、入力画像の全体から顔領域を検出する(ステップS3)。次に、検出された顔領域内において、ほぼ円形領域とみなせる瞳領域と鼻孔領域を検出し、その領域の中心位置を顔画像の特徴点とする(ステップS4)。なお、このステップS3,S4の処理では、たとえば、前記した文献2で述べられている従来方法を採用することができる。
【0025】
次に、検出した特徴点の位置を基準とした照合領域の切出しを行ない(ステップS5)、幾何補正による大きさの正規化を行ない(ステップS6)、濃度補正による濃度分布の正規化を行なう(ステップS7)。次に、特徴抽出によるベクトルパターン表現を行ない、顔特徴データ(以降、辞書データとも言う)として辞書7に登録する(ステップ8)。この場合、先に発行された管理番号などの属性情報とともに顔特徴データが登録される。
【0026】
次に、図6に示すフローチャートを参照して、第1の実施の形態に係る操作者監視装置の処理プロセッサ4による顔画像の照合処理を説明する。なお、以下の説明は、たとえば、図2のようにカメラが1つ設置された場合である。
まず、処理プロセッサ4は、カメラ1−1からの入力画像を取込む(ステップS11)。次に、入力画像の全体から顔領域を検出する(ステップS12)。次に、顔領域の検出が成功したか否かを判定し(ステップS13)、成功すれば、検出された顔領域内において、ほぼ円形領域とみなせる瞳領域と鼻孔領域を検出し、その領域の中心位置を顔画像の特徴点とする(ステップS14)。
【0027】
次に、検出した特徴点の位置を基準とした照合領域の切出しを行ない(ステップS15)、幾何補正による大きさの正規化を行ない(ステップS16)、濃度補正による濃度分布の正規化を行なう(ステップS17)。次に、特徴抽出によるベクトルパターン表現を行ない、入力された顔特徴データとして辞書7の辞書データと照合する(ステップ18)。すなわち、入力された顔特徴データと辞書7に登録された複数の顔特徴データとをそれぞれ照合することにより類似度が計算され、この求められた類似度があらかじめ設定される所定の閾値よりも大きい場合に照合成功(正当な操作者)となり、それ以外は照合失敗(正当でない操作者)となる。
【0028】
次に、上記した登録および照合処理を用いた操作者の交代検知処理の流れについて、図7に示すフローチャートを参照して説明する。なお、以下の説明は、たとえば、図2のようにハンドル21の中央部に1つのカメラ1−1が設置された場合である。また、以下に説明する処理は、主として処理プロセッサ4の処理プログラムに基づく動作によって行なわれる。
【0029】
まず、座席荷重検出装置11の出力を参照することにより、操作者が着座する被操作物の座席の荷重があらかじめ定められた所定値以上かかったか否か(すなわち、被操作物の操作開始か否か)を判定する(ステップS21)。この判定の結果、座席の荷重が所定値以上かかった場合、操作者が着座して被操作物の操作を開始したものとみなし、ハンドル21の中央部に設置されたカメラ1−1からの入力画像を取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データを初期の登録顔画像として辞書7に登録する(ステップS22)。
【0030】
次に、このときの入力画像(顔画像)およびそれから抽出した顔特徴データを、当該日時データなどの属性情報とともに記録装置10で記録するか、あるいは、通信制御部12により、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ送信する(ステップS23)。
【0031】
次に、座席荷重検出装置11の出力を参照することにより、座席の荷重があらかじめ定められた所定値以下になったか否か(すなわち、被操作物の操作終了か否か)を判定する(ステップS24)。この判定の結果、座席の荷重が所定値以下になった場合、操作者が操作を終了して座席から離れたものとみなし、ここで処理を終了する。
【0032】
ステップS24の判定の結果、座席の荷重が所定値以下になっていない場合、まだ操作者が着座していて操作を終了していないものとみなし、座席荷重検出装置11の出力を参照することにより、座席の荷重が一旦ゼロになってから再度加わったか否か(すなわち、操作者が交代したか否か)を判定する(ステップS25)。この判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態ではない場合、操作者は交代していないものとみなして、ステップS24に戻り、上記同様な動作を繰り返す。
【0033】
ステップS25の判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態である場合、操作者は交代しているものとみなして、カメラ1−1からの入力画像を再度取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データと辞書7に登録されている複数の辞書データ(顔特徴データ)とを照合し、両者の類似度を計算する(ステップS26)。
【0034】
次に、ステップS26で計算した類似度が、あらかじめ設定される所定の閾値よりも大きいか否かを判定し(ステップS27)、大きい場合、操作者が一度交代したが前回と同じ正当な操作者であるとみなして、ステップS24に戻り、上記同様な動作を繰り返す。
【0035】
ステップS27の判定の結果、計算した類似度が設定された閾値よりも小さい場合、最終的に操作者は交代したものとみなし、たとえば、ステップS26の照合時に取込んだ顔画像から得た顔特徴データを新たな辞書データとして辞書7に登録するとともに、当該入力画像(顔画像)および顔特徴データを当該日時データなどの属性情報とともに記録装置10で記録するか、あるいは、通信制御部12により、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ送信して(ステップS28)、ステップS24に戻り、上記同様な動作を繰り返す。
このように、第1の実施の形態によれば、操作者の顔照合により操作者の交代の検知、管理を行なうことが可能となる。
【0036】
次に、第2の実施の形態について説明する。第2の実施の形態は、前述した(2)の発明に対応している。
第2の実施の形態は、第1の実施の形態と同様な顔照合により操作者の交代検知および正当性確認を行なうもので、装置構成は第1の実施の形態と同様でよいが、処理の流れが異なっており、以下、それについて図8および図9に示すフローチャートを参照して説明する。
【0037】
なお、以下の説明は、たとえば、図2のようにハンドル21の中央部に1つのカメラ1−1が設置された場合である。また、本実施の形態では、正当な操作者は全て正当者リストの形式で、たとえば、ワークメモリ5内に登録(記憶)されているものとする。さらに、以下に説明する処理は、主として処理プロセッサ4の処理プログラムに基づく動作によって行なわれる。
【0038】
まず、座席荷重検出装置11の出力を参照することにより、操作者が着座する被操作物の座席の荷重があらかじめ定められた所定値以上かかったか否か(すなわち、被操作物の操作開始か否か)を判定する(ステップS31)。この判定の結果、座席の荷重が所定値以上かかった場合、操作者が着座して被操作物の操作を開始したものとみなし、ハンドル21の中央部に設置されたカメラ1−1からの入力画像を取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データを初期の登録顔画像として辞書7に登録する(ステップS32)。
【0039】
次に、このときの入力画像(顔画像)およびそれから抽出した顔特徴データを、当該日時データなどの属性情報とともに記録装置10で記録するか、あるいは、通信制御部12により、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ送信する(ステップS33)。
【0040】
次に、ステップS32で得た顔特徴データを、全ての正当な操作者の顔特徴データが登録されている正当者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS34)。次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが正当者リスト内に存在するか否か(すなわち、当該操作者は正当な操作者か否か)を判定する(ステップS35)。
【0041】
この判定の結果、存在しない場合、当該操作者は正当な操作者でないとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、あらかじめ定められた所、たとえば、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS36)、ここで処理を終了する。
【0042】
ステップS35の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在する場合、当該操作者は正当な操作者であるとみなし、再度、座席荷重検出装置11の出力を参照することにより、座席の荷重があらかじめ定められた所定値以下になったか否か(すなわち、被操作物の操作終了か否か)を判定する(ステップS37)。この判定の結果、座席の荷重が所定値以下になった場合、操作者が操作を終了して座席から離れたものとみなし、ここで処理を終了する。
【0043】
ステップS37の判定の結果、座席の荷重が所定値以下になっていない場合、まだ操作者が着座していて操作を終了していないものとみなし、座席荷重検出装置11の出力を参照することにより、座席の荷重が一旦ゼロになってから再度加わったか否か(すなわち、操作者が交代したか否か)を判定する(ステップS38)。この判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態ではない場合、操作者は交代していないものとみなして、ステップS37に戻り、上記同様な動作を繰り返す。
【0044】
ステップS38の判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態である場合、操作者は交代しているものとみなして、カメラ1−1からの入力画像を再度取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データと辞書7に登録されている複数の辞書データ(顔特徴データ)とを照合し、両者の類似度を計算する(ステップS39)。
【0045】
次に、ステップS39で計算した類似度が、あらかじめ設定される所定の閾値よりも大きいか否かを判定し(ステップS40)、大きい場合、操作者が交代したが前回と同じ正当な操作者であるとみなして、ステップS37に戻り、上記同様な動作を繰り返す。
【0046】
ステップS40の判定の結果、計算した類似度が設定された閾値よりも小さい場合、最終的に操作者は交代したものとみなし、たとえば、ステップS39の照合時に取込んだ顔画像から得た顔特徴データを新たな辞書データとして辞書7に登録するとともに、当該入力画像(顔画像)および顔特徴データを当該日時データなどの属性情報とともに記録装置10で記録するか、あるいは、通信制御部12により、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ送信する(ステップS41)。
【0047】
次に、ステップS39で得た顔特徴データを前記正当者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS42)。次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが正当者リスト内に存在するか否か(すなわち、当該操作者は正当な操作者か否か)を判定する(ステップS43)。
【0048】
この判定の結果、存在しない場合、当該操作者は正当な操作者でないとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS44)、ここで処理を終了する。
【0049】
ステップS43の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在する場合、当該操作者は正当な操作者であるとみなして、ステップS37に戻り、上記同様な動作を繰り返す。
このように、第2の実施の形態によれば、操作者の顔照合により操作者の交代検知および正当性確認を行なうことが可能となる。
【0050】
次に、第3の実施の形態について説明する。第3の実施の形態は、前述した(3)の発明に対応している。
第3の実施の形態は、第2の実施の形態に対してさらに本人確認機能を強化したもので、装置構成は基本的には第1の実施の形態と同様でよいが、被操作物のハンドルに圧力検知器を設ける点、および、処理の流れが異なっており、以下、それについて説明する。
【0051】
第3の実施の形態では、たとえば、図10に示すように、被操作物のハンドル21の操作者が両手で握る左右の部分にそれぞれ圧力検知器24a,24bが埋設されていて、操作者が両手でハンドル21を握ったときの左右の圧力を検知するようになっている。
【0052】
以下、処理の流れについて図11および図12に示すフローチャートを参照して説明する。
まず、座席荷重検出装置11の出力を参照することにより、操作者が着座する被操作物の座席の荷重があらかじめ定められた所定値以上かかったか否か(すなわち、被操作物の操作開始か否か)を判定する(ステップS51)。この判定の結果、座席の荷重が所定値以上かかった場合、操作者が着座して被操作物の操作を開始したものとみなし、ハンドル21の中央部に設置されたカメラ1−1からの入力画像を取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データを初期の登録顔画像として辞書7に登録する(ステップS52)。
【0053】
次に、このときの入力画像(顔画像)およびそれから抽出した顔特徴データを、当該日時データなどの属性情報とともに記録装置10で記録するか、あるいは、通信制御部12により、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ送信する(ステップS53)。
【0054】
次に、ステップS32で得た顔特徴データを、全ての正当な操作者の顔特徴データが登録されている正当者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS54)。次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが正当者リスト内に存在するか否か(すなわち、当該操作者は正当な操作者か否か)を判定する(ステップS55)。
【0055】
この判定の結果、存在しない場合、当該操作者は正当な操作者でないとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、あらかじめ定められた所、たとえば、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS56)、ここで処理を終了する。
【0056】
ステップS55の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在する場合、たとえば、音声案内あるいは案内メッセージの表示により、ハンドル21に対して所定の操作を行なうよう案内する(ステップS57)。この案内により、正当な操作者であれば、あらかじめ教えられた所定の操作、たとえば、最初に右手で圧力検知器24aの部分を強く握り、次に左手で圧力検知器24bの部分を強く握るなどの操作を行なう。
【0057】
次に、圧力検知器24a,24bの出力を参照することにより、ハンドル21に対する左右への操作者の手の握る圧力の付加順序があらかじめ定められた正しい順序であるか否かを判定する(ステップS58)。この判定の結果、握る圧力の付加順序が正しい順序でなかった場合、当該操作者は正当な操作者でないとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS56)、ここで処理を終了する。
【0058】
ステップS58の判定の結果、握る圧力の付加順序が正しい順序であった場合、当該操作者は正当な操作者であるとみなし、再度、座席荷重検出装置11の出力を参照することにより、座席の荷重があらかじめ定められた所定値以下になったか否か(すなわち、被操作物の操作終了か否か)を判定する(ステップS59)。この判定の結果、座席の荷重が所定値以下になった場合、操作者が操作を終了して座席から離れたものとみなし、ここで処理を終了する。
【0059】
ステップS59の判定の結果、座席の荷重が所定値以下になっていない場合、まだ操作者が着座していて操作を終了していないものとみなし、座席荷重検出装置11の出力を参照することにより、座席の荷重が一旦ゼロになってから再度加わったか否か(すなわち、操作者が交代したか否か)を判定する(ステップS60)。この判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態ではない場合、操作者は交代していないものとみなして、ステップS59に戻り、上記同様な動作を繰り返す。
【0060】
ステップS60の判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態である場合、操作者は交代しているものとみなして、カメラ1−1からの入力画像を再度取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データと辞書7に登録されている複数の辞書データ(顔特徴データ)とを照合し、両者の類似度を計算する(ステップS61)。
【0061】
次に、ステップS61で計算した類似度が、あらかじめ設定される所定の閾値よりも大きいか否かを判定し(ステップS62)、大きい場合、操作者が交代したが前回と同じ正当な操作者であるとみなして、ステップS59に戻り、上記同様な動作を繰り返す。
【0062】
ステップS62の判定の結果、計算した類似度が設定された閾値よりも小さい場合、最終的に操作者は交代したものとみなし、たとえば、ステップS61の照合時に取込んだ顔画像から得た顔特徴データを新たな辞書データとして辞書7に登録するとともに、当該入力画像(顔画像)および顔特徴データを当該日時データなどの属性情報とともに記録装置10で記録するか、あるいは、通信制御部12により、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ送信する(ステップS63)。
【0063】
次に、ステップS61で得た顔特徴データを前記正当者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS64)。次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが正当者リスト内に存在するか否か(すなわち、当該操作者は正当な操作者か否か)を判定する(ステップS65)。
【0064】
この判定の結果、存在しない場合、当該操作者は正当な操作者でないとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS66)、ここで処理を終了する。
【0065】
ステップS65の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在する場合、音声案内あるいは案内メッセージの表示により、ハンドル21に対して所定の操作を行なうよう案内する(ステップS67)。
【0066】
次に、圧力検知器24a,24bの出力を参照することにより、ハンドル21に対する左右への操作者の手の握る圧力の付加順序があらかじめ定められた正しい順序であるか否かを判定する(ステップS68)。この判定の結果、握る圧力の付加順序が正しい順序でなかった場合、当該操作者は正当な操作者でないとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS66)、ここで処理を終了する。
【0067】
ステップS68の判定の結果、握る圧力の付加順序が正しい順序であった場合、当該操作者は正当な操作者であるとみなして、ステップS59に戻り、上記同様な動作を繰り返す。
このように、第3の実施の形態によれば、操作の開始、操作者の交代時点において、顔画像の照合と他の本人確認手段を組合わせることにより、さらに本人確認機能を強化することが可能となる。
【0068】
なお、他の本人確認手段としては、上記したような被操作物のハンドルに対する左右への操作者の手の握る圧力の付加順序によるものに限らず、たとえば、図10に示すように、ハンドル21の中央部に音声入力手段としてのマイクロフォン25を埋設しておき、音声案内あるいは案内メッセージの表示により、あらかじめ定められた所定の暗証コードを音声で入力するよう案内することにより、操作者の音声(声紋)照合による本人確認手段であってもよい。
【0069】
次に、第4の実施の形態について説明する。第4の実施の形態は、前述した(4)の発明に対応している。
第4の実施の形態は、第2の実施の形態における正当者リストとの照合の代わりに、不正者リスト(いわゆる、ブラックリスト)との照合確認を行なうようにしたもので、装置構成は第1の実施の形態と同様でよいが、処理の流れが異なっており、以下、それについて図13および図14に示すフローチャートを参照して説明する。
なお、本実施の形態では、不正な操作者は全て不正者リストの形式で、たとえば、ワークメモリ5内に登録(記憶)されているものとする。
【0070】
まず、座席荷重検出装置11の出力を参照することにより、操作者が着座する被操作物の座席の荷重があらかじめ定められた所定値以上かかったか否か(すなわち、被操作物の操作開始か否か)を判定する(ステップS71)。この判定の結果、座席の荷重が所定値以上かかった場合、操作者が着座して被操作物の操作を開始したものとみなし、ハンドル21の中央部に設置されたカメラ1−1からの入力画像を取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データを初期の登録顔画像として辞書7に登録する(ステップS72)。
【0071】
次に、このときの入力画像(顔画像)およびそれから抽出した顔特徴データを、当該日時データなどの属性情報とともに記録装置10で記録するか、あるいは、通信制御部12により、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ送信する(ステップS73)。
【0072】
次に、ステップS72で得た顔特徴データを、特定の不正な操作者の顔特徴データが登録されている不正者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS74)。次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが不正者リスト内に存在するか否か(すなわち、当該操作者は不正な操作者か否か)を判定する(ステップS75)。
【0073】
この判定の結果、存在する場合、当該操作者は不正な操作者であるとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、あらかじめ定められた所、たとえば、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS76)、ここで処理を終了する。
【0074】
ステップS75の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在しない場合、当該操作者は正当な操作者であるとみなし、再度、座席荷重検出装置11の出力を参照することにより、座席の荷重があらかじめ定められた所定値以下になったか否か(すなわち、被操作物の操作終了か否か)を判定する(ステップS77)。この判定の結果、座席の荷重が所定値以下になった場合、操作者が操作を終了して座席から離れたものとみなし、ここで処理を終了する。
【0075】
ステップS77の判定の結果、座席の荷重が所定値以下になっていない場合、まだ操作者が着座していて操作を終了していないものとみなし、座席荷重検出装置11の出力を参照することにより、座席の荷重が一旦ゼロになってから再度加わったか否か(すなわち、操作者が交代したか否か)を判定する(ステップS78)。この判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態ではない場合、操作者は交代していないものとみなして、ステップS77に戻り、上記同様な動作を繰り返す。
【0076】
ステップS78の判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態である場合、操作者は交代しているものとみなして、カメラ1−1からの入力画像を再度取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データと辞書7に登録されている複数の辞書データ(顔特徴データ)とを照合し、両者の類似度を計算する(ステップS79)。
【0077】
次に、ステップS79で計算した類似度が、あらかじめ設定される所定の閾値よりも大きいか否かを判定し(ステップS80)、大きい場合、操作者が交代したが前回と同じ正当な操作者であるとみなして、ステップS77に戻り、上記同様な動作を繰り返す。
【0078】
ステップS80の判定の結果、計算した類似度が設定された閾値よりも小さい場合、最終的に操作者は交代したものとみなし、たとえば、ステップS79の照合時に取込んだ顔画像から得た顔特徴データを新たな辞書データとして辞書7に登録するとともに、当該入力画像(顔画像)および顔特徴データを当該日時データなどの属性情報とともに記録装置10で記録するか、あるいは、通信制御部12により、あらかじめ定められた所(たとえば、本装置を運営する企業の監視センタなど)へ送信する(ステップS81)。
【0079】
次に、ステップS79で得た顔特徴データを前記不正者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS82)。次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが不正者リスト内に存在するか否か(すなわち、当該操作者は不正な操作者か否か)を判定する(ステップS83)。
【0080】
この判定の結果、存在する場合、当該操作者は不正な操作者であるとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS84)、ここで処理を終了する。
【0081】
ステップS83の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが不正者リスト内に存在しない場合、当該操作者は正当な操作者であるとみなして、ステップS77に戻り、上記同様な動作を繰り返す。
このように、第4の実施の形態によれば、ブラックリストとの照合を行なうことにより、不正な操作者を検知して排除することが可能となる。
【0082】
次に、第5の実施の形態について説明する。第5の実施の形態は、前述した(5)の発明に対応している。
第5の実施の形態は、第2の実施の形態のように、操作者の交代を検知した後に正当者リストとの照合を行なうのでなく、直ちに正当者リストとの照合を行なうもので、装置構成は第1の実施の形態と同様でよいが、処理の流れが異なっており、以下、それについて図15に示すフローチャートを参照して説明する。
【0083】
まず、座席荷重検出装置11の出力を参照することにより、操作者が着座する被操作物の座席の荷重があらかじめ定められた所定値以上かかったか否か(すなわち、被操作物の操作開始か否か)を判定する(ステップS91)。この判定の結果、座席の荷重が所定値以上かかった場合、操作者が着座して被操作物の操作を開始したものとみなし、ハンドル21の中央部に設置されたカメラ1−1からの入力画像を取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データを、全ての正当な操作者の顔特徴データが登録されている正当者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS92)。
【0084】
次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが正当者リスト内に存在するか否か(すなわち、当該操作者は正当な操作者か否か)を判定する(ステップS93)。この判定の結果、存在しない場合、当該操作者は正当な操作者でないとみなし、当該被操作物の操作(運転)が不能となるように制御するとともに、あらかじめ定められた所、たとえば、本装置を運営する企業の監視センタへ正当でない操作者を検知した旨を通知し(ステップS94)、ここで処理を終了する。
【0085】
ステップS93の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在する場合、当該操作者は正当な操作者であるとみなし、再度、座席荷重検出装置11の出力を参照することにより、座席の荷重があらかじめ定められた所定値以下になったか否か(すなわち、被操作物の操作終了か否か)を判定する(ステップS95)。この判定の結果、座席の荷重が所定値以下になった場合、操作者が操作を終了して座席から離れたものとみなし、ここで処理を終了する。
【0086】
ステップS95の判定の結果、座席の荷重が所定値以下になっていない場合、まだ操作者が着座していて操作を終了していないものとみなし、座席荷重検出装置11の出力を参照することにより、座席の荷重が一旦ゼロになってから再度加わったか否か(すなわち、操作者が交代したか否か)を判定する(ステップS96)。この判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態ではない場合、操作者は交代していないものとみなして、ステップS95に戻り、上記同様な動作を繰り返す。
【0087】
ステップS96の判定の結果、座席の荷重が一旦ゼロになってから再度加わった状態である場合、操作者は交代しているものとみなして、カメラ1−1からの入力画像を再度取込み、この取込んだ入力画像から前記同様な動作により顔特徴データを抽出し、この抽出した顔特徴データと辞書7に登録されている複数の辞書データ(顔特徴データ)とを照合し、両者の類似度を計算する(ステップS97)。
【0088】
次に、ステップS97で計算した類似度が、あらかじめ設定される所定の閾値よりも大きいか否かを判定し(ステップS98)、大きい場合、操作者が交代したが前回と同じ正当な操作者であるとみなして、ステップS95に戻り、上記同様な動作を繰り返す。
【0089】
ステップS98の判定の結果、計算した類似度が設定された閾値よりも小さい場合、不正な操作者に交代したものとみなしてステップS94に進み、前述同様な処理を行なった後、処理を終了する。
このように、第5の実施の形態によれば、操作者の交代を検知した後に正当者リストとの照合を行なうのでなく、直ちに正当者リストとの照合を行なうことが可能となる。
【0090】
次に、第6の実施の形態について説明する。第6の実施の形態は、前述した(4)の発明に対応している。
第6の実施の形態は、第4の実施の形態において、正当者リストとの照合により正当な操作者でないと判定された場合に、不正者リストとの照合確認を行なうようにしたもので、装置構成は第1の実施の形態と同様でよいが、正当者リストとの照合処理が追加されており、以下、それについて図16および図17に示すフローチャートを参照して説明する。
なお、図16および図17は、図13および図14に対して正当者リストとの照合処理を追加したもので、その他は図13および図14と同様であり、よって異なる部分(正当者リストとの照合処理)についてだけ説明する。
【0091】
ステップS73の処理が終了すると、ステップS72で得た顔特徴データを、全ての正当な操作者の顔特徴データが登録されている正当者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS85)。次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが正当者リスト内に存在するか否か(すなわち、当該操作者は正当な操作者か否か)を判定する(ステップS86)。
【0092】
この判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在する場合、当該操作者は正当な操作者であるとみなして、ステップS77に戻り、上記同様な動作を繰り返す。
ステップS86の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在しない場合、当該操作者は正当な操作者でないとみなして、ステップS74に進み、正当者リストとの照合を行なう。
【0093】
また、ステップS81の処理が終了すると、ステップS79で得た顔特徴データを、全ての正当な操作者の顔特徴データが登録されている正当者リスト内の各顔特徴データとそれぞれ照合し、両者の類似度を計算する(ステップS87)。次に、計算した類似度が、あらかじめ設定される所定の閾値よりも大きい顔特徴データが正当者リスト内に存在するか否か(すなわち、当該操作者は正当な操作者か否か)を判定する(ステップS88)。
【0094】
この判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在する場合、当該操作者は正当な操作者であるとみなして、ステップS77に戻り、上記同様な動作を繰り返す。
ステップS88の判定の結果、計算した類似度が所定の閾値よりも大きい顔特徴データが正当者リスト内に存在しない場合、当該操作者は正当な操作者でないとみなして、ステップS82に進み、正当者リストとの照合を行なう。
【0095】
このように、第6の実施の形態によれば、正当者リストとの照合により正当な操作者でないと判定された場合に、ブラックリストとの照合を行なうことにより、より一層、本人確認機能が強化される。
【0096】
次に、第7の実施の形態について説明する。第7の実施の形態は、前述した(5)の発明に対応している。
第7の実施の形態は、第5の実施の形態における正当者リストとの照合の代わりに、不正者リストとの照合確認を行なうようにしたもので、装置構成は第1の実施の形態と同様でよいが、処理の流れは図18に示すようになり、図15の正当者リストとの照合処理を行なうステップS92が、不正者リストとの照合処理を行なうステップS99に変わった点が異なり、それ以外は図15と同様であるので、説明は省略する。
このように、第7の実施の形態によれば、操作者の交代を検知した後に不正者リストとの照合を行なうのでなく、直ちに不正者リストとの照合を行なうことが可能となる。
【0097】
以上説明したように、上記実施の形態によれば、顔画像のパターン照合方式の自然さ(ユーザ負担が非常に小さい)や利便性という長所を最大限生かし、全体としてのセキュリティレベルを従来よりも大幅に向上させることが可能となる。そして、顔画像認識方式の非接触性の利点を活かし、操作者の交代管理、正当性確認、不正者の検知などを行なうことができる。
【0098】
なお、前記実施の形態では、顔画像を入力する画像入力手段としてモノクロカメラを用いたが、カラーカメラを用いてもよく、その場合は、顔画像の取込み後にモノクロ画像に変換する処理を追加すればよい。
また、1枚の顔画像(静止画)を処理対象としたが、入力条件の変動を考慮して、一定時間間隔で複数の連続した顔画像(動画像)を取込んで、図1のキャプチャボードの画像メモリにバッファリングしてもよい。
【0099】
動画像を用いる際にも、登録のときのみ用いる場合と、登録と照合の両方において用いる場合の2通りが可能である。動画像を処理対象とする場合の処理の流れとしては、辞書登録や辞書照合においてのみ変更を加えればよく、複数の特徴ベクトルから主成分分析などの統計的処理を行なってパターンの登録、照合処理を行なう。この処理は従来方法でよく、たとえば、前記文献2に示されている処理方法が適用可能である。
【0100】
【発明の効果】
以上詳述したように本発明によれば、顔画像照合方式の自然さや利便性という長所を最大限活かし、全体としてのセキュリティレベルを従来よりも大幅に向上させ、操作者の交代管理、正当性確認、不正者の検知などを行なうことができる操作者監視装置を提供を提供できる。
【図面の簡単な説明】
【図1】第1の実施の形態に係る操作者監視装置の構成を概略的に示すブロック図。
【図2】カメラが1つの場合の配置例を示す模式図。
【図3】カメラが複数の場合の配置例を示す模式図。
【図4】カメラにより取込まれた操作者の顔画像の一例を示す図。
【図5】処理プロセッサによる顔画像の登録処理を説明するフローチャート。
【図6】処理プロセッサによる顔画像の照合処理を説明するフローチャート。
【図7】第1の実施の形態に係る操作者の交代検知処理の流れについて説明するフローチャート。
【図8】第2の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図9】第2の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図10】第3の実施の形態における圧力検知器の配置例を示す模式図。
【図11】第3の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図12】第3の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図13】第4の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図14】第4の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図15】第5の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図16】第6の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図17】第6の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【図18】第7の実施の形態に係る操作者の交代検知および正当性確認を行なう処理の流れについて説明するフローチャート。
【符号の説明】
1,1−1〜1−N…カメラ(画像入力手段)、2,2−1〜2−N…キャプチャボード、4…処理プロセッサ、5…ワークメモリ、7…辞書(登録手段)、9…ディスプレイ、10…記録装置(記録手段)、11…座席荷重検出装置(座席荷重検出手段)、12…通信制御部、21…ハンドル、22…操作者の頭部、23…操作パネル、24a,24b…圧力検知器(圧力検知手段)、25…マイクロフォン(音声入力手段)。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an operator monitoring apparatus that monitors an operator (driver) of, for example, an aircraft, a traveling vehicle, a ship, etc. by applying a personal authentication technique based on biometric information (biometrics) such as an operator's face image. About.
[0002]
[Prior art]
Conventionally, fingerprints, handprints, voiceprints, signatures, retinas, irises, etc. have been put to practical use as biometrics. These can be classified into a “contact type” that directly touches the apparatus and a “non-contact type” that does not need to be touched.
That is, among the above biometrics examples, fingerprints, handprints, and signatures belong to “contact forms”. However, signatures are somewhat different in nature from fingerprints in that they must act to sign themselves.
[0003]
On the other hand, the same biometric is voiceprint (speech) collation in that the person needs to be conscious, but this belongs to the “non-contact type”. In addition, the retina and iris can be said to belong to the “non-contact type” in that the image of the target part is captured from the camera and processed, but the retina is located behind the eyeball and the eye needs to be almost in contact with the lens. Therefore, it is close to the contact type.
Since the iris appears on the surface of the eyeball, it can be input with a camera from a distant position, but since it is a fine pattern, there is a limit to the distance that can be separated. On the other hand, non-contact biometrics that have recently attracted attention are personal identification based on face patterns obtained from face images. Since the face pattern has a larger scale than the iris pattern, it can be input from a relatively distant position, and it is also used for personal identification between humans. is there.
[0004]
[Problems to be solved by the invention]
Conventionally, there has been no effective general means for managing / preventing the change of an illegal operator (driver) of public transportation, such as an aircraft, a traveling vehicle, and a ship.
As a possible means, it is conceivable that an identification card using an IC card or the like is carried and read by an IC card reader installed in the vicinity of the driver / operator seat to automatically identify the person. The security level is not necessarily good, and the security level is not necessarily high, such as theft or the possibility of deliberate lending.
[0005]
On the other hand, in the conventional personal authentication system using a face image, a normal video camera is installed at an appropriate position, the face image is taken in front or near the front, and registered in advance under the same conditions. And pattern matching.
For example, Reference 1 (“Face Recognition System Using Moving Images”, IEICE Technical Report PRMU97-50, June 1997; Yamaguchi, Fukui, Maeda) and Reference 2 (“Face by Combination of Shape Extraction and Pattern Matching”) Feature point extraction "Science theory D-II.Vol.j-80-D-II No.8 August 1997; Fukui, Yamaguchi) A system that takes in a face image looked up and performs registration and verification has been proposed. The identity verification using the face image has an advantage that the face image of the subject person can be captured without contact, but no example of effective application to the operator confirmation has been found.
[0006]
Therefore, the present invention takes full advantage of the naturalness and convenience of the face image matching method, and greatly improves the overall security level compared to the prior art. An object of the present invention is to provide an operator monitoring device capable of performing the above.
[0007]
[Means for Solving the Problems]
  The operator monitoring device according to the present invention includes an image input unit that captures and inputs a face image of an operator who operates the operated object, and a point in time when the operation of the operated object is started by the image input unit. A face image registration unit that captures the input face image of the operator and registers the captured face image as an initial face image, and captures the face image of the operator input by the image input unit at a predetermined timing. The determination unit determines whether or not the operator has changed by collating the captured face image with the face image registered by the face image registration unit, and the determination unit has changed the operator. Is determined,The operator's face image captured at the time of determination is registered in the face image registration means as a new registered face image.Control means.
[0008]
Further, the operator monitoring device of the present invention includes an image input means for capturing and inputting a face image of an operator who operates the operated object, and the image input at the time when the operation of the operated object is started. The face image registration means for capturing the face image of the operator input by the means and registering the captured face image as an initial face image, and the operator captured when the face image is registered by the face image registration means The first confirmation that confirms whether or not the operator is a legitimate operator by comparing the face image with a face image in a legitimate person list in which the face images of legitimate operators are registered in advance. And when the first confirmation means recognizes that the operator is a valid operator, the operator's face image input by the image input means is captured at a predetermined timing, and the captured face image and the Registered by face image registration means A determination unit that determines whether or not the operator is changed by collating the face image, and an operation that is taken in at the time of determination by the determination unit when the determination unit determines that the operator has changed. A second confirmation means for confirming whether the operator is a legitimate operator by comparing the face image of the person with the face image in the right person list, and the first and second confirmation means If it is determined that the operator is not a valid operator, the control unit performs a predetermined operation.
[0009]
Further, the operator monitoring device of the present invention includes an image input means for capturing and inputting a face image of an operator who operates the operated object, and the image input at the time when the operation of the operated object is started. The face image registration means for capturing the face image of the operator input by the means and registering the captured face image as an initial face image, and the operator captured when the face image is registered by the face image registration means By comparing the face image with the face image of the unauthorized person list in which the face image of a specific unauthorized operator is registered in advance, it is confirmed whether or not the operator is a specific unauthorized operator. When the first confirmation means and the first confirmation means recognize that it is not a specific unauthorized operator, the operator's face image input by the image input means is captured at a predetermined timing, and this capture is performed. Face image and face image registration A determination unit that determines whether or not the operator has changed by collating the face image registered by the stage, and when the determination unit determines that the operator has changed, when the determination unit determines A second confirmation means for confirming whether or not the operator is a specific unauthorized operator by comparing the captured operator's face image with a face image of the unauthorized person list; And a control means for performing a predetermined operation when it is recognized by the first and second confirmation means that the operator is a specific unauthorized person.
[0010]
  Also,The operator monitoring device according to the present invention includes an image input unit that captures and inputs a face image of an operator who operates the operated object, and a point in time when the operation of the operated object is started by the image input unit. By capturing the input face image of the operator and comparing the captured face image with the face images in the valid person list in which the valid operator's face images are registered in advance, A first confirmation unit for confirming whether or not the user is an operator, and an operator input by the image input unit at a predetermined timing when the first confirmation unit recognizes that the operator is a valid operator A second confirmation means for confirming whether or not the operator is a legitimate operator by comparing the captured face image with a face image of the legitimate person list, Legitimate operation by the first and second confirmation means If it accepted without a person, and a control means for performing a predetermined operation with a predeterminedAnd when at least one of the first and second confirmation means is recognized as a valid operator as a result of collation with the face image of the valid person list, Whether the operator is a legitimate operator again by using identity verification means based on whether or not the order in which the pressure of the hand of the operator's hand is applied to the left and right of the handle of the operation target is a predetermined order. It is characterized by confirming whether or not.
  Furthermore, the operator monitoring device of the present invention includes an image input means for capturing and inputting a face image of an operator who operates the operated object, and the image input at the time when the operation of the operated object is started. A face image registration means for capturing an operator's face image input by the means and registering the captured face image as an initial face image; and an operator's face image input by the image input means at a predetermined timing. A determination unit that determines whether or not the operator has changed by collating the captured face image with the face image registered by the face image registration unit, and the determination unit allows the operator to When it is determined that the operator has changed, the operator's face image captured at the time of determination by the determination unit is registered in the face image registration unit as a new registered face image, and at least the captured operator's face image Record Or recorded in the body, or, and a control means for transmitting to the place determined in advance.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
First, an outline of the present invention will be described before describing embodiments of the present invention. The present invention is roughly composed of the following five inventions (1) to (5).
(1) Detect and manage operator changes by face matching.
・ Install at least one camera (image input means) at a position and orientation where a face image can be captured when the operator is operating an object to be operated (aircraft, traveling vehicle, ship, etc.) Is also possible). In this case, the camera is provided, for example, at the center position of the handle for operating the object to be operated, or an operator console or operation panel positioned in front of the operator, and displays a face image viewed from the lower oblique direction with respect to the operator. Take an image.
[0012]
When the operation is started, the face image of the operator at that time is taken in, and the face image that has been subjected to the predetermined processing is registered as the initial face image. In this case, the operation is started when, for example, a pressure of a predetermined value or more is applied to the handle of the object to be operated, or a load of a seat on which the operator is seated is a predetermined value or more. This is when an image is taken from the camera at a fixed period and a change is detected by image analysis.
[0013]
-The operator's face image is taken in at a predetermined timing and collated with the registered face image to determine whether the operator has changed. In this case, for example, the predetermined timing is set to a constant cycle when the load on the seat on which the operator is seated once becomes zero after the load is applied again or at all times.
[0014]
・ If an operator change is detected, a predetermined operation is performed. In this case, as the predetermined operation, for example, the face image captured at that time is registered as a new face image. Alternatively, the face image captured at that time and attribute information such as time are recorded by the recording device or transmitted to a predetermined place.
(2) Operator change detection and correctness confirmation are performed by face matching.
At least one camera (image input means) is installed at a position and orientation in which a face image can be taken when the operator is operating an object to be operated (a plurality of cameras can be installed).
[0015]
When the operation is started, the face image of the operator at that time is taken in, and the face image that has been subjected to the predetermined processing is registered as the initial face image. At the same time, collation with the face images in the valid person list in which the valid operator's face images are registered in advance is performed. As a result of the confirmation, if the operator is not recognized as a valid operator, a predetermined operation is executed.
[0016]
-The operator's face image is taken in at a predetermined timing and collated with the registered face image to determine whether the operator has changed. When the change of the operator is detected, collation with the face images in the authorized person list in which the authorized operator's facial images are registered in advance is performed. As a result of the confirmation, if the operator is not recognized as a valid operator, a predetermined operation is executed.
-As an operation when the operator is not authorized, the operation of the operation target is disabled. Alternatively, notification is made to a predetermined place (for example, a monitoring center of a company that operates the apparatus).
(3) Modification type 1 of (2) above
-Combine face image verification with other identity verification means at the start of operation or at the time of operator change. In this case, as another identity verification means, the order in which the pressure of the hand of the operator's hand is applied to the left and right of the handle of the operation target (for example, the order from right to left) is used instead of the password. That is, the identity verification is performed based on whether or not the order in which the hand gripping pressure to the left and right is applied to the handle is a predetermined order. Alternatively, identity verification means based on operator's voice verification may be used.
(4) Modification type 2 of (2) above
・ An unauthorized person list in which a face image of a specific unauthorized operator is registered in advance when it is recognized that the operator is not an authorized operator instead of collating with the authorized person list or by comparing with the authorized person list Checking with a face image in a so-called black list is performed. As a result of the confirmation, if it is recognized as an unauthorized operator, a predetermined operation is executed.
(5) Deformation type 3 of (2) above
-After detecting the change of operator, it does not collate with the right person list or the fraudster list (black list) but immediately collates with the right person list or the fraudster list.
[0017]
In addition, it cannot be overemphasized that the invention of said (1)-(5) can be implemented even if it combines independently and mutually.
[0018]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the first embodiment will be described. The first embodiment corresponds to the above-described invention (1).
FIG. 1 schematically shows a configuration of an operator monitoring apparatus according to the first embodiment. In FIG. 1, a plurality of video cameras as image input means (hereinafter simply referred to as “cameras”, which may be one instead of a plurality) 1-1, 1-2,. In this embodiment, a video camera capable of monochrome photography is employed. The face image of an operator who operates an aircraft, a traveling vehicle, a ship, and the like is captured and input.
[0019]
The outputs of the cameras 1-1, 1-2,..., 1-N are connected to the inputs of the capture boards 2-1, 2-2,. That is, the video signal (analog data) 1 from the camera 1-1 is converted into digital data by the A / D conversion circuit 2-1a and then temporarily stored in the image memory 2-1b. Here, for simplification of explanation, although not shown, an A / D conversion circuit and an image memory are similarly arranged in the capture boards 2-2,. The same processing is performed for the video signals 2 to N in the capture boards 2-2,.
If the cameras 1-1, 1-2,..., 1-N have a USB (universal serial bus) interface, the A / D conversion circuit 2-1a is not necessary, and the USB interface Will be provided separately.
[0020]
The capture boards 2-1, 2-2,..., 2 -N, the recording interface 3, the processor 4, the work memory 5, the display board 6, and the dictionary 7 as registration means can communicate freely via the system bus 8. It is connected to the. A display 9 is connected to the display board 6. A plurality of dictionary data (reference face feature data) is registered (stored) in the dictionary 7.
[0021]
The processor 4 transmits a control signal for synchronization to the cameras 1-1, 1-2,..., 1-N, and the cameras 1-1, 1-2,. The digital data related to the face image sent from is acquired, and the registration and collation processing of the face image as described later is performed on the data using the work memory 5 and the dictionary 7.
[0022]
The recording interface 3 is connected to a recording device 10 such as a hard disk device as recording means. The recording device 10 records an operator's face image, face feature data, and the like on a recording medium such as a hard disk.
The system bus 8 is connected to a seat load detection device 11 as a seat load detection means. The seat load detection device 11 detects the load on the seat of the operation object on which the operator is seated. Further, a communication control unit 12 is connected to the system bus 8. The communication control unit 12 is for communicating with an external device, for example, a monitoring center of a company that operates this device.
[0023]
2 and 3 show examples of camera arrangement. FIG. 2A shows a case where the number of cameras is one. For example, the camera 1-1 is installed at the center of the handle 21 for operating the object to be operated. The position and orientation are set so as to capture the seen face image. 2B is a view of the operator's head 22 viewed from directly above, and FIG. 2C is a view of the operator's head 22 viewed from the side.
FIG. 3 shows a case where there are a plurality of cameras. For example, the cameras 1-1 and 1-2 are installed on the operation panel 23 located in front of the operator, and the camera is viewed from the lower oblique direction with respect to the operator's head. It captures the face image it sees.
FIG. 4 shows an example of an operator's face image captured by the camera 1-1 of FIG. 2, for example, and it can be seen that a face image obtained by viewing the operator's face from an obliquely downward direction is captured.
[0024]
Hereinafter, with reference to the flowchart shown in FIG. 5, a face image registration process performed by the processing processor 4 of the operator monitoring apparatus according to the first embodiment will be described. In the following description, for example, one camera is installed as shown in FIG.
First, the processor 4 issues a management number (step S1). Next, the input image from the camera 1-1 is taken in (step S2). Next, a face area is detected from the entire input image (step S3). Next, in the detected face area, a pupil area and a nostril area that can be regarded as a substantially circular area are detected, and the center position of the area is set as a feature point of the face image (step S4). In the processes of steps S3 and S4, for example, the conventional method described in the above-mentioned document 2 can be adopted.
[0025]
Next, the collation area is cut out based on the position of the detected feature point (step S5), the size is normalized by geometric correction (step S6), and the density distribution is normalized by density correction (step S6). Step S7). Next, vector pattern expression by feature extraction is performed and registered in the dictionary 7 as face feature data (hereinafter also referred to as dictionary data) (step 8). In this case, face feature data is registered together with attribute information such as a management number issued previously.
[0026]
Next, with reference to the flowchart shown in FIG. 6, the face image matching process by the processing processor 4 of the operator monitoring apparatus according to the first embodiment will be described. In the following description, for example, one camera is installed as shown in FIG.
First, the processor 4 captures an input image from the camera 1-1 (step S11). Next, a face area is detected from the entire input image (step S12). Next, it is determined whether or not the face area has been successfully detected (step S13). If the face area is successfully detected, a pupil area and a nostril area that can be regarded as a substantially circular area are detected in the detected face area. The center position is set as a feature point of the face image (step S14).
[0027]
Next, the matching region is cut out based on the detected feature point position (step S15), the size is normalized by geometric correction (step S16), and the density distribution is normalized by density correction (step S16). Step S17). Next, vector pattern expression by feature extraction is performed and collated with the dictionary data of the dictionary 7 as input face feature data (step 18). That is, the similarity is calculated by collating the input facial feature data with a plurality of facial feature data registered in the dictionary 7, and the obtained similarity is larger than a predetermined threshold value set in advance. In this case, collation is successful (legitimate operator), and other cases are collation failure (invalid operator).
[0028]
Next, the flow of the operator change detection process using the registration and verification process described above will be described with reference to the flowchart shown in FIG. In the following description, for example, one camera 1-1 is installed at the center of the handle 21 as shown in FIG. The processing described below is mainly performed by an operation based on the processing program of the processing processor 4.
[0029]
First, by referring to the output of the seat load detection device 11, whether or not the seat load of the operation object on which the operator is seated has exceeded a predetermined value (that is, whether or not the operation of the operation object has started). Is determined (step S21). As a result of this determination, if the seat load is greater than or equal to a predetermined value, it is considered that the operator is seated and the operation of the operated object is started, and input from the camera 1-1 installed at the center portion of the handle 21 An image is captured, and facial feature data is extracted from the captured input image by the same operation as described above, and the extracted facial feature data is registered in the dictionary 7 as an initial registered facial image (step S22).
[0030]
Next, the input image (face image) at this time and the facial feature data extracted from the input image are recorded together with attribute information such as the date / time data by the recording device 10 or predetermined by the communication control unit 12. (For example, a monitoring center of a company that operates this apparatus) is transmitted (step S23).
[0031]
Next, by referring to the output of the seat load detection device 11, it is determined whether or not the seat load has become equal to or less than a predetermined value (that is, whether or not the operation of the operation target has ended) (step). S24). As a result of this determination, when the load on the seat becomes equal to or less than a predetermined value, it is considered that the operator has finished the operation and left the seat, and the process ends here.
[0032]
As a result of the determination in step S24, if the seat load is not less than or equal to the predetermined value, it is assumed that the operator is still seated and the operation has not been completed, and the output of the seat load detection device 11 is referred to. Then, it is determined whether or not the seat load is once zeroed again (that is, whether or not the operator has changed) (step S25). If the result of this determination is that the seat load is once zero and it is not in a state where it has been reapplied, it is assumed that the operator has not changed, returning to step S24, and repeating the same operation as above.
[0033]
As a result of the determination in step S25, when the seat load is once zero and then reapplied, the operator assumes that the operator is changing, and takes the input image from the camera 1-1 again. Face feature data is extracted from the captured input image by the same operation as described above, and the extracted face feature data and a plurality of dictionary data (face feature data) registered in the dictionary 7 are collated. Is calculated (step S26).
[0034]
Next, it is determined whether or not the degree of similarity calculated in step S26 is greater than a predetermined threshold value set in advance (step S27). Therefore, the process returns to step S24 to repeat the same operation as described above.
[0035]
As a result of the determination in step S27, if the calculated similarity is smaller than the set threshold value, it is considered that the operator has finally changed. For example, the facial feature obtained from the face image captured at the time of collation in step S26 The data is registered in the dictionary 7 as new dictionary data, and the input image (face image) and face feature data are recorded together with attribute information such as the date / time data by the recording device 10 or by the communication control unit 12. The data is transmitted to a predetermined place (for example, a monitoring center of a company that operates this apparatus) (step S28), the process returns to step S24, and the same operation as described above is repeated.
As described above, according to the first embodiment, it is possible to detect and manage the change of the operator by collating the face of the operator.
[0036]
Next, a second embodiment will be described. The second embodiment corresponds to the above-described invention (2).
In the second embodiment, operator change detection and correctness confirmation are performed by face matching similar to the first embodiment, and the apparatus configuration may be the same as in the first embodiment. The following describes this with reference to the flowcharts shown in FIGS. 8 and 9.
[0037]
In the following description, for example, one camera 1-1 is installed at the center of the handle 21 as shown in FIG. In the present embodiment, it is assumed that all legitimate operators are registered (stored) in the work memory 5 in the form of a legitimate person list. Further, the processing described below is mainly performed by an operation based on the processing program of the processing processor 4.
[0038]
First, by referring to the output of the seat load detection device 11, whether or not the seat load of the operation object on which the operator is seated has exceeded a predetermined value (that is, whether or not the operation of the operation object has started). Is determined (step S31). As a result of this determination, if the seat load is greater than or equal to a predetermined value, it is considered that the operator is seated and the operation of the operated object is started, and input from the camera 1-1 installed at the center portion of the handle 21 An image is captured, and facial feature data is extracted from the captured input image by the same operation as described above, and the extracted facial feature data is registered in the dictionary 7 as an initial registered facial image (step S32).
[0039]
Next, the input image (face image) at this time and the facial feature data extracted from the input image are recorded together with attribute information such as the date / time data by the recording device 10 or predetermined by the communication control unit 12. (For example, it is transmitted to the monitoring center of a company that operates this apparatus) (step S33).
[0040]
Next, the face feature data obtained in step S32 is collated with each face feature data in the legitimate person list in which the face feature data of all legitimate operators are registered, and the similarity between them is calculated ( Step S34). Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold value set in advance exists in the valid person list (that is, whether the operator is a valid operator). (Step S35).
[0041]
If the result of this determination is that there is no such operator, the operator is deemed not to be a legitimate operator, and control is performed so that the operation (operation) of the object to be operated is disabled. Is notified to the monitoring center of the company that operates the system (step S36), and the process ends here.
[0042]
As a result of the determination in step S35, when face feature data having a calculated similarity greater than a predetermined threshold is present in the legal person list, the operator is regarded as an authorized operator, and the seat load detection device is again detected. 11 is referred to, it is determined whether or not the load on the seat has become equal to or less than a predetermined value (that is, whether or not the operation of the operation target has ended) (step S37). As a result of this determination, when the load on the seat becomes equal to or less than a predetermined value, it is considered that the operator has finished the operation and has left the seat, and the process ends here.
[0043]
As a result of the determination in step S37, if the seat load is not less than or equal to the predetermined value, it is assumed that the operator is still seated and the operation is not finished, and the output of the seat load detection device 11 is referred to. Then, it is determined whether or not the seat load is once zeroed again (that is, whether or not the operator has changed) (step S38). If the result of this determination is that the seat load is once zero and it is not in a state where it has been reapplied, the operator assumes that the seat has not been replaced, and returns to step S37 to repeat the same operation as above.
[0044]
If the result of determination in step S38 is that the seat load has once been zero and then reapplied, the operator assumes that the operator is changing, and takes the input image from the camera 1-1 again. Face feature data is extracted from the captured input image by the same operation as described above, and the extracted face feature data and a plurality of dictionary data (face feature data) registered in the dictionary 7 are collated. Is calculated (step S39).
[0045]
Next, it is determined whether or not the similarity calculated in step S39 is greater than a predetermined threshold value set in advance (step S40). Assuming that there is, return to step S37 and repeat the same operation as above.
[0046]
As a result of the determination in step S40, if the calculated similarity is smaller than the set threshold value, it is considered that the operator has finally changed, for example, the facial feature obtained from the face image captured at the time of collation in step S39. The data is registered in the dictionary 7 as new dictionary data, and the input image (face image) and face feature data are recorded together with attribute information such as the date / time data by the recording device 10 or by the communication control unit 12. The data is transmitted to a predetermined place (for example, a monitoring center of a company that operates this apparatus) (step S41).
[0047]
Next, the face feature data obtained in step S39 is collated with each face feature data in the valid person list, and the similarity between the two is calculated (step S42). Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold value set in advance exists in the valid person list (that is, whether the operator is a valid operator). (Step S43).
[0048]
If the result of this determination is that there is no such operator, the operator is deemed not to be a legitimate operator, and control is performed so that the operation (operation) of the operation target is disabled, and the monitoring center of the company that operates the apparatus is controlled. The fact that an unauthorized operator has been detected is notified (step S44), and the process ends here.
[0049]
As a result of the determination in step S43, when face feature data whose calculated similarity is larger than a predetermined threshold exists in the right person list, the operator is regarded as a right operator, and the process returns to step S37. The same operation as above is repeated.
As described above, according to the second embodiment, it is possible to detect the change of the operator and confirm the validity by comparing the face of the operator.
[0050]
Next, a third embodiment will be described. The third embodiment corresponds to the invention of (3) described above.
In the third embodiment, the identity verification function is further enhanced with respect to the second embodiment, and the apparatus configuration may be basically the same as that of the first embodiment. The point that the handle is provided with a pressure detector and the flow of processing are different, which will be described below.
[0051]
In the third embodiment, for example, as shown in FIG. 10, pressure detectors 24a and 24b are respectively embedded in left and right portions that are held by the operator of the handle 21 of the object to be operated. The left and right pressures when the handle 21 is grasped with both hands are detected.
[0052]
The processing flow will be described below with reference to the flowcharts shown in FIGS.
First, by referring to the output of the seat load detection device 11, whether or not the seat load of the operation object on which the operator is seated has exceeded a predetermined value (that is, whether or not the operation of the operation object has started). Is determined (step S51). As a result of this determination, if the seat load is greater than or equal to a predetermined value, it is considered that the operator is seated and the operation of the operated object is started, and input from the camera 1-1 installed at the center portion of the handle 21 An image is captured, face feature data is extracted from the captured input image by the same operation as described above, and the extracted face feature data is registered in the dictionary 7 as an initial registered face image (step S52).
[0053]
Next, the input image (face image) at this time and the facial feature data extracted from the input image are recorded together with attribute information such as the date / time data by the recording device 10 or predetermined by the communication control unit 12. (For example, it is transmitted to a monitoring center of a company that operates this apparatus) (step S53).
[0054]
Next, the face feature data obtained in step S32 is collated with each face feature data in the legitimate person list in which the face feature data of all legitimate operators are registered, and the similarity between them is calculated ( Step S54). Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold value set in advance exists in the valid person list (that is, whether the operator is a valid operator). (Step S55).
[0055]
If the result of this determination is that there is no such operator, the operator is deemed not to be a legitimate operator, and control is performed so that the operation (operation) of the object to be operated is disabled. Is notified to the monitoring center of the company that operates the system (step S56), and the process ends here.
[0056]
As a result of the determination in step S55, when face feature data whose calculated similarity is larger than a predetermined threshold exists in the valid person list, for example, a predetermined operation is performed on the handle 21 by voice guidance or guidance message display. (Step S57). By this guidance, if it is a legitimate operator, a predetermined operation taught in advance, for example, first strongly squeezes the part of the pressure detector 24a with the right hand and then strongly squeezes the part of the pressure detector 24b with the left hand. Perform the operation.
[0057]
Next, by referring to the outputs of the pressure detectors 24a and 24b, it is determined whether or not the addition order of the pressure held by the operator's hand to the left and right with respect to the handle 21 is a predetermined correct order (step). S58). As a result of this determination, if the order of adding pressure to grip is not the correct order, the operator is regarded as not a valid operator, and control is performed so that the operation (operation) of the object to be operated is disabled. The fact that an unauthorized operator has been detected is notified to the monitoring center of the company that operates the apparatus (step S56), and the process ends here.
[0058]
As a result of the determination in step S58, if the order in which the gripping pressure is applied is the correct order, the operator is regarded as a valid operator, and by referring to the output of the seat load detection device 11 again, It is determined whether or not the load has become equal to or less than a predetermined value (that is, whether or not the operation of the operation target has ended) (step S59). As a result of this determination, when the load on the seat becomes equal to or less than a predetermined value, it is considered that the operator has finished the operation and left the seat, and the process ends here.
[0059]
As a result of the determination in step S59, if the seat load is not less than or equal to the predetermined value, it is assumed that the operator is still seated and the operation is not finished, and the output of the seat load detection device 11 is referred to. Then, it is determined whether or not the seat load is once added again after being zero (that is, whether or not the operator has changed) (step S60). If the result of this determination is that the seat load is once zero and it is not in a state where it has been reapplied, it is assumed that the operator has not changed, and the flow returns to step S59 to repeat the same operation as described above.
[0060]
If the result of the determination in step S60 is that the seat load has once been zero and then reapplied, the operator assumes that the seat has been replaced and re-captures the input image from the camera 1-1. Face feature data is extracted from the captured input image by the same operation as described above, and the extracted face feature data and a plurality of dictionary data (face feature data) registered in the dictionary 7 are collated. Is calculated (step S61).
[0061]
Next, it is determined whether or not the similarity calculated in step S61 is greater than a predetermined threshold value set in advance (step S62). Assuming that there is, return to step S59 and repeat the same operation as above.
[0062]
As a result of the determination in step S62, if the calculated similarity is smaller than the set threshold value, it is considered that the operator has finally changed. For example, the facial feature obtained from the face image captured at the time of collation in step S61 The data is registered in the dictionary 7 as new dictionary data, and the input image (face image) and face feature data are recorded together with attribute information such as the date / time data by the recording device 10 or by the communication control unit 12. The data is transmitted to a predetermined place (for example, a monitoring center of a company that operates this apparatus) (step S63).
[0063]
Next, the face feature data obtained in step S61 is collated with each face feature data in the legal person list, and the similarity between the two is calculated (step S64). Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold value set in advance exists in the valid person list (that is, whether the operator is a valid operator). (Step S65).
[0064]
If the result of this determination is that there is no such operator, the operator is deemed not to be a legitimate operator, and control is performed so that the operation (operation) of the operation target is disabled, and the monitoring center of the company that operates the apparatus is controlled. The fact that an unauthorized operator has been detected is notified (step S66), and the process ends here.
[0065]
As a result of the determination in step S65, when face feature data whose calculated similarity is larger than a predetermined threshold is present in the legal person list, a predetermined operation is performed on the handle 21 by displaying voice guidance or a guidance message. Guidance is made (step S67).
[0066]
Next, by referring to the outputs of the pressure detectors 24a and 24b, it is determined whether or not the addition order of the pressure held by the operator's hand to the left and right with respect to the handle 21 is a predetermined correct order (step). S68). As a result of this determination, if the order of adding pressure to grip is not the correct order, the operator is regarded as not a valid operator, and control is performed so that the operation (operation) of the object to be operated is disabled. The fact that an unauthorized operator has been detected is notified to the monitoring center of the company that operates the apparatus (step S66), and the process ends here.
[0067]
As a result of the determination in step S68, if the order in which the gripping pressure is applied is the correct order, the operator is regarded as a valid operator, and the process returns to step S59 to repeat the same operation as described above.
As described above, according to the third embodiment, at the start of the operation and when the operator is changed, the identification function can be further enhanced by combining the collation of the face image with other identification means. It becomes possible.
[0068]
The other person confirmation means is not limited to the order in which the pressure of the hand of the operator's hand is applied to the left and right with respect to the handle of the object to be operated as described above. For example, as shown in FIG. A microphone 25 as a voice input means is embedded in the center of the voice, and guidance for inputting a predetermined code is made by voice by displaying voice guidance or a guidance message. Voice identification) may be a means for verifying the identity by collation.
[0069]
Next, a fourth embodiment will be described. The fourth embodiment corresponds to the invention of (4) described above.
In the fourth embodiment, verification with a fraudulent list (so-called black list) is performed instead of verification with a legitimate list in the second embodiment. Although it may be the same as that of the first embodiment, the flow of processing is different, which will be described below with reference to the flowcharts shown in FIGS.
In this embodiment, it is assumed that all unauthorized operators are registered (stored) in the work memory 5 in the form of an unauthorized person list.
[0070]
First, by referring to the output of the seat load detection device 11, whether or not the seat load of the operation object on which the operator is seated has exceeded a predetermined value (that is, whether or not the operation of the operation object has started). Is determined (step S71). As a result of this determination, if the seat load is greater than or equal to a predetermined value, it is considered that the operator is seated and the operation of the operated object is started, and input from the camera 1-1 installed at the center portion of the handle 21 An image is fetched, face feature data is extracted from the fetched input image by the same operation as described above, and the extracted face feature data is registered in the dictionary 7 as an initial registered face image (step S72).
[0071]
Next, the input image (face image) at this time and the facial feature data extracted from the input image are recorded together with attribute information such as the date / time data by the recording device 10 or predetermined by the communication control unit 12. (For example, the monitoring center of a company that operates the apparatus) is transmitted (step S73).
[0072]
Next, the facial feature data obtained in step S72 is collated with each facial feature data in the unauthorized person list in which the facial feature data of a specific unauthorized operator is registered, and the similarity between them is calculated ( Step S74). Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold set in advance exists in the unauthorized person list (that is, whether or not the operator is an unauthorized operator). (Step S75).
[0073]
If the result of this determination is that the operator is present, the operator is regarded as an unauthorized operator and is controlled so that the operation (operation) of the operation target is disabled. The fact that an unauthorized operator has been detected is notified to the monitoring center of the company that operates the apparatus (step S76), and the process ends here.
[0074]
As a result of the determination in step S75, when face feature data whose calculated similarity is larger than a predetermined threshold value does not exist in the legal person list, the operator is regarded as an authorized operator, and the seat load detection device is again detected. 11 is referred to, it is determined whether or not the seat load has become equal to or less than a predetermined value (that is, whether or not the operation of the operation target has ended) (step S77). As a result of this determination, when the load on the seat becomes equal to or less than a predetermined value, it is considered that the operator has finished the operation and left the seat, and the process ends here.
[0075]
As a result of the determination in step S77, if the seat load is not less than or equal to the predetermined value, it is assumed that the operator is still seated and the operation is not completed, and the output of the seat load detection device 11 is referred to. Then, it is determined whether or not the seat load is once added again after the seat load becomes zero (that is, whether or not the operator has changed) (step S78). If the result of this determination is that the seat load is once zero and it is not in a state where it has been reapplied, it is assumed that the operator has not changed, returning to step S77 and repeating the same operation as above.
[0076]
As a result of the determination in step S78, if the seat load is once zero and then reapplied, the operator assumes that the operator is changing and takes in the input image from the camera 1-1 again. Face feature data is extracted from the captured input image by the same operation as described above, and the extracted face feature data and a plurality of dictionary data (face feature data) registered in the dictionary 7 are collated. Is calculated (step S79).
[0077]
Next, it is determined whether or not the degree of similarity calculated in step S79 is greater than a predetermined threshold value set in advance (step S80). Assuming that there is, return to step S77 to repeat the same operation as above.
[0078]
As a result of the determination in step S80, if the calculated similarity is smaller than the set threshold value, it is considered that the operator has finally changed. For example, the facial feature obtained from the face image captured at the time of collation in step S79. The data is registered in the dictionary 7 as new dictionary data, and the input image (face image) and face feature data are recorded together with attribute information such as the date / time data by the recording device 10 or by the communication control unit 12. The data is transmitted to a predetermined place (for example, a monitoring center of a company that operates this apparatus) (step S81).
[0079]
Next, the face feature data obtained in step S79 is collated with each face feature data in the unauthorized person list, and the similarity between both is calculated (step S82). Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold set in advance exists in the unauthorized person list (that is, whether or not the operator is an unauthorized operator). (Step S83).
[0080]
If the result of this determination is that the operator is present, the operator is regarded as an unauthorized operator, and is controlled so that the operation (operation) of the operation target is disabled, and the monitoring center of the company that operates the apparatus Is notified that an unauthorized operator has been detected (step S84), and the process ends here.
[0081]
As a result of the determination in step S83, if face feature data having a calculated similarity greater than a predetermined threshold does not exist in the unauthorized person list, the operator is regarded as a valid operator, and the process returns to step S77. The same operation as above is repeated.
As described above, according to the fourth embodiment, it is possible to detect and eliminate unauthorized operators by collating with the black list.
[0082]
Next, a fifth embodiment will be described. The fifth embodiment corresponds to the invention of (5) described above.
The fifth embodiment, as in the second embodiment, does not collate with the rightful person list after detecting the change of the operator, but immediately collates with the rightful person list. The configuration may be the same as that of the first embodiment, but the flow of processing is different, which will be described below with reference to the flowchart shown in FIG.
[0083]
First, by referring to the output of the seat load detection device 11, whether or not the seat load of the operation object on which the operator is seated has exceeded a predetermined value (that is, whether or not the operation of the operation object has started). Is determined (step S91). As a result of this determination, if the seat load is greater than or equal to a predetermined value, it is considered that the operator is seated and the operation of the operated object is started, and input from the camera 1-1 installed at the center portion of the handle 21 An image is captured, and facial feature data is extracted from the captured input image by the same operation as described above, and the extracted facial feature data is stored in the authorized person list in which facial feature data of all authorized operators are registered. Each face feature data is collated, and the similarity between the two is calculated (step S92).
[0084]
Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold value set in advance exists in the valid person list (that is, whether the operator is a valid operator). (Step S93). If the result of this determination is that there is no such operator, the operator is deemed not to be a legitimate operator, and control is performed so that the operation (operation) of the object to be operated is disabled. Is notified to the monitoring center of the company that operates the system (step S94), and the process ends here.
[0085]
As a result of the determination in step S93, when face feature data whose calculated similarity is larger than a predetermined threshold is present in the right person list, the operator is regarded as a right operator, and the seat load detection device is again detected. 11 is referred to, it is determined whether or not the load on the seat has become equal to or less than a predetermined value (that is, whether or not the operation of the operation target has ended) (step S95). As a result of this determination, when the load on the seat becomes equal to or less than a predetermined value, it is considered that the operator has finished the operation and left the seat, and the process ends here.
[0086]
As a result of the determination in step S95, if the seat load is not less than or equal to the predetermined value, it is assumed that the operator is still seated and the operation is not finished, and the output of the seat load detection device 11 is referred to. Then, it is determined whether or not the seat load is once zeroed again (that is, whether or not the operator has changed) (step S96). If the result of this determination is that the seat load is once zero and it is not in a state where it has been reapplied, it is assumed that the operator has not changed, returning to step S95 and repeating the same operation as described above.
[0087]
If the result of determination in step S96 is that the seat load has once been zero and then reapplied, the operator assumes that the operator is changing and takes the input image from the camera 1-1 again. Face feature data is extracted from the captured input image by the same operation as described above, and the extracted face feature data and a plurality of dictionary data (face feature data) registered in the dictionary 7 are collated. Is calculated (step S97).
[0088]
Next, it is determined whether or not the degree of similarity calculated in step S97 is greater than a predetermined threshold value set in advance (step S98). Assuming that there is, return to step S95 and repeat the same operation as above.
[0089]
If the result of determination in step S98 is that the calculated similarity is smaller than the set threshold value, it is considered that the operator has been changed to an unauthorized operator, and the process proceeds to step S94. After performing the same process as described above, the process ends. .
As described above, according to the fifth embodiment, it is possible to immediately collate with the legitimate list instead of collating with the legitimate list after detecting the change of the operator.
[0090]
Next, a sixth embodiment will be described. The sixth embodiment corresponds to the invention of (4) described above.
In the sixth embodiment, in the fourth embodiment, when it is determined that the operator is not a legitimate operator by collation with the legitimate person list, the collation confirmation with the fraudster list is performed. The apparatus configuration may be the same as that of the first embodiment, but a verification process with a legitimate list is added, which will be described below with reference to the flowcharts shown in FIGS. 16 and 17.
FIGS. 16 and 17 are the same as FIGS. 13 and 14 except that collation processing with the legitimate list is added to FIGS. 13 and 14. Only the matching process) will be described.
[0091]
When the process of step S73 is completed, the face feature data obtained in step S72 is collated with each face feature data in the legitimate person list in which the face feature data of all legitimate operators are registered. The degree is calculated (step S85). Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold value set in advance exists in the valid person list (that is, whether the operator is a valid operator). (Step S86).
[0092]
As a result of this determination, when face feature data whose calculated similarity is larger than a predetermined threshold is present in the valid person list, the operator is regarded as a valid operator, and the process returns to step S77 and the same as above. Repeat the operation.
As a result of the determination in step S86, if face feature data having a calculated similarity greater than a predetermined threshold value does not exist in the valid person list, the operator is regarded as not a valid operator, and the process proceeds to step S74. Check against the user list.
[0093]
When the processing in step S81 is completed, the face feature data obtained in step S79 is collated with each face feature data in the legitimate person list in which the face feature data of all legitimate operators are registered. Is calculated (step S87). Next, it is determined whether or not face feature data whose calculated similarity is larger than a predetermined threshold value set in advance exists in the valid person list (that is, whether the operator is a valid operator). (Step S88).
[0094]
As a result of this determination, when face feature data whose calculated similarity is larger than a predetermined threshold is present in the valid person list, the operator is regarded as a valid operator, and the process returns to step S77 and the same as above. Repeat the operation.
As a result of the determination in step S88, if face feature data having a calculated similarity greater than a predetermined threshold does not exist in the valid person list, the operator is regarded as not a valid operator, and the process proceeds to step S82. Check against the user list.
[0095]
As described above, according to the sixth embodiment, when it is determined that the operator is not a legitimate operator by collation with the legitimate person list, the collation with the black list is performed to further increase the identity verification function. Strengthened.
[0096]
Next, a seventh embodiment will be described. The seventh embodiment corresponds to the invention of (5) described above.
In the seventh embodiment, verification with a fraud list is performed instead of verification with a legitimate list in the fifth embodiment. The apparatus configuration is the same as that of the first embodiment. The process flow is the same as that shown in FIG. 18, except that step S92 for performing the matching process with the rightful person list in FIG. 15 is changed to step S99 for performing the matching process with the unauthorized person list. Other than that, since it is the same as that of FIG.
As described above, according to the seventh embodiment, it is possible to immediately collate with the unauthorized person list instead of collating with the unauthorized person list after detecting the change of the operator.
[0097]
As described above, according to the above-described embodiment, the security level as a whole is improved by making the most of the advantages of the face image pattern matching method (the burden on the user is very small) and the convenience. It becomes possible to greatly improve. Then, by taking advantage of the non-contact property of the face image recognition method, it is possible to perform operator change management, validity confirmation, fraud detection, and the like.
[0098]
In the above embodiment, a monochrome camera is used as an image input means for inputting a face image. However, a color camera may be used. In this case, a process for converting the face image into a monochrome image is added. That's fine.
In addition, although one face image (still image) is a processing target, a plurality of continuous face images (moving images) are captured at regular time intervals in consideration of fluctuations in input conditions, and the capture shown in FIG. It may be buffered in the board image memory.
[0099]
When using a moving image, there are two possible cases: a case where it is used only during registration and a case where it is used during both registration and verification. As a processing flow when processing a moving image, it is only necessary to make changes in dictionary registration and dictionary collation. Statistical processing such as principal component analysis is performed from a plurality of feature vectors, and pattern registration and collation processing is performed. To do. This processing may be a conventional method, and for example, the processing method shown in Document 2 can be applied.
[0100]
【The invention's effect】
As described above in detail, according to the present invention, the advantage of the naturalness and convenience of the face image matching method is utilized to the maximum, the overall security level is greatly improved as compared with the prior art, and the change management and validity of the operator are improved. It is possible to provide provision of an operator monitoring device that can perform confirmation, detection of unauthorized persons, and the like.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a configuration of an operator monitoring apparatus according to a first embodiment.
FIG. 2 is a schematic diagram illustrating an arrangement example in the case of one camera.
FIG. 3 is a schematic diagram illustrating an arrangement example when there are a plurality of cameras.
FIG. 4 is a diagram showing an example of an operator's face image captured by a camera.
FIG. 5 is a flowchart for explaining face image registration processing by a processing processor;
FIG. 6 is a flowchart for explaining face image collation processing by a processing processor;
FIG. 7 is a flowchart for explaining the flow of operator change detection processing according to the first embodiment;
FIG. 8 is a flowchart for explaining a flow of processing for detecting an operator change and checking a validity according to the second embodiment;
FIG. 9 is a flowchart for explaining a flow of processing for detecting an operator change and confirming validity according to the second embodiment;
FIG. 10 is a schematic diagram showing an arrangement example of pressure detectors in the third embodiment.
FIG. 11 is a flowchart for explaining a flow of processing for detecting an operator change and checking a validity according to the third embodiment;
FIG. 12 is a flowchart for explaining a flow of processing for performing an operator change detection and a validity check according to the third embodiment.
FIG. 13 is a flowchart for explaining the flow of processing for performing operator change detection and correctness confirmation according to the fourth embodiment;
FIG. 14 is a flowchart for explaining a flow of processing for detecting an operator change and confirming validity according to the fourth embodiment;
FIG. 15 is a flowchart for explaining the flow of processing for detecting an operator change and confirming validity according to a fifth embodiment;
FIG. 16 is a flowchart for explaining a flow of processing for detecting an operator change and checking a validity according to the sixth embodiment;
FIG. 17 is a flowchart for explaining a flow of processing for detecting an operator change and a validity check according to the sixth embodiment;
FIG. 18 is a flowchart for explaining a flow of processing for detecting an operator change and confirming validity according to the seventh embodiment;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1,1-1 to 1-N ... Camera (image input means), 2, 2-1 to 2-N ... Capture board, 4 ... Processing processor, 5 ... Work memory, 7 ... Dictionary (registration means), 9 ... Display 10, recording device (recording means) 11 seat load detection device (seat load detection means) 12 communication control unit 21 handle 22 operator head 23 operation panel 24a, 24b ... pressure detector (pressure detection means), 25 ... microphone (voice input means).

Claims (5)

被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、
被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を初期の顔画像として登録する顔画像登録手段と、
所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像と前記顔画像登録手段により登録された顔画像とを照合することにより、操作者が交代したか否かを判定する判定手段と、
この判定手段により操作者が交代したと判定された場合、判定時に取込んだ操作者の顔画像を新たな登録顔画像として前記顔画像登録手段に登録する制御手段と、
を具備したことを特徴とする操作者監視装置。
An image input means for capturing and inputting a face image of an operator who operates the object;
At the time when the operation of the object to be operated is started, a face image registration unit that captures the face image of the operator input by the image input unit at that time, and registers the captured face image as an initial face image;
An operator's face image input by the image input means is captured at a predetermined timing, and the operator is changed by comparing the captured face image with the face image registered by the face image registration means. Determination means for determining whether or not,
When it is determined by the determination means that the operator has changed, a control means for registering the face image of the operator captured at the time of determination in the face image registration means as a new registered face image ;
An operator monitoring device comprising:
被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、
被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を初期の顔画像として登録する顔画像登録手段と、
この顔画像登録手段による顔画像の登録時に取込まれた操作者の顔画像を、あらかじめ正当な操作者の顔画像が登録されている正当者リストの顔画像と照合することにより、当該操作者は正当な操作者であるか否かを確認する第1の確認手段と、
この第1の確認手段により正当な操作者であると認められた場合、所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像と前記顔画像登録手段により登録された顔画像とを照合することにより、操作者が交代したか否かを判定する判定手段と、
この判定手段により操作者が交代したと判定された場合、前記判定手段の判定時に取込まれた操作者の顔画像を前記正当者リストの顔画像と照合することにより、当該操作者は正当な操作者であるか否かを確認する第2の確認手段と、
前記第1、第2の確認手段により正当な操作者でないと認められた場合、あらかじめ定められた所定の動作を行なう制御手段と、
を具備したことを特徴とする操作者監視装置。
An image input means for capturing and inputting a face image of an operator who operates the object;
At the time when the operation of the object to be operated is started, a face image registration unit that captures the face image of the operator input by the image input unit at that time, and registers the captured face image as an initial face image;
The operator's face image captured at the time of registration of the face image by the face image registration means is collated with the face images in the legitimate person list in which the face images of the legitimate operators are registered in advance. Is a first confirmation means for confirming whether or not the user is a valid operator;
When it is recognized by the first confirmation means that the operator is a legitimate operator, the operator's face image input by the image input means is captured at a predetermined timing, and the captured face image and the face image registration are captured. Determining means for determining whether or not the operator has changed by collating the face image registered by the means;
When it is determined by the determination means that the operator has been changed, the operator is authorized by comparing the face image of the operator captured at the time of determination by the determination means with the face image of the valid person list. A second confirmation means for confirming whether or not the user is an operator;
Control means for performing a predetermined operation when it is determined by the first and second confirmation means that the operator is not a valid operator;
An operator monitoring device comprising:
被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、
被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を初期の顔画像として登録する顔画像登録手段と、
この顔画像登録手段による顔画像の登録時に取込まれた操作者の顔画像を、あらかじめ特定の不正な操作者の顔画像が登録されている不正者リストの顔画像と照合することにより、当該操作者は特定の不正な操作者であるか否かを確認する第1の確認手段と、
この第1の確認手段により特定の不正な操作者でないと認められた場合、所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像と前記顔画像登録手段により登録された顔画像とを照合することにより、操作者が交代したか否かを判定する判定手段と、
この判定手段により操作者が交代したと判定された場合、前記判定手段の判定時に取込まれた操作者の顔画像を前記不正者リストの顔画像と照合することにより、当該操作者は特定の不正な操作者であるか否かを確認する第2の確認手段と、
前記第1、第2の確認手段により特定の不正な操作者であると認められた場合、あらかじめ定められた所定の動作を行なう制御手段と、
を具備したことを特徴とする操作者監視装置。
An image input means for capturing and inputting a face image of an operator who operates the object;
At the time when the operation of the object to be operated is started, a face image registration unit that captures the face image of the operator input by the image input unit at that time, and registers the captured face image as an initial face image;
By comparing the face image of the operator captured at the time of registration of the face image by the face image registration unit with the face image of the unauthorized person list in which the face image of a specific unauthorized operator is registered in advance, First confirmation means for confirming whether or not the operator is a specific unauthorized operator;
When it is determined by the first confirmation means that the operator is not a specific unauthorized operator, the face image of the operator input by the image input means is captured at a predetermined timing, and the captured face image and the face image are captured. A determination unit that determines whether or not the operator has changed by collating the face image registered by the registration unit;
When it is determined by the determination means that the operator has been changed, the operator is identified by comparing the face image of the operator captured at the time of determination by the determination means with the face image of the unauthorized person list. A second confirmation means for confirming whether or not the user is an unauthorized operator;
Control means for performing a predetermined predetermined operation when the first and second confirmation means are recognized as a specific unauthorized operator; and
An operator monitoring device comprising:
被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、
被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を、あらかじめ正当な操作者の顔画像が登録されている正当者リストの顔画像と照合することにより、当該操作者は正当な操作者であるか否かを確認する第1の確認手段と、
この第1の確認手段により正当な操作者であると認められた場合、所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を前記正当者リストの顔画像と照合することにより、当該操作者は正当な操作者であるか否かを確認する第2の確認手段と、
前記第1、第2の確認手段により正当な操作者でないと認められた場合、あらかじめ定められた所定の動作を行なう制御手段とを有し、
前記第1、第2の確認手段のうち少なくともいずれか一方の確認手段は、正当者リストの顔画像との照合の結果、正当な操作者であると認められた場合、さらに、被操作物のハンドルに対する左右への操作者の手の握る圧力の付加順序があらかじめ定められた順序であるか否かによる本人確認手段を用いて再度、当該操作者は正当な操作者であるか否かを確認することを特徴とする操作者監視装置。
An image input means for capturing and inputting a face image of an operator who operates the object;
When the operation of the object to be operated is started, the operator's face image input by the image input means is captured, and the captured face image is registered in advance as a legitimate operator's face image. A first confirmation means for confirming whether or not the operator is a valid operator by collating with a face image of a valid person list,
When it is recognized by the first confirmation means that the operator is a valid operator, the face image of the operator input by the image input means is taken at a predetermined timing, and the taken face image is taken as the right person list. A second confirmation means for confirming whether or not the operator is a legitimate operator by collating with the face image of
Control means for performing a predetermined operation when it is determined by the first and second confirmation means that the operator is not a legitimate operator ;
If at least one of the first confirmation means and the second confirmation means is recognized as a valid operator as a result of collation with the face image in the valid person list, the confirmation means Confirm again whether or not the operator is a legitimate operator by using identity verification means based on whether or not the order of pressure applied by the operator's hand to the left and right of the handle is a predetermined order. An operator monitoring device characterized by:
被操作物を操作する操作者の顔画像を撮像して入力する画像入力手段と、
被操作物の操作が開始される時点で、そのとき前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像を初期の顔画像として登録する顔画像登録手段と、
所定のタイミングで前記画像入力手段により入力された操作者の顔画像を取込み、この取込んだ顔画像と前記顔画像登録手段により登録された顔画像とを照合することにより、操作者が交代したか否かを判定する判定手段と、
この判定手段により操作者が交代したと判定された場合、前記判定手段の判定時に取込んだ操作者の顔画像を新たな登録顔画像として前記顔画像登録手段に登録するとともに、少なくとも当該取込まれた操作者の顔画像を記録媒体に記録するか、あるいは、あらかじめ定められた所へ伝送する制御手段と、
を具備したことを特徴とする操作者監視装置。
An image input means for capturing and inputting a face image of an operator who operates the object;
At the time when the operation of the object to be operated is started, a face image registration unit that captures the face image of the operator input by the image input unit at that time, and registers the captured face image as an initial face image;
An operator's face image input by the image input means is captured at a predetermined timing, and the operator is changed by comparing the captured face image with the face image registered by the face image registration means. Determination means for determining whether or not,
When it is determined by the determination means that the operator has changed, the operator's face image captured at the time of determination by the determination means is registered in the face image registration means as a new registered face image, and at least the capture is performed. Control means for recording the face image of a rare operator on a recording medium or transmitting it to a predetermined place;
An operator monitoring device comprising:
JP2002059375A 2002-03-05 2002-03-05 Operator monitoring device Expired - Lifetime JP3999983B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002059375A JP3999983B2 (en) 2002-03-05 2002-03-05 Operator monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002059375A JP3999983B2 (en) 2002-03-05 2002-03-05 Operator monitoring device

Publications (2)

Publication Number Publication Date
JP2003256813A JP2003256813A (en) 2003-09-12
JP3999983B2 true JP3999983B2 (en) 2007-10-31

Family

ID=28669090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002059375A Expired - Lifetime JP3999983B2 (en) 2002-03-05 2002-03-05 Operator monitoring device

Country Status (1)

Country Link
JP (1) JP3999983B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242784A (en) * 2004-02-27 2005-09-08 Oki Electric Ind Co Ltd Contract apparatus, authentication biological information retaining apparatus, and database constructing method in authentication biological information retaining apparatus
JP4059224B2 (en) 2004-04-13 2008-03-12 株式会社デンソー Driver appearance recognition system
JP2006134038A (en) * 2004-11-05 2006-05-25 Omron Corp On-vehicle face-data registering device and face-data registering method in vehicle
JP4706917B2 (en) * 2005-09-07 2011-06-22 アイシン精機株式会社 Driver monitoring system
JP4889292B2 (en) * 2005-12-06 2012-03-07 株式会社富士通ビー・エス・シー Authentication system and authentication program
JP4894572B2 (en) * 2006-03-14 2012-03-14 オムロン株式会社 Detection apparatus and method, recording medium, and program
JP2008310454A (en) * 2007-06-13 2008-12-25 Toyota Industries Corp System and method for preventing operation by ineligble
JP5104369B2 (en) * 2008-02-13 2012-12-19 日産自動車株式会社 Face recognition device and face recognition method
JP5314294B2 (en) * 2008-02-27 2013-10-16 パナソニック株式会社 Face recognition device
JP5350514B2 (en) * 2012-04-24 2013-11-27 株式会社ユニバーサルエンターテインメント Personal identification data registration method

Also Published As

Publication number Publication date
JP2003256813A (en) 2003-09-12

Similar Documents

Publication Publication Date Title
Jain et al. Biometric identification
Jain et al. An introduction to biometric recognition
Bolle et al. Guide to biometrics
JP4786483B2 (en) Biometric guidance control method for biometric authentication device and biometric authentication device
US8280120B2 (en) Fraud resistant biometric financial transaction system and method
JP3356144B2 (en) User authentication device using biometrics and user authentication method used therefor
US6549118B1 (en) Security apparatus and method
JP4596026B2 (en) Authentication device and authentication system
JP4760049B2 (en) Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program
US11503021B2 (en) Mobile enrollment using a known biometric
JP4899552B2 (en) Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same
JP3999983B2 (en) Operator monitoring device
Matyáš et al. Biometric authentication systems
JP4672357B2 (en) Authentication system
US20230206686A1 (en) Face authentication method, storage medium, and face authentication device
JP2002132732A (en) Device, terminal, method and system for collating biological information
JP2003099780A (en) Access control system
Boonkrong et al. Biometric Authentication
JP2003308302A (en) Biometrics system
TW202217611A (en) Authentication method
Pankanti et al. Biometrics: Promising frontiers for emerging identification market
CN109271853B (en) Recognition method and device for improving payment security
Kumar et al. User Authentication Using Hard And Soft Biometric Traits
Abdullahi et al. Biometric Approach as a Means of Preventing Identity Theft
Pal A Survey on Biometrics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070810

R151 Written notification of patent or utility model registration

Ref document number: 3999983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130817

Year of fee payment: 6

EXPY Cancellation because of completion of term