JP2016194804A - 人物特定装置およびプログラム - Google Patents

人物特定装置およびプログラム Download PDF

Info

Publication number
JP2016194804A
JP2016194804A JP2015074219A JP2015074219A JP2016194804A JP 2016194804 A JP2016194804 A JP 2016194804A JP 2015074219 A JP2015074219 A JP 2015074219A JP 2015074219 A JP2015074219 A JP 2015074219A JP 2016194804 A JP2016194804 A JP 2016194804A
Authority
JP
Japan
Prior art keywords
person
authentication
information
unit
success rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015074219A
Other languages
English (en)
Other versions
JP6478221B2 (ja
Inventor
剣明 呉
Jiangming Wu
剣明 呉
亮翼 住友
Ryosuke Sumitomo
亮翼 住友
加藤 恒夫
Tsuneo Kato
恒夫 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015074219A priority Critical patent/JP6478221B2/ja
Publication of JP2016194804A publication Critical patent/JP2016194804A/ja
Application granted granted Critical
Publication of JP6478221B2 publication Critical patent/JP6478221B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

【課題】周囲の環境や人物の状況に応じて簡易かつ的確に人物を特定できる人物特定装置およびプログラムを提供する。【解決手段】周囲に存在する人物を特定する処理を行なう人物特定装置110であって、現在における周囲の状況を表す情報を取得する情報取得部と、過去における周囲の状況を表す情報および各認証方式による成否の情報を蓄積する蓄積部111と、取得された情報および蓄積された情報に基づいて、現在における各認証方式による成功率を推定する推定部113と、推定された成功率に応じて、各認証方式のうち実行すべき方式を判定する判定部117と、各認証方式のうち実行すべきと判定された方式を実行する実行部118と、を備える。【選択図】図1

Description

本発明は、周囲に存在する人物を特定する処理を行なう人物特定装置およびプログラムに関する。
近年、車載機などの情報端末は、インターネットを介して情報を交換し、搭乗者に各種の情報を提供可能になっている。そのような情報提供サービスとして、車両のGPSセンサと連動し、渋滞情報等を提供するサービスは既に実現されている。しかし、車内の搭乗者が座っている位置を検出し、その搭乗者の趣味嗜好に応じた情報を提供するサービスは未だ実現されていない。
自動車の着座状態検出装置として、例えば、特許文献1には、座席内部に圧力センサを設けて乗員が着座したときに座席に加わる圧力を検出し、搭乗者の着座を検出する技術が公開されている。しかし、このような技術では、車両内の座席全てに着座センサを取り付ける必要があり、取り付けの手間やコストがかかる。また、搭乗者が実際に着座したときと、座席に搭乗者以外の物体が載置されたときとを区別できず、搭乗者の体重以外の個人情報も取得することができない。
一方、スマートフォンやタブレットなどの普及に伴い、個人が所持する端末から位置を特定する先行技術が開示されている。このような携帯通信端末を利用すれば、搭乗者の個人情報を容易に特定することができる。例えば、特許文献2には、車両の天井や座席上部などに設置された無線センサと搭乗者の携帯通信端末とが交信することによって、搭乗者の車内での相対位置を検知できる機能が記載されている。
しかし、この発明では無線電波のゆらぎと携帯通信端末の持ち方(例えばカバンの中に置く)によっては、車内に持ち込まれている携帯通信端末を正確に位置特定できないおそれもある。また、このような技術では、天井や座席毎にアンテナを設ける必要があり、そのようなアンテナを標準装備していない車両には、新たに複数のアンテナを設置する必要がある。
これに対して、低周波の音波による位置特定技術も開示されている。例えば、特許文献3は、車両に設けられたスピーカから発せられた信号音に対して、信号音を検知した時刻に関する検知情報を通知信号として発信する携帯通信端末を開示している。情報関連付け装置は、所定の時間幅を空けて複数のスピーカごとに信号音を発生させ、携帯通信端末からの信号音を検知した時刻の間隔と所定の時間幅とに基づいて信号音の音源と携帯通信端末との相対的な距離を推定し、車室内における携帯通信端末の位置を特定する。
この方式は高周波の無線電波を利用する場合により位置特定の精度はよいが、低周波端末とスピーカの時刻が正確に同期することが容易ではない。また、人が聞こえない音波帯域を利用する必要があるため、ハードウェア上で対応できない携帯通信端末が多数ある。
また、特許文献4には、搭乗者(運転者のみ)の顔画像から抽出された特徴量に基づいて搭乗者の属性を推定し、推定された属性に応じた運転情報を提供する装置が開示されている。しかし、車内の照明具合が悪い場合には、顔認証が十分に作動しない。したがって、撮像画像から搭乗者を識別し得る鮮明な画像を撮像するには、撮像対象となる座席周囲を照らす光源や、その光源の点灯制御を行なう必要があり、コストアップを招く。また、この技術は複数の搭乗者に対応しない。複数の搭乗者を識別しようとすると、照明具合に加えて、顔撮影の大きさ、ブレ等の状況によっては、その撮像画像から搭乗者の車内位置を判定することができない場合がある。
さらに、特許文献5には、車両に取り付けたセンサから搭乗者の状況を推定できない場合、擬人エージェントが音声によりその確認を求める質問を問いかけ、質問に対する搭乗者の応答を取得することで、最終判断を行なう技術が記載されている。この技術では音声対話で搭乗者の車内位置の特定が可能である。しかし、車内の雑音が大きい場合やマイクから距離が離れた場合には、認証の精度が大きく落ちる。
特開2008−221971号公報 特開2013−210713号公報 国際公開第2014/006745号 特開2009−48307号公報 特開2000−221049号公報
上記の先行技術のように、単一のセンシング条件での搭乗者特定は、車内環境や搭乗者状況によっては、十分な認証精度の確保が困難な場合がある。一方、複数のセンシング手段の組み合わせからより正確な状況を把握しようとしても、装置構成が複雑で高価になり、搭乗者の手間がかかる。
本発明は、このような事情に鑑みてなされたものであり、周囲の環境や人物の状況に応じて簡易かつ的確に人物を特定できる人物特定装置およびプログラムを提供することを目的とする。
(1)上記の目的を達成するため、本発明の人物特定装置は、周囲に存在する人物を特定する処理を行なう人物特定装置であって、現在における周囲の状況を表す情報を取得する情報取得部と、過去における周囲の状況を表す情報および各認証方式による成否の情報を蓄積する蓄積部と、前記取得された情報および前記蓄積された情報に基づいて、現在における前記各認証方式による成功率を推定する推定部と、前記推定された成功率に応じて、前記各認証方式のうち実行すべき方式を判定する判定部と、前記各認証方式のうち前記実行すべきと判定された方式を実行する実行部と、を備えることを特徴としている。これにより、周囲の環境や人物の状況に応じた簡易かつ的確な方式で人物を特定できる。
(2)また、本発明の人物特定装置は、前記判定部が、前記各認証方式に予め設定された優先順位の上位から下位に向けて順に実行すべきか否かを判定することを特徴としている。これにより、的確な人物特定が可能な認証方式ほど上位になるように予め順位を設定しておくことで効率的に方式を選択できる。
(3)また、本発明の人物特定装置は、前記判定部が、所定の閾値を基準に、前記基準に対する前記推定された成功率の高低に応じて前記各認証方式のうち実行すべき方式を判定することを特徴としている。これにより、推定された成功率が所定の基準を満たす認証方式を採用でき、十分に的確な認証方式で人物を特定できる。
(4)また、本発明の人物特定装置は、前記実行部が、前記各認証方式のうち前記推定された成功率が高い方式を実行することを特徴としている。これにより、成功率の高い方式で人物を特定でき、その的確さが向上する。
(5)また、本発明の人物特定装置は、前記推定部が、前記蓄積された情報に基づく係数を含む関係式を用いて、前記取得された情報に対する前記成功率を算出することを特徴としている。これにより、過去の情報を反映した関係式を用いて容易に成功率を算出できる。
(6)また、本発明の人物特定装置は、前記実行されるべきと判定された認証方式により、人物特定の処理を実行した結果、人物特定に失敗したときには、前記人物特定の処理の結果を蓄積するとともに、前記蓄積された情報に基づく係数を算出し直す学習部を更に備えることを特徴としている。これにより、失敗時の情報を関係式にフィードバックし、人物特定の的確さや効率を高めることができる。
(7)また、本発明の人物特定装置は、携帯通信端末を検出する端末検出部を更に備え、前記端末検出部は、前記携帯通信端末の検出を契機として人物特定の処理を開始させることを特徴としている。これにより、ユーザが人物特定装置の周囲に近づいた際に、自動で人物特定を始めることができ、処理を効率化できる。
(8)また、本発明の人物特定装置は、ユーザの指示を受け付ける指示受付部を更に備え、前記指示受付部は、前記受け付けたユーザ指示に基づいて、前記認証方式のうち実行されうる方式、または前記前記各認証方式のうち実行すべき方式の判定手順を設定することを特徴としている。これにより、ユーザが装置による認証方式の採用手順を設定することができる。その結果、的確かつ高効率な人物特定が可能になるように調整可能となる。
(9)また、本発明の人物特定装置は、前記認証方式に、映像による情報に基づく顔認証が含まれることを特徴としている。これにより、顔認証技術を用いて人物を特定することができる。
(10)また、本発明の人物特定装置は、前記認証方式に、音による情報に基づく話者認証が含まれることを特徴としている。これにより、話者認証技術を用いて人物を特定することができる。
(11)また、本発明の人物特定装置は、前記認証方式に、携帯通信端末を介したユーザ自身による指示が含まれることを特徴としている。これにより、自動での人物特定に失敗したときには、ユーザにより誤りを訂正できる。また、その失敗の履歴を人物特定の手順にフィードバックできる。
(12)また、本発明の人物特定装置は、自動車内に設置され、前記自動車内の各席に座る人物をそれぞれ特定することを特徴としている。これにより、自動車内の各席に座っている人物を特定でき、各席の人物に特化したサービスを提供できる。
(13)また、本発明のプログラムは、周囲に存在する人物を特定する処理を行なうプログラムであって、現在における周囲の状況を表す情報を取得する処理と、前記取得された情報と過去における周囲の状況を表す情報および各認証方式による成否の情報とに基づいて、現在における前記各認証方式による成功率を推定する処理と、前記推定された成功率に応じて、前記各認証方式のうち実行すべき方式を判定する処理と、前記各認証方式のうち前記実行すべきと判定された方式を実行する処理と、を含む一連の処理をコンピュータに実行させることを特徴としている。これにより、周囲の環境や人物の状況に応じた簡易かつ的確な方式で人物を特定できる。
本発明によれば、周囲の環境や人物の状況に応じて簡易かつ的確に人物を特定できる。
第1の実施形態に係る人物特定システムの構成を示すブロック図である。 人物特定システムの動作の一場面を示す概略図である。 車載機の動作の一例を示すフローチャートである。 車載機の動作の一例を示すフローチャートである。 ロジット関数を示すグラフである。 (a)、(b)それぞれ顔認証および話者認証の利用履歴の学習を示す図である。 (a)、(b)それぞれ顔認証および話者認証の判定動作を示す模式図である。 車内の取得画像を示す図である。 局所領域におけるバイナリパターンをヒストグラムとして捉える手順を示す図である。 第2の実施形態に係る人物特定システムの構成を示すブロック図である。
次に、本発明の実施の形態について、図面を参照しながら説明する。
[第1の実施形態]
(システムの構成)
車内環境や搭乗者状況から、複数のセンシング状態(照度、雑音、着座人数、着座位置分布、顔サイズ、顔安定度)と機械学習で得られた判定係数をシステムに入力する。そして、システムは最適な認証順序を決定することで、搭乗者特定の利便性を高めることができる。認証方式としては、顔認証、話者認証、および携帯電話での手動選択がある。また、実環境の利用履歴に対して、統計的機械学習により判定係数を更新させることで、搭乗者特定の信頼性を高めることができる。
ユーザの携帯通信端末として、携帯電話や、スマートフォン、タブレット、腕時計型スマートウォッチなどの端末の利用を想定しており、情報表示端末として、運転席と助手席の真ん中前方に設置された車載機の利用を想定している。本実施形態は簡単な構成で実現可能であり、車内に新たな装置の増設が不要である。したがって、複数の車載機を備えた車両への適用例の説明は省略する。一方、ユーザの携帯通信端末は、効果的な応用デバイスとしてスマートフォンを用いた実施形態を詳細に説明する。
図1は、人物特定システム100の構成を示すブロック図である。人物特定システム100は、車載機110、携帯通信端末120、顔認証サーバ130および話者認証サーバ140を備えている。人物特定装置として機能する車載機110は、周囲に存在する人物を特定する処理を行なう。携帯通信端末120は、ユーザが携帯している端末であり、車載機との間で通信が可能である。顔認証サーバ130および話者認証サーバ140は、それぞれ個人情報を有し、それぞれ顔認証および話者認証の処理が可能となっている。各構成の詳細は、後述する。
(車載機の構成)
図1に示すように車載機110(人物特定装置)は、蓄積部111、表示部111a、情報取得部112、カメラ112a、マイク112b、推定部113、端末検出部114、通信部115a、操作部115b、指示受付部116、判定部117、実行部118および学習部119を備えている。
蓄積部111は、過去における周囲の状況を表す情報および各認証方式による成否の情報を蓄積する。例えば、学習部119で学習した結果として「回帰係数」と、実環境での利用履歴(現在の周囲の状況の特徴量、認証結果から構成された特徴量)を蓄積する。表示部111aは、システムが更新したレンダリング情報を、ディスプレイ上に出力する。
情報取得部112は、現在における周囲の状況を表す情報を取得する。例えば、照度、雑音、着座人数、着座位置分布、顔サイズ、顔安定度など車内環境と搭乗者の現在の周囲の状況の情報を取得する。カメラ112a、マイク112bは、センサを構成しており、情報取得部112は、センサからの情報を受け付けて、その情報を処理することで必要な情報を取得する。
推定部113は、取得された情報および蓄積された情報に基づいて、現在における各認証方式による成功率を推定する。推定部113は、蓄積された情報に基づく係数を含む関係式を用いて、取得された情報に対する成功率を算出する。これにより、過去の情報を反映した関係式を用いて容易に成功率を算出できる。具体的には、情報取得部112から測定された即時状態の特徴量、および、学習部119で学習されている判定係数(回帰係数)に基づいて、顔認証および話者認証の成功率の推定値を算出する。
端末検出部114は、搭乗者のスマートフォンから発信したBLE(Bluetooth(登録商標) Low Energy)信号を検出することで携帯通信端末を検出し、登録者で尚且つ電波強度が所定値以上であれば自動接続してデータのやりとりを行なう。このように、端末検出部114は、携帯通信端末の検出を契機として人物特定の処理を開始させることが好ましい。これにより、ユーザが人物特定装置の周囲に近づいた際に、自動で人物特定を始めることができ、処理を効率化できる。
通信部115aは、携帯通信端末120から発信されたBLE電波を検知することができる。また、携帯通信端末120からの指示を受信する等の通信が可能となっている。通信部115aは、BLE以外は、Wi−Fiを始めとした近距離無線通信方式で通信してもよい。操作部115bは、ユーザからの操作を受け付ける。例えば、人物特定に失敗したときに、誤認証を訂正する操作や、人物特定の処理手順の設定操作を受け付けることができる。
指示受付部116は、ユーザの指示を受け付け、受け付けたユーザ指示に基づいて、認証方式のうち実行されうる方式、または各認証方式のうち実行すべき方式の判定手順を設定する。これにより、ユーザが装置による認証方式の採用手順を設定することができる。その結果、的確かつ高効率な人物特定が可能になるように調整可能となる。指示受付部116は、上記の操作部115bが受け付けた指示だけではなく、通信部115aを介して携帯通信端末120、または自装置の操作部から、誤認証の訂正指示や処理手順の設定変更の指示を受け付ける。受けた指示は、設定に反映される。
判定部117は、推定された成功率に応じて、各認証方式のうち実行すべき方式を判定する。すなわち、成功率の高い認証方式を実行することを決定する。また、複数の認証方式のうち、実行する順番を決定する。
判定部117は、各認証方式に予め設定された優先順位の上位から下位に向けて順に実行すべきか否かを判定することが好ましい。これにより、的確な人物特定が可能な認証方式ほど上位になるように予め順位を設定しておくことで効率的に方式を選択できる。
また、判定部117は、所定の閾値を基準に、基準に対する推定された成功率の高低に応じて各認証方式のうち実行すべき方式を判定することが好ましい。これにより、推定された成功率が所定の基準を満たす認証方式を採用でき、十分に的確な認証方式で人物を特定できる。
実行部118は、各認証方式のうち実行すべきと判定された方式を実行する。これにより、周囲の環境や人物の状況に応じた簡易かつ的確な方式で人物を特定できる。具体的には、決定された認証順序にしたがって、顔認証サーバ130または話者認証サーバ140とやりとりをし、認証処理を行なう。顔認証や話者認証の処理は、車載機110のローカルで実行してもよいし、ネットワークを介してサーバ側で実行してもよい。また、実行部118は、各認証方式のうち推定された成功率が高い方式を実行することとしてもよい。これにより、成功率の高い方式で人物を特定でき、その的確さが向上する。
学習部119は、実環境での利用履歴に基づいた学習機能を提供する。学習部119は、認証処理結果のスコアが事前に決めった標準以下、もしくは、認証結果が事実と異なる結果、誤認証が発生したときに、利用履歴を記録し、成功率推定の判定係数を再度学習する。
特に、実行されるべきと判定された認証方式により、人物特定の処理を実行した結果、人物特定に失敗したときには、人物特定の処理の結果を蓄積するとともに、蓄積された情報に基づく係数を算出し直すことが重要である。これにより、失敗時の情報を関係式にフィードバックし、人物特定の的確さや効率を高めることができる。
(携帯通信端末の構成)
図1に示すように、携帯通信端末120は、少なくとも表示部121、操作部123、通信部125を備えている。通信部125は、BLE電波を利用して自らの信号を周囲に発信する。BLE以外は、Wi−Fiを始めとした近距離無線通信方式を利用して信号を発信してもよい。表示部121は、システムが更新したレンダリング情報を、ディスプレイ上に出力する。操作部123は、搭乗者の手動選択による入力インタフェースを提供する。また、操作部123は、搭乗者の音声による入力インタフェースを提供してもよい。
(システムの動作)
図2は、人物特定システムの動作の一場面を示す概略図である。
図2は、本発明の提案方式を提供するユーザ利用シーンの概念図である。人物特定装置は、車載機110として自動車内C1に設置され、自動車内の各席に座る人物をそれぞれ特定する。自動車内の各席に座っている人物を特定できることで、各席の人物に特化したサービスを提供できる。
(1)まず、運転者Aと同乗者Bがそれぞれのスマートフォン120a、120bを持って自動車に乗り込むと、車載機110はスマートフォン120a、120bのBLE電波を検知し、検知されたBLE電波の強度から車載機110とスマートフォン120a、120bの距離を推定する。そして、車載機110がスマートフォン120a、120bの所有者が登録者で尚且つ電波強度が所定値以上であると判断した場合には、車載機110からスマートフォン120a、120bに自動接続する。
(2)カメラ112aやマイク112b等のセンサにより車内環境および搭乗者のセンシング状態と機械学習で求められた判定係数に応じて、顔認証・話者認証・スマートフォン手動選択の3つの認証手段から動的に認証順序を決定する。
(3)第一ノードでは、顔認証の成否の判定によりルートが分岐する。顔認証が成功した場合、顔認証サーバか130ら運転者Aと同乗者BのIDを取得して個人適応プロファイルを読み込む。顔認証が失敗したときには、第二ノードに進む。第二ノードでは、話者認証の成否の判定によりルートが分岐する。話者認証が成功した場合、話者認証サーバ140から運転者Aと同乗者BのIDを取得して個人適応プロファイルを読み込む。話者認証が失敗したときには、第三ノードに進む。第三ノードでは、スマートフォンの手動選択を受け付け、それぞれの人物のIDと位置を設定する。
(4)顔認証および話者認証のいずれかが失敗した場合、センシング状態と認証失敗の結果を利用履歴に記録し、判定係数の再学習を行なう。
(車載機の動作)
次に、図3、図4を参照しながら、動的に認証順序を決定するアルゴリズムを説明する。図3、図4は、それぞれ車載機の動作の一例を示すフローチャートである。
(第1の動作例)
図2に示すように、まず車載機110は、システム全体のトリガーとして搭乗者のスマートフォンから発信したBLE信号を検出し(ステップS101)、BLE信号が検出されたスマートフォンのユーザが登録者で尚且つ電波強度が所定値以上であれば車載機からスマートフォンに自動接続し、成功率の推定処理を起動させる。
各認証方式の成功率の推定処理の入力として、車載機に備えているカメラ112aまたはマイク112b等のセンサおよび情報取得部112により照度、雑音、着座人数、着座分布の値、顔サイズ、顔安定度等の情報を収集する(ステップS102)。そして、収集した情報および事前に学習された判定変数に基づいて、ロジスティック回帰モデルを適用し、成功率の推定処理を行なう(ステップS103)。そして、成功率の推定処理の出力として、顔認証による人物特定の成功率および話者認証による人物特定の成功率を算出する。
具体的には、まず、顔認証による人物特定の成功率が閾値より高いという基準を満たすか否かを判定し(ステップS104)、基準を満たす場合には、人物特定の処理として顔認証の方式を採用し、顔認証の処理を実行させ(ステップS105)、成功例として利用履歴を記録し(ステップS106)、処理を終了する。
基準を満たさない場合には、話者認証による人物特定の成功率が閾値より高いという基準を満たすか否かを判定し(ステップS107)、基準を満たす場合には、人物特定の処理として話者認証の方式を採用し、話者認証の処理を実行させ(ステップS108)、成功例として利用履歴を記録し(ステップS106)、処理を終了する。
顔認証および話者認証による人物特定の成功率が両方とも閾値より低い場合には、ユーザに直接スマートフォンで個人を特定する指示を入力させる(ステップS109)。そして、失敗例の利用履歴としてそのときの周囲の状況を記録し(ステップS106)、処理を終了する。
なお、車載機110は、認証結果が提示される際の機会に、搭乗者によるフィードバックがなければ成功例と判断する。例えば、搭乗者によりスマートフォンに対し「認証結果が間違っている」という選択肢が選択されたというフィードバックがあった場合には、失敗例と判断する。失敗例と判断したときには、学習部の学習処理を再度実行させ、判定係数を再算出する。
通常、顔認証の処理がもっとも搭乗者の操作の手間を省くことになる。したがって、本実施形態の分岐ルートでは、図3に示すように、顔認証の方式を優先し、顔認証による人物特定に失敗したときに話者認証の方式で人物特定を行なっている。しかし、状況によっては、話者認証の方式を優先し、話者認証による人物特定に失敗したときに顔認証の方式で人物特定を行なってもよい。また、こうしたシステム構成を実現することによって、顔認証または話者認証以外の認証方式もシステム構成に簡単に追加することが可能である。
(第2の動作例)
上記のような例以外にも動的に認証順序を決定するアルゴリズムは可能である。図3に示す動作例は、各認証方式について推定した成功率に応じて、認証方式の順序を決定し、その順序に沿って人物特定の処理を行なっている。
まず、ステップS201からステップS203までは、上記の例のステップS101からステップS103までの動作と同じである。例えば、このようにして推定された成功率の高い順序で各認証方式による人物特定を行なうことを決定し(ステップS204)、決定された順序に従って人物特定の処理を実行する(ステップS205)。
そして、人物特定が成功したか否かを判定し、(ステップS206)、成功したときには、成功例として利用履歴を記録し(ステップS207)、処理を終了する。人物特定が成功しなかったときには、ユーザに直接スマートフォンで個人を特定する指示を入力させ(ステップS208)、失敗例の利用履歴としてそのときの周囲の状況を記録し(ステップS207)、処理を終了する。
(判定係数の学習方法)
次に、本実施形態の判定係数の学習方法について説明する。本実施形態では、成功率の推定処理にはロジスティック回帰モデルの機械学習を用いることが好ましい。SVMやパーセプトロンなどの機械学習はデータ集の分類モデルとして利用されており、判定値の正負は学習できるが、判定値の大小である「信頼度」(成功率)は学習できない。
これに対して、ロジスティック回帰モデルは、分類モデルを確率化することで「信頼度」を算出できる。数式(1)として示されるロジット関数において、「正に分類される確率」をpとすれば、「負に分類される確率」は1−pになるため、確率の大きいほう、つまりp>0.5なら正、p<0.5なら負を予測とする。
このようにして、上記の確率値pをそのまま本実施形態の「成功率」として扱うこともできるが、正への分類をできるだけ確実なものにするには,判断の閾値を0.5より大きい0.7や0.8などに調整したときのpを「成功率」として扱うことも可能である。図5は、ロジット関数を示すグラフである。ロジット関数の回帰係数βは、利用履歴の成功例および失敗例のデータ集に対して、最尤推定もしくは最小二乗法で算出することが可能である。
回帰係数の代表的な推計方法として最尤法を用いることができる。データ集xの分類を表す2値の確率変数ロジット値において、「推定ロジット値」と「実際ロジット値」との回帰誤差が最小となる係数を求める。つまり、適当な初期値を用いた繰り返し計算によって、近似解が収束したところのパラメータを回帰係数とすることができる。
一方、回帰分析で用いられる推計方法として、最小二乗法もある。具体的には、はじめに回帰式(目的変数を独立変数で計算する式)を設定する。次に、回帰式の係数を求めることが目的となるが、「目的変数の測定値と目的変数の推定値(独立変数の測定値および回帰式を用いて求めた)の差の2乗平均」が最小になるように、回帰式の係数で推定値の差の2乗平均を微分し0と置いた連立方程式を解いて求めることができる。
次に、成功例および失敗例の利用履歴のフォーマットの詳細を説明する。図6(a)、(b)は、それぞれ顔認証および話者認証の利用履歴の学習を示す図である。利用履歴は、一回の認証処理において1レコードとして記録され、顔認証と話者認証はそれぞれ図6に示すフィールド順に並んでいる。学習部は、上記の算出アルゴリズムを利用して、各フィールドの変数を入力として回帰係数を算出することができる。
図7(a)、(b)は、それぞれ顔認証および話者認証の判定動作を示す模式図である。実際の利用時に成功率の推定を行なう際に、回帰係数とそのときの周囲の状況の特徴量を数式(1)のロジット関数に入力して、pが0.7より小さいか否かを判定し、小さい場合にはその認証処理を実行すべきでない旨を出力し、pが0.7に一致するか0.7より大きい場合には、その認証処理を実行すべき旨を出力する。
(顔認証処理)
次に、顔認証処理の詳細を説明する。上記の例では、顔認証の方式による人物特定の成功率が0.7より高ければ、車載機側のカメラを起動して運転席と助手席を撮影する。図8は、車内の取得画像P1を示す図である。
図8に示すように、取得画像P1の中で、顏検出枠F1により運転者の顔の部分の画像を切り取り、顏検出枠F2により助手席の顔の部分の画像を切り取り、それぞれの部分に対して顔認証処理により人物特定を行なう。
取得画像P1の右半分の領域に顏があればその顏は運転者のものであり、左半分の領域に顏があればその顏は助手席の同乗者のものと判断できる。このようにしてそれぞれの搭乗者を特定できた場合、身分と車内位置をペアで関連付けて記録する。そして、予め登録されたユーザプロファイルを読み込む。そして、読み込んだユーザプロファイルを用いて、その搭乗者に対する個人情報の提示が可能である。
顔認証の方式を具体的に実施する方法は、既知のアルゴリズムとして開示されており、本実施形態では車内の照明変化の影響を受けにくい顔写真のLBP特徴量(Local Binary Pattern Histogram)をSVMで学習している。図9は、局所領域におけるバイナリパターンをヒストグラムとして捉える手順を示す図である。図9に示すように、LBPは注目画素と近傍画素の輝度の大小関係を表現するため、局所領域におけるバイナリパターン(局所的な輝度の分布)をヒストグラムとして捉える。こうしたヒストグラムの類似度比較により顔認証が実現可能になる。
(話者認証処理)
次に、話者認証処理について説明する。上記の顔認証処理と同様に、話者認証処理による人物特定の成功率が0.7と一致するか、または0.7より高ければ、話者認証による人物特定を実行する。すなわち車載機のマイクを起動して運転者とそのほかの同乗者の声を録音して、話者認証を行なう。車内の位置と関連付けるため、車載機の音声もしくは文字ガイドにしたがって一人ずつ録音することが好ましい。このようにして全員の搭乗者が特定できた場合、それぞれの搭乗者の身分と車内位置を関連付けて記録し、予め登録されたユーザプロファイルを読み込む。そして、読み込んだユーザプロファイルを用いて、その搭乗者に対する個人情報の提示が可能である。
話者認証は、事前にそれぞれの登録者の声の特徴量を登録しておき、実際に話者認証が行なわれる際に特徴量の類似度を比較して行なう。特徴量から性別や年齢などの区分だけ行なうようにして、その区分から人物を特定してもよい。
(手動確認処理)
次に、搭乗者によるスマートフォンを用いた手動確認による人物特定を説明する。上記のように、顔認証および話者認証のいずれの認証方式でも人物特定に失敗している場合、スマートフォンの入力画面に対し搭乗者は自らの身分と車内位置を補完して、フィードバックをかける。この際には、失敗例として車載機に利用履歴として追加される。また、それをきっかけに車載機の学習部による学習処理を再度実行させる。
スマートフォンへの入力は、車載機の入力画面にスマートフォンに蓄積された個人の名前と車内位置を関連付ける選択式のI/Fを表示し、選択の入力を受け付けることで行なってもよいが、搭乗者に発話させて「私はXXX、運転者です」等の音声コマンドを受け付けることで行なってもよい。
上記の認証方式で特定できない場合には、携帯通信端末を介したユーザ自身による指示で人物を特定するのが好ましい。これにより、自動での人物特定に失敗したときには、ユーザにより誤りを訂正できる。また、その失敗の履歴を人物特定の手順にフィードバックできる。
[第2の実施形態]
上記の実施形態では、主に自家用車の利用シーンを想定しており、特定人物が限定されている。また、学習部と蓄積部は自家用車の車載機に設置しているが、コールセンターのサーバに設置してもよい。例えば、レンタカーに搭乗者特定技術によるパーソナライズドサービスを適用する場合、コールセンターを利用した構成を採用してもよい。その際には、多数のレンタカー利用者のデータをサーバにアップして機械学習し、その回帰係数をレンタカーにまた改めてダウンロードして利用してもよい。
図10は、人物特定システム200の構成を示すブロック図である。人物特定システム200は、車載機210、携帯通信端末120、コールセンター230で構成されており、全体の機能は、第1の実施形態の人物特定システム100と同様であるが、車載機の一部の機能をコールセンターに持たせている。すなわち、コールセンター230は、実行部231、ユーザ管理部233、学習部234および蓄積部236を備えている。
実行部231は、各認証方式のうち実行すべきと判定された方式を実行する。ユーザ管理部233は、コールセンター230に登録されたユーザ情報を管理する。学習部234は、実環境での利用履歴に基づいた学習機能を提供する。蓄積部236は、過去における周囲の状況を表す情報および各認証方式による成否の情報を蓄積する。このような構成によっても、第1の実施形態と同様の効果を得ることができる。
なお、以上の第1、第2の実施形態では、自動車内の搭乗者特定を説明しているが、飛行機機内の乗客特定やE-Learning受験者特定などそのほかの人物特定用途としても適用可能である。
[応用例]
上記のような人物特定システムは、以下のような用途に利用できる。特に、人物特定技術を適用する利用シーンとして、車内のどの席に誰が座っているかをさりげなく確認して、搭乗者の状況に合って、迅速な目的地設定やパソナライズな情報提示などを行なうことが可能になる。
(第1の応用例)
例えば、自家用車を家族で利用する典型的な場面として、お父さんが運転する週末の家族ドライブのシーンを想定できる。お父さんが運転席、お母さんが助手席、娘さんが後席と特定すると、それぞれの興味に応じて経路上のお出かけスポット情報を異なる手段で提示できる。お父さんには車載機から音声ガイド、お母さんには車載器の画面からビジュアルガイド、娘さんには個人端末の画面からビジュアルガイド、を提供できる。
(第2の応用例)
次に、お父さんの毎日の通勤の場面が想定できる。人物特定システムを利用することで、お父さんが一人の運転者であると特定すると、いつもの会社通勤ルートを自動設定できる。
(第3の応用例)
お母さんと娘さんのスーパーでの買い物の場面にも利用可能である。お母さんが運転席、娘さんが後席と特定すると、普段利用する店舗を目的地の候補と提示し、運転中に近隣店舗のセールの案内を提供できる。また、渋滞発生時に迂回路の選択を行なう際に、後席にいる車載機を触れない娘さんに、個人端末の画面にメニューを提示して選択させることもできる。
100 人物特定システム
110 車載機(人物特定装置)
111 蓄積部
111a 表示部
112 情報取得部
112a カメラ
112b マイク
113 推定部
114 端末検出部
115a 通信部
115b 操作部
116 指示受付部
117 判定部
118 実行部
119 学習部
120 携帯通信端末
120a、120b スマートフォン(携帯通信端末)
121 表示部
123 操作部
125 通信部
130 顔認証サーバ
140 話者認証サーバ
200 人物特定システム
210 車載機(人物特定装置)
230 コールセンター
231 実行部
233 ユーザ管理部
234 学習部
236 蓄積部
A 運転者
B 同乗者
C1 自動車内
F1 顏検出枠
F2 顏検出枠

Claims (13)

  1. 周囲に存在する人物を特定する処理を行なう人物特定装置であって、
    現在における周囲の状況を表す情報を取得する情報取得部と、
    過去における周囲の状況を表す情報および各認証方式による成否の情報を蓄積する蓄積部と、
    前記取得された情報および前記蓄積された情報に基づいて、現在における前記各認証方式による成功率を推定する推定部と、
    前記推定された成功率に応じて、前記各認証方式のうち実行すべき方式を判定する判定部と、
    前記各認証方式のうち前記実行すべきと判定された方式を実行する実行部と、を備えることを特徴とする人物特定装置。
  2. 前記判定部は、前記各認証方式に予め設定された優先順位の上位から下位に向けて順に実行すべきか否かを判定することを特徴とする請求項1記載の人物特定装置。
  3. 前記判定部は、所定の閾値を基準に、前記基準に対する前記推定された成功率の高低に応じて前記各認証方式のうち実行すべき方式を判定することを特徴とする請求項1または請求項2記載の人物特定装置。
  4. 前記実行部は、前記各認証方式のうち前記推定された成功率が高い方式を実行することを特徴とする請求項1記載の人物特定装置。
  5. 前記推定部は、前記蓄積された情報に基づく係数を含む関係式を用いて、前記取得された情報に対する前記成功率を算出することを特徴とする請求項1から請求項4のいずれかに記載の人物特定装置。
  6. 前記実行されるべきと判定された認証方式により、人物特定の処理を実行した結果、人物特定に失敗したときには、前記人物特定の処理の結果を蓄積するとともに、前記蓄積された情報に基づく係数を算出し直す学習部を更に備えることを特徴とする請求項1から請求項5のいずれかに記載の人物特定装置。
  7. 携帯通信端末を検出する端末検出部を更に備え、
    前記端末検出部は、前記携帯通信端末の検出を契機として人物特定の処理を開始させることを特徴とする請求項1から請求項6のいずれかに記載の人物特定装置。
  8. ユーザの指示を受け付ける指示受付部を更に備え、
    前記指示受付部は、前記受け付けたユーザ指示に基づいて、前記認証方式のうち実行されうる方式、または前記前記各認証方式のうち実行すべき方式の判定手順を設定することを特徴とする請求項1から請求項7のいずれかに記載の人物特定装置。
  9. 前記認証方式には、映像による情報に基づく顔認証が含まれることを特徴とする請求項1から請求項8のいずれかに記載の人物特定装置。
  10. 前記認証方式には、音による情報に基づく話者認証が含まれることを特徴とする請求項1から請求項9のいずれかに記載の人物特定装置。
  11. 前記認証方式には、携帯通信端末または自装置の操作インタフェースを介したユーザ自身による指示が含まれることを特徴とする請求項1から請求項10のいずれかに記載の人物特定装置。
  12. 自動車内に設置され、前記自動車内の各席に座る人物をそれぞれ特定することを特徴とする請求項1から請求項11のいずれかに記載の人物特定装置。
  13. 周囲に存在する人物を特定する処理を行なうプログラムであって、
    現在における周囲の状況を表す情報を取得する処理と、
    前記取得された情報と過去における周囲の状況を表す情報および各認証方式による成否の情報とに基づいて、現在における前記各認証方式による成功率を推定する処理と、
    前記推定された成功率に応じて、前記各認証方式のうち実行すべき方式を判定する処理と、
    前記各認証方式のうち前記実行すべきと判定された方式を実行する処理と、を含む一連の処理をコンピュータに実行させることを特徴とするプログラム。
JP2015074219A 2015-03-31 2015-03-31 人物特定装置およびプログラム Active JP6478221B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015074219A JP6478221B2 (ja) 2015-03-31 2015-03-31 人物特定装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015074219A JP6478221B2 (ja) 2015-03-31 2015-03-31 人物特定装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2016194804A true JP2016194804A (ja) 2016-11-17
JP6478221B2 JP6478221B2 (ja) 2019-03-06

Family

ID=57323953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015074219A Active JP6478221B2 (ja) 2015-03-31 2015-03-31 人物特定装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6478221B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019071895A (ja) * 2017-08-29 2019-05-16 株式会社ハチたま ペットの個体識別システム
WO2020213284A1 (ja) * 2019-04-15 2020-10-22 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
WO2021260929A1 (ja) * 2020-06-26 2021-12-30 三菱電機株式会社 ソフトウェア起動装置、情報処理装置、およびソフトウェア起動方法
WO2022254501A1 (ja) * 2021-05-31 2022-12-08 三菱電機株式会社 個人認証装置及び個人認証システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060095A (ja) * 1999-08-23 2001-03-06 Auto Network Gijutsu Kenkyusho:Kk 車載音量調整装置
JP2006011650A (ja) * 2004-06-23 2006-01-12 Mitsubishi Heavy Ind Ltd 個人認証方法及び該システム
JP2009284442A (ja) * 2008-05-26 2009-12-03 Fujitsu Ten Ltd 人物認証装置および人物認証方法
JP2015039904A (ja) * 2013-08-20 2015-03-02 トヨタ自動車株式会社 操作者識別装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060095A (ja) * 1999-08-23 2001-03-06 Auto Network Gijutsu Kenkyusho:Kk 車載音量調整装置
JP2006011650A (ja) * 2004-06-23 2006-01-12 Mitsubishi Heavy Ind Ltd 個人認証方法及び該システム
JP2009284442A (ja) * 2008-05-26 2009-12-03 Fujitsu Ten Ltd 人物認証装置および人物認証方法
JP2015039904A (ja) * 2013-08-20 2015-03-02 トヨタ自動車株式会社 操作者識別装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019071895A (ja) * 2017-08-29 2019-05-16 株式会社ハチたま ペットの個体識別システム
WO2020213284A1 (ja) * 2019-04-15 2020-10-22 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
WO2021260929A1 (ja) * 2020-06-26 2021-12-30 三菱電機株式会社 ソフトウェア起動装置、情報処理装置、およびソフトウェア起動方法
WO2022254501A1 (ja) * 2021-05-31 2022-12-08 三菱電機株式会社 個人認証装置及び個人認証システム

Also Published As

Publication number Publication date
JP6478221B2 (ja) 2019-03-06

Similar Documents

Publication Publication Date Title
US20230294665A1 (en) Systems and methods for operating a vehicle based on sensor data
US11568496B1 (en) Risk behavior detection methods based on tracking handset movement within a moving vehicle
CN111937050B (zh) 乘客相关物品丢失减少
US9928434B1 (en) Appartuses, systems, and methods for determining when a vehicle occupant is using a mobile telephone
JP6478221B2 (ja) 人物特定装置およびプログラム
CN108790674B (zh) 一种车载空调的控制方法及系统
CN108225366A (zh) 车载装置与路线信息提示系统
CN104285427B (zh) 根据通过使不同数据源相关确定的上下文配置终端装置
KR20140064969A (ko) 콘텍스트―기반 스마트폰 센서 로직
KR20180110891A (ko) 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법
CN109389029A (zh) 基于行车记录仪的寻人方法、装置、系统和存储介质
US20200342503A1 (en) Evaluation device, evaluation system, vehicle, and program
CN111126158A (zh) 基于人脸识别的自动检票方法、装置及系统
US20230311901A1 (en) Apparatuses, systems and methods for improving operation of autonomous vehicles
US20200285240A1 (en) Directed interaction of customers with autonomous vehicles
CA3084696C (en) Vehicle operation assistance device
US20170370746A1 (en) Method for Updating Parking Area Information in a Navigation System and Navigation System
US20150179087A1 (en) Mobile-device instigated facilitation of user-environment interaction
CN111758115A (zh) 车辆共乘辅助系统
US11302304B2 (en) Method for operating a sound output device of a motor vehicle using a voice-analysis and control device
JP2016009309A (ja) サービス支援装置、サービス支援方法及びプログラム
JP2019200614A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20230058043A1 (en) Mobile terminal and operating method thereof
JP2023019343A (ja) 行先設定支援装置、行先設定支援方法及び行先設定支援プログラム
CN116166835A (zh) 智能推荐方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190129

R150 Certificate of patent or registration of utility model

Ref document number: 6478221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150