JP7445207B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7445207B2
JP7445207B2 JP2021573706A JP2021573706A JP7445207B2 JP 7445207 B2 JP7445207 B2 JP 7445207B2 JP 2021573706 A JP2021573706 A JP 2021573706A JP 2021573706 A JP2021573706 A JP 2021573706A JP 7445207 B2 JP7445207 B2 JP 7445207B2
Authority
JP
Japan
Prior art keywords
subject
standard deviation
face
information processing
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021573706A
Other languages
English (en)
Other versions
JPWO2021152748A1 (ja
JPWO2021152748A5 (ja
Inventor
雄太 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021152748A1 publication Critical patent/JPWO2021152748A1/ja
Publication of JPWO2021152748A5 publication Critical patent/JPWO2021152748A5/ja
Application granted granted Critical
Publication of JP7445207B2 publication Critical patent/JP7445207B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
特許文献1には、運転者の視界に入る各種の対象物と、運転者の顔向き又は視線方向との関係に基づいて運転者の動作又は状態を判定し、その判定結果に応じた制御処理を車載システムに実行させる監視装置が開示されている。当該監視装置は、例えば、運転者の顔向き又は視線方向が対象物に対して所定範囲内にある場合に、運転者は対象物を注視しているものと判定する。
国際公開第2007/105792号
特許文献1に例示されている監視装置は、運転者が対象物を注視しているか否かを判定するために、検出した顔向き又は視線方向の検出値をそのまま用いている。しかし、顔向き及び視線方向の検出値には、個人差がある。このような場合には、判定精度が低くなる可能性があった。
そこで、本発明は、上述の問題を解決できる情報処理装置、情報処理方法及びプログラムを提供することを目的とする。
本発明の一つの観点によれば、対象者の顔向きを検出する顔向き検出手段と、前記対象者の視線方向を検出する視線方向検出手段と、前記顔向きの時系列データにおける第1標準偏差、前記視線方向の時系列データにおける第2標準偏差とを算出し、前記第1標準偏差と前記第2標準偏差との一致度に基づいて、前記対象者に操作対象物に対する操作の意思があるか否かを判定する操作判定手段と、を備える情報処理装置が提供される。
本発明の他の観点によれば、対象者の顔向きを検出するステップと、前記対象者の視線方向を検出するステップと、前記顔向きの時系列データにおける第1標準偏差、前記視線方向の時系列データにおける第2標準偏差とを算出し、前記第1標準偏差と前記第2標準偏差との一致度に基づいて、前記対象者に操作対象物に対する操作の意思があるか否かを判定するステップと、を備える情報処理方法が提供される。
本発明のさらに他の観点によれば、コンピュータに、対象者の顔向きを検出するステップと、前記対象者の視線方向を検出するステップと、前記顔向きの時系列データにおける第1標準偏差、前記視線方向の時系列データにおける第2標準偏差とを算出し、前記第1標準偏差と前記第2標準偏差との一致度に基づいて、前記対象者に操作対象物に対する操作の意思があるか否かを判定するステップと、を実行させるためのプログラムが提供される。
第1実施形態における車両構造の一例を示す外観図である。 第1実施形態における車載システムの機能の一例を示す機能ブロック図である。 第1実施形態における認証情報記憶部が記憶する情報の一例を示す図である。 第1実施形態における車載システムのハードウェア構成の一例を示すブロック図である。 第1実施形態における車載システムの処理の一例を示すフローチャートである。 第1実施形態における対象者の操作意思の判定方法を説明する図である。 第1実施形態における対象者の操作意思の判定方法を説明する図である。 第2実施形態における車載システムの処理の一例を示すフローチャートである。 第3実施形態における車載システムの機能の一例を示す機能ブロック図である。 第3実施形態における車載システムの処理の一例を示すフローチャートである。 第4実施形態における車載システムの処理の一例を示すフローチャートである。 第5実施形態における情報処理装置の構成を示すブロック図である。 変形実施形態における車両構造の一例を示す外観図である。
以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。
[第1実施形態]
図1は、本実施形態における車両構造の一例を示す外観図である。図1では、車両1の本体の右側面に、カメラ2とLED3が鉛直方向に並べて設けられている。なお、図示されていない左側面にも同様にカメラ2とLED3が設けられているものとする。カメラ2及びLED3の設置数は、任意である。
カメラ2は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを備えたデジタルカメラ等である。カメラ2は、後述する車載システム10に通信ケーブル(不図示)を介して接続されており、撮影した撮影画像を車載システム10に出力する。カメラ2の種類は、撮影対象、撮影時間及び使用環境に応じて適宜選択され得る。
LED3は、車載システム10における処理の実行状態又は処理結果を、発光の有無又は色によって示す発光装置である。
図2は、本実施形態における車載システム10の機能の一例を示す機能ブロック図である。車載システム10は、ECU(Engine Control Unit)、及びECUと連携して車両1内の各機器を制御する複数のコントローラを含むコントロールユニットである。車載システム10の機能を実現する構成要素は、車両1に直接的に設けられなくてもよい。具体的には、車載システム10の機能は、ネットワーク上のサーバにおいて実現されてもよい。この場合、車両1のカメラ2及びLED3が、無線通信ネットワークを介して、ネットワーク上のサーバと常時接続される。
図2に示すように、車載システム10は、画像取得部11、認証部12、認証情報記憶部13、顔向き検出部14、視線方向検出部15、操作判定部16、制御部17、認証情報登録部18を備える。
画像取得部11は、車両1に設けられたカメラ2において撮影された撮影画像を取得する。画像取得部11は、撮影画像を解析し、撮影画像内に含まれる人物の顔画像を検出する。当該人物は、後述する認証処理及び判定処理の対象となるため、以下では「対象者」という。図1の場合には、人物Pが対象者である。
認証部12は、撮影画像から取得された対象者の顔画像と登録者の登録顔画像との顔照合によって対象者に対する認証処理を実行する。
認証情報記憶部13は、車両1を操作する権限を有する登録者の認証情報を記憶する。認証情報は、ユーザの入力操作に基づいて、後述する認証情報登録部18により登録される。
図3は、本実施形態における認証情報記憶部13が記憶する情報の一例を示す図である。ここでは、認証情報のデータ項目として、登録者の顔画像、登録日時、ユーザ区分、閾値、操作権限が挙げられている。登録日時は、認証情報を登録した日時である。ユーザ区分は、ユーザを分類する情報である。
図3では、ユーザ区分の具体例として、“車両所有者”、“家族”、“ゲスト”の3つが挙げられている。閾値は、対象者に車両1の操作を許可するか否かを判定する判定処理で用いられる値である。本実施形態における判定処理で用いられる閾値は、対象者に応じて予め設定される。操作権限は、ユーザが車両1を操作できる権限のレベルを示す。閾値の詳細を、図6及び図7を参照して後述する。
顔向き検出部14は、画像取得部11において取得された撮影画像に含まれる対象者の顔向きを検出する。一方、視線方向検出部15は、画像取得部11において取得された撮影画像に含まれる対象者の視線方向を検出する。本実施形態では、顔向き検出部14及び視線方向検出部15は、それぞれ別々に設けられているが、一つに統合してもよい(後述する第5実施形態の方向検出部100A)。
本実施形態では、“顔向き”は、カメラ2の光軸の軸方向を0°とした場合において顔の正面方向と光軸とのなす角度とする。同様に、“視線方向”は、対象者の眼球の光軸方向と、カメラ2の光軸方向とのなす角度とする。なお、視線方向は、顔方向と、顔における黒目の位置関係とに基づいて検出することもできる。顔方向及び視線方向は、公知のアルゴリズムにより算出し得る。
操作判定部16は、顔向きに関するばらつき(以下「第1ばらつき」という。)と視線方向に関するばらつき(以下、「第2ばらつき」という。)との一致度に基づいて判定処理を実行する。具体的には、操作判定部16は、所定時間内における第1ばらつきと第2ばらつきとの差分が予め設定された閾値以下である場合に、車両1の操作を許可する判定結果を出力する。
以下、操作判定部16における、ばらつきの一致度の計算方法の具体例を説明する。なお、計算方法は、顔方向に関する第1ばらつきと視線方向に関する第2ばらつきとの一致度を算出できるものであればよく、計算方法は以下の方法A・Bのみに限られない。
先ず、標準偏差を用いて時系列データのばらつきを求める方法Aについて説明する。方法Aの手順は以下の通りである。
[方法A]
A1:顔向きと、視線方向のそれぞれの時系列データに対し標準偏差を計算する。
A2:A1で計算された両者の標準偏差(第1ばらつき及び第2ばらつき)の差分を計算する。
A3:A2で計算された第1ばらつきと第2ばらつきとの差分と、予め設定した閾値とを比較する。
A4:差分が閾値以下であった場合は車両1の操作を実行する。
また、操作判定部16は、所定時間内における顔向きと視線方向との相関が予め設定された閾値以上である場合に、車両1の操作を許可する判定結果を出力するように構成してもよい。方法Bの手順は以下の通りである。
[方法B]
B1:顔向きと、視線方向のそれぞれの時系列データに対し標準偏差を計算する。
B2:顔向き、視線方向の標準偏差と平均値を求め、顔向き及び視線方向の共分散を計算する。
B3:B1及びB2で計算された標準偏差と共分散から相関係数を計算し、予め設定された閾値と比較する。
B4:相関係数が閾値以上であった場合は車両1の操作を実行する。
例えば、時刻又は天候による日光の明るさ、街灯などの照明光の有無、あるいは、対象者が日陰にいるか日向にいるかなどの環境条件によって、顔向き及び視線方向の検出精度が変化する可能性がある。しかし、両者の標準偏差(第1ばらつき及び第2ばらつき)が変化する傾向は類似すると考えられる。すなわち、一方が大きく(小さく)なれば、他方も大きく(小さく)なる。そのため、上記のような環境条件においても、第1ばらつきと第2ばらつきとの差分は、ある程度の範囲内で一定に維持される。同様に、顔向きと視線方向との相関も、ある程度の範囲内で一定に維持される。よって、閾値が適切である限り、上記のような環境条件による顔向き及び視線方向の検出精度の変化にもかかわらず、操作判定部16は、対象者の操作意思の有無を適切に判定することができる。
制御部17は、認証部12における認証結果及び操作判定部16における判定結果に基づいて車両1を制御する。本実施形態では、制御部17は、車両1に設けられたドア装置における施錠状態を制御する。しかし、制御部17が実行する車両1の制御の内容は特に限定されない。制御部17は、車両1の照明を点灯させてもよい。あるいは、制御部17は、車両1のエンジンを起動してもよいし、車両1を対象者の近傍まで自律走行させてもよい。さらに、制御部17は、判定処理の実行状態又は判定結果に基づいて、車両1に設けられたLED(発光装置)3における発光状態(例えば、色又は点滅パターン)も制御する。これは対象者に判定処理の進行を知らせるためである。LED3の制御の具体例を後述する。
認証情報登録部18は、車両所有者等のユーザから入力された認証情報を認証情報記憶部13に登録する。認証情報は、様々なタイミングで登録され得る。例えばユーザが車両1の販売店において購入手続きを行う際に、顔画像を撮影することで登録できる。このとき、閾値は、ユーザが直視している状態で撮影した時系列の登録用画像に基づいて、ユーザごとに自動的に算出すると好適である。なお、認証情報の登録処理は、認証された人物が車載システム10から任意のタイミングで行ってもよい。
例えば、ユーザは、スマートフォンやタブレットなどの端末のカメラを使って、顔画像を撮影し、当該端末にインストールされたアプリケーションを使って、認証情報を生成してもよい。この場合、アプリケーションに入力された認証情報が、モバイルネットワーク等を介して、車載システム10へ送信される。あるいは、ユーザは、車両1に搭載されたカメラ2を使って、顔画像を撮影してもよい。この場合、カメラ2から車載システム10へ送信された顔画像のデータに基づいて、認証情報が生成及び登録される。
図4は、本実施形態における車載システム10のハードウェア構成の一例を示すブロック図である。図4に示すように、車載システム10は、演算、制御及び記憶を行うコンピュータとして、CPU(Central Processing Unit)101と、RAM(Random Access Memory)102と、ROM(Read Only Memory)103と、ストレージ104と、通信I/F(Interface)105と、表示装置106と、入力装置107とを備える。各装置は、バス、配線、駆動装置等を介して相互に接続される。
CPU101は、ROM103又はストレージ104に記憶されたプログラムに従って所定の動作を行うとともに、車載システム10の各部を制御する機能を有するプロセッサである。RAM102は、揮発性記憶媒体から構成され、CPU101の動作に必要な一時的なメモリ領域を提供する。
ROM103は、不揮発性記憶媒体から構成され、車載システム10の動作に用いられるプログラム等の必要な情報を記憶する。ストレージ104は、不揮発性記憶媒体から構成され、車載システム10の動作用プログラムやデータを記憶する。ストレージ104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)により構成される。
通信I/F105は、イーサネット(登録商標)、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。
表示装置106は、動画、静止画、文字等を表示する液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等であって、ユーザへの情報の提示に用いられる。
入力装置107は、キーボード、ポインティングデバイス、ボタン等であって、ユーザによる操作を受け付ける。表示装置106及び入力装置107は、タッチパネルとして一体に形成されていてもよい。
なお、図4に示されているハードウェア構成は一例であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。また、本実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されてもよい。このように、図4に示されているハードウェア構成は適宜変更可能である。
以下、図5乃至図7を参照しながら、本実施形態における車載システム10の動作について説明する。なお、対象者には、「車両を操作する場合にはカメラをX秒間見つめること」等の操作方法を予め通知しておくものとする。
図5は、本実施形態における車載システム10の処理の一例を示すフローチャートである。この処理は、カメラ2の撮影処理中に繰り返し実行される。
ステップS101において、車載システム10(画像取得部11)は、カメラ2により撮影された、車両1の外部の撮影画像を取得する。
ステップS102において、車載システム10(画像取得部11)は、撮影画像を解析し、撮影画像内に人物の顔を検出したか否かを判定する。ここで、車載システム10が、撮影画像内に人物の顔を検出したと判定した場合(ステップS102:YES)には、処理はステップS103へ移行する。
これに対し、車載システム10(画像取得部11)が、撮影画像内に人物の顔を検出しないと判定した場合(ステップS102:NO)には、処理はステップS101に戻る。
ステップS103において、車載システム10(画像取得部11)は、撮影画像内から人物の顔画像を取得する。次に、車載システム10(認証部12)は、顔画像から顔特徴量を算出すると(ステップS104)、顔特徴量に基づいて認証情報記憶部13を参照して顔認証を実行する(ステップS105)。その後、処理はステップS106へ移行する。
ステップS106において、車載システム10(認証部12)は、対象者の認証に成功したか否かを判定する。ここで、車載システム10が対象者の認証に成功したと判定した場合(ステップS106:YES)には、処理はステップS107へ移行する。
これに対し、車載システム10(認証部12)が対象者の認証に失敗したと判定した場合(ステップS106:NO)には、処理はステップS101へ戻る。
ステップS107において、車載システム10(顔向き検出部14及び視線方向検出部15)は、対象者の顔向き及び視線方向を算出する。このとき、制御部17は、LED3を第1の発光状態にする。第1の発光状態は、操作意思判定中であることを示す。
ステップS108において、車載システム10(操作判定部16)は、顔向き及び視線方向が閾値以内であるか否かを判定する。ここで、車載システム10(操作判定部16)が、顔向き及び視線方向が閾値以内であると判定した場合(ステップS108:YES)には、処理はステップS109へ移行する。
これに対し、車載システム10(操作判定部16)が、顔向き及び視線方向が閾値以内ではないと判定した場合(ステップS108:NO)には、処理はステップS107へ戻り、認証された対象者に対する処理が繰り返される。ステップS108の処理により、よそ見をしている人物は、処理対象から除かれる。
ステップS109において、車載システム10(操作判定部16)は、単位時間当たりの顔向き及び視線方向を蓄積する。
ステップS110において、車載システム10(操作判定部16)は、顔向き及び視線方向の各々のばらつきを算出する。
ステップS111において、車載システム10(操作判定部16)は、顔向き及び視線方向のばらつきの一致度を算出する。
ステップS112において、車載システム10(操作判定部16)は、一致度は閾値以内であるか否かを判定する。なお、ステップS112における閾値は、上述したステップS108における閾値とは異なる。ステップS108における閾値は、顔方向及び視線方向がそれぞれ一定の範囲内に収まっているが否かを判定するための値である。また、ステップS108における閾値は、顔方向及び視線方向のそれぞれについて予め設定される。一方、ステップS112における閾値は、顔方向及び視線方向のばらつきの一致度が一定の範囲内に収まっているか否かを判定するための値である。各閾値は、対象者に応じて予め設定される。
ここで、車載システム10(操作判定部16)が、一致度は閾値以内であると判定した場合(ステップS112:YES)には、処理はステップS113へ移行する。すなわち、車載システム10は、顔向きと視線方向の時系列でのばらつきの一致度が閾値以内である場合には、対象者は車両1の操作意思が有るものとみなす。この場合、制御部17は、LED3を第2の発光状態にする。第2の発光状態は、操作意思判定に成功したことを示す。
これに対し、車載システム10(操作判定部16)が、一致度は閾値以内ではないと判定した場合(ステップS112:NO)には、処理はステップS107へ戻る。すなわち、車載システム10は、対象者は車両1の操作意思が無いものとみなす。この場合、制御部17は、LED3を第3の発光状態にする。第3の発光状態は、操作意思判定に失敗したことを示す。
図6及び図7は、本実施形態における対象者の操作意思の判定方法を説明する図である。図6においては、対象者に車両1の操作を許可する場合を示している。図7は、対象者に車両1の操作を許可しない場合を示している。図6及び図7における実線の円THは、ばらつきの一致度を判定するための閾値を示すものである。
ここでは、所定のサンプリング周期で取得された画像から、時系列データとして顔向き及び視線方向がそれぞれPan方向及びTilt方向で検出された場合を説明する。
Pan方向の顔向き、Pan方向の視線方向、Tilt方向の顔向き、Tilt方向の視線方向の時系列データは、それぞれ以下のように表される。N(1≧1)は、撮影画像のフレーム番号を示す。
Pan方向の顔向き = {θ(1),θ(2),…,θ(N)}
Pan方向の視線方向 = {θ(1),θ(2),…,θ(N)}
Tilt方向の顔向き = {Φ(1),Φ(2),…,Φ(N)}
Tilt方向の視線方向 = {Φ(1),Φ(2),…,Φ(N)}
例えば、撮影画像(映像)のフレームレートが、例えば3フレーム/秒であり、操作判定部16における処理の単位時間が3秒間である場合には、合計90フレーム分の撮影画像から顔向き及び視線方向の時系列データがそれぞれ取得される。すなわち、Nは90となる。
次に、各時系列データについて算出された標準偏差をそれぞれSFP、SEP、SFT、SETとすると、Pan方向、Tilt方向の各々の角度の標準偏差同士の差分D1、D2は、以下の式のように計算される。
D1=SFP - SEP
D2=SFT - SET
これらの二乗平均は、Sqrt(D + D )である。図6において破線で示されている円C1は、この二乗平均の値を半径とする円に相当する。一方、図6の円THは、対象者がカメラ2を直視している時に、上述した計算方法で算出した二乗平均の値を半径とする円に相当する。
図6において、円C1は、円THの内側に位置している。このような場合には、対象者P1がカメラ2を直視している、すなわち、対象者は車両1の操作意思を有すると判定される。
一方、図7においては、対象者P1は顔向きはカメラ2に対して正面方向であるが、視線方向が正面方向から外れている状態が示されている。このような状態において、上述した計算方法によって二乗平均を計算すると、その値は図7において破線で示される円C2のように表される。このような場合には、対象者P1がカメラ2を直視していない、すなわち、対象者は車両1の操作意思を有していないと判定される。
ステップS113において、車載システム10(制御部17)は、操作対象の装置に対して制御情報を出力し、車両1を操作する。車載システム10(制御部17)は、例えば、車両1のドア装置を解錠状態に制御する。
本実施形態によれば、対象者(搭乗者)が荷物や子供を抱えている等、手が塞がっている状態であっても、ドアの解錠等の車両操作が可能になる。このため、対象者の利便性を大幅に向上させることができる。
また、車両1の表示装置106に認証に必要な情報や動作が表示されない構成である。このため、セキュリティ性も担保できる。
車両1に外向きのカメラ2を設け、当該カメラ2を車載システム10に接続することで容易に実現できる構成であるため、導入コストは少なく、実装が容易な利点がある。
顔向きや視線方向の検出値を直接用いるのではなく、時系列における顔向きのばらつき及び視線方向のばらつきをそれぞれ計算する。そして、計算された顔向きのばらつき(第1ばらつき)及び視線方向のばらつき(第2ばらつき)の一致度と、対象者毎に予め設定されている閾値とを比較することにより、検出値の個人差に対して頑健になる効果を奏する。
また、対象者が他の人物と会話をしながら車両に近づく場合には、顔は他の人物の方向を向けつつも視線は車両を見る場合が考えられるが、単位時間の中で顔方向と視線方向がそれぞれの方向で変化しなければ、その差分はカメラ2を直視している場合と同等の値になる。これにより、対象者は車両1の操作意思があるものと判定される。
さらに、一変形例としては、図5のステップS108において、車載システム10(操作判定部16)は、視線方向が視線方向に係る閾値以内であるか否かを判定するように構成し得る。すなわち、一致度と比較される閾値(ステップS112参照)とは別に、視線方向に基づいて以降の判定処理(例えばステップS109~S112)を実行するか否かの閾値を設ければ、車両に視線を向けない限りは以降の判定処理が実行されないため、利便性の向上と誤判定の低減が実現できる。同様に、車載システム10(操作判定部16)は、顔方向が顔方向に係る閾値以内であるか否かを判定するように構成し得る。この場合には、顔方向に対する閾値のみを別途設定すればよい。
さらに、両者(顔向きのばらつき及び視線方向のばらつき)の一致度から判定する構成のため、認証中に照明環境が変動したとしても頑健な認証が可能となる。その結果、車室外(屋外)環境における認証精度の向上が期待できる。
[第2実施形態]
本実施形態は、車載システム10(制御部17)が、対象者が携帯する発信機からの信号に基づいてカメラ2における撮影処理を開始する点で第1実施形態とは異なっている。なお、本実施形態では、対象者による発信機(例えば、スマートキー)に対する積極的な操作は必要ないものとする。
図8は、本実施形態における車載システム10の処理の一例を示すフローチャートである。この処理は、例えば車両1がエンジンを停止して駐車中である場合に、図5に示す処理の開始前に実行される。
ステップS201において、車載システム10(制御部17)は、対象者が携帯する発信機からの電波を受信したか否かを判定する。ここで、車載システム10が、発信機からの電波を受信したと判定した場合(ステップS201:YES)には、処理はステップS202へ移行する。これに対し、車載システム10が、発信機からの電波を受信していないと判定した場合(ステップS201:NO)には、ステップS201の処理が繰り返される。
ステップS202において、車載システム10(制御部17)は、カメラ2を起動して撮影処理を開始する。そして、図8の処理の終了に伴い、図5に示す処理が開始される。
本実施形態によれば、対象者が携帯する発信機からの信号(電波)を受信することで、対象者の車両1への接近を検出できる。これにより、車載システム10は、適切なタイミングでカメラ2による撮影処理を実行できる。また、エンジンが停止している状態では、車載システム10による電力消費を最小限に抑えることができる。
[第3実施形態]
図9は、本実施形態における車載システム10の機能の一例を示す機能ブロック図である。図9に示すように、本実施形態の車載システム10は、距離検出部19をさらに備える点で上述した実施形態とは異なっている。距離検出部19は、カメラ2により撮影された撮影画像に基づいて車両1から対象者までの距離を検出する。これに伴い、認証部12は、距離検出部19において検出された距離が所定距離以下である対象者について判定処理を実行する。
図10は、本実施形態における車載システム10の処理の一例を示すフローチャートである。この処理は、図5に示すステップS103とステップS104との間に実行され得る。
ステップS301において、車載システム10(距離検出部19)は、顔画像から人物の目間距離を算出する。目間距離は、両目の中心点の間の距離である。目間距離は、人物がカメラ2に近いほど長くなり、遠いほど短くなる。
ステップS302において、車載システム10(距離検出部19)は、算出された目間距離に基づいて車両1から対象者までの距離を検出する。
ステップS303において、車載システム10(操作判定部16)は、検出された距離に基づいて、対象者が車両1から所定距離内に存在するか否かを判定する。ここで、車載システム10(操作判定部16)が、対象者は車両1から所定距離内に存在すると判定した場合(ステップS303:YES)には、処理は図5に示すステップS104へ移行する。
これに対し、車載システム10(操作判定部16)が、対象者は車両1から所定距離内に存在しないと判定した場合(ステップS303:NO)には、処理は図5に示すステップS101へ移行する。
本実施形態によれば、検出された距離が所定距離以下である対象者についてのみ、判定処理が実行される。このため、判定処理における対象者を適切に絞り込むことができる。この結果、車載システム10(制御部17)は、対象者が車両1の近くに存在する場合に、ドアの解錠操作等の制御を適切なタイミングで実行できる。
なお、一変形例では、車載システム10の距離検出部19は、対象者が携帯する発信機(前記実施形態2)から受信する電波の強度に基づいて、対象者から車両1までの距離を判定してもよい。
[第4実施形態]
本実施形態は、距離検出部19が、画像における対象者の顔部又は頭部の領域の大きさに基づいて、車両1から対象者までの距離を検出する点で上述した第3実施形態とは異なっている。
図11は、本実施形態における車載システム10の処理の一例を示すフローチャートである。この処理は、図10の場合と同様に、図5に示すステップS103とステップS104との間に実行され得る。
ステップS401において、車載システム10(距離検出部19)は、顔画像における人物の顔領域の大きさを算出する。算出される顔領域の大きさは、人物がカメラ2に近いほど大きくなり、遠いほど小さくなる。なお、顔領域の大きさの代わりに、頭部の大きさを算出してもよい。
ステップS402において、車載システム10(距離検出部19)は、算出された顔領域の大きさに基づいて車両1から対象者までの距離を検出する。
ステップS403において、車載システム10(操作判定部16)は、検出された距離に基づいて、対象者が車両1から所定距離内に存在するか否かを判定する。ここで、車載システム10(操作判定部16)が、対象者は車両1から所定距離内に存在すると判定した場合(ステップS403:YES)には、処理は図5に示すステップS104へ移行する。
これに対し、車載システム10(操作判定部16)が、対象者は車両1から所定距離内に存在しないと判定した場合(ステップS403:NO)には、処理は図5に示すステップS101へ移行する。
本実施形態によれば、検出された距離が所定距離以下である対象者についてのみ、判定処理が実行される。このため、判定処理における対象者を適切に絞り込むことができる。この結果、車載システム10(制御部17)は、対象者が車両1の近くに存在する場合に、ドアの解錠操作等の制御を適切なタイミングで実行できる。
[第5実施形態]
図12は、本実施形態における情報処理装置100の構成を示すブロック図である。図12に示すように、情報処理装置100は、方向検出部100A及び判定部100Bを備える。方向検出部100Aは、カメラにおいて撮影された画像に含まれる対象者の顔向き及び視線方向の少なくとも一方を検出する。判定部100Bは、顔向き及び視線方向の少なくとも一方の時系列でのばらつきに基づいて、対象者に操作対象物の操作を許可するか否かの判定処理を実行する。本実施形態によれば、対象者に操作対象物の操作を許可するか否かを高精度で判定できる。
[変形実施形態]
以上、実施形態を参照して本発明を説明したが、本発明は上述の実施形態に限定されるものではない。本願発明の構成及び詳細には本発明の要旨を逸脱しない範囲で、当業者が理解し得る様々な変形をできる。例えば、いずれかの実施形態の一部の構成を、他の実施形態に追加した実施形態、あるいは他の実施形態の一部の構成と置換した実施形態も本発明を適用し得る実施形態であると理解されるべきである。
上述した実施形態では、操作判定部16が顔向きに関する第1ばらつきと視線方向に関する第2ばらつきとの一致度に基づいて判定処理を実行する場合について説明した。しかし、操作判定部16は、顔向き及び視線方向の少なくとも一方の時系列でのばらつきに基づいて、対象者に車両1の操作を許可するか否かの判定処理を実行してもよい。例えば、視線方向(あるいは顔向き)の時系列でのばらつきのみに着目して判定処理を実行する場合には、2種類のばらつきを考慮する場合よりも判定処理を簡単に実行できる利点がある。
上述した実施形態では、対象者の顔画像を用いて認証処理を行う場合について説明したが、本発明に用いる生体情報は顔画像のみに限られない。例えば、車載システム10(認証部12)は、顔画像の代わりに虹彩画像や耳介画像等の他の生体情報を用いて認証処理を行ってもよい。また、車載システム10は、異なる種類の生体情報の組み合わせに基づいて認証処理を行ってもよい。
上述した実施形態では、認証部12は、操作判定部16における処理の前に実行する場合について説明した。しかし、認証部12における認証処理は、操作判定部16における処理の後に実行してもよい。すなわち、認証部12は、操作判定部16において車両1の操作が許可された対象者について認証処理を実行してよい。この場合、認証処理の対象者を絞り込むことが可能である。
同様に、認証部12における認証処理と操作判定部16における判定処理を並列に実行してもよい。この場合、認証処理及び判定処理を直列に場合よりも処理速度が向上する利点がある。
上述した実施形態では、対象者が携帯する発信機からの信号を受信したときに、対象者が車両1に接近したものとみなしてカメラ2を起動する場合について説明した。しかし、カメラ2の起動条件はこれに限られない。例えば、車両1側に人感センサを別途設け、当該人感センサにおける検出信号に基づいてカメラ2を起動してもよい。この場合も、カメラ2の稼働時間を短縮できるため、省電力化の効果を奏する。
操作判定部16における判定結果に基づいて制御可能な装置は、車両1のみに限られない。パーソナルコンピュータやスマートフォン等におけるログイン制御、建物に設けられたドア装置の施錠制御等にも適用できる。例えば、対象者が建物の入口に設置されたカメラ付きのインターホンのボタンを押下すると、カメラは対象者の画像を撮影する。これにより、インターホンに接続された制御装置は、撮影されたカメラ画像に基づいて、判定処理及び認証処理を実行し、対象者が建物の住人として予め登録されている場合にはドアを解錠できる。その他に、本発明は、ドローン、コミュニケーションロボット、及びロボット掃除機など、車両1以外の様々な道具も対象である。
上述した実施形態においては、方向検出処理、認証処理及び判定処理の全ての処理が車両1の車載システム10において実行される場合について説明した。しかし、方向検出処理、認証処理及び判定処理の一部又は全部の処理は、車載システム10と無線通信によって接続されたサーバコンピュータにおいて実行されてもよい。この場合、車載システム10は、車両1のカメラ2によって撮影された画像をサーバコンピュータに送信し、サーバコンピュータ側から受信した処理結果に基づいて車両1を制御すればよい。処理性能に優れたサーバコンピュータを用いることにより、処理を高速化できる効果を奏する。
上述した実施形態においては、カメラ2が車両1の外部を撮影する外向きのカメラである場合について説明したが、カメラ2が車室内を撮影する内向きのカメラである場合も同様である。車室内を撮影する内向きのカメラを設ける場合には、車載システム10は車室内における運転者の顔向き及び視線方向の少なくとも一方に基づいて操作意思の有無を判定し、運転席に座っている人物に対する注意喚起処理や走行速度の制御処理等を行うことが可能である。自動運転が実用化された場合には、運転者の操作意思に応じて運転者の近くまで車両1を自立走行させてもよい。
上述した実施形態においては、車両1の外側面に設けられたカメラ2の撮影画像を用いて処理を行う場合について説明したが、他のカメラの撮影画像を用いてもよい。図13は、変形実施形態における車両構造の一例を示す外観図である。図13では、ドライブレコーダのカメラ4で撮影した撮影画像を用いる場合が示されている。この場合、車両1の本体に認証専用のカメラ2を予め設けなくて済む。このため、車両1の製造コストを低減できる、車両1の外観に影響を及ぼさない、後からでも任意に取り付けられる等の利点がある。
また、ドライブレコーダのカメラ4は、車室内の前方だけでなく後方にも設けられる場合が多い。このため、顔認証及び操作判定は複数の位置において実行可能となり、利便性がさらに向上する。
カメラ2及びカメラ4としては、可視光カメラの代わりに、赤外光カメラを用いてもよいし、可視光カメラと赤外光カメラの両方を用いてもよい。赤外光カメラを用いる場合には、暗い場所や夜間においても対象者の画像を撮影できる利点がある。さらに、車両1の外部における照明条件あるいは撮影の時間帯に応じて撮影するカメラの種類を自動的に切り換えてもよい。
さらに、紙や写真によるなりすましを防止するために、操作判定処理の後、対象者に対して顔を動かす等の所定の動作を最終認証として要求するように構成することもできる。
上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード等を用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
カメラにおいて撮影された画像に含まれる対象者の顔向き及び視線方向の少なくとも一方を検出する方向検出部と、
前記顔向き及び前記視線方向の少なくとも一方の時系列でのばらつきに基づいて、前記対象者に操作対象物の操作を許可するか否かの判定処理を実行する判定部と、
を備える情報処理装置。
(付記2)
前記判定部は、前記顔向きに関する第1ばらつきと前記視線方向に関する第2ばらつきとの一致度に基づいて前記判定処理を実行する、
付記1に記載の情報処理装置。
(付記3)
前記判定部は、所定時間内における前記第1ばらつきと前記第2ばらつきとの差分が予め設定された閾値以下である場合に、前記操作対象物の操作を許可する、
付記2に記載の情報処理装置。
(付記4)
前記判定部は、所定時間内における前記顔向きと前記視線方向との相関が予め設定された閾値以上である場合に、前記操作対象物の操作を許可する、
付記1に記載の情報処理装置。
(付記5)
前記判定部は、前記視線方向が予め設定された他の閾値以下である場合に、前記判定処理を行う、
付記3又は4に記載の情報処理装置。
(付記6)
前記閾値は、前記対象者に応じて予め設定される、
付記3乃至5のいずれかに記載の情報処理装置。
(付記7)
前記他の閾値は、前記対象者に応じて予め設定される、
付記5に記載の情報処理装置。
(付記8)
前記判定処理における判定結果に基づいて前記操作対象物を制御する制御部、
をさらに備える付記1乃至7のいずれかに記載の情報処理装置。
(付記9)
前記画像から取得された前記対象者の顔画像と登録者の登録顔画像との顔照合によって前記対象者に対する認証処理を実行する認証部、
をさらに備え、
前記制御部は、前記認証処理における認証結果及び前記判定処理における前記判定結果に基づいて前記操作対象物を制御する、
付記8に記載の情報処理装置。
(付記10)
前記判定部は、前記認証部において前記登録者として認証された前記対象者について前記判定処理を実行する、
付記9に記載の情報処理装置。
(付記11)
前記認証部は、前記判定部において前記操作が許可された前記対象者について前記認証処理を実行する、
付記9に記載の情報処理装置。
(付記12)
前記認証処理及び前記判定処理は並列に実行される、
付記9に記載の情報処理装置。
(付記13)
前記制御部は、前記対象者が携帯する発信機からの信号に基づいて前記カメラにおける撮影処理を開始する、
付記8乃至12のいずれかに記載の情報処理装置。
(付記14)
前記制御部は、前記操作対象物に設けられた人感センサの検出信号に基づいて前記カメラにおける撮影処理を開始する、
付記8乃至12のいずれかに記載の情報処理装置。
(付記15)
前記制御部は、前記判定結果に基づいて、前記操作対象物に設けられたドア装置における施錠状態を制御する、
付記8乃至14のいずれかに記載の情報処理装置。
(付記16)
前記制御部は、前記判定処理の実行状態又は前記判定結果に基づいて、前記操作対象物に設けられた発光装置における発光状態を制御する、
付記8乃至15のいずれかに記載の情報処理装置。
(付記17)
前記画像に基づいて前記操作対象物から前記対象者までの距離を検出する距離検出部をさらに備え、
前記判定部は、前記距離が所定距離以下である前記対象者について前記判定処理を実行する、
付記1乃至16のいずれかに記載の情報処理装置。
(付記18)
前記画像に基づいて前記操作対象物から前記対象者までの距離を検出する距離検出部をさらに備え、
前記認証部は、前記距離が所定距離以下である前記対象者について前記認証処理を実行する、
付記9乃至12のいずれかに記載の情報処理装置。
(付記19)
前記距離検出部は、前記画像における前記対象者の目間距離に基づいて前記距離を検出する、
付記17又は18に記載の情報処理装置。
(付記20)
前記距離検出部は、前記画像における前記対象者の顔部又は頭部の領域の大きさに基づいて前記距離を検出する、
付記17又は18に記載の情報処理装置。
(付記21)
前記操作対象物は、車両である、
付記1乃至20のいずれかに記載の情報処理装置。
(付記22)
カメラにおいて撮影された画像に含まれる対象者の顔向き及び視線方向の少なくとも一方を検出するステップと、
前記顔向き及び前記視線方向の少なくとも一方の時系列でのばらつきに基づいて、前記対象者に操作対象物の操作を許可するか否かの判定処理を実行するステップと、
を備える情報処理方法。
(付記23)
コンピュータに、
カメラにおいて撮影された画像に含まれる対象者の顔向き及び視線方向の少なくとも一方を検出するステップと、
前記顔向き及び前記視線方向の少なくとも一方の時系列でのばらつきに基づいて、前記対象者に操作対象物の操作を許可するか否かの判定処理を実行するステップと、
を実行させるためのプログラムが記録された記録媒体。
1・・・車両
2、4・・・カメラ
3・・・LED
10・・・車載システム
11・・・画像取得部
12・・・認証部
13・・・認証情報記憶部
14・・・顔向き検出部
15・・・視線方向検出部
16・・・操作判定部
17・・・制御部
18・・・認証情報登録部
19・・・距離検出部
100・・・情報処理装置
100A・・・方向検出部
100B・・・判定部

Claims (11)

  1. 対象者の顔向きを検出する顔向き検出手段と、
    前記対象者の視線方向を検出する視線方向検出手段と
    記顔向きの時系列データにおける第1標準偏差、前記視線方向の時系列データにおける第2標準偏差とを算出し、前記第1標準偏差と前記第2標準偏差との一致度に基づいて、前記対象者に操作対象物に対する操作の意思があるか否かを判定する操作判定手段と、
    を備える情報処理装置。
  2. 前記第1標準偏差と前記第2標準偏差との間の差分が閾値以内である場合、前記操作判定手段は、前記対象者が操作者であると判定する、
    請求項1に記載の情報処理装置。
  3. 前記対象者を撮影した時系列の登録用画像に基づいて、前記閾値を算出する認証情報登録手段、
    をさらに備える請求項に記載の情報処理装置。
  4. 前記閾値は、前記対象者に応じて予め設定される、
    請求項2又は3に記載の情報処理装置。
  5. 前記操作判定手段における判定結果に基づいて前記操作対象物を制御する制御手段、
    をさらに備える請求項1乃至のいずれか1項に記載の情報処理装置。
  6. 前記対象者の顔画像と登録者の登録顔画像との顔照合によって前記対象者に対する認証処理を実行する認証手段、
    をさらに備え、
    前記制御手段は、前記認証手段における認証結果及び前記操作判定手段における前記判定結果に基づいて前記操作対象物を制御する、
    請求項に記載の情報処理装置。
  7. 前記操作対象物は、車両である、
    請求項1乃至のいずれか1項に記載の情報処理装置。
  8. 前記操作判定手段は、前記視線方向が前記視線方向に係る閾値以内であるか否かを判定可能であり、前記視線方向が前記視線方向に係る閾値以内であると判定された際に、前記第1標準偏差と前記第2標準偏差との一致度に基づいて、前記対象者に前記操作対象物に対する操作の意思があるか否かを判定する、
    請求項1に記載の情報処理装置。
  9. 前記操作判定手段は、前記顔向きが前記顔向きに係る閾値以内であるか否かを判定可能であり、前記顔向きが前記顔向きに係る閾値以内であると判定された際に、前記第1標準偏差と前記第2標準偏差との一致度に基づいて、前記対象者に前記操作対象物に対する操作の意思があるか否かを判定する、
    請求項1に記載の情報処理装置。
  10. 対象者の顔向きを検出するステップと、
    前記対象者の視線方向を検出するステップと
    記顔向きの時系列データにおける第1標準偏差、前記視線方向の時系列データにおける第2標準偏差とを算出し、前記第1標準偏差と前記第2標準偏差との一致度に基づいて、前記対象者に操作対象物に対する操作の意思があるか否かを判定するステップと、
    を備える情報処理方法。
  11. コンピュータに、
    対象者の顔向きを検出するステップと、
    前記対象者の視線方向を検出するステップと
    記顔向きの時系列データにおける第1標準偏差、前記視線方向の時系列データにおける第2標準偏差とを算出し、前記第1標準偏差と前記第2標準偏差との一致度に基づいて、前記対象者に操作対象物に対する操作の意思があるか否かを判定するステップと、
    を実行させるためのプログラム。
JP2021573706A 2020-01-29 2020-01-29 情報処理装置、情報処理方法及びプログラム Active JP7445207B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/003266 WO2021152748A1 (ja) 2020-01-29 2020-01-29 情報処理装置、情報処理方法及び記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021152748A1 JPWO2021152748A1 (ja) 2021-08-05
JPWO2021152748A5 JPWO2021152748A5 (ja) 2022-09-05
JP7445207B2 true JP7445207B2 (ja) 2024-03-07

Family

ID=77078764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021573706A Active JP7445207B2 (ja) 2020-01-29 2020-01-29 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US20230036233A1 (ja)
EP (1) EP4099134A4 (ja)
JP (1) JP7445207B2 (ja)
WO (1) WO2021152748A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310620A (ja) 2006-05-18 2007-11-29 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2017533609A (ja) 2014-08-26 2017-11-09 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド 対話式移動体制御システムのための一体化ウェアラブル用品
WO2019181143A1 (ja) 2018-03-22 2019-09-26 三菱自動車工業株式会社 車両制御システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889244B2 (en) * 2005-12-27 2011-02-15 Panasonic Corporation Image processing apparatus
JP5120249B2 (ja) 2006-03-15 2013-01-16 オムロン株式会社 監視装置および監視方法、制御装置および制御方法、並びにプログラム
JP2014048936A (ja) * 2012-08-31 2014-03-17 Omron Corp ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US9715619B2 (en) * 2015-03-14 2017-07-25 Microsoft Technology Licensing, Llc Facilitating aligning a user and camera for user authentication
US10179568B2 (en) * 2015-10-13 2019-01-15 Faraday & Future Inc. Seamless vehicle access system
KR102329765B1 (ko) * 2017-03-27 2021-11-23 삼성전자주식회사 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
US11263634B2 (en) * 2019-08-16 2022-03-01 Advanced New Technologies Co., Ltd. Payment method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310620A (ja) 2006-05-18 2007-11-29 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2017533609A (ja) 2014-08-26 2017-11-09 トヨタ モーター セールス,ユー.エス.エー.,インコーポレイティド 対話式移動体制御システムのための一体化ウェアラブル用品
WO2019181143A1 (ja) 2018-03-22 2019-09-26 三菱自動車工業株式会社 車両制御システム

Also Published As

Publication number Publication date
WO2021152748A1 (ja) 2021-08-05
EP4099134A1 (en) 2022-12-07
EP4099134A4 (en) 2023-03-22
JPWO2021152748A1 (ja) 2021-08-05
US20230036233A1 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
WO2021077738A1 (zh) 车门控制方法及装置、系统、车、电子设备和存储介质
JP7106768B2 (ja) 車両のドアロック解除方法、装置、システム、電子機器及び記憶媒体
TWI785312B (zh) 車門解鎖方法及其裝置、車載人臉解鎖系統、車、電子設備和儲存媒體
JP2022537923A (ja) 車両のドアロック解除方法及び装置、システム、車両、電子機器並びに記憶媒体
JP7145887B2 (ja) 車両及び車両用ドアの解錠制御方法、装置並びに車両用ドアの解錠システム
CN111516640B (zh) 车门控制方法、车辆、系统、电子设备和存储介质
JP6337199B2 (ja) 対話式移動体制御システムのための一体化ウェアラブル用品
US10284822B2 (en) System for enhancing the visibility of a ground surface adjacent to a land vehicle
JP5630318B2 (ja) スマートエントリシステム
US9030291B2 (en) Apparatus for controlling vehicle opening/closing element
US20170009509A1 (en) Device and method for opening trunk of vehicle, and recording medium for recording program for executing method
US20150009010A1 (en) Vehicle vision system with driver detection
CN113752983B (zh) 一种基于人脸识别/人眼识别的车辆解锁控制系统和方法
KR101730255B1 (ko) 얼굴 인식 디지털 도어록
US10465429B2 (en) Controller, control method, and computer-readable recording medium
CN109243024A (zh) 一种基于人脸识别的汽车解锁系统及方法
JP7445207B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020042404A (ja) 撮像装置、構造物、情報処理装置、および生体認証システム
CN209534994U (zh) 智能车门锁控制装置及包括其的汽车
CN208861343U (zh) 一种基于人脸识别的汽车解锁系统
CN106453932A (zh) 唤醒移动终端的方法、装置及移动终端
JP7427463B2 (ja) 車両制御装置、車両制御方法、及び車両制御用プログラム
CN207389148U (zh) 一种基于IntelRealSense的汽车启动与车锁控制系统
KR20230084805A (ko) 차량 및 차량의 제어방법
CN117227660A (zh) 一种结合身份识别技术的车辆控制方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R151 Written notification of patent or utility model registration

Ref document number: 7445207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151