JP2023012364A - Detection apparatus - Google Patents
Detection apparatus Download PDFInfo
- Publication number
- JP2023012364A JP2023012364A JP2021115968A JP2021115968A JP2023012364A JP 2023012364 A JP2023012364 A JP 2023012364A JP 2021115968 A JP2021115968 A JP 2021115968A JP 2021115968 A JP2021115968 A JP 2021115968A JP 2023012364 A JP2023012364 A JP 2023012364A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- driver
- detection
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像に表された対象物を検出する検出装置に関する。 The present invention relates to a detection device for detecting an object represented in an image.
画像に表された所定の物体を検出する技術が研究されている。特に、所定の物体を検出するように予め学習された検出器に画像を入力することで、その画像からその所定の物体を検出する技術が研究されている。このような技術では、検出器を学習するために利用する教師画像として、様々な環境下で得られた画像、及び、仕様の異なる様々なカメラにより生成された多数の画像が用意されることが望ましい。教師画像として、ある特定の環境下で得られた画像あるいはある特定の仕様のカメラにより生成された画像のみが用いられると、検出器は十分な検出精度を発揮できないことがある。そこで、識別対象物が表された一つの画像から複数の画像を生成し、その複数の画像を識別対象物の状態の識別に利用する技術が提案されている(例えば、特許文献1を参照)。 Techniques for detecting a given object represented in an image have been researched. In particular, research has been conducted on techniques for detecting a given object from an image by inputting the image to a detector that has been pre-trained to detect the given object. In such technology, images obtained under various environments and a large number of images generated by various cameras with different specifications are prepared as teacher images used for learning the detector. desirable. If only an image obtained under a specific environment or an image generated by a camera with specific specifications is used as the teacher image, the detector may not exhibit sufficient detection accuracy. Therefore, a technique has been proposed in which a plurality of images are generated from a single image representing an identification target, and the plurality of images are used to identify the state of the identification target (see, for example, Patent Document 1). .
特許文献1に開示された状態識別装置は、入力された識別対象に係る一つの画像に対し、この一つの画像における識別対象の見え方を変更し且つその状態を維持する処理を施し、この処理で生成された画像を含む画像群を生成する。そしてこの状態識別装置は、識別モデルを構築する際、及び/または識別モデルを用いて状態を識別する際に、生成された画像群を使用する。また、この状態識別装置は、一つの画像に対し、見え方に係る少なくとも一つの種別について、この一つの画像における方向とは反対の方向への変更を少なくとも行う。
The state identification device disclosed in
上記の技術では、識別対象物の状態を識別するために、一つの画像から生成された画像群が利用される。しかしながら、画像生成時の撮影環境あるいは画像を生成したカメラの違いにより、画像上での検出対象となる物体の位置の検出精度が低下することがある。 In the above technique, an image group generated from one image is used to identify the state of the identification object. However, the detection accuracy of the position of the object to be detected on the image may be degraded due to differences in the imaging environment at the time of image generation or the camera that generated the image.
そこで、本発明は、画像上での対象物の位置の検出精度に対するロバスト性を向上することが可能な検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a detection apparatus capable of improving robustness with respect to detection accuracy of the position of an object on an image.
一つの実施形態によれば、検出装置が提供される。この検出装置は、検出対象物が表された画像に対して、互いに異なる複数の前処理をそれぞれ適用することで、複数の前処理画像を生成する前処理部と、画像及び複数の前処理画像のそれぞれを、検出対象物を検出するための検出器に入力することで、画像及び複数の前処理画像のそれぞれにおける検出対象物の位置を検出する検出部と、画像及び複数の前処理画像のそれぞれにおける検出対象物の位置の統計的代表値を、画像上でのその検出対象物の位置として特定する位置特定部とを有する。 According to one embodiment, a detection device is provided. This detection device includes a preprocessing unit that generates a plurality of preprocessed images by applying a plurality of different preprocesses to an image representing a detection target, and an image and the plurality of preprocessed images. are input to a detector for detecting a detection target, a detection unit that detects the position of the detection target in each of the image and the plurality of preprocessed images, and the image and the plurality of preprocessed images. a position specifying unit that specifies a statistical representative value of the position of the detection target in each as the position of the detection target on the image.
本発明に係る検出装置は、画像上での対象物の位置の検出精度に対するロバスト性を向上することができるという効果を奏する。 Advantageous Effects of Invention The detection device according to the present invention has the effect of being able to improve the robustness with respect to the detection accuracy of the position of an object on an image.
以下、図を参照しつつ、検出装置、及び、検出装置上で実行される検出方法及び検出用コンピュータプログラムについて説明する。この検出装置は、検出対象物を撮影して得られたオリジナルの画像に対して、互いに異なる複数の前処理をそれぞれ適用することで、複数の前処理画像を生成する。この検出装置は、オリジナルの画像及び複数の前処理画像のそれぞれを、検出対象物を検出するための検出器に入力することで、オリジナルの画像及び複数の前処理画像のそれぞれにおける検出対象物の位置を検出する。そしてこの検出装置は、オリジナルの画像及び複数の前処理画像のそれぞれにおける検出対象物の位置の統計的代表値を、オリジナルの画像上でのその検出対象物の位置として特定することで、位置検出精度のロバスト性の向上を図る。 A detection device, and a detection method and detection computer program executed on the detection device will be described below with reference to the drawings. This detection device generates a plurality of preprocessed images by applying a plurality of mutually different preprocessings to an original image obtained by photographing a detection target. This detection device inputs an original image and a plurality of preprocessed images, respectively, to a detector for detecting a detection target, thereby detecting a detection target in each of the original image and the plurality of preprocessed images. Detect location. Then, the detection device detects the position by specifying the statistical representative value of the position of the detection target in each of the original image and the plurality of preprocessed images as the position of the detection target on the original image. Improve accuracy robustness.
以下では、検出装置を、車両のドライバの顔を継続的に撮影することで得られた時系列の一連の画像に基づいてドライバをモニタリングするドライバモニタ装置に適用した例について説明する。このドライバモニタ装置は、ドライバの頭部を撮影するように設けられたドライバモニタカメラにより生成された画像(以下、説明の便宜上、顔画像と呼ぶ)からドライバの顔の個々の器官(例えば、眼、鼻、口など)の特徴点を検出する。そしてこのドライバモニタ装置は、検出した各器官の特徴点に基づいてドライバの状態を判定する。すなわち、ドライバの顔の各器官の特徴点は、検出対象物の一例である。ここで、このドライバモニタ装置は、顔画像に対して複数の処理の前処理を実行して複数の前処理画像を生成し、顔画像及び各前処理画像をそれぞれ検出器に入力することで顔画像及び各前処理画像からドライバの顔の各器官について、1以上の特徴点を検出する。そしてこのドライバモニタ装置は、各特徴点について、顔画像及び各前処理画像から検出されたその特徴点の位置の統計的代表値を、顔画像におけるその特徴点の位置とする。 An example in which the detection device is applied to a driver monitoring device for monitoring a driver based on a series of time-series images obtained by continuously photographing the face of a driver of a vehicle will be described below. This driver monitor device extracts an image (hereinafter referred to as a face image for convenience of explanation) generated by a driver monitor camera provided to photograph the driver's head, and extracts individual organs (such as eyes) of the driver's face. , nose, mouth, etc.). The driver monitoring device determines the driver's condition based on the detected feature points of each organ. That is, the feature points of each organ of the driver's face are an example of the detection target. Here, this driver monitor device executes a plurality of preprocessings on a face image to generate a plurality of preprocessed images, and inputs the face image and each preprocessed image to a detector, respectively, thereby detecting the face. One or more feature points are detected for each organ of the driver's face from the image and each preprocessed image. For each feature point, the driver monitor device takes the statistical representative value of the position of the feature point detected from the face image and each preprocessed image as the position of the feature point in the face image.
なお、本実施形態による検出装置は、ドライバモニタ装置に限られず、Webカメラあるいは他の監視カメラといった、検出対象物を撮影するカメラにより得られた画像からその対象物を検出することが要求される様々な用途に対して好適に利用される。また、検出対象物は、人物の顔の個々の器官に限られず、人物の頭部以外の部位(例えば、手、足など)、あるいは全身であってもよく、あるいは、人物以外の様々な物体(例えば、車両、人物以外の動物など)であってもよい。 It should be noted that the detection device according to this embodiment is not limited to a driver monitor device, and is required to detect an object from an image obtained by a camera that takes a picture of the detection object, such as a web camera or other surveillance camera. Suitable for various uses. Moreover, the detection target is not limited to individual organs of a person's face, but may be parts other than the head of a person (for example, hands, feet, etc.), the whole body, or various objects other than a person. (For example, it may be a vehicle, an animal other than a person, etc.).
図1は、検出装置が実装される車両制御システムの概略構成図である。また図2は、検出装置の一つの実施形態である電子制御装置のハードウェア構成図である。本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、ドライバモニタカメラ2と、ユーザインターフェース3と、検出装置の一例である電子制御装置(ECU)4とを有する。ドライバモニタカメラ2及びユーザインターフェース3とECU4とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。なお、車両制御システム1は、車両10の自己位置を測位するためのGPS受信機(図示せず)をさらに有してもよい。また、車両制御システム1は、車両10の周囲を撮影するためのカメラ(図示せず)、または、LiDARあるいはレーダといった、車両10から車両10の周囲に存在する物体までの距離を測定する距離センサ(図示せず)の少なくとも何れかをさらに有していてもよい。さらにまた、車両制御システム1は、他の機器と無線通信するための無線通信端末(図示せず)を有していてもよい。さらにまた、車両制御システム1は、車両10の走行ルートを探索するためのナビゲーション装置(図示せず)を有していてもよい。
FIG. 1 is a schematic configuration diagram of a vehicle control system in which a detection device is mounted. FIG. 2 is a hardware configuration diagram of an electronic control unit, which is one embodiment of the detection device. In this embodiment, a
ドライバモニタカメラ2は、カメラまたは車内撮像部の一例であり、CCDあるいはC-MOSなど、可視光または赤外光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。ドライバモニタカメラ2は、赤外LEDといったドライバを照明するための光源をさらに有していてもよい。そしてドライバモニタカメラ2は、車両10の運転席に着座したドライバの頭部がその撮影対象領域に含まれるように、すなわち、ドライバの頭部を撮影可能なように、例えば、インストルメントパネルまたはその近傍にドライバへ向けて取り付けられる。そしてドライバモニタカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとにドライバの頭部を撮影し、ドライバの顔が表された顔画像を生成する。ドライバモニタカメラ2により得られた顔画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。ドライバモニタカメラ2は、顔画像を生成する度に、その生成した顔画像を、車内ネットワークを介してECU4へ出力する。
The
ユーザインターフェース3は、通知部の一例であり、例えば、液晶ディスプレイまたは有機ELディスプレイといった表示装置を有する。ユーザインターフェース3は、車両10の車室内、例えば、インスツルメンツパネルに、ドライバへ向けて設置される。そしてユーザインターフェース3は、ECU4から車内ネットワークを介して受信した各種の情報を表示することで、その情報をドライバへ通知する。ユーザインターフェース3は、さらに、車室内に設置されるスピーカを有していてもよい。この場合、ユーザインターフェース3は、ECU4から車内ネットワークを介して受信した各種の情報を音声信号として出力することで、その情報をドライバへ通知する。
The
ECU4は、顔画像に基づいてドライバの顔の向きを検出し、その顔の向きに基づいてドライバの状態を判定する。そしてECU4は、ドライバの状態が、ドライバが余所見をしているといった運転に適さない状態である場合、ユーザインターフェース3を介してドライバへ警告する。
The
図2に示されるように、ECU4は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。通信インターフェース21、メモリ22及びプロセッサ23は、それぞれ、別個の回路として構成されてもよく、あるいは、一つの集積回路として一体的に構成されてもよい。
As shown in FIG. 2, the
通信インターフェース21は、ECU4を車内ネットワークに接続するためのインターフェース回路を有する。そして通信インターフェース21は、ドライバモニタカメラ2から顔画像を受信する度に、受信した顔画像をプロセッサ23へわたす。また、通信インターフェース21は、ユーザインターフェース3に表示させる情報をプロセッサ23から受け取ると、その情報をユーザインターフェース3へ出力する。
The
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU4のプロセッサ23により実行される検出処理を含むドライバモニタ処理において使用される各種のアルゴリズム及び各種のデータを記憶する。例えば、メモリ22は、前処理画像の生成に利用される各種のパラメータ及び顔の各器官の特徴点の検出に利用される各種のパラメータを記憶する。さらに、メモリ22は、ドライバモニタカメラ2から受け取った顔画像、及び、前処理画像といった、ドライバモニタ処理の途中で生成される各種のデータを一時的に記憶する。
The
プロセッサ23は、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、検出処理を含むドライバモニタ処理を実行する。
The
図3は、ドライバモニタ処理に関する、プロセッサ23の機能ブロック図である。プロセッサ23は、前処理部31と、検出部32と、位置特定部33と、状態判定部34とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。なお、プロセッサ23が有するこれらの各部のうち、前処理部31、検出部32及び位置特定部33が検出処理に関連する。
FIG. 3 is a functional block diagram of
前処理部31は、ECU4がドライバモニタカメラ2から受け取った顔画像に対して、互いに異なる複数の前処理をそれぞれ適用することで、複数の前処理画像を生成する。
The preprocessing
本実施形態では、前処理部31は、前処理として、例えば、顔画像のサイズまたはアスペクト比の変換処理及びコントラストの変換処理の少なくとも何れかを顔画像に対して実行する。さらに、前処理部31は、前処理として、色補正処理、エッジ強調処理あるいは平滑化処理を顔画像に対して実行してもよい。また、前処理部31は、前処理として、上記のサイズ変換、コントラスト変換、色補正などの処理のうちの幾つかを組み合わせたものを実行してもよい。
In the present embodiment, the preprocessing
例えば、前処理部31は、顔画像を、所定のサンプリングレートにて顔画像をリサンプリングすることで、前処理画像の一つとして、顔画像の横方向及び縦方向のサイズを変換したサイズ変換画像を生成する。この場合、前処理部31は、顔画像において、顔の特定の部位(例えば、眼)が表されていると想定される部分領域を顔画像からトリミングし、その部分領域をリサンプリングしてサイズを拡大したものを、前処理画像の一つとして追加してもよい。なお、部分領域は、例えば、直前に得られた顔画像において顔の特定の部位が表された領域とすることができる。
For example, the preprocessing
また、前処理部31は、縦方向と横方向とで異なるサンプリングレートにて顔画像をリサンプリングすることで、前処理画像の他の一つとして、顔画像のアスペクト比を変換したアスペクト比変換画像を生成する。なお、前処理部31は、上記のリサンプリングの手法として、単純間引き、最近傍法、バイリニア補間、バイキュービック補間といった手法を適用すればよい。そして前処理部31は、一つの顔画像に対して互いに異なる2以上のリサンプリング手法を適用して、2以上のサイズ変換画像あるいはアスペクト比変換画像を生成してもよい。さらに、前処理部31は、互いに異なるサンプリングレートを適用して、一つの顔画像からサイズまたはアスペクト比が異なる2以上のサンプリング画像またはアスペクト比変換画像を生成してもよい。
In addition, the preprocessing
また、前処理部31は、入力される画素の値と出力される画素の値の関係を示すコントラスト変換曲線に従って顔画像の各画素の値を変換することで、前処理画像の他の一つとして、顔画像のコントラストを変換したコントラスト変換画像を生成する。なお、画素の値は、例えば、輝度あるいは各色成分値とすることができる。さらに、前処理部31は、顔画像中の所定領域の色が予め設定された基準色となるように色変変換係数を算出し、算出した色変換係数を用いて顔画像の各画素の値を変換することで、前処理画像の他の一つとして、顔画像を色補正した色補正画像を生成する。この場合、所定領域は、ドライバの姿勢によらず、車室内の所定の物体(例えば、車室の天井)が常に表される領域とすることが好ましい。
Further, the preprocessing
さらにまた、前処理部31は、顔画像に対して所定のエッジ強調フィルタを適用することで、前処理画像の他の一つとして、顔画像のエッジを強調したエッジ強調画像を生成する。さらにまた、前処理部31は、顔画像に対して所定の平滑化フィルタを適用することで、前処理画像の他の一つとして、顔画像を平滑化した平滑化画像を生成する。
Furthermore, the preprocessing
前処理部31は、生成した各前処理画像を検出部32へ出力する。
The preprocessing
検出部32は、顔画像及び各前処理画像から、ドライバの顔の各器官についての1以上の特徴点を検出する。
The
検出部32は、顔の各器官について、1以上の特徴点を検出するために、その器官の特徴点(例えば、目頭、目尻、鼻尖点、口角点など)を検出するように予め学習された検出器に顔画像を入力する。これにより、検出部32は、顔画像から顔の各器官について1以上の特徴点を検出する。同様に、検出部32は、その検出器に各前処理画像を入力することで、各前処理画像において顔の各器官の1以上の特徴点を検出する。検出部32は、そのような検出器として、例えば、Single Shot MultiBox Detector(SSD)、または、Faster R-CNNといった、コンボリューショナルニューラルネットワーク型(CNN)のアーキテクチャを持つディープニューラルネットワーク(DNN)を用いることができる。あるいは、検出部32は、そのような検出器として、サポートベクトルマシンあるいはAdaBoostといった、他の機械学習手法に基づいて顔の個々の器官の特徴点を検出するように予め学習された検出器を用いてもよい。あるいはまた、検出部32は、そのような検出器として、Active Shape Model(ASM)あるいはActive Appearance Model(AAM)といった、顔全体の情報を利用する検出器を利用してもよい。
In order to detect one or more feature points for each organ of the face, the
検出部32は、顔画像及び各前処理画像について、検出された、顔の個々の器官の1以上の特徴点を表す情報を位置特定部33へ出力する。なお、器官ごとの1以上の特徴点を表す情報は、例えば、特徴点ごとの位置座標と、その特徴点が表す顔の器官(例えば、眼、鼻、口など)及び器官における位置(例えば、目頭、目尻、鼻尖点、口角点など)を示す識別番号とを含む。
The
位置特定部33は、顔画像及び各前処理画像において検出されたドライバの顔の個々の器官の1以上の特徴点ごとに、その特徴点の位置の統計的代表値を、顔画像上でのその特徴点の位置として特定する。
The
例えば、位置特定部33は、着目する特徴点について顔画像及び各前処理画像のそれぞれにおけるその特徴点の位置の重心あるいは平均値を、その特徴点の位置の統計的代表値として算出する。また、前処理部31により生成された前処理画像に、サイズ変換画像またはアスペクト比変換画像が含まれている場合には、位置特定部33は、そのサイズ変換画像またはアスペクト比変換画像を生成するときの変換処理と逆変換の処理を特徴点に対して実行する。これにより、位置特定部33は、サイズ変換画像またはアスペクト比変換画像上の特徴点の位置を、元の顔画像における座標で表すことができる。また、前処理画像の一つとして、部分領域をリサンプリングして得られたものが含まれている場合、位置特定部33は、その前処理画像を生成時のサンプリングレートの逆数でリサンプリングすることで、リサンプリングされた前処理画像上での特徴点の位置を求める。さらに、位置特定部33は、元の顔画像における部分領域の位置に応じて特徴点の位置を補正することで、その特徴点の位置を、元の顔画像における座標で表すことができる。
For example, the
変形例によれば、位置特定部33は、着目する特徴点について、顔画像及び各前処理画像のそれぞれにおけるその特徴点の位置のうち、所定の外れ値基準を満たす位置となる特徴点を除外してもよい。そして位置特定部33は、残りの特徴点の位置に基づいて、着目する特徴点の位置の統計的代表値を算出してもよい。この場合、位置特定部33は、所定の外れ値基準を、例えば、k近傍法、Random Sample Consensus(RANSAC)法あるいはLeast Median of Square(LMedS)法に従って設定すればよい。このように、位置特定部33は、顔画像及び各前処理画像のそれぞれから検出された、着目する特徴点のうち、位置が外れ値基準を満たす特徴点を、統計的代表値の算出から除外することで、より正確にその着目する特徴点の位置を算出することができる。また、一つの器官について複数の特徴点が検出されている場合、位置特定部33は、その器官について、顔画像及び各前処理画像において、特徴点間の対応付けを変更しながら、その対応する特徴点の組について距離の二乗和を算出する。そして位置特定部33は、その距離の二乗和が最小となるときの特徴点の組を、互いに対応する特徴点とすればよい。
According to the modified example, the
図4は、本実施形態による検出処理の概要の説明図である。入力された顔画像400に対して互いに異なるn個(nは2以上の整数)の前処理が実行されることで、n個の前処理画像401-1~401-nが生成される。そして顔画像400及び前処理画像401-1~401-nのそれぞれが検出器402に入力されることで、顔画像400及び前処理画像401-1~401-nのそれぞれから、顔の器官ごとに特徴点403が検出される。そして特徴点403ごとに、顔画像400及び前処理画像401-1~401-nのそれぞれにおけるその特徴点の位置から、外れ値基準を満たす位置となる特徴点が除外される。そして除外されていない各画像におけるその特徴点の位置の統計的代表値として、顔画像400における、特徴点403の位置が特定される。
FIG. 4 is an explanatory diagram of an overview of detection processing according to the present embodiment. The
位置特定部33は、ドライバの顔の各器官の1以上の特徴点のそれぞれの位置を状態判定部34へ通知する。
The
状態判定部34は、顔画像に表されたドライバの顔の各器官の特徴点の位置に基づいて、ドライバの状態を判定する。
The
本実施形態では、状態判定部34は、顔領域に表されたドライバの顔の向きとドライバの顔の基準方向とを比較することで、ドライバの状態が車両10の運転に適した状態か否か判定する。なお、顔の基準方向は、メモリ22に予め記憶される。
In this embodiment, the
状態判定部34は、顔の個々の器官の特徴点を、顔の3次元形状を表す3次元顔モデルにフィッティングする。そして状態判定部34は、各特徴点が3次元顔モデルに最もフィッティングする際の3次元顔モデルの顔の向きを、ドライバの顔の向きとして検出する。あるいは、状態判定部34は、顔の各器官の特徴点に基づいて画像に表された顔の向きを判定する他の手法に従って、ドライバの顔の向きを検出してもよい。なお、ドライバの顔の向きは、例えば、ドライバモニタカメラ2に対して正対する方向を基準とする、ピッチ角、ヨー角及びロール角の組み合わせで表される。
The
状態判定部34は、顔領域に表されたドライバの顔の向きとドライバの顔の基準方向との差の絶対値を算出し、その差の絶対値を所定の顔向き許容範囲と比較する。そして状態判定部34は、その差の絶対値が顔向き許容範囲から外れている場合、ドライバは余所見をしている、すなわち、ドライバの状態は車両10の運転に適した状態でないと判定する。
The
なお、ドライバは、車両10の周辺の状況の確認のために、車両10の正面方向以外を向くことがある。ただしそのような場合でも、ドライバが車両10の運転に集中していれば、ドライバは、車両10の正面方向以外を継続して向くことはない。そこで変形例によれば、状態判定部34は、ドライバの顔の向きとドライバの顔の基準方向との差の絶対値が顔向き許容範囲から外れている期間が所定時間(例えば、数秒間)以上継続した場合に、ドライバの状態は車両10の運転に適した状態でないと判定してもよい。
It should be noted that the driver may face a direction other than the front of the
状態判定部34は、ドライバの状態が車両10の運転に適した状態でないと判定した場合、ドライバに対して車両10の正面を向くように警告する警告メッセージを含む警告情報を生成する。そして状態判定部34は、生成した警告情報を、通信インターフェース21を介してユーザインターフェース3へ出力することで、ユーザインターフェース3にその警告メッセージを表示させる。あるいは、状態判定部34は、ユーザインターフェース3が有するスピーカに、ドライバに対して車両10の正面を向くように警告する音声を出力させる。
When the
図5は、プロセッサ23により実行される、ドライバモニタ処理の動作フローチャートである。プロセッサ23は、以下の動作フローチャートに従って、検出処理を含むドライバモニタ処理を実行すればよい。なお、以下に示される動作フローチャートのうち、ステップS101~S103の処理が、検出処理に相当する。
FIG. 5 is an operation flowchart of driver monitor processing executed by the
プロセッサ23の前処理部31は、ECU4がドライバモニタカメラ2から受け取った顔画像に対して、互いに異なる複数の前処理をそれぞれ適用することで、複数の前処理画像を生成する(ステップS101)。また、プロセッサ23の検出部32は、顔画像及び各前処理画像から、ドライバの顔の各器官について1以上の特徴点を検出する(ステップS102)。
The preprocessing
プロセッサ23の位置特定部33は、顔画像及び各前処理画像において検出されたドライバの顔の個々の器官の1以上の特徴点ごとに、その特徴点の位置の統計的代表値を、顔画像上でのその特徴点の位置として特定する(ステップS103)。なお、上記のように、位置特定部33は、顔画像及び各前処理画像のそれぞれから検出された特徴点のうち、位置が所定の外れ値基準を満たす特徴点を、統計的代表値の算出から除外してもよい。
The
プロセッサ23の状態判定部34は、個々の器官の特徴点の位置に基づいてドライバの顔の向きを検出して、ドライバの状態が車両10の運転に適した状態か否か判定する(ステップS104)。そして状態判定部34は、その判定結果に応じた警告処理などを実行する。その後、プロセッサ23は、ドライバモニタ処理を終了する。
The
以上に説明してきたように、この検出装置は、検出対象物を撮影して得られたオリジナルの画像に対して、互いに異なる複数の前処理をそれぞれ適用することで、複数の前処理画像を生成する。この検出装置は、オリジナルの画像及び複数の前処理画像のそれぞれを、検出対象物を検出するための検出器に入力することで、オリジナルの画像及び複数の前処理画像のそれぞれにおける検出対象物の位置を検出する。そしてこの検出装置は、オリジナルの画像及び複数の前処理画像のそれぞれにおける検出対象物の位置の統計的代表値を、オリジナルの画像上でのその検出対象物の位置として特定する。これにより、この検出装置は、画像上での検出対象物についての位置検出精度のロバスト性を向上することができる。 As described above, this detection device generates a plurality of preprocessed images by applying a plurality of different preprocessings to the original image obtained by photographing the detection target. do. This detection device inputs an original image and a plurality of preprocessed images, respectively, to a detector for detecting a detection target, thereby detecting a detection target in each of the original image and the plurality of preprocessed images. Detect location. The detection device then identifies a statistically representative value of the position of the detection target in each of the original image and the plurality of preprocessed images as the position of the detection target on the original image. As a result, this detection device can improve the robustness of the position detection accuracy for the detection target on the image.
変形例によれば、所定期間にわたって得られた一連の顔画像から生成された特定の種類の前処理画像について、特徴点の位置が常に外れ値基準を満たす場合、位置特定部33は、それ以降、前処理部31にその特定の種類の前処理画像を生成させないようにしてもよい。これにより、検出処理全体の演算量が削減される。
According to a variant, for a particular type of preprocessed image generated from a series of facial images obtained over a predetermined period of time, if the position of the feature point always satisfies the outlier criterion, the
上記の実施形態または変形例による、ECU4のプロセッサ23の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
A computer program that realizes the functions of the
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications within the scope of the present invention according to the embodiment.
1 車両制御システム
10 車両
2 ドライバモニタカメラ
3 ユーザインターフェース
4 電子制御装置(ECU)
21 通信インターフェース
22 メモリ
23 プロセッサ
31 前処理部
32 検出部
33 位置特定部
34 状態判定部
1
21
Claims (1)
前記画像及び前記複数の前処理画像のそれぞれを、前記検出対象物を検出するための検出器に入力することで、前記画像及び前記複数の前処理画像のそれぞれにおける前記検出対象物の位置を検出する検出部と、
前記画像及び前記複数の前処理画像のそれぞれにおける前記検出対象物の位置の統計的代表値を、前記画像上での前記検出対象物の位置として特定する位置特定部と、
を有する検出装置。 a preprocessing unit that generates a plurality of preprocessed images by applying a plurality of different preprocesses to an image representing a detection target;
Detecting the position of the detection target in each of the image and the plurality of preprocessed images by inputting each of the image and the plurality of preprocessed images into a detector for detecting the detection target. a detection unit that
a position specifying unit that specifies a statistical representative value of the position of the detection target in each of the image and the plurality of preprocessed images as the position of the detection target on the image;
A detection device having
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021115968A JP2023012364A (en) | 2021-07-13 | 2021-07-13 | Detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021115968A JP2023012364A (en) | 2021-07-13 | 2021-07-13 | Detection apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023012364A true JP2023012364A (en) | 2023-01-25 |
Family
ID=85381779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021115968A Pending JP2023012364A (en) | 2021-07-13 | 2021-07-13 | Detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023012364A (en) |
-
2021
- 2021-07-13 JP JP2021115968A patent/JP2023012364A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10684681B2 (en) | Neural network image processing apparatus | |
US9811742B2 (en) | Vehicle-surroundings recognition device | |
WO2017217411A1 (en) | Image processing device, image processing method, and recording medium | |
US8983235B2 (en) | Pupil detection device and pupil detection method | |
JP4931218B2 (en) | Imaging apparatus, object detection method, and attitude parameter calculation method | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP4865517B2 (en) | Head position / posture detection device | |
WO2010067770A1 (en) | Three-dimensional object emergence detection device | |
JPWO2008007781A1 (en) | Gaze direction detection device and gaze direction detection method | |
JP6897082B2 (en) | Computer program for face orientation estimation, face orientation estimation device and face orientation estimation method | |
KR101575954B1 (en) | Apparatus for augmented reality using 3d reconstruction and mehhod thereof | |
JP2009265883A (en) | Vehicle periphery monitoring device | |
JPWO2018235300A1 (en) | Object detection device, object detection method, and computer-readable recording medium | |
US9558406B2 (en) | Image processing apparatus including an object setting section, image processing method, and program using the same | |
JP6708152B2 (en) | Driver state estimating device and driver state estimating method | |
KR20120108256A (en) | Robot fish localization system using artificial markers and method of the same | |
US10866635B2 (en) | Systems and methods for capturing training data for a gaze estimation model | |
TWI499999B (en) | The 3D ring car image system based on probability calculation and its obtaining method | |
JP2006215743A (en) | Image processing apparatus and image processing method | |
US20170367921A1 (en) | Vision-assist devices and methods of calibrating image data of a vision-assist device | |
JP2023012364A (en) | Detection apparatus | |
Sujith et al. | Computer Vision-Based Aid for the Visually Impaired Persons-A Survey And Proposing New Framework | |
JP5430213B2 (en) | Vehicle periphery monitoring device | |
US20230177861A1 (en) | Apparatus, method, and computer program for detecting hand region | |
US20210165999A1 (en) | Method and system for head pose estimation |