JP2021009503A - Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program - Google Patents
Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program Download PDFInfo
- Publication number
- JP2021009503A JP2021009503A JP2019122253A JP2019122253A JP2021009503A JP 2021009503 A JP2021009503 A JP 2021009503A JP 2019122253 A JP2019122253 A JP 2019122253A JP 2019122253 A JP2019122253 A JP 2019122253A JP 2021009503 A JP2021009503 A JP 2021009503A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- unit
- personal data
- data acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、個人データ取得システム、個人データ取得方法、画像処理装置用顔センシングパラメータの調整方法及びコンピュータプログラムに関する。 The present invention relates to a personal data acquisition system, a personal data acquisition method, a method for adjusting face sensing parameters for an image processing device, and a computer program.
下記の特許文献1には、サービスを提供する対象(人物)の状況に応じて、適切なサービスに切り替え可能なサービス提供装置として利用されるロボット装置が開示されている。
上記ロボット装置には、第1カメラと、第2カメラと、CPUを含む情報処理装置とが装備され、CPUには、顔検出部、属性判定部、人物検出部、人物位置算出部、及び移動ベクトル検出部などの機能が装備されている。 The robot device is equipped with a first camera, a second camera, and an information processing device including a CPU, and the CPU includes a face detection unit, an attribute determination unit, a person detection unit, a person position calculation unit, and a movement unit. It is equipped with functions such as a vector detector.
前記ロボット装置によれば、サービスの提供対象が、互いに意思疎通を行うなどの関係が成立している人物の集合である場合は、密なやり取りに基づいた情報を提供する第1のサービスの提供を決定する。
他方、サービスの提供対象が、互いに意思疎通を行うなどの関係が成立しているか否かが不明な人物の集合である場合は、やり取りを行わずに、一方的に情報を提供する第2のサービスの提供を決定する。これらにより、サービスの提供対象の状況に応じて、適切なサービスを提供することができるとしている。
According to the robot device, when the service is provided to a group of people who have a relationship such as communicating with each other, the first service is provided to provide information based on close communication. To determine.
On the other hand, when the service is provided to a group of people whose relationship such as communication with each other is unknown, the second method of providing information unilaterally without exchanging information. Decide to provide the service. With these, it is possible to provide appropriate services according to the situation of the service provision target.
また、下記の非特許文献1には、単眼距離カメラを用いた顔向きの推定方法が開示されており、推定方法に併せて、当該顔向き推定方法の精度を検証する検証実験が実施されている。この検証実験では、被験者の頭部に加速度センサ(3軸加速度センサ)を装着させて顔向き真値を取得し、この真値と比較することにより当該顔向き推定方法の精度の検証を行っている。
Further, Non-Patent
[発明が解決しようとする課題]
特許文献1に開示された前記ロボット装置では、前記顔検出部が、前記第1カメラを用いて人物の顔検出を行う構成になっており、該顔検出には、公知の技術を利用することができるとしている。
しかしながら、従来の顔検出技術では、ケガなどにより、目、鼻、口などの顔器官の一部が欠損、若しくは大きく変形している場合、顔に大きなホクロやイボ、若しくはタトゥーなどの身体装飾が施されている場合、又は遺伝的疾患により、前記顔器官の配置が平均的な配置から大きくずれている場合などの特定個人(一般的な人物の、年齢、及び性別の違いなどがあったとしても共通する顔特徴とは異なる特徴を有する個人をいうものとする)に対する顔検出の精度が低下してしまうという課題があった。
[Problems to be solved by the invention]
In the robot device disclosed in
However, with conventional face detection technology, if a part of the facial organs such as eyes, nose, and mouth is missing or greatly deformed due to injury, a large mole, swelling, or body decoration such as tattoo will appear on the face. Assuming that there is a difference in the age and gender of a specific individual (general person, age, gender, etc.), such as when it is given or when the arrangement of the facial organs deviates significantly from the average arrangement due to a genetic disease. However, there is a problem that the accuracy of face detection for (referring to an individual having characteristics different from the common facial features) is lowered.
また、前記非特許文献1に開示された、顔向きの推定方法の検証実験では、被験者の頭部に3軸加速度センサを装着させて検証のための真値を取得している。しかしながら、例えば、上記顔向きの推定方法を実際のドライバモニタリング装置などに適用しようとした場合、ユーザの頭部にセンサを装着してもらう必要があることとなり、実際の現場では、実現が困難であるといった課題があった。
Further, in the verification experiment of the face orientation estimation method disclosed in
また、顔向きの推定方法の検証に、図17に示したようなマルチアングル撮影システムで撮影した画像を用いることができれば、かなり精度を上げることは可能である。しかしながら、実際のドライバモニタリング装置などに適用しようとした場合、このような大がかりなマルチアングル撮影システムを、例えば、全国各地に存在するすべてのディーラの店舗に用意しなければならないことになり、やはり、実際の現場では、実現が困難であるといった課題があった。 Further, if the image taken by the multi-angle shooting system as shown in FIG. 17 can be used for the verification of the face orientation estimation method, the accuracy can be considerably improved. However, when trying to apply it to an actual driver monitoring device, such a large-scale multi-angle shooting system must be prepared, for example, at all dealer stores located all over the country. At the actual site, there was a problem that it was difficult to realize.
本発明は、上記課題に鑑みなされたものであって、ユーザに負担を掛けることなく、しかも大掛かりな装置を用意する必要がなく、手軽なシステムであっても、上記のような特定個人に対する顔センシングの精度を向上させることができる個人データ取得システム、個人データ取得方法、画像処理装置用顔センシングパラメータの調整方法及びコンピュータプログラムを提供することを目的としている。 The present invention has been made in view of the above problems, does not impose a burden on the user, does not require the preparation of a large-scale device, and even if it is a simple system, the face for a specific individual as described above. It is an object of the present invention to provide a personal data acquisition system, a personal data acquisition method, a method of adjusting face sensing parameters for an image processing device, and a computer program capable of improving the accuracy of sensing.
上記目的を達成するために、本開示に係る個人データ取得システム(1)は、
撮像対象の前方に設置され、距離画像取得可能な撮像部と、
前記距離画像を格納する画像データ格納部と、
前記画像データ格納部から入力される画像を処理する画像処理演算部と、
インストラクション部と、
を含んで構成された個人データ取得システムであって、
前記画像処理演算部が、特徴点マッチング部、法線ベクトル算出部、基準顔向き角度画像定義部、相対顔向き角度算出部を有し、
前記インストラクション部が、複数点の視認ポイントを指し示すものであることを特徴としている。
In order to achieve the above objectives, the personal data acquisition system (1) pertaining to this disclosure is
An imaging unit that is installed in front of the imaging target and can acquire distance images,
An image data storage unit that stores the distance image and
An image processing calculation unit that processes an image input from the image data storage unit,
Instruction department and
It is a personal data acquisition system configured to include
The image processing calculation unit has a feature point matching unit, a normal vector calculation unit, a reference face orientation angle image definition unit, and a relative face orientation angle calculation unit.
The instruction unit is characterized in that it points to a plurality of visual recognition points.
前記インストラクション部は、例えば、壁などに1〜9の数字を記載した目印Mを貼付けることにより構成される。
上記個人データ取得システム(1)によれば、前記インストラクション部を導入することにより、ユーザの頭部に3軸加速度センサなどを装着させることなく、換言すれば、ユーザに負担を掛けることなく個人データを取得することができる。
また、実際にシステムを構成するのに求められる機材は、カメラとパソコン程度であり、図17に示したような大掛かりな装置を用意する必要もなく、コストを抑えた極めて小規模なシンプルな装置で個人についての高精度な顔向き角度真値データを取得することができる。
The instruction unit is configured by, for example, attaching a mark M having a
According to the personal data acquisition system (1), by introducing the instruction unit, the user's head is not equipped with a 3-axis acceleration sensor or the like, in other words, the personal data is not burdened on the user. Can be obtained.
In addition, the equipment required to actually configure the system is only a camera and a personal computer, and there is no need to prepare a large-scale device as shown in FIG. 17, which is an extremely small and simple device that keeps costs down. It is possible to acquire high-precision face-to-face angle true value data for an individual.
また、本開示に係る個人データ取得システム(2)は、上記個人データ取得システム(1)において、
さらに、表示部と、操作部と、を備えていることを特徴としている。
In addition, the personal data acquisition system (2) according to the present disclosure is the personal data acquisition system (1) described above.
Further, it is characterized in that it includes a display unit and an operation unit.
上記表示部(ディスプレイ)と、操作部(キーボード・マウスなど)も、パーソナルコンピュータの構成要素であり、個人データ取得システム(2)においても、極めて小規模なシンプルな装置で個人データ取得システムを実現することができる。 The display unit (display) and operation unit (keyboard, mouse, etc.) are also components of a personal computer, and even in the personal data acquisition system (2), a personal data acquisition system is realized with an extremely small and simple device. can do.
また、上記目的を達成するために、本開示に係る個人データ取得システム(3)は、上記個人データ取得システム(1)又は(2)において、前記撮像部が、前記距離画像と、該距離画像と同視点のRGBあるいは赤外光などの2次元画像とを取得可能に構成されていることを特徴としている。 Further, in order to achieve the above object, in the personal data acquisition system (3) according to the present disclosure, in the personal data acquisition system (1) or (2), the imaging unit uses the distance image and the distance image. It is characterized in that it can acquire a two-dimensional image such as RGB or infrared light having the same viewpoint as the above.
上記個人データ取得システム(3)によれば、前記撮像部が、前記距離画像と、同視点の2次元画像とを取得可能に構成されており、この構成により、顔センシングパラメータの学習・設定・検証を高精度に実施するためのデータを得ることが可能となっている。 According to the personal data acquisition system (3), the imaging unit is configured to be able to acquire the distance image and a two-dimensional image of the same viewpoint, and by this configuration, learning / setting of face sensing parameters can be performed. It is possible to obtain data for performing verification with high accuracy.
また、本開示に係る個人データ取得システム(4)は、上記個人データ取得システム(1)〜(3)のいずれかにおいて、
前記画像処理演算部が、さらに、顔センシングパラメータ設定部、顔センシングパラメータ検証部を含んで構成されていることを特徴としている。
In addition, the personal data acquisition system (4) according to the present disclosure is the personal data acquisition system (1) to (3) described above.
The image processing calculation unit is further characterized in that it includes a face sensing parameter setting unit and a face sensing parameter verification unit.
上記個人データ取得システム(4)によれば、上記個人データ取得システム(3)の場合と同様に、顔センシングパラメータの学習・設定・検証を高精度に実施するためのデータを得ることが可能となり、設定された顔センシングパラメータを高精度に検証することが可能となる。 According to the personal data acquisition system (4), it is possible to obtain data for highly accurate learning / setting / verification of face sensing parameters as in the case of the personal data acquisition system (3). , It is possible to verify the set face sensing parameters with high accuracy.
また、本開示に係る個人データ取得システム(5)は、上記個人データ取得システム(1)〜(4)のいずれかにおいて、
さらに、背景幕を備えていることを特徴としている。
In addition, the personal data acquisition system (5) according to the present disclosure is the personal data acquisition system (1) to (4) described above.
Furthermore, it is characterized by having a background curtain.
上記個人データ取得システム(5)によれば、個人データを取得するのに、最適の色彩、模様の背景幕を採用することにより、顔センシングパラメータの学習・設定・検証に、より一層適したデータを容易に取得することが可能となる。 According to the personal data acquisition system (5), by adopting the optimum color and pattern background curtain for acquiring personal data, the data is more suitable for learning, setting, and verifying face sensing parameters. Can be easily obtained.
また、本開示に係る個人データ取得方法(1)は、上記個人データ取得システム(1)〜(5)のいずれかを用いた個人データ取得方法であって、
ユーザの前方に前記距離画像取得可能な撮像部を配置し、
ユーザに前記インストラクション部に基づく指示を出し、前記インストラクション部に基づく所定の順番、所定の時間間隔で顔向きが変更された画像データを取得することを特徴としている。
Further, the personal data acquisition method (1) according to the present disclosure is a personal data acquisition method using any of the above personal data acquisition systems (1) to (5).
An imaging unit capable of acquiring the distance image is placed in front of the user.
It is characterized in that an instruction based on the instruction unit is given to the user, and image data whose face orientation is changed in a predetermined order and at a predetermined time interval based on the instruction unit is acquired.
上記個人データ取得方法(1)によれば、コストを抑えた極めて小規模なシンプルな構成の個人データ取得システムを用い、より一層、再現性の高い安定した顔向き角度を実現することが可能となり、顔センシングパラメータの学習・設定・検証に、より一層適したデータを得ることが可能となる。 According to the above personal data acquisition method (1), it is possible to realize a more reproducible and stable face-facing angle by using an extremely small-scale and simple-structured personal data acquisition system that suppresses costs. , It is possible to obtain more suitable data for learning, setting, and verification of face sensing parameters.
また、本開示に係る個人データ取得方法(2)は、上記個人データ取得システム(1)〜(5)のいずれかを用いた個人データ取得方法であって、
目・口などの顔特徴点の深度がほぼ一定(所定の閾値以内)となる3次元画像データを、基準顔向き角度(ピッチ角0度、ヨー角0度)の画像と定義するステップと、
画像系列における画像Iと画像Jにおける共通顔特徴点を選択するステップと、
画像Iと画像Jにおける顔特徴点のマッチングを行うステップと、
画像Iの顔特徴点からなる顔向き平面の法線ベクトルを算出するステップと、
画像Jの顔特徴点からなる顔向き平面の法線ベクトルを算出するステップと、
画像Iの画像Jに対する顔向きの相対角度を算出(顔向き平面の相対法線ベクトルを算出)するステップと、
を含んでいることを特徴としている。
Further, the personal data acquisition method (2) according to the present disclosure is a personal data acquisition method using any of the above personal data acquisition systems (1) to (5).
A step of defining 3D image data in which the depth of facial feature points such as eyes and mouth is almost constant (within a predetermined threshold) as an image with a reference face orientation angle (
Steps to select common facial feature points in image I and image J in the image series,
Steps for matching facial feature points in image I and image J,
The step of calculating the normal vector of the face-oriented plane consisting of the face feature points of image I,
Steps to calculate the normal vector of the face-oriented plane consisting of the face feature points of image J,
The step of calculating the relative angle of the face orientation of the image I with respect to the image J (calculating the relative normal vector of the face orientation plane), and
It is characterized by containing.
上記個人データ取得方法(2)によれば、2枚の画像間での共通顔特徴点を精度よくマッチングさせることができ、また、高精度に設定された基準顔向き角度画像に基づいて、高精度に相対顔向き角度を算出することもできる。 According to the personal data acquisition method (2), the common facial feature points between the two images can be accurately matched, and the height is high based on the reference facial angle image set with high accuracy. It is also possible to calculate the relative face angle with accuracy.
また、本開示に係る画像処理装置用顔センシングパラメータの調整方法(1)は、
上記個人データ取得システム(1)〜(5)のいずれかを用いて取得された個人データを使用して行われる画像処理装置用顔センシングパラメータの調整方法であって、
2次元画像データ群を入力するステップと、
入力された2次元画像データ群に基づいて顔センシングパラメータの学習・設定を行うステップと、
設定された顔センシングパラメータの取り込みを行うステップと、
顔センシング処理の試行(顔検出、顔向き推定など)を実施するステップと、
2次元画像データ群に対する顔センシング結果群を取り込み、出力するステップと、
2次元画像データ群に対応する顔検出矩形、顔向き角度などの真値群を取り込み、出力するステップと、
前記顔センシング結果群と前記真値群とを用いて顔センシングパラメータの検証を実施するステップと、
顔検出矩形結果と真値との差の絶対値、及び、顔向き角度結果と真値との差の絶対値などが所定の閾値より小さいかを比較し、
小さいと判断すれば、処理を終了し、小さくないと判断すれば、最初のステップに戻るステップと、
を含んでいることを特徴としている。
Further, the method (1) for adjusting the face sensing parameter for the image processing device according to the present disclosure is described.
This is a method for adjusting face sensing parameters for an image processing device, which is performed using personal data acquired by using any of the personal data acquisition systems (1) to (5).
Steps to input 2D image data group and
Steps to learn and set face sensing parameters based on the input 2D image data group,
Steps to capture the set face sensing parameters and
Steps to perform face sensing processing trials (face detection, face orientation estimation, etc.) and
Steps to capture and output face sensing result groups for 2D image data group,
A step to capture and output a true value group such as a face detection rectangle and a face orientation angle corresponding to a two-dimensional image data group, and
A step of verifying the face sensing parameter using the face sensing result group and the true value group, and
Compare whether the absolute value of the difference between the face detection rectangle result and the true value and the absolute value of the difference between the face orientation angle result and the true value are smaller than the predetermined threshold value.
If it is judged to be small, the process ends, and if it is judged not to be small, the step to return to the first step and
It is characterized by containing.
上記画像処理装置用顔センシングパラメータの調整方法(1)によれば、顔センシングパラメータの調整を希望の高精度にまで実施することができる。 According to the method (1) for adjusting the face sensing parameter for the image processing device, the face sensing parameter can be adjusted to the desired high accuracy.
また、本開示に係るコンピュータプログラム(1)は、
画像処理装置用顔センシングパラメータの調整処理を少なくとも1以上のコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1以上のコンピュータに、
2次元画像データ群を取り込むステップと、
取り込まれた2次元画像データ群に基づいて顔センシングパラメータの学習・設定を行うステップと、
設定された顔センシングパラメータの取り込みを行うステップと、
顔センシングパラメータの学習・設定のための2次元画像データ群の取り込み処理を行ない、出力するステップと、
顔センシング処理の試行を実施し、顔検出、顔向き推定などを実施するステップと、
2次元画像データ群に対する顔センシング結果群を取り込み、出力するステップと、
2次元画像データ群に対応する顔検出矩形、顔向き角度などの真値群を取り込み、出力するステップと、
前記顔センシング結果群と前記真値群とを用いて顔センシングパラメータの検証を実施するステップと、
顔検出矩形結果と真値との差の絶対値が所定の閾値より小さいか比較され、また、顔向き角度結果と真値との差の絶対値が所定の閾値より小さいか比較され、
小さいと判断されれば、処理は終了し、小さくないと判断されれば、前記始めのステップに戻るステップと、
を実行させることを特徴としている。
In addition, the computer program (1) according to the present disclosure is
A computer program for causing at least one or more computers to perform adjustment processing of face sensing parameters for an image processing device.
To at least one of the above computers
Steps to capture 2D image data and
Steps to learn and set face sensing parameters based on the captured 2D image data group,
Steps to capture the set face sensing parameters and
Steps to import and output 2D image data groups for learning and setting face sensing parameters,
Steps to perform face sensing processing trials, face detection, face orientation estimation, etc.
Steps to capture and output face sensing result groups for 2D image data group,
A step to capture and output a true value group such as a face detection rectangle and a face orientation angle corresponding to a two-dimensional image data group, and
A step of verifying the face sensing parameter using the face sensing result group and the true value group, and
It is compared whether the absolute value of the difference between the face detection rectangle result and the true value is smaller than the predetermined threshold value, and whether the absolute value of the difference between the face orientation angle result and the true value is smaller than the predetermined threshold value.
If it is determined that it is small, the process is completed, and if it is determined that it is not small, the step of returning to the first step is performed.
It is characterized by executing.
上記コンピュータプログラム(1)によれば、顔センシングパラメータの調整を希望の高精度にまで高めることが可能となる。 According to the computer program (1), it is possible to improve the adjustment of face sensing parameters to a desired high accuracy.
以下、本発明に係る個人データ取得システム、個人データ取得方法、画像処理装置用顔センシングパラメータの調整方法及びコンピュータプログラムの実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of a personal data acquisition system, a personal data acquisition method, a method for adjusting face sensing parameters for an image processing device, and an embodiment of a computer program according to the present invention will be described with reference to the drawings.
[個人データ取得システムの適用例]
図1(a)〜(c)は、実施の形態に係る個人データ取得システムにおける個人データの取得、その後の作業工程の流れを示す概略フロー図である。(a)は、個人データを取得するステップを示しており、(b)は、取得した個人データを用いて、(顔センシング(顔検出、顔向き推定など)の性能が十分に発揮されるようにパラメータの学習・調整を行い、学習・調整されたパラメータの結果が反映された画像処理用のメモリを作成するステップを示している。(c)は、作成されたメモリを、例えば、ドライバモリタリング装置に搭載することを示している。
[Application example of personal data acquisition system]
1 (a) to 1 (c) are schematic flow charts showing the flow of personal data acquisition and subsequent work processes in the personal data acquisition system according to the embodiment. (A) shows a step of acquiring personal data, and (b) uses the acquired personal data so that the performance of (face sensing (face detection, face orientation estimation, etc.) can be fully exhibited. The step of learning / adjusting the parameters and creating a memory for image processing in which the result of the learned / adjusted parameters is reflected is shown in (c). (C) shows the created memory, for example, a driver Morita. It is shown to be mounted on a ring device.
図2は、実施の形態に係る個人データ取得システムの概略構成を示す平面図であり、ユーザUが椅子に座った状態を示している。ユーザUの後方には、背景幕としての黒色をした暗幕Bが配置されており、ユーザUの前方、60〜80cmのところに距離画像取得可能なカメラCとして、例えば、ToF(Time of Flight)カメラが配置され、ToFカメラCには、パーソナルコンピュータ(Personal Computer)Pが接続されている。
用意される撮影用の部屋の大きさは、幅が1.2〜2m、長さが2〜2.5m程度は確保されていることが望ましい。
ディーラのスタッフDが、例えば、撮影の担当者となり、撮影を実行することとなる。
FIG. 2 is a plan view showing a schematic configuration of the personal data acquisition system according to the embodiment, and shows a state in which the user U is sitting on a chair. A black blackout curtain B as a background curtain is arranged behind the user U, and as a camera C capable of acquiring a distance image 60 to 80 cm in front of the user U, for example, ToF (Time of Flight). A camera is arranged, and a personal computer P is connected to the ToF camera C.
It is desirable that the size of the prepared room for photography has a width of 1.2 to 2 m and a length of about 2 to 2.5 m.
The dealer's staff D will be in charge of shooting, for example, and will execute the shooting.
図3は、実施の形態に係る個人データ取得システムの概略構成を示す側面図である。
ToFカメラCはぶれない撮影が実現されるように、しっかりと三脚Sに固定されている。
FIG. 3 is a side view showing a schematic configuration of the personal data acquisition system according to the embodiment.
The ToF camera C is firmly fixed to the tripod S so as to realize stable shooting.
図4は、撮影の際のインストラクションの一例を示しており、壁などに1〜9の数字を記載した目印Mを貼付け、『5―2―5―8―5―2―1―2―3―2―5―4―5―6―5―8―7―8―9―8の順に数字を見て、(目線ではなく)顔向きを変えてください。』などとインストラクションを実施する。目印1、4、7は、ユーザの顔向きが左向き約90度となる位置、目印2、5、8は正面位置(0度)、目印3、6、9は、ユーザの顔向きが右向き約90度となる位置に貼り付けられている。また、目印1、2、3は、ユーザの顔向きが上向き約30度となる位置、目印4、5、6は、正面位置(0度)、目印7、8、9は、ユーザの顔向きが下向き約30度となる位置にそれぞれ目印Mが配置され、貼り付けられている。
FIG. 4 shows an example of the instruction at the time of shooting, and a mark M on which the
図5は、図4に示したインストラクションにより得られる、画像系列0〜7を示している。A位置は、画像系列0、1、2、3の基準顔向き角度の画像が得られ、B位置は、画像系列4、5の基準顔向き角度の画像が得られ、C位置は、画像系列6、7の基準顔向き角度の画像が得られるように構成されている。
FIG. 5 shows image sequences 0-7 obtained by the instructions shown in FIG. At position A, images with reference face angles of
図6は、個人データ取得システムの概略機能構成を示すブロック図である。ToFカメラCには撮影画像データ格納部1が接続され、撮影画像データ格納部1は、2次元画像データ格納部1aと、3次元距離画像データ格納部1bとを備え、撮影画像データ格納部1は、バスを介して表示部2、操作部3に接続され、さらに、CPU(Central Processing Unit)4、ROM(Read Only Memory)5、RAM(Random Access Memory)6に接続されている。RAM6は、画像記憶部6aと、共通特徴点格納部6bとを備えている。CPU4、ROM5、RAM6が接続され、画像処理演算部7が構成されている。画像処理演算部7は、特徴点マッチング部7a、法線ベクトル算出部7b、基準顔向き角度画像定義部7c、相対顔向き角度算出部7d、顔センシングパラメータ設定部7e、顔センシングパラメータ検証部7fを備えている。
FIG. 6 is a block diagram showing a schematic functional configuration of the personal data acquisition system. A captured image
図7は、個人データ取得システムにおける個人データ取得方法を示すフローチャートである。
まず、ステップS1において距離画像データ群からなる3次元画像データ群の取り込みが行われる。これら3次元画像データ群は、ToFカメラCで撮影され、3次元距離画像データ格納部1bに格納されているものを呼び出して行われる。
FIG. 7 is a flowchart showing a personal data acquisition method in the personal data acquisition system.
First, in step S1, the three-dimensional image data group consisting of the distance image data group is captured. These three-dimensional image data groups are photographed by the ToF camera C and are stored in the three-dimensional distance image
次にステップS2では、目・口などの顔特徴点の深度がほぼ一定(所定の閾値以内)となる3次元画像データを、基準顔向き角度(ピッチ角0度、ヨー角0度)の画像と定義する。
Next, in step S2, the three-dimensional image data in which the depths of facial feature points such as eyes and mouth are almost constant (within a predetermined threshold) are converted into an image having a reference face orientation angle (
図8は、顔向き角度の算出に使用される顔特徴点の例を示しており、特徴点e1は、右目の目尻点を示しており、特徴点e2は、右目の目頭点を示しており、特徴点e3は、左目の目頭点を示しており、特徴点e4は、右目の目尻点を示している。また、特徴点e1と特徴点e2の中点、特徴点e3と特徴点e4の中点を各々特徴点としてもよい。 FIG. 8 shows an example of facial feature points used for calculating the face orientation angle, the feature point e1 shows the outer corner point of the right eye, and the feature point e2 shows the inner corner point of the right eye. The feature point e3 indicates the inner corner point of the left eye, and the feature point e4 indicates the outer corner point of the right eye. Further, the midpoint of the feature point e1 and the feature point e2 and the midpoint of the feature point e3 and the feature point e4 may be set as the feature points, respectively.
また、特徴点m1は、口元の右口角点を示しており、特徴点m2は、口元の左口角点を示している。また、特徴点m1と特徴点m2の中点を特徴点としてもよい。 Further, the feature point m1 indicates the right corner point of the mouth, and the feature point m2 indicates the left corner point of the mouth. Further, the midpoint between the feature point m1 and the feature point m2 may be set as the feature point.
図9(a)(b)は、顔特徴点の並びを上から見た場合を示しており、特徴点e1〜e4および特徴点m1、m2が平面的に並んでいる状態を示している。この平面に対する法線ベクトルnを算出することにより、顔向きを求めることができる。 9 (a) and 9 (b) show the case where the facial feature points are arranged from above, and the feature points e1 to e4 and the feature points m1 and m2 are arranged in a plane. The face orientation can be obtained by calculating the normal vector n with respect to this plane.
図9(a)の状態を正面向き(ピッチ角0度、ヨー角0度)と定義すると、図9(b)の状態では、法線ベクトルnが、右向き10度などと読み取ることができ、顔向き角を求めることができることとなる。
If the state of FIG. 9 (a) is defined as the front direction (
図10(a)(b)は、図9(a)(b)の状態よりも、横向き角度が深くなった場合を示しており、特徴点e1などが検出困難状況となっており、従って、特徴点e1などに代えて、特徴点e5(耳)などが採用され、顔向き角が引き続き正確に求められることとなる状態を示している。 10 (a) and 10 (b) show a case where the lateral angle is deeper than the state of FIGS. 9 (a) and 9 (b), and the feature point e1 and the like are in a difficult-to-detect state. The feature point e5 (ears) or the like is adopted instead of the feature point e1 or the like, indicating a state in which the face orientation angle can be continuously and accurately obtained.
図11(a)(b)は、顔の横向き角度が浅く、顔向き角度の算出に両目と口の特徴点を使用した場合の一例を示す距離画像であり、図12(a)(b)は、顔の横向き角度がより深くなり、顔向き角度の算出に、目と口と耳の特徴点を使用した場合の一例を示す距離画像である。 11 (a) and 11 (b) are distance images showing an example in which the lateral angle of the face is shallow and the feature points of both eyes and the mouth are used to calculate the facial angle, and FIGS. 12 (a) and 12 (b) are shown. Is a distance image showing an example in which the lateral angle of the face becomes deeper and the feature points of the eyes, mouth, and ears are used to calculate the facial angle.
基準顔向き角度の画像を定義したステップS2に続き、ステップS3では、図5に示した画像系列KのKを0に設定し、ステップS4では、画像系列Kの1つの画像JのJを0に設定し、ステップS5では、画像系列Kの1つの画像IのIを1に設定する。 Following step S2 in which the image of the reference face orientation angle is defined, in step S3, K of the image series K shown in FIG. 5 is set to 0, and in step S4, J of one image J of the image series K is set to 0. In step S5, I of one image I of the image series K is set to 1.
次に、ステップS6では、画像系列Kにおける画像Iと画像Jにおける共通顔特徴点の選択が取り込まれる。この共通顔特徴点の選択は、人手によりなされても差し支えない。 Next, in step S6, the selection of the common facial feature points in the image I and the image J in the image series K is incorporated. The selection of the common facial feature points may be made manually.
次に、ステップS7では、画像Iと画像Jにおける顔特徴点のマッチングが行われる。
このマッチングは、例えば、テンプレートマッチングなどの手法を用いて行われる。
Next, in step S7, matching of facial feature points in image I and image J is performed.
This matching is performed using, for example, a technique such as template matching.
次に、ステップS8では、画像Iの顔特徴点からなる顔向き平面の法線ベクトルを最小2乗法を用いて算出する。
ステップS8の詳細は、図8〜図12を用いて上記した通りである。
Next, in step S8, the normal vector of the face-facing plane consisting of the face feature points of the image I is calculated using the least squares method.
The details of step S8 are as described above with reference to FIGS. 8 to 12.
次に、ステップS9では、画像Jの顔特徴点からなる顔向き平面の法線ベクトルをステップS8と同様に最小2乗法で算出する。 Next, in step S9, the normal vector of the face-facing plane consisting of the face feature points of the image J is calculated by the least squares method as in step S8.
ステップS10では、画像Iの画像Jに対する顔向きの相対角度(顔向き平面の相対法線ベクトルがなす角度)が、図9及び図10を用いて説明したように算出される。 In step S10, the relative angle of the face to the image J of the image I (the angle formed by the relative normal vector of the face plane) is calculated as described with reference to FIGS. 9 and 10.
次に、ステップS11では、J=Iに設定され、換言すれば、画像Jが1画面進められる。 Next, in step S11, J = I is set, in other words, the image J is advanced by one screen.
ステップS12では、画像Iが1画面進められる。 In step S12, the image I is advanced by one screen.
次に、ステップS13では、画像Iが画像系列Kの画像数numIより小さいか否か、換言すれば、画像Iが画像系列Kの画像数に達したか否かが判断され、小さいと判断されると、ステップS6に戻り、小さくないと判断されると、ステップS14に進む。ステップS14では、画像系列KのKが1つプラスされる。 Next, in step S13, it is determined whether or not the image I is smaller than the number of images numI of the image sequence K, in other words, whether or not the image I has reached the number of images of the image sequence K, and it is determined that the image I is small. Then, the process returns to step S6, and if it is determined that the image is not small, the process proceeds to step S14. In step S14, one K of the image sequence K is added.
次に、ステップS15では、画像系列Kが画像系列数numKより小さいか否か、換言すれば、画像系列Kが系列数に達したか否かが判断され、達していないと判断されれば、ステップS4に戻る。他方、小さくない、すなわち画像系列Kが系列数に達したと判断されれば、このフローは終了となる。 Next, in step S15, it is determined whether or not the image sequence K is smaller than the number of image sequences numK, in other words, whether or not the image sequence K has reached the number of sequences, and if it is determined that the number has not been reached, Return to step S4. On the other hand, if it is determined that the image sequence K has reached the number of sequences, that is, the flow is terminated.
図8は、上記顔向き角度の算出に使用される顔特徴点の例を示しており、顔を正面から見た模式図である。
特徴点e1〜e4は、目元部分の特徴点を示しており、特徴点m1、m2は、口元部分の特徴点を示している。
FIG. 8 shows an example of facial feature points used for calculating the face orientation angle, and is a schematic view of the face viewed from the front.
The feature points e1 to e4 indicate the feature points of the eye portion, and the feature points m1 and m2 indicate the feature points of the mouth portion.
図9(a)(b)は、顔特徴点の並びを上から見た場合を示す模式的平面図であり、特徴点e1〜e4および特徴点m1、m2が並んでいる状態を示しており、図10(a)(b)は、目、耳、口の他の顔特徴点を含む特徴点e3、e4、e5、m2の並びを上から見た場合を示す模式的平面図である。 9 (a) and 9 (b) are schematic plan views showing the arrangement of facial feature points when viewed from above, and show a state in which feature points e1 to e4 and feature points m1 and m2 are arranged. 10 (a) and 10 (b) are schematic plan views showing an arrangement of feature points e3, e4, e5, and m2 including other facial feature points of eyes, ears, and mouth when viewed from above.
図11(a)(b)は、顔向き角算出に両目と口の特徴点を使用した場合の例を示す距離画像であり、図12(a)(b)は、顔向きがより横向きで、顔向き角算出に、目と口と耳の特徴点を使用した場合の例を示す距離画像である。 11 (a) and 11 (b) are distance images showing an example when the feature points of both eyes and the mouth are used for calculating the face orientation angle, and FIGS. 12 (a) and 12 (b) show the face orientation is more lateral. , This is a distance image showing an example when the feature points of the eyes, mouth, and ears are used for calculating the face orientation angle.
図13は、個人データ取得システムにおける個人データを用いて精度を向上させる学習・調整工程を示すフローチャートである。 FIG. 13 is a flowchart showing a learning / adjusting process for improving accuracy by using personal data in a personal data acquisition system.
まず、ステップS21では、顔センシングパラメータの学習・設定のための2次元画像データ群の取り込み処理が行われる。 First, in step S21, a two-dimensional image data group acquisition process for learning and setting face sensing parameters is performed.
次に、ステップS22では、顔センシングパラメータの学習・設定が行われる。この学習・設定には、例えば、ディーラで取得した2次元画像データ群(動画データを複数枚の静止画としたデータ群)が用いられる。 Next, in step S22, the face sensing parameters are learned and set. For this learning / setting, for example, a two-dimensional image data group (a data group in which moving image data is a plurality of still images) acquired by a dealer is used.
次に、ステップS23では、ステップS22において学習・設定された顔センシングパラメータの取り込み処理が行われる。 Next, in step S23, the face sensing parameter acquisition process learned and set in step S22 is performed.
ステップS24では、顔検出、顔向き推定などの顔センシング処理の試行が実施される。 In step S24, trials of face sensing processing such as face detection and face orientation estimation are performed.
次に、ステップS25では、顔検出の結果、顔向き角度の推定の結果などの2次元画像データ群に対する顔センシング結果群の取り込み処理が行われる。 Next, in step S25, the face sensing result group is captured for the two-dimensional image data group such as the face detection result and the face orientation angle estimation result.
次に、ステップS26では、顔検出矩形、顔向き角度などの2次元画像データ群に対応する真値群の取り込み処理が行われる。 Next, in step S26, a process of capturing a true value group corresponding to a two-dimensional image data group such as a face detection rectangle and a face orientation angle is performed.
ステップS27では、ステップS25における、顔検出の結果、顔向き角度の推定の結果などの2次元画像データ群に対する顔センシング結果群、及びステップS26における、顔検出矩形、顔向き角度などの2次元画像データ群に対応する真値群を元に、顔センシングパラメータの検証が実施される。 In step S27, the face sensing result group for the two-dimensional image data group such as the face detection result and the face orientation angle estimation result in step S25, and the two-dimensional image such as the face detection rectangle and the face orientation angle in step S26. Face sensing parameters are verified based on the true value group corresponding to the data group.
ステップS28では、顔検出矩形結果と真値との差の絶対値が所定の閾値より小さいかが比較され、また、顔向き角度結果と真値との差の絶対値が所定の閾値より小さいかなどが比較され、小さいと判断されれば、処理は終了する。他方、小さくないと判断されれば、ステップS21に戻り、顔センシングパラメータの調整・再学習が実施されることとなる。 In step S28, it is compared whether the absolute value of the difference between the face detection rectangle result and the true value is smaller than the predetermined threshold value, and whether the absolute value of the difference between the face orientation angle result and the true value is smaller than the predetermined threshold value. Etc. are compared, and if it is judged to be small, the process ends. On the other hand, if it is determined that the size is not small, the process returns to step S21, and adjustment / relearning of the face sensing parameters is performed.
以下、本発明に係る個人データ取得システムが実際に適用される画像処理装置、モニタリング装置、制御システムを図面に基づいて説明する。 Hereinafter, an image processing device, a monitoring device, and a control system to which the personal data acquisition system according to the present invention is actually applied will be described with reference to the drawings.
適用される画像処理装置は、例えば、カメラを用いて人などの対象物をモニタリングする装置やシステムに広く適用可能である。例えば、車両などの各種移動体のドライバ(操縦者)をモニタリングする装置やシステムの他、工場内の機械や装置などの各種設備を操作したり、監視したり、所定の作業をしたりする人などをモニタリングする装置やシステムなどにも適用可能である。 The applied image processing device can be widely applied to, for example, a device or system for monitoring an object such as a person using a camera. For example, a person who operates, monitors, or performs predetermined work on various equipment such as machines and devices in a factory, in addition to devices and systems that monitor drivers (operators) of various moving objects such as vehicles. It can also be applied to devices and systems that monitor such things.
[適用例]
図14は、実施の形態に係るドライバモニタリング装置を含む車載システムの一例を示す模式図である。本適用例では、画像処理装置をドライバモニタリング装置30に適用した例について説明する。
[Application example]
FIG. 14 is a schematic view showing an example of an in-vehicle system including the driver monitoring device according to the embodiment. In this application example, an example in which the image processing apparatus is applied to the
車載システムAは、車両ECのドライバDPの状態(例えば、顔の挙動など)をモニタリングするドライバモニタリング装置30、車両ECの走行、操舵、又は制動などの制御を行う1以上のECU(Electronic Control Unit)40、及び車両各部の状態、又は車両周囲の状態などを検出する1以上のセンサ41を含んで構成され、これらが通信バス43を介して接続されている。車載システムAは、例えば、CAN(Controller Area Network)プロトコルに従って通信する車載ネットワークシステムとして構成されている。なお、車載システムAの通信規格には、CAN以外の他の通信規格が採用されてもよい。ドライバモニタリング装置30が、「モニタリング装置」の一例であり、車載システムAが、「制御システム」の一例である。
The in-vehicle system A includes a
ドライバモニタリング装置30は、ドライバDPの顔を撮像するためのカメラ31と、カメラ31から入力される画像を処理する画像処理部32と、画像処理部32による画像処理に基づく情報を、通信バス43を介して所定のECU40に出力する処理などを行う通信部36とを含んで構成されている。画像処理部32が、本発明の「画像処理装置」の一例である。カメラ31が、本発明の「撮像部」の一例である。
The
ドライバモニタリング装置30は、カメラ31で撮像された画像からドライバDPの顔を検出し、検出されたドライバDPの顔の向き、視線の方向、又は目の開閉状態などの顔の挙動を検出する。ドライバモニタリング装置30は、これら顔の挙動の検出結果に基づいて、ドライバDPの状態、例えば、前方注視、脇見、居眠り、後ろ向き、突っ伏しなどの状態を判定してもよい。また、ドライバモニタリング装置30が、これらドライバDPの状態判定に基づく信号をECU40に出力し、ECU40が、前記信号に基づいてドライバDPへの注意や警告処理、又は車両ECの動作制御(例えば、減速制御、又は路肩への誘導制御など)などを実行するように構成してもよい。
The
ドライバモニタリング装置30では、特定個人に対する顔センシングの精度を向上させることを目的の一つとしている。
One of the purposes of the
従来のドライバモニタリング装置では、車両ECのドライバDPが、例えば、ケガなどにより、目、鼻、口などの顔器官の一部が欠損、若しくは大きく変形していたり、顔に大きなホクロやイボ、若しくはタトゥーなどの身体装飾が施されていたり、又は遺伝性の疾患などの病気により、前記顔器官の配置が平均的な位置からずれていたりした場合、カメラで撮像された画像から顔を検出する精度や顔向きを推定する精度などが低下してしまうという課題があった。 In the conventional driver monitoring device, the driver DP of the vehicle EC has a part of the facial organs such as eyes, nose, and mouth missing or greatly deformed due to, for example, an injury, or a large hokuro or squid on the face, or Accuracy of detecting the face from the image captured by the camera when the facial organs are displaced from the average position due to body decoration such as tattoo or a disease such as a hereditary disease. There is a problem that the accuracy of estimating the face orientation is lowered.
また、顔検出や顔向き推定などの顔センシング処理が適切に行われないと、ドライバDPの脇見や居眠りなどの状態判定も適切に行うことができなくなり、また、前記状態判定に基づいてECU40が実行すべき各種の制御も適切に行うことができなくなる虞があるという課題があった。
Further, if face sensing processing such as face detection and face orientation estimation is not properly performed, state determination such as inattentiveness or dozing of the driver DP cannot be appropriately performed, and the
係る課題を解決すべく、実施の形態に係るドライバモニタリング装置30では、特定個人、換言すれば、年齢差、及び性別などの違い(個人差)にかかわらずに共通する一般的な人(普通の人)の顔特徴とは異なる特徴を有している特定の個人に対する顔センシング処理の精度を向上させるために、以下の構成を採用した。
In order to solve the problem, the
画像処理部32には、画像から顔センシング処理(顔検出や顔向き推定など)をするための学習を行った学習済みの顔特徴量として、特定個人の顔特徴量と、通常の顔特徴量(換言すれば、特定個人以外の人である場合に用いる顔特徴量)とが記憶されている。
The
画像処理部32が、カメラ31の入力画像から顔を検出するための特徴量を抽出しながら顔領域を検出する顔検出処理を行う。そして、画像処理部32が、検出された前記顔領域の特徴量と、前記特定個人の顔特徴量とを用いて、前記顔領域の顔が前記特定個人の顔であるか否かを判定する特定個人判定処理を行う。
The
前記特定個人判定処理では、前記顔領域から抽出された特徴量と前記特定個人の顔特徴量との関係を示す指標、例えば、相関係数を算出し、算出した前記相関係数に基づいて、前記顔領域の顔が前記特定個人の顔であるか否かを判定してもよい。
例えば、前記相関係数が所定の閾値より大きい場合、前記顔領域の顔が前記特定個人の顔であると判定し、前記相関係数が前記所定の閾値以下の場合、前記顔領域の顔が前記特定個人の顔ではないと判定してもよい。なお、前記特定個人判定処理では、前記相関係数以外の指標を用いてもよい。
In the specific individual determination process, an index showing the relationship between the feature amount extracted from the face region and the face feature amount of the specific individual, for example, a correlation coefficient is calculated, and based on the calculated correlation coefficient, It may be determined whether or not the face in the face region is the face of the specific individual.
For example, when the correlation coefficient is larger than a predetermined threshold value, it is determined that the face in the face region is the face of the specific individual, and when the correlation coefficient is equal to or less than the predetermined threshold value, the face in the face region is It may be determined that it is not the face of the specific individual. In the specific individual determination process, an index other than the correlation coefficient may be used.
また、前記特定個人判定処理では、カメラ31からの入力画像の1フレームに対する判定の結果に基づいて、前記顔領域の顔が前記特定個人の顔であるか否かを判定してもよいし、カメラ31からの入力画像の複数フレームに対する判定の結果に基づいて、前記顔領域の顔が前記特定個人の顔であるか否かを判定してもよい。
Further, in the specific individual determination process, it may be determined whether or not the face in the face region is the face of the specific individual based on the result of determination for one frame of the input image from the
このように、ドライバモニタリング装置30では、画像処理部32に、学習済みの特定個人の顔特徴量を予め記憶しておき、特定個人の顔特徴量を用いることにより、前記特定個人の顔であるか否かを精度良く判定することが可能となる。
As described above, in the
また、前記特定個人判定処理により前記特定個人の顔であると判定された場合、画像処理部32は、前記特定個人の顔特徴量を用いて、特定個人用の顔画像処理を実行するので、前記特定個人の顔画像処理を精度良く実施することが可能となる。
一方、前記特定個人の顔ではない、換言すれば、通常の顔(換言すれば、特定個人以外の顔)であると判定された場合、画像処理部32は、前記通常の顔特徴量を用いて、通常の顔画像処理を実行するので、前記通常の顔画像処理を精度良く実施することができる。したがって、ドライバDPが、特定個人であっても、特定個人以外の通常の人であっても、それぞれの顔のセンシングを精度良く実施することができる。
Further, when the face of the specific individual is determined by the specific individual determination process, the
On the other hand, when it is determined that the face is not the face of the specific individual, in other words, a normal face (in other words, a face other than the specific individual), the
[ハードウェア構成例]
図15は、実施の形態に係るドライバモニタリング装置30を含む車載システムAのハードウェア構成の一例を示すブロック図である。
[Hardware configuration example]
FIG. 15 is a block diagram showing an example of the hardware configuration of the in-vehicle system A including the
車載システムAは、車両ECのドライバDPの状態をモニタリングするドライバモニタリング装置30、1以上のECU40、及び1以上のセンサ41を含んで構成され、これらが通信バス43を介して接続されている。また、ECU40には、1以上のアクチュエータ42が接続されている。
The in-vehicle system A includes a
ドライバモニタリング装置30は、カメラ31と、カメラ31から入力される画像を処理する画像処理部32と、外部のECU40などとデータや信号のやり取りを行うための通信部36とを含んで構成されている。
The
カメラ31は、運転席に着座しているドライバDPの顔を含む画像を撮像する装置であり、例えば、レンズ部、撮像素子部、光照射部、インターフェース部、これら各部を制御するカメラ制御部などを含んで構成され得る。前記撮像素子部は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、マイクロレンズなどを含んで構成され得る。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できる素子でもよいし、近赤外領域の光を受けて撮像画像を形成できる素子でもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含んで構成され、昼夜を問わずドライバの顔を撮像できるように近赤外線LEDなどを含んでもよい。カメラ31は、所定のフレームレート(例えば、毎秒数十フレーム)で画像を撮像し、撮像された画像のデータが画像処理部32に入力される。カメラ31は、一体式の他、外付け式のものであってもよい。
The
画像処理部32は、1以上のCPU(Central Processing Unit)33、ROM(Read Only Memory)34、及びRAM(Random Access Memory)35を含む画像処理装置として構成されている。ROM34は、プログラム記憶部341と顔特徴量記憶部342とを含み、RAM35は、カメラ31からの入力画像を記憶する画像メモリ351を含んで構成されている。なお、ドライバモニタリング装置30に、別の記憶部を設け、その記憶部をプログラム記憶部341、顔特徴量記憶部342、及び画像メモリ351として用いてもよい。前記別の記憶部は、半導体メモリでもよいし、ディスクドライブなどで読み込み可能な記憶媒体でもよい。
The
CPU33は、ハードウェアプロセッサの一例であり、ROM34のプログラム記憶部341に記憶されているプログラム、顔特徴量記憶部342に記憶されている顔特徴量などのデータを読み込み、解釈し実行することで、カメラ31から入力された画像の処理、例えば、顔検出処理などの顔画像処理を行う。また、CPU33は、該顔画像処理により得られた結果(例えば、処理データ、判定信号、又は制御信号など)を、通信部36を介してECU40などに出力する処理などを行う。
The
顔特徴量記憶部342には、画像から顔センシング処理(顔検出や顔向き推定など)をするための学習を行った学習済みの顔特徴量として、図16に示す特定個人の顔特徴量342aと、通常の顔特徴量342bとが記憶されている。
学習済みの顔特徴量には、各種の特徴量を用いることができる。例えば、顔の局所的な領域の明暗差(さまざまな大きさの2つの矩形領域の平均輝度の差)に着目した特徴量(Haar-like特徴量)を用いてもよい。又は、顔の局所的な領域の輝度の分布の組み合わせに着目した特徴量(LBP (Local Binary Pattern) 特徴量)を用いてもよいし、顔の局所的な領域の輝度の勾配方向の分布の組み合わせに着目した特徴量(HOG (Histogram of Oriented Gradients) 特徴量)などを用いてもよい。
The face feature
Various features can be used as the learned facial features. For example, a feature amount (Haar-like feature amount) focusing on the difference in brightness (difference in average brightness between two rectangular areas of various sizes) in a local area of the face may be used. Alternatively, a feature amount (LBP (Local Binary Pattern) feature amount) focusing on the combination of the brightness distributions in the local area of the face may be used, or the distribution of the brightness in the local area of the face in the gradient direction may be used. A feature quantity focusing on a combination (HOG (Histogram of Oriented Gradients) feature quantity) or the like may be used.
顔検出に有効な特徴量を抽出する方法として、各種の機械学習による手法を用いることができる。機械学習とは、データ(学習データ)に内在するパターンをコンピュータにより見つけ出す処理である。例えば、統計的な学習手法の一例としてAdaBoostを用いてもよい。AdaBoostは、判別能力の低い判別器(弱判別器)を多数選び出し、これら多数の弱判別器の中からエラー率が小さい弱判別器を選択し、重みなどのパラメータを調整し、階層的な構造にすることで、強判別器を構築することのできる学習アルゴリズムである。判別器は、識別器、分類器、又は学習器と称されてもよい。 Various machine learning methods can be used as a method for extracting features effective for face detection. Machine learning is a process of finding a pattern inherent in data (learning data) by a computer. For example, AdaBoost may be used as an example of a statistical learning method. AdaBoost selects a large number of discriminators (weak discriminators) with low discriminating ability, selects a weak discriminator with a small error rate from these many weak discriminators, adjusts parameters such as weights, and has a hierarchical structure. It is a learning algorithm that can construct a strong discriminator by setting. The discriminator may be referred to as a discriminator, a classifier, or a learner.
例えば、顔の検出に有効な1つの特徴量を1つの弱判別器によって判別する構成とし、AdaBoostにより多数の弱判別器とその組み合わせを選び出し、これらを用いて、階層的な構造を有する強判別器を構築してもよい。なお、1つの弱判別器は、例えば、顔の場合は1、非顔の場合は0という情報を出力してもよい。また、学習手法には、顔らしさを0または1ではなく、0から1の実数で出力可能なReal AdaBoostという学習手法を用いてもよい。また、これら学習手法には、入力層、中間層、及び出力層を有するニューラルネットワークを用いてもよい。 For example, one feature amount effective for face detection is discriminated by one weak discriminator, a large number of weak discriminators and their combinations are selected by AdaBoost, and these are used for strong discrimination having a hierarchical structure. You may build a vessel. Note that one weak discriminator may output information such as 1 for a face and 0 for a non-face. Further, as the learning method, a learning method called Real AdaBoost, which can output a real number from 0 to 1 instead of 0 or 1, may be used. Further, as these learning methods, a neural network having an input layer, an intermediate layer, and an output layer may be used.
このような学習アルゴリズムが搭載された学習装置に、さまざまな条件で撮像された多数の顔画像と多数の顔以外の画像(非顔画像)とを学習データとして与え、学習を繰り返し、重みなどのパラメータを調整して最適化を図ることにより、顔を高精度に検出可能な階層構造を有する強判別器を構築することが可能となる。そして、強判別器を構成する各階層の弱判別器で用いられる1以上の特徴量を、学習済みの顔特徴量として用いることができる。 A large number of face images captured under various conditions and a large number of non-face images (non-face images) are given as training data to a learning device equipped with such a learning algorithm, learning is repeated, weighting, etc. By adjusting the parameters and optimizing it, it is possible to construct a strong discriminator having a hierarchical structure capable of detecting a face with high accuracy. Then, one or more feature amounts used in the weak discriminators of each layer constituting the strong discriminator can be used as the learned facial feature amounts.
特定個人の顔特徴量342aは、例えば、予め所定の場所で、特定個人の顔画像をさまざまな条件(さまざまな顔の向き、視線の方向、又は目の開閉状態などの条件)で個別に撮像し、これら多数の撮像画像を教師データとして、上記学習装置に入力し、学習処理によって調整された、特定個人の顔の特徴を示すパラメータである。特定個人の顔特徴量342aは、例えば、学習処理によって得られた、顔の局所的な領域の明暗差の組み合わせパターンなどでもよい。顔特徴量記憶部342に記憶される特定個人の顔特徴量342aは、1人の特定個人の顔特徴量だけでもよいし、複数の特定個人が車両ECを運転する場合には、複数人の特定個人の顔特徴量が記憶されてもよい。
The
通常の顔特徴量342bは、通常の人の顔画像をさまざまな条件(さまざまな顔の向き、視線の方向、又は目の開閉状態などの条件)で撮像した画像を教師データとして、上記学習装置に入力し、学習処理によって調整された、通常の人の顔の特徴を示すパラメータである。通常の顔特徴量342bは、例えば、学習処理によって得られた、顔の局所的な領域の明暗差の組み合わせパターンなどでもよい。
The normal
顔特徴量記憶部342に記憶される学習済みの顔特徴量は、例えば、クラウド上のサーバなどからインターネット、携帯電話網などの通信ネットワークを介して取り込んで、顔特徴量記憶部342に記憶される構成としてもよい。
The learned facial feature amount stored in the facial feature
ECU40は、1以上のプロセッサ、メモリ、及び通信モジュールなどを含むコンピュータ装置で構成されている。そして、ECU40に搭載されたプロセッサが、メモリに記憶されたプログラムを読み込み、解釈し実行することで、アクチュエータ42などに対する所定の制御が実行されるようになっている。
The
ECU40は、例えば、走行系ECU、運転支援系ECU、ボディ系ECU、及び情報系ECUのうちの少なくともいずれかを含んで構成されている。
The
前記走行系ECUには、例えば、駆動系ECU、シャーシ系ECUなどが含まれている。前記駆動系ECUには、例えば、エンジン制御、モータ制御、燃料電池制御、EV(Electric Vehicle)制御、又はトランスミッション制御等の「走る」機能に関する制御ユニットが含まれている。前記シャーシ系ECUには、例えば、ブレーキ制御、又はステアリング制御等の「止まる、曲がる」機能に関する制御ユニットが含まれている。 The traveling system ECU includes, for example, a drive system ECU, a chassis system ECU, and the like. The drive system ECU includes a control unit related to a "running" function such as engine control, motor control, fuel cell control, EV (Electric Vehicle) control, or transmission control. The chassis-based ECU includes a control unit related to a "stop, turn" function such as brake control or steering control.
前記運転支援系ECUは、例えば、自動ブレーキ支援機能、車線維持支援機能(LKA/Lane Keep Assistともいう)、定速走行・車間距離支援機能(ACC/Adaptive Cruise Controlともいう)、前方衝突警告機能、車線逸脱警報機能、死角モニタリング機能、交通標識認識機能等、走行系ECUなどとの連携により自動的に安全性の向上、又は快適な運転を実現する機能(運転支援機能、又は自動運転機能)に関する制御ユニットを少なくとも1つ以上含んで構成され得る。 The driving support system ECU has, for example, an automatic braking support function, a lane keeping support function (also referred to as LKA / Lane Keep Assist), a constant speed driving / inter-vehicle distance support function (also referred to as ACC / Adaptive Cruise Control), and a forward collision warning function. , Lane departure warning function, blind spot monitoring function, traffic sign recognition function, etc., functions that automatically improve safety or realize comfortable driving by linking with driving ECUs (driving support function or automatic driving function) It may be configured to include at least one control unit for.
前記運転支援系ECUには、例えば、米国自動車技術会(SAE)が提示している自動運転レベルにおけるレベル1(ドライバ支援)、レベル2(部分的自動運転)、及びレベル3(条件付自動運転)の少なくともいずれかの機能が装備されてもよい。さらに、自動運転レベルのレベル4(高度自動運転)、又はレベル5(完全自動運転)の機能が装備されてもよいし、レベル1、2のみ、又はレベル2、3のみの機能が装備されてもよい。また、車載システムAを自動運転システムとして構成してもよい。
The driving support system ECU includes, for example, Level 1 (driver assistance), Level 2 (partially automatic driving), and Level 3 (conditional automatic driving) at the automatic driving level presented by the American Society of Automotive Engineers of Japan (SAE). ) May be equipped with at least one of the functions. Further, the functions of level 4 (highly automatic driving) or level 5 (fully automatic driving) of the automatic driving level may be equipped, and only the functions of
前記ボディ系ECUは、例えば、ドアロック、スマートキー、パワーウインドウ、エアコン、ライト、メーターパネル、又はウインカ等の車体の機能に関する制御ユニットを少なくとも1つ以上含んで構成され得る。 The body system ECU may be configured to include at least one control unit related to the function of the vehicle body such as a door lock, a smart key, a power window, an air conditioner, a light, an instrument panel, or a winker.
前記情報系ECUは、例えば、インフォテイメント装置、テレマティクス装置、又はITS(Intelligent Transport Systems)関連装置を含んで構成され得る。前記インフォテイメント装置には、例えば、ユーザインターフェースとして機能するHMI(Human Machine Interface)装置の他、カーナビゲーション装置、オーディオ機器などが含まれてもよい。前記テレマティクス装置には、外部と通信するための通信ユニットなどが含まれてもよい。前記ITS関連装置には、ETC(Electronic Toll Collection System)、又はITSスポットなどの路側機との路車間通信、若しくは車々間通信などを行うための通信ユニットなどが含まれてもよい。 The information system ECU may be configured to include, for example, an infotainment device, a telematics device, or an ITS (Intelligent Transport Systems) related device. The infotainment device may include, for example, an HMI (Human Machine Interface) device that functions as a user interface, a car navigation device, an audio device, and the like. The telematics device may include a communication unit or the like for communicating with the outside. The ITS-related device may include an ETC (Electronic Toll Collection System), a communication unit for performing road-to-vehicle communication with a roadside unit such as an ITS spot, or vehicle-to-vehicle communication.
センサ41には、ECU40でアクチュエータ42の動作制御を行うために必要となるセンシングデータを取得する各種の車載センサが含まれ得る。例えば、車速センサ、シフトポジションセンサ、アクセル開度センサ、ブレーキペダルセンサ、ステアリングセンサなどの他、車外撮像用カメラ、ミリ波等のレーダー(Radar)、ライダー(LIDER)、超音波センサなどの周辺監視センサなどが含まれてもよい。
The
アクチュエータ42は、ECU40からの制御信号に基づいて、車両ECの走行、操舵、又は制動などに関わる動作を実行する装置であり、例えば、エンジン、モータ、トランスミッション、油圧又は電動シリンダー等が含まれる。
The
[機能構成例]
図16は、実施の形態に係るドライバモニタリング装置30の画像処理部32の機能構成例を示すブロック図である。
画像処理部32は、画像入力部21、顔検出部22、特定個人判定部25、第1顔画像処理部26、第2顔画像処理部26a、出力部PO、及び顔特徴量記憶部342を含んで構成されている。
[Functional configuration example]
FIG. 16 is a block diagram showing a functional configuration example of the
The
画像入力部21は、カメラ31で撮像されたドライバDPの顔を含む画像を取り込む処理を行う。
The
顔検出部22は、特定個人の顔検出部23と、通常の顔検出部24とを含んで構成され、入力画像から顔を検出するための特徴量を抽出しながら顔領域を検出する処理を行う。
特定個人の顔検出部23は、顔特徴量記憶部342から読み込んだ特定個人の顔特徴量342aを用いて、入力画像から顔領域を検出する処理を行う。
通常の顔検出部24は、顔特徴量記憶部342から読み込んだ通常の顔特徴量342bを用いて、入力画像から顔領域を検出する処理を行う。
The
The
The normal
画像から顔領域を検出する手法は特に限定されないが、高速で高精度に顔領域を検出する手法が採用される。顔検出部22は、例えば、入力画像に対して所定の探索領域(探索窓)を走査させながら、それぞれの探索領域で顔を検出するための特徴量を抽出する。顔検出部22は、例えば、顔の局所的な領域の明暗差(輝度差)、エッジ強度、又はこれら局所的領域間の関連性などを特徴量として抽出してよい。そして、顔検出部22は、探索領域から抽出した特徴量と、顔特徴量記憶部342から読み込んだ通常の顔特徴量342b、又は特定個人の顔特徴量342aを用いて、階層的な構造(顔をおおまかにとらえる階層から顔の細部をとらえる階層構造)の検出器で顔か非顔かを判断し、画像中から顔領域を検出する処理を行う。
The method of detecting the face area from the image is not particularly limited, but a method of detecting the face area at high speed and with high accuracy is adopted. The
特定個人判定部25は、顔検出部22で検出された顔領域の特徴量と、顔特徴量記憶部342から読み込んだ特定個人の顔特徴量342aとを用いて、検出された顔領域の顔が特定個人の顔であるか否かを判定する処理を行う。
The specific
特定個人判定部25は、顔領域から抽出された特徴量と特定個人の顔特徴量342aとの関係を示す指標、例えば、相関係数を算出し、算出した相関係数に基づいて、顔領域の顔が特定個人の顔であるか否かを判定してもよい。例えば、顔領域内における1以上の局所的な領域のHaar-like特徴などの特徴量の相関を求めてもよい。そして、相関係数が所定の閾値より大きい場合、検出した顔領域の顔が特定個人の顔であると判定し、相関係数が所定の閾値以下の場合、検出した顔領域の顔が特定個人の顔ではないと判定してもよい。
The specific
また、特定個人判定部25では、カメラ31からの入力画像の1フレームに対する判定の結果に基づいて、検出した顔領域の顔が特定個人の顔であるか否かを判定してもよいし、カメラ31からの入力画像の複数フレームに対する判定の結果に基づいて、検出した顔領域の顔が特定個人の顔であるか否かを判定してもよい。
Further, the specific
第1顔画像処理部26は、特定個人判定部25により特定個人の顔であると判定された場合、特定個人の顔特徴量342aを用いて、特定個人用の顔画像処理を行う。第1顔画像処理部26は、特定個人の顔向き推定部27と、特定個人の目開閉検出部28と、特定個人の視線方向推定部29とを含んで構成されているが、さらに別の顔挙動を推定したり、検出したりする構成を含んでもよい。
When the specific
特定個人の顔向き推定部27は、特定個人の顔の向きを推定する処理を行う。特定個人の顔向き推定部27は、例えば、特定個人の顔特徴量342aを用いて、特定個人の顔検出部23で検出された顔領域から目、鼻、口、眉などの顔器官の位置や形状を検出し、検出した顔器官の位置や形状に基づいて、顔の向きを推定する処理を行う。
The face
画像中の顔領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007−249280号公報に記載された技術を適用することができるが、これに限定されるものではない。 The method for detecting the facial organs from the facial region in the image is not particularly limited, but it is preferable to adopt a method capable of detecting the facial organs at high speed and with high accuracy. For example, a method of creating a three-dimensional face shape model, fitting it to a face region on a two-dimensional image, and detecting the position and shape of each organ of the face can be adopted. As a technique for fitting a three-dimensional face shape model to a human face in an image, for example, the technique described in Japanese Patent Application Laid-Open No. 2007-249280 can be applied, but the technique is not limited thereto.
また、特定個人の顔向き推定部27は、特定個人の顔の向きの推定データとして、例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角を出力してもよい。
Further, the face
特定個人の目開閉検出部28は、特定個人の目の開閉状態を検出する処理を行う。特定個人の目開閉検出部28は、例えば、特定個人の顔向き推定部27で求めた顔器官の位置や形状、特に目の特徴点(瞼、瞳孔)の位置や形状に基づいて、目の開閉状態、例えば、目を開けているか、閉じているかを検出する。目の開閉状態は、例えば、さまざまな目の開閉状態における目の画像の特徴量(瞼の位置、瞳孔(黒目)の形状、又は、白目部分と黒目部分の領域サイズなど)を予め学習器を用いて学習し、これら学習済みの特徴量データとの類似度を評価することで検出してもよい。
The eye opening /
特定個人の視線方向推定部29は、特定個人の視線の方向を推定する処理を行う。特定個人の視線方向推定部29は、例えば、ドライバDPの顔の向き、及びドライバDPの顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔)の位置や形状に基づいて、視線の方向を推定する。視線の方向とは、ドライバDPが見ている方向のことであり、例えば、顔の向きと目の向きとの組み合わせによって求められる。 The line-of-sight direction estimation unit 29 of the specific individual performs a process of estimating the line-of-sight direction of the specific individual. The line-of-sight direction estimation unit 29 of a specific individual is based on, for example, the orientation of the face of the driver DP and the position and shape of the facial organs of the driver DP, particularly the position and shape of the feature points of the eyes (outer corners of eyes, inner corners of eyes, pupils). Estimate the direction of the line of sight. The direction of the line of sight is the direction that the driver DP is looking at, and is determined by, for example, a combination of the direction of the face and the direction of the eyes.
また、視線の方向は、例えば、さまざまな顔の向きと目の向きとの組み合わせにおける目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は白目部分と黒目部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。また、特定個人の視線方向推定部29は、前記3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。 In addition, the direction of the line of sight is, for example, the feature amount of the image of the eye in various combinations of face orientation and eye orientation (relative position of outer corner, inner corner of eye, pupil, relative position of white eye portion and black eye portion, shading, etc. (Texture, etc.) may be detected by learning in advance using a learning device and evaluating the degree of similarity with the learned feature amount data. In addition, the line-of-sight direction estimation unit 29 of the specific individual estimates the size and center position of the eyeball from the size and orientation of the face, the position of the eyes, etc., using the fitting result of the three-dimensional face shape model, and the pupil. The position of the eyeball may be detected, and the vector connecting the center of the eyeball and the center of the pupil may be detected as the line-of-sight direction.
第2顔画像処理部26aは、特定個人判定部25により特定個人の顔ではないと判定された場合、通常の顔特徴量342bを用いて、通常の顔画像処理を行う。第2顔画像処理部26aは、通常の顔向き推定部27aと、通常の目開閉検出部28aと、通常の視線方向推定部29aとを含んで構成されている。通常の顔向き推定部27aと、通常の目開閉検出部28aと、通常の視線方向推定部29aとで行われる処理は、通常の顔特徴量342bを用いる点などを除き、特定個人の顔向き推定部27と、特定個人の目開閉検出部28と、特定個人の視線方向推定部29と基本的に同様であるので、ここではその説明を省略する。
When the specific
出力部POは、画像処理部32による画像処理に基づく情報をECU40などに出力する処理を行う。画像処理に基づく情報は、例えば、ドライバDPの顔の向き、視線の方向、又は目の開閉状態などの顔の挙動に関する情報でもよいし、顔の挙動の検出結果に基づいて判定されたドライバDPの状態(例えば、前方注視、脇見、居眠り、後ろ向き、突っ伏しなどの状態)に関する情報でもよい。また、画像処理に基づく情報は、ドライバDPの状態判定に基づく、所定の制御信号(注意や警告処理を行うための制御信号、又は車両ECの動作制御を行うための制御信号など)でもよい。
The output unit PO performs a process of outputting information based on the image processing by the
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
上記実施の形態では、本発明に係る画像処理装置をドライバモニタリング装置30に適用した場合について説明したが、適用例はこれに限定されない。例えば、工場内の機械や装置などの各種設備を操作したり、監視したり、所定の作業をしたりする人などをモニタリングする装置やシステムなどにおいて、モニタリング対象者に上記した特定個人が含まれる場合に、本発明に係る画像処理装置を適用可能である。
Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and changes can be made without departing from the scope of the present invention.
In the above embodiment, the case where the image processing device according to the present invention is applied to the
1 撮影画像データ格納部
1a 2次元画像データ格納部
1b 3次元距離画像データ格納部
2 表示部
3 操作部
4 CPU
5 ROM
6 RAM
6a 画像記憶部
6b 共通特徴点格納部
7 画像処理演算部
7a 特徴点マッチング部
7b 法線ベクトル算出部
7c 基準顔向き角度画像定義部
7d 相対顔向き角度算出部
7e 顔センシングパラメータ設定部
7f 顔センシングパラメータ検証部
21 画像入力部
22 顔検出部
23 特定個人の顔検出部
24 通常の顔検出部
25 特定個人判定部
26 第1顔画像処理部
26a 第2顔画像処理部
27 特定個人の顔向き推定部
28 特定個人の目開閉検出部
29 特定個人の視線方向推定部
27a 通常の顔向き推定部
28a 通常の目開閉検出部
29a 通常の視線方向推定部
30 ドライバモニタリング装置
31 カメラ
32 画像処理部
33 CPU
34 ROM
35 RAM
36 通信部
40 ECU
41 センサ
42 アクチュエータ
43 通信バス
B 暗幕
C 距離画像取得可能なカメラ(ToFカメラなど)
D ディーラのスタッフ
M インストラクション部としての目印
P ノートパソコン
S 三脚
U ユーザ
d ユーザとカメラとの間の距離
e1〜e4 特徴点(目)
e5 特徴点(耳)
m1、m2 特徴点(口)
n 法線ベクトル
A 車載システム
EC 車両
DP ドライバ
PO 出力部
1 Captured image
5 ROM
6 RAM
6a
21
34 ROM
35 RAM
36 Communication Department
40 ECU
41
B Blackout C Cameras capable of acquiring distance images (ToF cameras, etc.)
D Dealer staff M Mark as instruction department P Laptop S Tripod U User d Distance between user and camera
e1-e4 Feature points (eyes)
e5 Feature points (ears)
m1, m2 feature points (mouth)
n normal vector
A In-vehicle system EC vehicle DP driver PO output unit
Claims (9)
前記距離画像を格納する画像データ格納部と、
前記画像データ格納部から入力される画像を処理する画像処理演算部と、
インストラクション部と、
を含んで構成された個人データ取得システムであって、
前記画像処理演算部が、特徴点マッチング部、法線ベクトル算出部、基準顔向き角度画像定義部、相対顔向き角度算出部を有し、
前記インストラクション部が、複数点の視認ポイントを指し示すものであることを特徴とする個人データ取得システム。 An imaging unit that is installed in front of the imaging target and can acquire distance images,
An image data storage unit that stores the distance image and
An image processing calculation unit that processes an image input from the image data storage unit,
Instruction department and
It is a personal data acquisition system configured to include
The image processing calculation unit has a feature point matching unit, a normal vector calculation unit, a reference face orientation angle image definition unit, and a relative face orientation angle calculation unit.
A personal data acquisition system characterized in that the instruction unit points to a plurality of visual recognition points.
操作部と、
を備えていることを特徴とする請求項1記載の個人データ取得システム。 In addition, the display and
Operation unit and
The personal data acquisition system according to claim 1, wherein the personal data acquisition system is provided.
ユーザの前方に前記距離画像取得可能な撮像部を配置し、
ユーザに前記インストラクション部に基づく指示を出し、前記インストラクション部に基づく所定の順番、所定の時間間隔で顔向きが変更された画像データを取得することを特徴とする個人データ取得方法。 A personal data acquisition method using the personal data acquisition system according to any one of claims 1 to 5.
An imaging unit capable of acquiring the distance image is placed in front of the user.
A personal data acquisition method characterized in that an instruction based on the instruction unit is given to a user, and image data whose face orientation is changed in a predetermined order and at a predetermined time interval based on the instruction unit is acquired.
目・口などの顔特徴点の深度がほぼ一定(所定の閾値以内)となる3次元画像データを、基準顔向き角度(ピッチ角0度、ヨー角0度)の画像と定義するステップと、
画像系列における画像Iと画像Jにおける共通顔特徴点を選択するステップと、
画像Iと画像Jにおける顔特徴点のマッチングを行うステップと、
画像Iの顔特徴点からなる顔向き平面の法線ベクトルを算出するステップと、
画像Jの顔特徴点からなる顔向き平面の法線ベクトルを算出するステップと、
画像Iの画像Jに対する顔向きの相対角度を算出(顔向き平面の相対法線ベクトルを算出)するステップと、
を含んでいることを特徴とする個人データ取得方法。 A personal data acquisition method using the personal data acquisition system according to any one of claims 1 to 5.
A step of defining 3D image data in which the depth of facial feature points such as eyes and mouth is almost constant (within a predetermined threshold) as an image with a reference face orientation angle (pitch angle 0 degrees, yaw angle 0 degrees), and
Steps to select common facial feature points in image I and image J in the image series,
Steps for matching facial feature points in image I and image J,
The step of calculating the normal vector of the face-oriented plane consisting of the face feature points of image I,
Steps to calculate the normal vector of the face-oriented plane consisting of the face feature points of image J,
The step of calculating the relative angle of the face orientation of the image I with respect to the image J (calculating the relative normal vector of the face orientation plane), and
A method of acquiring personal data, which is characterized by including.
2次元画像データ群を入力するステップと、
入力された2次元画像データ群に基づいて顔センシングパラメータの学習・設定を行うステップと、
設定された顔センシングパラメータの取り込みを行うステップと、
顔センシング処理の試行(顔検出、顔向き推定など)を実施するステップと、
2次元画像データ群に対する顔センシング結果群を取り込み、出力するステップと、
2次元画像データ群に対応する顔検出矩形、顔向き角度などの真値群を取り込み、出力するステップと、
前記顔センシング結果群と前記真値群とを用いて顔センシングパラメータの検証を実施するステップと、
顔検出矩形結果と真値との差の絶対値、及び、顔向き角度結果と真値との差の絶対値などが所定の閾値より小さいかを比較し、
小さいと判断すれば、処理を終了し、小さくないと判断すれば、最初のステップに戻るステップと、
を含んでいることを特徴とする画像処理装置用顔センシングパラメータの調整方法。 A method for adjusting face sensing parameters for an image processing device, which is performed using personal data acquired by using the personal data acquisition system according to any one of claims 1 to 5.
Steps to input 2D image data group and
Steps to learn and set face sensing parameters based on the input 2D image data group,
Steps to capture the set face sensing parameters and
Steps to perform face sensing processing trials (face detection, face orientation estimation, etc.) and
Steps to capture and output face sensing result groups for 2D image data group,
A step to capture and output a true value group such as a face detection rectangle and a face orientation angle corresponding to a two-dimensional image data group, and
A step of verifying the face sensing parameter using the face sensing result group and the true value group, and
Compare whether the absolute value of the difference between the face detection rectangle result and the true value and the absolute value of the difference between the face orientation angle result and the true value are smaller than the predetermined threshold value.
If it is judged to be small, the process ends, and if it is judged not to be small, the step to return to the first step and
A method for adjusting face sensing parameters for an image processing device, which comprises.
前記少なくとも1以上のコンピュータに、
2次元画像データ群を取り込むステップと、
取り込まれた2次元画像データ群に基づいて顔センシングパラメータの学習・設定を行うステップと、
設定された顔センシングパラメータの取り込みを行うステップと、
顔センシングパラメータの学習・設定のための2次元画像データ群の取り込み処理を行ない、出力するステップと、
顔センシング処理の試行を実施し、顔検出、顔向き推定などを実施するステップと、
2次元画像データ群に対する顔センシング結果群を取り込み、出力するステップと、
2次元画像データ群に対応する顔検出矩形、顔向き角度などの真値群を取り込み、出力するステップと、
前記顔センシング結果群と前記真値群とを用いて顔センシングパラメータの検証を実施するステップと、
顔検出矩形結果と真値との差の絶対値が所定の閾値より小さいか比較され、また、顔向き角度結果と真値との差の絶対値が所定の閾値より小さいか比較され、
小さいと判断されれば、処理は終了し、小さくないと判断されれば、前記始めのステップに戻るステップと、
を実行させることを特徴とするコンピュータプログラム。
A computer program for causing at least one or more computers to perform adjustment processing of face sensing parameters for an image processing device.
To at least one of the above computers
Steps to capture 2D image data and
Steps to learn and set face sensing parameters based on the captured 2D image data group,
Steps to capture the set face sensing parameters and
Steps to import and output 2D image data groups for learning and setting face sensing parameters,
Steps to perform face sensing processing trials, face detection, face orientation estimation, etc.
Steps to capture and output face sensing result groups for 2D image data group,
A step to capture and output a true value group such as a face detection rectangle and a face orientation angle corresponding to a two-dimensional image data group, and
A step of verifying the face sensing parameter using the face sensing result group and the true value group, and
It is compared whether the absolute value of the difference between the face detection rectangle result and the true value is smaller than the predetermined threshold value, and whether the absolute value of the difference between the face orientation angle result and the true value is smaller than the predetermined threshold value.
If it is determined that it is small, the process is completed, and if it is determined that it is not small, the step of returning to the first step is performed.
A computer program characterized by running a computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019122253A JP2021009503A (en) | 2019-06-28 | 2019-06-28 | Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019122253A JP2021009503A (en) | 2019-06-28 | 2019-06-28 | Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021009503A true JP2021009503A (en) | 2021-01-28 |
Family
ID=74199992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019122253A Pending JP2021009503A (en) | 2019-06-28 | 2019-06-28 | Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021009503A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116449968A (en) * | 2023-06-20 | 2023-07-18 | 深圳市联志光电科技有限公司 | Computer screen control method and device and computing equipment |
-
2019
- 2019-06-28 JP JP2019122253A patent/JP2021009503A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116449968A (en) * | 2023-06-20 | 2023-07-18 | 深圳市联志光电科技有限公司 | Computer screen control method and device and computing equipment |
CN116449968B (en) * | 2023-06-20 | 2023-08-22 | 深圳市联志光电科技有限公司 | Computer screen control method and device and computing equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6695503B2 (en) | Method and system for monitoring the condition of a vehicle driver | |
EP4134949A1 (en) | In-vehicle user positioning method, on-board interaction method, on-board device, and vehicle | |
Mbouna et al. | Visual analysis of eye state and head pose for driver alertness monitoring | |
US20190377409A1 (en) | Neural network image processing apparatus | |
Trivedi et al. | Looking-in and looking-out of a vehicle: Computer-vision-based enhanced vehicle safety | |
US9405982B2 (en) | Driver gaze detection system | |
WO2020186883A1 (en) | Methods, devices and apparatuses for gaze area detection and neural network training | |
García et al. | Driver monitoring based on low-cost 3-D sensors | |
KR102441171B1 (en) | Apparatus and Method for Monitoring User based on Multi-View Face Image | |
US11163304B2 (en) | Trajectory determination device | |
CN111488812B (en) | Obstacle position recognition method and device, computer equipment and storage medium | |
Venturelli et al. | From depth data to head pose estimation: a siamese approach | |
WO2023272453A1 (en) | Gaze calibration method and apparatus, device, computer-readable storage medium, system, and vehicle | |
Rezaei et al. | Simultaneous analysis of driver behaviour and road condition for driver distraction detection | |
Amanatiadis et al. | ViPED: On-road vehicle passenger detection for autonomous vehicles | |
CN114821695A (en) | Material spectrometry | |
CN114821697A (en) | Material spectrum | |
DE102022100551A1 (en) | MATERIAL SPECTROSCOPY | |
CN114821694A (en) | Material spectrometry | |
JP2021009503A (en) | Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program | |
WO2021024905A1 (en) | Image processing device, monitoring device, control system, image processing method, computer program, and recording medium | |
Yun et al. | Video-based detection and analysis of driver distraction and inattention | |
CN116012822A (en) | Fatigue driving identification method and device and electronic equipment | |
WO2020261820A1 (en) | Image processing device, monitoring device, control system, image processing method, and program | |
WO2020261832A1 (en) | Image processing device, monitoring device, control system, image processing method, and program |