JP2021009503A - Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program - Google Patents

Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program Download PDF

Info

Publication number
JP2021009503A
JP2021009503A JP2019122253A JP2019122253A JP2021009503A JP 2021009503 A JP2021009503 A JP 2021009503A JP 2019122253 A JP2019122253 A JP 2019122253A JP 2019122253 A JP2019122253 A JP 2019122253A JP 2021009503 A JP2021009503 A JP 2021009503A
Authority
JP
Japan
Prior art keywords
face
image
unit
personal data
data acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019122253A
Other languages
Japanese (ja)
Inventor
相澤 知禎
Chitei Aizawa
知禎 相澤
晃一 星野
Koichi Hoshino
晃一 星野
恵 榊原
Megumi Sakakibara
恵 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Nidec Mobility Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Nidec Mobility Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co, Nidec Mobility Corp filed Critical Omron Corp
Priority to JP2019122253A priority Critical patent/JP2021009503A/en
Publication of JP2021009503A publication Critical patent/JP2021009503A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a personal data acquisition system that can improve accuracy of face sensing for a specific individual.SOLUTION: A personal data acquisition system includes: an imaging unit C that is installed in front of an imaging target and can acquire a distance image; a captured image data storage unit 1 that stores the distance image; and an image processing calculation unit (PC) that processes an image input from the captured image data storage unit 1 and executes an instruction. The image processing calculation unit has a feature point matching unit 7a, a normal vector calculation unit 7b, a reference face orientation angle image definition unit 7c, and a relative face orientation angle calculation unit 7d. The instruction points to multiple points of viewing points.SELECTED DRAWING: Figure 6

Description

本発明は、個人データ取得システム、個人データ取得方法、画像処理装置用顔センシングパラメータの調整方法及びコンピュータプログラムに関する。 The present invention relates to a personal data acquisition system, a personal data acquisition method, a method for adjusting face sensing parameters for an image processing device, and a computer program.

下記の特許文献1には、サービスを提供する対象(人物)の状況に応じて、適切なサービスに切り替え可能なサービス提供装置として利用されるロボット装置が開示されている。 Patent Document 1 below discloses a robot device used as a service providing device that can switch to an appropriate service according to the situation of a target (person) to which the service is provided.

上記ロボット装置には、第1カメラと、第2カメラと、CPUを含む情報処理装置とが装備され、CPUには、顔検出部、属性判定部、人物検出部、人物位置算出部、及び移動ベクトル検出部などの機能が装備されている。 The robot device is equipped with a first camera, a second camera, and an information processing device including a CPU, and the CPU includes a face detection unit, an attribute determination unit, a person detection unit, a person position calculation unit, and a movement unit. It is equipped with functions such as a vector detector.

前記ロボット装置によれば、サービスの提供対象が、互いに意思疎通を行うなどの関係が成立している人物の集合である場合は、密なやり取りに基づいた情報を提供する第1のサービスの提供を決定する。
他方、サービスの提供対象が、互いに意思疎通を行うなどの関係が成立しているか否かが不明な人物の集合である場合は、やり取りを行わずに、一方的に情報を提供する第2のサービスの提供を決定する。これらにより、サービスの提供対象の状況に応じて、適切なサービスを提供することができるとしている。
According to the robot device, when the service is provided to a group of people who have a relationship such as communicating with each other, the first service is provided to provide information based on close communication. To determine.
On the other hand, when the service is provided to a group of people whose relationship such as communication with each other is unknown, the second method of providing information unilaterally without exchanging information. Decide to provide the service. With these, it is possible to provide appropriate services according to the situation of the service provision target.

また、下記の非特許文献1には、単眼距離カメラを用いた顔向きの推定方法が開示されており、推定方法に併せて、当該顔向き推定方法の精度を検証する検証実験が実施されている。この検証実験では、被験者の頭部に加速度センサ(3軸加速度センサ)を装着させて顔向き真値を取得し、この真値と比較することにより当該顔向き推定方法の精度の検証を行っている。 Further, Non-Patent Document 1 below discloses a face orientation estimation method using a monocular distance camera, and a verification experiment for verifying the accuracy of the face orientation estimation method is carried out in addition to the estimation method. There is. In this verification experiment, an acceleration sensor (3-axis acceleration sensor) is attached to the subject's head to obtain the true face orientation value, and the accuracy of the face orientation estimation method is verified by comparing with this true value. There is.

[発明が解決しようとする課題]
特許文献1に開示された前記ロボット装置では、前記顔検出部が、前記第1カメラを用いて人物の顔検出を行う構成になっており、該顔検出には、公知の技術を利用することができるとしている。
しかしながら、従来の顔検出技術では、ケガなどにより、目、鼻、口などの顔器官の一部が欠損、若しくは大きく変形している場合、顔に大きなホクロやイボ、若しくはタトゥーなどの身体装飾が施されている場合、又は遺伝的疾患により、前記顔器官の配置が平均的な配置から大きくずれている場合などの特定個人(一般的な人物の、年齢、及び性別の違いなどがあったとしても共通する顔特徴とは異なる特徴を有する個人をいうものとする)に対する顔検出の精度が低下してしまうという課題があった。
[Problems to be solved by the invention]
In the robot device disclosed in Patent Document 1, the face detection unit is configured to detect a person's face using the first camera, and a known technique is used for the face detection. Can be done.
However, with conventional face detection technology, if a part of the facial organs such as eyes, nose, and mouth is missing or greatly deformed due to injury, a large mole, swelling, or body decoration such as tattoo will appear on the face. Assuming that there is a difference in the age and gender of a specific individual (general person, age, gender, etc.), such as when it is given or when the arrangement of the facial organs deviates significantly from the average arrangement due to a genetic disease. However, there is a problem that the accuracy of face detection for (referring to an individual having characteristics different from the common facial features) is lowered.

また、前記非特許文献1に開示された、顔向きの推定方法の検証実験では、被験者の頭部に3軸加速度センサを装着させて検証のための真値を取得している。しかしながら、例えば、上記顔向きの推定方法を実際のドライバモニタリング装置などに適用しようとした場合、ユーザの頭部にセンサを装着してもらう必要があることとなり、実際の現場では、実現が困難であるといった課題があった。 Further, in the verification experiment of the face orientation estimation method disclosed in Non-Patent Document 1, a 3-axis acceleration sensor is attached to the head of the subject to obtain a true value for verification. However, for example, when trying to apply the above face orientation estimation method to an actual driver monitoring device or the like, it is necessary to have the sensor attached to the user's head, which is difficult to realize in the actual field. There was a problem such as there.

また、顔向きの推定方法の検証に、図17に示したようなマルチアングル撮影システムで撮影した画像を用いることができれば、かなり精度を上げることは可能である。しかしながら、実際のドライバモニタリング装置などに適用しようとした場合、このような大がかりなマルチアングル撮影システムを、例えば、全国各地に存在するすべてのディーラの店舗に用意しなければならないことになり、やはり、実際の現場では、実現が困難であるといった課題があった。 Further, if the image taken by the multi-angle shooting system as shown in FIG. 17 can be used for the verification of the face orientation estimation method, the accuracy can be considerably improved. However, when trying to apply it to an actual driver monitoring device, such a large-scale multi-angle shooting system must be prepared, for example, at all dealer stores located all over the country. At the actual site, there was a problem that it was difficult to realize.

特開2014−14899号公報Japanese Unexamined Patent Publication No. 2014-14899

情報処理学会研究報告Vol.2014-MBL-73 No.18/ Vol.2014- ITS-59 No.18 2014/11/21 『単眼距離カメラを用いた顔向き の推定』熊本大学大学院自然科学研究科Information Processing Society of Japan Research Report Vol.2014-MBL-73 No.18 / Vol.2014- ITS-59 No.18 2014/11/21 "Estimation of Face Orientation Using Monocular Distance Camera" Graduate School of Natural Science and Technology, Kumamoto University

課題を解決するための手段及びその効果Means for solving problems and their effects

本発明は、上記課題に鑑みなされたものであって、ユーザに負担を掛けることなく、しかも大掛かりな装置を用意する必要がなく、手軽なシステムであっても、上記のような特定個人に対する顔センシングの精度を向上させることができる個人データ取得システム、個人データ取得方法、画像処理装置用顔センシングパラメータの調整方法及びコンピュータプログラムを提供することを目的としている。 The present invention has been made in view of the above problems, does not impose a burden on the user, does not require the preparation of a large-scale device, and even if it is a simple system, the face for a specific individual as described above. It is an object of the present invention to provide a personal data acquisition system, a personal data acquisition method, a method of adjusting face sensing parameters for an image processing device, and a computer program capable of improving the accuracy of sensing.

上記目的を達成するために、本開示に係る個人データ取得システム(1)は、
撮像対象の前方に設置され、距離画像取得可能な撮像部と、
前記距離画像を格納する画像データ格納部と、
前記画像データ格納部から入力される画像を処理する画像処理演算部と、
インストラクション部と、
を含んで構成された個人データ取得システムであって、
前記画像処理演算部が、特徴点マッチング部、法線ベクトル算出部、基準顔向き角度画像定義部、相対顔向き角度算出部を有し、
前記インストラクション部が、複数点の視認ポイントを指し示すものであることを特徴としている。
In order to achieve the above objectives, the personal data acquisition system (1) pertaining to this disclosure is
An imaging unit that is installed in front of the imaging target and can acquire distance images,
An image data storage unit that stores the distance image and
An image processing calculation unit that processes an image input from the image data storage unit,
Instruction department and
It is a personal data acquisition system configured to include
The image processing calculation unit has a feature point matching unit, a normal vector calculation unit, a reference face orientation angle image definition unit, and a relative face orientation angle calculation unit.
The instruction unit is characterized in that it points to a plurality of visual recognition points.

前記インストラクション部は、例えば、壁などに1〜9の数字を記載した目印Mを貼付けることにより構成される。
上記個人データ取得システム(1)によれば、前記インストラクション部を導入することにより、ユーザの頭部に3軸加速度センサなどを装着させることなく、換言すれば、ユーザに負担を掛けることなく個人データを取得することができる。
また、実際にシステムを構成するのに求められる機材は、カメラとパソコン程度であり、図17に示したような大掛かりな装置を用意する必要もなく、コストを抑えた極めて小規模なシンプルな装置で個人についての高精度な顔向き角度真値データを取得することができる。
The instruction unit is configured by, for example, attaching a mark M having a number 1 to 9 on a wall or the like.
According to the personal data acquisition system (1), by introducing the instruction unit, the user's head is not equipped with a 3-axis acceleration sensor or the like, in other words, the personal data is not burdened on the user. Can be obtained.
In addition, the equipment required to actually configure the system is only a camera and a personal computer, and there is no need to prepare a large-scale device as shown in FIG. 17, which is an extremely small and simple device that keeps costs down. It is possible to acquire high-precision face-to-face angle true value data for an individual.

また、本開示に係る個人データ取得システム(2)は、上記個人データ取得システム(1)において、
さらに、表示部と、操作部と、を備えていることを特徴としている。
In addition, the personal data acquisition system (2) according to the present disclosure is the personal data acquisition system (1) described above.
Further, it is characterized in that it includes a display unit and an operation unit.

上記表示部(ディスプレイ)と、操作部(キーボード・マウスなど)も、パーソナルコンピュータの構成要素であり、個人データ取得システム(2)においても、極めて小規模なシンプルな装置で個人データ取得システムを実現することができる。 The display unit (display) and operation unit (keyboard, mouse, etc.) are also components of a personal computer, and even in the personal data acquisition system (2), a personal data acquisition system is realized with an extremely small and simple device. can do.

また、上記目的を達成するために、本開示に係る個人データ取得システム(3)は、上記個人データ取得システム(1)又は(2)において、前記撮像部が、前記距離画像と、該距離画像と同視点のRGBあるいは赤外光などの2次元画像とを取得可能に構成されていることを特徴としている。 Further, in order to achieve the above object, in the personal data acquisition system (3) according to the present disclosure, in the personal data acquisition system (1) or (2), the imaging unit uses the distance image and the distance image. It is characterized in that it can acquire a two-dimensional image such as RGB or infrared light having the same viewpoint as the above.

上記個人データ取得システム(3)によれば、前記撮像部が、前記距離画像と、同視点の2次元画像とを取得可能に構成されており、この構成により、顔センシングパラメータの学習・設定・検証を高精度に実施するためのデータを得ることが可能となっている。 According to the personal data acquisition system (3), the imaging unit is configured to be able to acquire the distance image and a two-dimensional image of the same viewpoint, and by this configuration, learning / setting of face sensing parameters can be performed. It is possible to obtain data for performing verification with high accuracy.

また、本開示に係る個人データ取得システム(4)は、上記個人データ取得システム(1)〜(3)のいずれかにおいて、
前記画像処理演算部が、さらに、顔センシングパラメータ設定部、顔センシングパラメータ検証部を含んで構成されていることを特徴としている。
In addition, the personal data acquisition system (4) according to the present disclosure is the personal data acquisition system (1) to (3) described above.
The image processing calculation unit is further characterized in that it includes a face sensing parameter setting unit and a face sensing parameter verification unit.

上記個人データ取得システム(4)によれば、上記個人データ取得システム(3)の場合と同様に、顔センシングパラメータの学習・設定・検証を高精度に実施するためのデータを得ることが可能となり、設定された顔センシングパラメータを高精度に検証することが可能となる。 According to the personal data acquisition system (4), it is possible to obtain data for highly accurate learning / setting / verification of face sensing parameters as in the case of the personal data acquisition system (3). , It is possible to verify the set face sensing parameters with high accuracy.

また、本開示に係る個人データ取得システム(5)は、上記個人データ取得システム(1)〜(4)のいずれかにおいて、
さらに、背景幕を備えていることを特徴としている。
In addition, the personal data acquisition system (5) according to the present disclosure is the personal data acquisition system (1) to (4) described above.
Furthermore, it is characterized by having a background curtain.

上記個人データ取得システム(5)によれば、個人データを取得するのに、最適の色彩、模様の背景幕を採用することにより、顔センシングパラメータの学習・設定・検証に、より一層適したデータを容易に取得することが可能となる。 According to the personal data acquisition system (5), by adopting the optimum color and pattern background curtain for acquiring personal data, the data is more suitable for learning, setting, and verifying face sensing parameters. Can be easily obtained.

また、本開示に係る個人データ取得方法(1)は、上記個人データ取得システム(1)〜(5)のいずれかを用いた個人データ取得方法であって、
ユーザの前方に前記距離画像取得可能な撮像部を配置し、
ユーザに前記インストラクション部に基づく指示を出し、前記インストラクション部に基づく所定の順番、所定の時間間隔で顔向きが変更された画像データを取得することを特徴としている。
Further, the personal data acquisition method (1) according to the present disclosure is a personal data acquisition method using any of the above personal data acquisition systems (1) to (5).
An imaging unit capable of acquiring the distance image is placed in front of the user.
It is characterized in that an instruction based on the instruction unit is given to the user, and image data whose face orientation is changed in a predetermined order and at a predetermined time interval based on the instruction unit is acquired.

上記個人データ取得方法(1)によれば、コストを抑えた極めて小規模なシンプルな構成の個人データ取得システムを用い、より一層、再現性の高い安定した顔向き角度を実現することが可能となり、顔センシングパラメータの学習・設定・検証に、より一層適したデータを得ることが可能となる。 According to the above personal data acquisition method (1), it is possible to realize a more reproducible and stable face-facing angle by using an extremely small-scale and simple-structured personal data acquisition system that suppresses costs. , It is possible to obtain more suitable data for learning, setting, and verification of face sensing parameters.

また、本開示に係る個人データ取得方法(2)は、上記個人データ取得システム(1)〜(5)のいずれかを用いた個人データ取得方法であって、
目・口などの顔特徴点の深度がほぼ一定(所定の閾値以内)となる3次元画像データを、基準顔向き角度(ピッチ角0度、ヨー角0度)の画像と定義するステップと、
画像系列における画像Iと画像Jにおける共通顔特徴点を選択するステップと、
画像Iと画像Jにおける顔特徴点のマッチングを行うステップと、
画像Iの顔特徴点からなる顔向き平面の法線ベクトルを算出するステップと、
画像Jの顔特徴点からなる顔向き平面の法線ベクトルを算出するステップと、
画像Iの画像Jに対する顔向きの相対角度を算出(顔向き平面の相対法線ベクトルを算出)するステップと、
を含んでいることを特徴としている。
Further, the personal data acquisition method (2) according to the present disclosure is a personal data acquisition method using any of the above personal data acquisition systems (1) to (5).
A step of defining 3D image data in which the depth of facial feature points such as eyes and mouth is almost constant (within a predetermined threshold) as an image with a reference face orientation angle (pitch angle 0 degrees, yaw angle 0 degrees), and
Steps to select common facial feature points in image I and image J in the image series,
Steps for matching facial feature points in image I and image J,
The step of calculating the normal vector of the face-oriented plane consisting of the face feature points of image I,
Steps to calculate the normal vector of the face-oriented plane consisting of the face feature points of image J,
The step of calculating the relative angle of the face orientation of the image I with respect to the image J (calculating the relative normal vector of the face orientation plane), and
It is characterized by containing.

上記個人データ取得方法(2)によれば、2枚の画像間での共通顔特徴点を精度よくマッチングさせることができ、また、高精度に設定された基準顔向き角度画像に基づいて、高精度に相対顔向き角度を算出することもできる。 According to the personal data acquisition method (2), the common facial feature points between the two images can be accurately matched, and the height is high based on the reference facial angle image set with high accuracy. It is also possible to calculate the relative face angle with accuracy.

また、本開示に係る画像処理装置用顔センシングパラメータの調整方法(1)は、
上記個人データ取得システム(1)〜(5)のいずれかを用いて取得された個人データを使用して行われる画像処理装置用顔センシングパラメータの調整方法であって、
2次元画像データ群を入力するステップと、
入力された2次元画像データ群に基づいて顔センシングパラメータの学習・設定を行うステップと、
設定された顔センシングパラメータの取り込みを行うステップと、
顔センシング処理の試行(顔検出、顔向き推定など)を実施するステップと、
2次元画像データ群に対する顔センシング結果群を取り込み、出力するステップと、
2次元画像データ群に対応する顔検出矩形、顔向き角度などの真値群を取り込み、出力するステップと、
前記顔センシング結果群と前記真値群とを用いて顔センシングパラメータの検証を実施するステップと、
顔検出矩形結果と真値との差の絶対値、及び、顔向き角度結果と真値との差の絶対値などが所定の閾値より小さいかを比較し、
小さいと判断すれば、処理を終了し、小さくないと判断すれば、最初のステップに戻るステップと、
を含んでいることを特徴としている。
Further, the method (1) for adjusting the face sensing parameter for the image processing device according to the present disclosure is described.
This is a method for adjusting face sensing parameters for an image processing device, which is performed using personal data acquired by using any of the personal data acquisition systems (1) to (5).
Steps to input 2D image data group and
Steps to learn and set face sensing parameters based on the input 2D image data group,
Steps to capture the set face sensing parameters and
Steps to perform face sensing processing trials (face detection, face orientation estimation, etc.) and
Steps to capture and output face sensing result groups for 2D image data group,
A step to capture and output a true value group such as a face detection rectangle and a face orientation angle corresponding to a two-dimensional image data group, and
A step of verifying the face sensing parameter using the face sensing result group and the true value group, and
Compare whether the absolute value of the difference between the face detection rectangle result and the true value and the absolute value of the difference between the face orientation angle result and the true value are smaller than the predetermined threshold value.
If it is judged to be small, the process ends, and if it is judged not to be small, the step to return to the first step and
It is characterized by containing.

上記画像処理装置用顔センシングパラメータの調整方法(1)によれば、顔センシングパラメータの調整を希望の高精度にまで実施することができる。 According to the method (1) for adjusting the face sensing parameter for the image processing device, the face sensing parameter can be adjusted to the desired high accuracy.

また、本開示に係るコンピュータプログラム(1)は、
画像処理装置用顔センシングパラメータの調整処理を少なくとも1以上のコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1以上のコンピュータに、
2次元画像データ群を取り込むステップと、
取り込まれた2次元画像データ群に基づいて顔センシングパラメータの学習・設定を行うステップと、
設定された顔センシングパラメータの取り込みを行うステップと、
顔センシングパラメータの学習・設定のための2次元画像データ群の取り込み処理を行ない、出力するステップと、
顔センシング処理の試行を実施し、顔検出、顔向き推定などを実施するステップと、
2次元画像データ群に対する顔センシング結果群を取り込み、出力するステップと、
2次元画像データ群に対応する顔検出矩形、顔向き角度などの真値群を取り込み、出力するステップと、
前記顔センシング結果群と前記真値群とを用いて顔センシングパラメータの検証を実施するステップと、
顔検出矩形結果と真値との差の絶対値が所定の閾値より小さいか比較され、また、顔向き角度結果と真値との差の絶対値が所定の閾値より小さいか比較され、
小さいと判断されれば、処理は終了し、小さくないと判断されれば、前記始めのステップに戻るステップと、
を実行させることを特徴としている。
In addition, the computer program (1) according to the present disclosure is
A computer program for causing at least one or more computers to perform adjustment processing of face sensing parameters for an image processing device.
To at least one of the above computers
Steps to capture 2D image data and
Steps to learn and set face sensing parameters based on the captured 2D image data group,
Steps to capture the set face sensing parameters and
Steps to import and output 2D image data groups for learning and setting face sensing parameters,
Steps to perform face sensing processing trials, face detection, face orientation estimation, etc.
Steps to capture and output face sensing result groups for 2D image data group,
A step to capture and output a true value group such as a face detection rectangle and a face orientation angle corresponding to a two-dimensional image data group, and
A step of verifying the face sensing parameter using the face sensing result group and the true value group, and
It is compared whether the absolute value of the difference between the face detection rectangle result and the true value is smaller than the predetermined threshold value, and whether the absolute value of the difference between the face orientation angle result and the true value is smaller than the predetermined threshold value.
If it is determined that it is small, the process is completed, and if it is determined that it is not small, the step of returning to the first step is performed.
It is characterized by executing.

上記コンピュータプログラム(1)によれば、顔センシングパラメータの調整を希望の高精度にまで高めることが可能となる。 According to the computer program (1), it is possible to improve the adjustment of face sensing parameters to a desired high accuracy.

(a)〜(c)は、本開示の実施の形態に係る個人データ取得システムにおける個人データ取得、その後の流れを示す概略フロー図である。(A) to (c) are schematic flow charts showing the personal data acquisition in the personal data acquisition system according to the embodiment of the present disclosure, and the subsequent flow. 実施の形態に係る個人データ取得システムの概略構成を示す平面図である。It is a top view which shows the schematic structure of the personal data acquisition system which concerns on embodiment. 実施の形態に係る個人データ取得システムの概略構成を示す側面図である。It is a side view which shows the schematic structure of the personal data acquisition system which concerns on embodiment. 実施の形態に係る個人データ取得時のインストラクションの例を示す模式図である。It is a schematic diagram which shows the example of the instruction at the time of personal data acquisition which concerns on embodiment. 実施の形態に係るインストラクションによる個人データ取得後の画像系列が構成される状況を示す模式図である。It is a schematic diagram which shows the situation which the image series after the personal data acquisition by the instruction which concerns on embodiment is constructed. 実施の形態に係る個人データ取得システムの概略機能構成を示すブロック図である。It is a block diagram which shows the schematic functional structure of the personal data acquisition system which concerns on embodiment. 実施の形態に係る個人データ取得システムにおける個人データ取得方法を示すフローチャートである。It is a flowchart which shows the personal data acquisition method in the personal data acquisition system which concerns on embodiment. 顔特徴点の例を示す顔を正面から見た模式図である。It is a schematic diagram which looked at the face from the front which shows the example of a face feature point. (a)(b)は、顔特徴点の並びを上から見た場合を示す模式的平面図である。(A) and (b) are schematic plan views showing the case where the arrangement of facial feature points is viewed from above. (a)(b)は、他の顔特徴点の並びを上から見た場合を示す模式的平面図である。(A) and (b) are schematic plan views showing the case where the arrangement of other facial feature points is viewed from above. (a)(b)は、顔向き角算出に使用した特徴点を示す距離画像である。(A) and (b) are distance images showing the feature points used for calculating the face orientation angle. (a)(b)は、顔向き角が深くなった場合の算出に使用した特徴点を示す距離画像である。(A) and (b) are distance images showing the feature points used for the calculation when the face orientation angle becomes deep. 実施の形態に係る個人データ取得システムにおける個人データを用いて精度を向上させる学習・調整工程を示すフローチャートである。It is a flowchart which shows the learning / adjustment process which improves the accuracy by using the personal data in the personal data acquisition system which concerns on embodiment. 実施の形態に係るドライバモニタリング装置を含む車載システムの一例を示す模式図である。It is a schematic diagram which shows an example of the in-vehicle system including the driver monitoring apparatus which concerns on embodiment. 実施の形態に係るドライバモニタリング装置を含む車載システムのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the in-vehicle system including the driver monitoring apparatus which concerns on embodiment. 実施の形態に係るドライバモニタリング装置の画像処理部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the image processing part of the driver monitoring apparatus which concerns on embodiment. マルチアングル撮影システムの部分構成を示す写真である。It is a photograph which shows the partial structure of a multi-angle photography system.

以下、本発明に係る個人データ取得システム、個人データ取得方法、画像処理装置用顔センシングパラメータの調整方法及びコンピュータプログラムの実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of a personal data acquisition system, a personal data acquisition method, a method for adjusting face sensing parameters for an image processing device, and an embodiment of a computer program according to the present invention will be described with reference to the drawings.

[個人データ取得システムの適用例]
図1(a)〜(c)は、実施の形態に係る個人データ取得システムにおける個人データの取得、その後の作業工程の流れを示す概略フロー図である。(a)は、個人データを取得するステップを示しており、(b)は、取得した個人データを用いて、(顔センシング(顔検出、顔向き推定など)の性能が十分に発揮されるようにパラメータの学習・調整を行い、学習・調整されたパラメータの結果が反映された画像処理用のメモリを作成するステップを示している。(c)は、作成されたメモリを、例えば、ドライバモリタリング装置に搭載することを示している。
[Application example of personal data acquisition system]
1 (a) to 1 (c) are schematic flow charts showing the flow of personal data acquisition and subsequent work processes in the personal data acquisition system according to the embodiment. (A) shows a step of acquiring personal data, and (b) uses the acquired personal data so that the performance of (face sensing (face detection, face orientation estimation, etc.) can be fully exhibited. The step of learning / adjusting the parameters and creating a memory for image processing in which the result of the learned / adjusted parameters is reflected is shown in (c). (C) shows the created memory, for example, a driver Morita. It is shown to be mounted on a ring device.

図2は、実施の形態に係る個人データ取得システムの概略構成を示す平面図であり、ユーザUが椅子に座った状態を示している。ユーザUの後方には、背景幕としての黒色をした暗幕Bが配置されており、ユーザUの前方、60〜80cmのところに距離画像取得可能なカメラCとして、例えば、ToF(Time of Flight)カメラが配置され、ToFカメラCには、パーソナルコンピュータ(Personal Computer)Pが接続されている。
用意される撮影用の部屋の大きさは、幅が1.2〜2m、長さが2〜2.5m程度は確保されていることが望ましい。
ディーラのスタッフDが、例えば、撮影の担当者となり、撮影を実行することとなる。
FIG. 2 is a plan view showing a schematic configuration of the personal data acquisition system according to the embodiment, and shows a state in which the user U is sitting on a chair. A black blackout curtain B as a background curtain is arranged behind the user U, and as a camera C capable of acquiring a distance image 60 to 80 cm in front of the user U, for example, ToF (Time of Flight). A camera is arranged, and a personal computer P is connected to the ToF camera C.
It is desirable that the size of the prepared room for photography has a width of 1.2 to 2 m and a length of about 2 to 2.5 m.
The dealer's staff D will be in charge of shooting, for example, and will execute the shooting.

図3は、実施の形態に係る個人データ取得システムの概略構成を示す側面図である。
ToFカメラCはぶれない撮影が実現されるように、しっかりと三脚Sに固定されている。
FIG. 3 is a side view showing a schematic configuration of the personal data acquisition system according to the embodiment.
The ToF camera C is firmly fixed to the tripod S so as to realize stable shooting.

図4は、撮影の際のインストラクションの一例を示しており、壁などに1〜9の数字を記載した目印Mを貼付け、『5―2―5―8―5―2―1―2―3―2―5―4―5―6―5―8―7―8―9―8の順に数字を見て、(目線ではなく)顔向きを変えてください。』などとインストラクションを実施する。目印1、4、7は、ユーザの顔向きが左向き約90度となる位置、目印2、5、8は正面位置(0度)、目印3、6、9は、ユーザの顔向きが右向き約90度となる位置に貼り付けられている。また、目印1、2、3は、ユーザの顔向きが上向き約30度となる位置、目印4、5、6は、正面位置(0度)、目印7、8、9は、ユーザの顔向きが下向き約30度となる位置にそれぞれ目印Mが配置され、貼り付けられている。 FIG. 4 shows an example of the instruction at the time of shooting, and a mark M on which the numbers 1 to 9 are written is attached to the wall or the like, and “5-2-5-8-5-2-1-2-3” is shown. Look at the numbers in the order of -2-5-4-5-6-5-8-7-7-8-9-8 and change your face (not your eyes). ] And so on. Marks 1, 4, and 7 are positions where the user's face direction is about 90 degrees to the left, marks 2, 5, and 8 are front positions (0 degrees), and marks 3, 6, and 9 are positions where the user's face direction is about right angles. It is pasted at a position that is 90 degrees. In addition, the marks 1, 2 and 3 are positions where the user's face orientation is about 30 degrees upward, the marks 4, 5 and 6 are front positions (0 degrees), and the marks 7, 8 and 9 are the user's face orientation. Marks M are arranged and pasted at positions where is about 30 degrees downward.

図5は、図4に示したインストラクションにより得られる、画像系列0〜7を示している。A位置は、画像系列0、1、2、3の基準顔向き角度の画像が得られ、B位置は、画像系列4、5の基準顔向き角度の画像が得られ、C位置は、画像系列6、7の基準顔向き角度の画像が得られるように構成されている。 FIG. 5 shows image sequences 0-7 obtained by the instructions shown in FIG. At position A, images with reference face angles of image series 0, 1, 2, and 3 are obtained, at position B, images with reference face angles of image series 4 and 5 are obtained, and at position C, images with reference face angles are obtained. It is configured so that images of reference face angle of 6 and 7 can be obtained.

図6は、個人データ取得システムの概略機能構成を示すブロック図である。ToFカメラCには撮影画像データ格納部1が接続され、撮影画像データ格納部1は、2次元画像データ格納部1aと、3次元距離画像データ格納部1bとを備え、撮影画像データ格納部1は、バスを介して表示部2、操作部3に接続され、さらに、CPU(Central Processing Unit)4、ROM(Read Only Memory)5、RAM(Random Access Memory)6に接続されている。RAM6は、画像記憶部6aと、共通特徴点格納部6bとを備えている。CPU4、ROM5、RAM6が接続され、画像処理演算部7が構成されている。画像処理演算部7は、特徴点マッチング部7a、法線ベクトル算出部7b、基準顔向き角度画像定義部7c、相対顔向き角度算出部7d、顔センシングパラメータ設定部7e、顔センシングパラメータ検証部7fを備えている。 FIG. 6 is a block diagram showing a schematic functional configuration of the personal data acquisition system. A captured image data storage unit 1 is connected to the ToF camera C, and the captured image data storage unit 1 includes a two-dimensional image data storage unit 1a and a three-dimensional distance image data storage unit 1b, and the captured image data storage unit 1 Is connected to the display unit 2 and the operation unit 3 via a bus, and is further connected to a CPU (Central Processing Unit) 4, a ROM (Read Only Memory) 5, and a RAM (Random Access Memory) 6. The RAM 6 includes an image storage unit 6a and a common feature point storage unit 6b. The CPU 4, ROM 5, and RAM 6 are connected to form an image processing calculation unit 7. The image processing calculation unit 7 includes a feature point matching unit 7a, a normal vector calculation unit 7b, a reference face orientation angle image definition unit 7c, a relative face orientation angle calculation unit 7d, a face sensing parameter setting unit 7e, and a face sensing parameter verification unit 7f. It has.

図7は、個人データ取得システムにおける個人データ取得方法を示すフローチャートである。
まず、ステップS1において距離画像データ群からなる3次元画像データ群の取り込みが行われる。これら3次元画像データ群は、ToFカメラCで撮影され、3次元距離画像データ格納部1bに格納されているものを呼び出して行われる。
FIG. 7 is a flowchart showing a personal data acquisition method in the personal data acquisition system.
First, in step S1, the three-dimensional image data group consisting of the distance image data group is captured. These three-dimensional image data groups are photographed by the ToF camera C and are stored in the three-dimensional distance image data storage unit 1b.

次にステップS2では、目・口などの顔特徴点の深度がほぼ一定(所定の閾値以内)となる3次元画像データを、基準顔向き角度(ピッチ角0度、ヨー角0度)の画像と定義する。 Next, in step S2, the three-dimensional image data in which the depths of facial feature points such as eyes and mouth are almost constant (within a predetermined threshold) are converted into an image having a reference face orientation angle (pitch angle 0 degrees, yaw angle 0 degrees). Is defined as.

図8は、顔向き角度の算出に使用される顔特徴点の例を示しており、特徴点e1は、右目の目尻点を示しており、特徴点e2は、右目の目頭点を示しており、特徴点e3は、左目の目頭点を示しており、特徴点e4は、右目の目尻点を示している。また、特徴点e1と特徴点e2の中点、特徴点e3と特徴点e4の中点を各々特徴点としてもよい。 FIG. 8 shows an example of facial feature points used for calculating the face orientation angle, the feature point e1 shows the outer corner point of the right eye, and the feature point e2 shows the inner corner point of the right eye. The feature point e3 indicates the inner corner point of the left eye, and the feature point e4 indicates the outer corner point of the right eye. Further, the midpoint of the feature point e1 and the feature point e2 and the midpoint of the feature point e3 and the feature point e4 may be set as the feature points, respectively.

また、特徴点m1は、口元の右口角点を示しており、特徴点m2は、口元の左口角点を示している。また、特徴点m1と特徴点m2の中点を特徴点としてもよい。 Further, the feature point m1 indicates the right corner point of the mouth, and the feature point m2 indicates the left corner point of the mouth. Further, the midpoint between the feature point m1 and the feature point m2 may be set as the feature point.

図9(a)(b)は、顔特徴点の並びを上から見た場合を示しており、特徴点e1〜e4および特徴点m1、m2が平面的に並んでいる状態を示している。この平面に対する法線ベクトルnを算出することにより、顔向きを求めることができる。 9 (a) and 9 (b) show the case where the facial feature points are arranged from above, and the feature points e1 to e4 and the feature points m1 and m2 are arranged in a plane. The face orientation can be obtained by calculating the normal vector n with respect to this plane.

図9(a)の状態を正面向き(ピッチ角0度、ヨー角0度)と定義すると、図9(b)の状態では、法線ベクトルnが、右向き10度などと読み取ることができ、顔向き角を求めることができることとなる。 If the state of FIG. 9 (a) is defined as the front direction (pitch angle 0 degrees, yaw angle 0 degrees), the normal vector n can be read as 10 degrees to the right in the state of FIG. 9 (b). It is possible to obtain the face orientation angle.

図10(a)(b)は、図9(a)(b)の状態よりも、横向き角度が深くなった場合を示しており、特徴点e1などが検出困難状況となっており、従って、特徴点e1などに代えて、特徴点e5(耳)などが採用され、顔向き角が引き続き正確に求められることとなる状態を示している。 10 (a) and 10 (b) show a case where the lateral angle is deeper than the state of FIGS. 9 (a) and 9 (b), and the feature point e1 and the like are in a difficult-to-detect state. The feature point e5 (ears) or the like is adopted instead of the feature point e1 or the like, indicating a state in which the face orientation angle can be continuously and accurately obtained.

図11(a)(b)は、顔の横向き角度が浅く、顔向き角度の算出に両目と口の特徴点を使用した場合の一例を示す距離画像であり、図12(a)(b)は、顔の横向き角度がより深くなり、顔向き角度の算出に、目と口と耳の特徴点を使用した場合の一例を示す距離画像である。 11 (a) and 11 (b) are distance images showing an example in which the lateral angle of the face is shallow and the feature points of both eyes and the mouth are used to calculate the facial angle, and FIGS. 12 (a) and 12 (b) are shown. Is a distance image showing an example in which the lateral angle of the face becomes deeper and the feature points of the eyes, mouth, and ears are used to calculate the facial angle.

基準顔向き角度の画像を定義したステップS2に続き、ステップS3では、図5に示した画像系列KのKを0に設定し、ステップS4では、画像系列Kの1つの画像JのJを0に設定し、ステップS5では、画像系列Kの1つの画像IのIを1に設定する。 Following step S2 in which the image of the reference face orientation angle is defined, in step S3, K of the image series K shown in FIG. 5 is set to 0, and in step S4, J of one image J of the image series K is set to 0. In step S5, I of one image I of the image series K is set to 1.

次に、ステップS6では、画像系列Kにおける画像Iと画像Jにおける共通顔特徴点の選択が取り込まれる。この共通顔特徴点の選択は、人手によりなされても差し支えない。 Next, in step S6, the selection of the common facial feature points in the image I and the image J in the image series K is incorporated. The selection of the common facial feature points may be made manually.

次に、ステップS7では、画像Iと画像Jにおける顔特徴点のマッチングが行われる。
このマッチングは、例えば、テンプレートマッチングなどの手法を用いて行われる。
Next, in step S7, matching of facial feature points in image I and image J is performed.
This matching is performed using, for example, a technique such as template matching.

次に、ステップS8では、画像Iの顔特徴点からなる顔向き平面の法線ベクトルを最小2乗法を用いて算出する。
ステップS8の詳細は、図8〜図12を用いて上記した通りである。
Next, in step S8, the normal vector of the face-facing plane consisting of the face feature points of the image I is calculated using the least squares method.
The details of step S8 are as described above with reference to FIGS. 8 to 12.

次に、ステップS9では、画像Jの顔特徴点からなる顔向き平面の法線ベクトルをステップS8と同様に最小2乗法で算出する。 Next, in step S9, the normal vector of the face-facing plane consisting of the face feature points of the image J is calculated by the least squares method as in step S8.

ステップS10では、画像Iの画像Jに対する顔向きの相対角度(顔向き平面の相対法線ベクトルがなす角度)が、図9及び図10を用いて説明したように算出される。 In step S10, the relative angle of the face to the image J of the image I (the angle formed by the relative normal vector of the face plane) is calculated as described with reference to FIGS. 9 and 10.

次に、ステップS11では、J=Iに設定され、換言すれば、画像Jが1画面進められる。 Next, in step S11, J = I is set, in other words, the image J is advanced by one screen.

ステップS12では、画像Iが1画面進められる。 In step S12, the image I is advanced by one screen.

次に、ステップS13では、画像Iが画像系列Kの画像数numIより小さいか否か、換言すれば、画像Iが画像系列Kの画像数に達したか否かが判断され、小さいと判断されると、ステップS6に戻り、小さくないと判断されると、ステップS14に進む。ステップS14では、画像系列KのKが1つプラスされる。 Next, in step S13, it is determined whether or not the image I is smaller than the number of images numI of the image sequence K, in other words, whether or not the image I has reached the number of images of the image sequence K, and it is determined that the image I is small. Then, the process returns to step S6, and if it is determined that the image is not small, the process proceeds to step S14. In step S14, one K of the image sequence K is added.

次に、ステップS15では、画像系列Kが画像系列数numKより小さいか否か、換言すれば、画像系列Kが系列数に達したか否かが判断され、達していないと判断されれば、ステップS4に戻る。他方、小さくない、すなわち画像系列Kが系列数に達したと判断されれば、このフローは終了となる。 Next, in step S15, it is determined whether or not the image sequence K is smaller than the number of image sequences numK, in other words, whether or not the image sequence K has reached the number of sequences, and if it is determined that the number has not been reached, Return to step S4. On the other hand, if it is determined that the image sequence K has reached the number of sequences, that is, the flow is terminated.

図8は、上記顔向き角度の算出に使用される顔特徴点の例を示しており、顔を正面から見た模式図である。
特徴点e1〜e4は、目元部分の特徴点を示しており、特徴点m1、m2は、口元部分の特徴点を示している。
FIG. 8 shows an example of facial feature points used for calculating the face orientation angle, and is a schematic view of the face viewed from the front.
The feature points e1 to e4 indicate the feature points of the eye portion, and the feature points m1 and m2 indicate the feature points of the mouth portion.

図9(a)(b)は、顔特徴点の並びを上から見た場合を示す模式的平面図であり、特徴点e1〜e4および特徴点m1、m2が並んでいる状態を示しており、図10(a)(b)は、目、耳、口の他の顔特徴点を含む特徴点e3、e4、e5、m2の並びを上から見た場合を示す模式的平面図である。 9 (a) and 9 (b) are schematic plan views showing the arrangement of facial feature points when viewed from above, and show a state in which feature points e1 to e4 and feature points m1 and m2 are arranged. 10 (a) and 10 (b) are schematic plan views showing an arrangement of feature points e3, e4, e5, and m2 including other facial feature points of eyes, ears, and mouth when viewed from above.

図11(a)(b)は、顔向き角算出に両目と口の特徴点を使用した場合の例を示す距離画像であり、図12(a)(b)は、顔向きがより横向きで、顔向き角算出に、目と口と耳の特徴点を使用した場合の例を示す距離画像である。 11 (a) and 11 (b) are distance images showing an example when the feature points of both eyes and the mouth are used for calculating the face orientation angle, and FIGS. 12 (a) and 12 (b) show the face orientation is more lateral. , This is a distance image showing an example when the feature points of the eyes, mouth, and ears are used for calculating the face orientation angle.

図13は、個人データ取得システムにおける個人データを用いて精度を向上させる学習・調整工程を示すフローチャートである。 FIG. 13 is a flowchart showing a learning / adjusting process for improving accuracy by using personal data in a personal data acquisition system.

まず、ステップS21では、顔センシングパラメータの学習・設定のための2次元画像データ群の取り込み処理が行われる。 First, in step S21, a two-dimensional image data group acquisition process for learning and setting face sensing parameters is performed.

次に、ステップS22では、顔センシングパラメータの学習・設定が行われる。この学習・設定には、例えば、ディーラで取得した2次元画像データ群(動画データを複数枚の静止画としたデータ群)が用いられる。 Next, in step S22, the face sensing parameters are learned and set. For this learning / setting, for example, a two-dimensional image data group (a data group in which moving image data is a plurality of still images) acquired by a dealer is used.

次に、ステップS23では、ステップS22において学習・設定された顔センシングパラメータの取り込み処理が行われる。 Next, in step S23, the face sensing parameter acquisition process learned and set in step S22 is performed.

ステップS24では、顔検出、顔向き推定などの顔センシング処理の試行が実施される。 In step S24, trials of face sensing processing such as face detection and face orientation estimation are performed.

次に、ステップS25では、顔検出の結果、顔向き角度の推定の結果などの2次元画像データ群に対する顔センシング結果群の取り込み処理が行われる。 Next, in step S25, the face sensing result group is captured for the two-dimensional image data group such as the face detection result and the face orientation angle estimation result.

次に、ステップS26では、顔検出矩形、顔向き角度などの2次元画像データ群に対応する真値群の取り込み処理が行われる。 Next, in step S26, a process of capturing a true value group corresponding to a two-dimensional image data group such as a face detection rectangle and a face orientation angle is performed.

ステップS27では、ステップS25における、顔検出の結果、顔向き角度の推定の結果などの2次元画像データ群に対する顔センシング結果群、及びステップS26における、顔検出矩形、顔向き角度などの2次元画像データ群に対応する真値群を元に、顔センシングパラメータの検証が実施される。 In step S27, the face sensing result group for the two-dimensional image data group such as the face detection result and the face orientation angle estimation result in step S25, and the two-dimensional image such as the face detection rectangle and the face orientation angle in step S26. Face sensing parameters are verified based on the true value group corresponding to the data group.

ステップS28では、顔検出矩形結果と真値との差の絶対値が所定の閾値より小さいかが比較され、また、顔向き角度結果と真値との差の絶対値が所定の閾値より小さいかなどが比較され、小さいと判断されれば、処理は終了する。他方、小さくないと判断されれば、ステップS21に戻り、顔センシングパラメータの調整・再学習が実施されることとなる。 In step S28, it is compared whether the absolute value of the difference between the face detection rectangle result and the true value is smaller than the predetermined threshold value, and whether the absolute value of the difference between the face orientation angle result and the true value is smaller than the predetermined threshold value. Etc. are compared, and if it is judged to be small, the process ends. On the other hand, if it is determined that the size is not small, the process returns to step S21, and adjustment / relearning of the face sensing parameters is performed.

以下、本発明に係る個人データ取得システムが実際に適用される画像処理装置、モニタリング装置、制御システムを図面に基づいて説明する。 Hereinafter, an image processing device, a monitoring device, and a control system to which the personal data acquisition system according to the present invention is actually applied will be described with reference to the drawings.

適用される画像処理装置は、例えば、カメラを用いて人などの対象物をモニタリングする装置やシステムに広く適用可能である。例えば、車両などの各種移動体のドライバ(操縦者)をモニタリングする装置やシステムの他、工場内の機械や装置などの各種設備を操作したり、監視したり、所定の作業をしたりする人などをモニタリングする装置やシステムなどにも適用可能である。 The applied image processing device can be widely applied to, for example, a device or system for monitoring an object such as a person using a camera. For example, a person who operates, monitors, or performs predetermined work on various equipment such as machines and devices in a factory, in addition to devices and systems that monitor drivers (operators) of various moving objects such as vehicles. It can also be applied to devices and systems that monitor such things.

[適用例]
図14は、実施の形態に係るドライバモニタリング装置を含む車載システムの一例を示す模式図である。本適用例では、画像処理装置をドライバモニタリング装置30に適用した例について説明する。
[Application example]
FIG. 14 is a schematic view showing an example of an in-vehicle system including the driver monitoring device according to the embodiment. In this application example, an example in which the image processing apparatus is applied to the driver monitoring apparatus 30 will be described.

車載システムAは、車両ECのドライバDPの状態(例えば、顔の挙動など)をモニタリングするドライバモニタリング装置30、車両ECの走行、操舵、又は制動などの制御を行う1以上のECU(Electronic Control Unit)40、及び車両各部の状態、又は車両周囲の状態などを検出する1以上のセンサ41を含んで構成され、これらが通信バス43を介して接続されている。車載システムAは、例えば、CAN(Controller Area Network)プロトコルに従って通信する車載ネットワークシステムとして構成されている。なお、車載システムAの通信規格には、CAN以外の他の通信規格が採用されてもよい。ドライバモニタリング装置30が、「モニタリング装置」の一例であり、車載システムAが、「制御システム」の一例である。 The in-vehicle system A includes a driver monitoring device 30 that monitors the state of the driver DP of the vehicle EC (for example, facial behavior), and one or more ECUs (Electronic Control Units) that control the running, steering, or braking of the vehicle EC. ) 40, and one or more sensors 41 that detect the state of each part of the vehicle, the state around the vehicle, and the like are included, and these are connected via the communication bus 43. The in-vehicle system A is configured as, for example, an in-vehicle network system that communicates according to a CAN (Controller Area Network) protocol. As the communication standard of the in-vehicle system A, a communication standard other than CAN may be adopted. The driver monitoring device 30 is an example of the "monitoring device", and the in-vehicle system A is an example of the "control system".

ドライバモニタリング装置30は、ドライバDPの顔を撮像するためのカメラ31と、カメラ31から入力される画像を処理する画像処理部32と、画像処理部32による画像処理に基づく情報を、通信バス43を介して所定のECU40に出力する処理などを行う通信部36とを含んで構成されている。画像処理部32が、本発明の「画像処理装置」の一例である。カメラ31が、本発明の「撮像部」の一例である。 The driver monitoring device 30 transmits information based on image processing by the camera 31 for capturing the face of the driver DP, the image processing unit 32 that processes the image input from the camera 31, and the image processing unit 32, and the communication bus 43. It is configured to include a communication unit 36 that performs a process of outputting to a predetermined ECU 40 via the above. The image processing unit 32 is an example of the "image processing device" of the present invention. The camera 31 is an example of the "imaging unit" of the present invention.

ドライバモニタリング装置30は、カメラ31で撮像された画像からドライバDPの顔を検出し、検出されたドライバDPの顔の向き、視線の方向、又は目の開閉状態などの顔の挙動を検出する。ドライバモニタリング装置30は、これら顔の挙動の検出結果に基づいて、ドライバDPの状態、例えば、前方注視、脇見、居眠り、後ろ向き、突っ伏しなどの状態を判定してもよい。また、ドライバモニタリング装置30が、これらドライバDPの状態判定に基づく信号をECU40に出力し、ECU40が、前記信号に基づいてドライバDPへの注意や警告処理、又は車両ECの動作制御(例えば、減速制御、又は路肩への誘導制御など)などを実行するように構成してもよい。 The driver monitoring device 30 detects the face of the driver DP from the image captured by the camera 31, and detects the behavior of the face such as the direction of the face of the detected driver DP, the direction of the line of sight, or the open / closed state of the eyes. The driver monitoring device 30 may determine the state of the driver DP, for example, a state of forward gaze, inattentiveness, dozing, backward facing, prone, etc., based on the detection results of these facial behaviors. Further, the driver monitoring device 30 outputs a signal based on the state determination of the driver DP to the ECU 40, and the ECU 40 performs attention and warning processing to the driver DP or operation control of the vehicle EC (for example, deceleration) based on the signal. Control, guidance control to the road shoulder, etc.) may be executed.

ドライバモニタリング装置30では、特定個人に対する顔センシングの精度を向上させることを目的の一つとしている。 One of the purposes of the driver monitoring device 30 is to improve the accuracy of face sensing for a specific individual.

従来のドライバモニタリング装置では、車両ECのドライバDPが、例えば、ケガなどにより、目、鼻、口などの顔器官の一部が欠損、若しくは大きく変形していたり、顔に大きなホクロやイボ、若しくはタトゥーなどの身体装飾が施されていたり、又は遺伝性の疾患などの病気により、前記顔器官の配置が平均的な位置からずれていたりした場合、カメラで撮像された画像から顔を検出する精度や顔向きを推定する精度などが低下してしまうという課題があった。 In the conventional driver monitoring device, the driver DP of the vehicle EC has a part of the facial organs such as eyes, nose, and mouth missing or greatly deformed due to, for example, an injury, or a large hokuro or squid on the face, or Accuracy of detecting the face from the image captured by the camera when the facial organs are displaced from the average position due to body decoration such as tattoo or a disease such as a hereditary disease. There is a problem that the accuracy of estimating the face orientation is lowered.

また、顔検出や顔向き推定などの顔センシング処理が適切に行われないと、ドライバDPの脇見や居眠りなどの状態判定も適切に行うことができなくなり、また、前記状態判定に基づいてECU40が実行すべき各種の制御も適切に行うことができなくなる虞があるという課題があった。 Further, if face sensing processing such as face detection and face orientation estimation is not properly performed, state determination such as inattentiveness or dozing of the driver DP cannot be appropriately performed, and the ECU 40 is based on the state determination. There is a problem that various controls to be executed may not be properly performed.

係る課題を解決すべく、実施の形態に係るドライバモニタリング装置30では、特定個人、換言すれば、年齢差、及び性別などの違い(個人差)にかかわらずに共通する一般的な人(普通の人)の顔特徴とは異なる特徴を有している特定の個人に対する顔センシング処理の精度を向上させるために、以下の構成を採用した。 In order to solve the problem, the driver monitoring device 30 according to the embodiment is a general person (ordinary person) who is common regardless of a specific individual, in other words, an age difference, and a difference such as gender (individual difference). In order to improve the accuracy of face sensing processing for a specific individual who has features different from those of a person), the following configuration was adopted.

画像処理部32には、画像から顔センシング処理(顔検出や顔向き推定など)をするための学習を行った学習済みの顔特徴量として、特定個人の顔特徴量と、通常の顔特徴量(換言すれば、特定個人以外の人である場合に用いる顔特徴量)とが記憶されている。 The image processing unit 32 has learned facial features such as face sensing processing (face detection, face orientation estimation, etc.) from the image as learned facial features, such as a specific individual's face feature and a normal face feature. (In other words, the amount of facial features used when the person is a person other than a specific individual) is stored.

画像処理部32が、カメラ31の入力画像から顔を検出するための特徴量を抽出しながら顔領域を検出する顔検出処理を行う。そして、画像処理部32が、検出された前記顔領域の特徴量と、前記特定個人の顔特徴量とを用いて、前記顔領域の顔が前記特定個人の顔であるか否かを判定する特定個人判定処理を行う。 The image processing unit 32 performs face detection processing for detecting a face region while extracting a feature amount for detecting a face from the input image of the camera 31. Then, the image processing unit 32 determines whether or not the face in the face region is the face of the specific individual by using the detected feature amount of the face region and the face feature amount of the specific individual. Performs specific individual judgment processing.

前記特定個人判定処理では、前記顔領域から抽出された特徴量と前記特定個人の顔特徴量との関係を示す指標、例えば、相関係数を算出し、算出した前記相関係数に基づいて、前記顔領域の顔が前記特定個人の顔であるか否かを判定してもよい。
例えば、前記相関係数が所定の閾値より大きい場合、前記顔領域の顔が前記特定個人の顔であると判定し、前記相関係数が前記所定の閾値以下の場合、前記顔領域の顔が前記特定個人の顔ではないと判定してもよい。なお、前記特定個人判定処理では、前記相関係数以外の指標を用いてもよい。
In the specific individual determination process, an index showing the relationship between the feature amount extracted from the face region and the face feature amount of the specific individual, for example, a correlation coefficient is calculated, and based on the calculated correlation coefficient, It may be determined whether or not the face in the face region is the face of the specific individual.
For example, when the correlation coefficient is larger than a predetermined threshold value, it is determined that the face in the face region is the face of the specific individual, and when the correlation coefficient is equal to or less than the predetermined threshold value, the face in the face region is It may be determined that it is not the face of the specific individual. In the specific individual determination process, an index other than the correlation coefficient may be used.

また、前記特定個人判定処理では、カメラ31からの入力画像の1フレームに対する判定の結果に基づいて、前記顔領域の顔が前記特定個人の顔であるか否かを判定してもよいし、カメラ31からの入力画像の複数フレームに対する判定の結果に基づいて、前記顔領域の顔が前記特定個人の顔であるか否かを判定してもよい。 Further, in the specific individual determination process, it may be determined whether or not the face in the face region is the face of the specific individual based on the result of determination for one frame of the input image from the camera 31. Based on the result of determination for a plurality of frames of the input image from the camera 31, it may be determined whether or not the face in the face region is the face of the specific individual.

このように、ドライバモニタリング装置30では、画像処理部32に、学習済みの特定個人の顔特徴量を予め記憶しておき、特定個人の顔特徴量を用いることにより、前記特定個人の顔であるか否かを精度良く判定することが可能となる。 As described above, in the driver monitoring device 30, the learned facial feature amount of the specific individual is stored in advance in the image processing unit 32, and the face feature amount of the specific individual is used to obtain the face of the specific individual. It is possible to accurately determine whether or not it is.

また、前記特定個人判定処理により前記特定個人の顔であると判定された場合、画像処理部32は、前記特定個人の顔特徴量を用いて、特定個人用の顔画像処理を実行するので、前記特定個人の顔画像処理を精度良く実施することが可能となる。
一方、前記特定個人の顔ではない、換言すれば、通常の顔(換言すれば、特定個人以外の顔)であると判定された場合、画像処理部32は、前記通常の顔特徴量を用いて、通常の顔画像処理を実行するので、前記通常の顔画像処理を精度良く実施することができる。したがって、ドライバDPが、特定個人であっても、特定個人以外の通常の人であっても、それぞれの顔のセンシングを精度良く実施することができる。
Further, when the face of the specific individual is determined by the specific individual determination process, the image processing unit 32 executes the face image process for the specific individual by using the face feature amount of the specific individual. It is possible to accurately perform the face image processing of the specific individual.
On the other hand, when it is determined that the face is not the face of the specific individual, in other words, a normal face (in other words, a face other than the specific individual), the image processing unit 32 uses the normal face feature amount. Since the normal face image processing is executed, the normal face image processing can be performed with high accuracy. Therefore, regardless of whether the driver DP is a specific individual or an ordinary person other than the specific individual, it is possible to accurately perform sensing of each face.

[ハードウェア構成例]
図15は、実施の形態に係るドライバモニタリング装置30を含む車載システムAのハードウェア構成の一例を示すブロック図である。
[Hardware configuration example]
FIG. 15 is a block diagram showing an example of the hardware configuration of the in-vehicle system A including the driver monitoring device 30 according to the embodiment.

車載システムAは、車両ECのドライバDPの状態をモニタリングするドライバモニタリング装置30、1以上のECU40、及び1以上のセンサ41を含んで構成され、これらが通信バス43を介して接続されている。また、ECU40には、1以上のアクチュエータ42が接続されている。 The in-vehicle system A includes a driver monitoring device 30, one or more ECUs 40, and one or more sensors 41 for monitoring the state of the driver DP of the vehicle EC, and these are connected via a communication bus 43. Further, one or more actuators 42 are connected to the ECU 40.

ドライバモニタリング装置30は、カメラ31と、カメラ31から入力される画像を処理する画像処理部32と、外部のECU40などとデータや信号のやり取りを行うための通信部36とを含んで構成されている。 The driver monitoring device 30 includes a camera 31, an image processing unit 32 that processes an image input from the camera 31, and a communication unit 36 for exchanging data and signals with an external ECU 40 and the like. There is.

カメラ31は、運転席に着座しているドライバDPの顔を含む画像を撮像する装置であり、例えば、レンズ部、撮像素子部、光照射部、インターフェース部、これら各部を制御するカメラ制御部などを含んで構成され得る。前記撮像素子部は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、マイクロレンズなどを含んで構成され得る。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できる素子でもよいし、近赤外領域の光を受けて撮像画像を形成できる素子でもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含んで構成され、昼夜を問わずドライバの顔を撮像できるように近赤外線LEDなどを含んでもよい。カメラ31は、所定のフレームレート(例えば、毎秒数十フレーム)で画像を撮像し、撮像された画像のデータが画像処理部32に入力される。カメラ31は、一体式の他、外付け式のものであってもよい。 The camera 31 is a device that captures an image including the face of the driver DP seated in the driver's seat. For example, a lens unit, an image sensor unit, a light irradiation unit, an interface unit, a camera control unit that controls each of these units, and the like. Can be configured to include. The image sensor unit may include an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), a filter, a microlens, or the like. The image pickup device unit may be an element capable of forming an image pickup image by receiving light in a visible region, or an element capable of forming an image pickup image by receiving light in a near infrared region. The light irradiation unit is configured to include a light emitting element such as an LED (Light Emitting Diode), and may include a near infrared LED or the like so that the driver's face can be imaged day or night. The camera 31 captures an image at a predetermined frame rate (for example, several tens of frames per second), and the data of the captured image is input to the image processing unit 32. The camera 31 may be an external type as well as an integrated type.

画像処理部32は、1以上のCPU(Central Processing Unit)33、ROM(Read Only Memory)34、及びRAM(Random Access Memory)35を含む画像処理装置として構成されている。ROM34は、プログラム記憶部341と顔特徴量記憶部342とを含み、RAM35は、カメラ31からの入力画像を記憶する画像メモリ351を含んで構成されている。なお、ドライバモニタリング装置30に、別の記憶部を設け、その記憶部をプログラム記憶部341、顔特徴量記憶部342、及び画像メモリ351として用いてもよい。前記別の記憶部は、半導体メモリでもよいし、ディスクドライブなどで読み込み可能な記憶媒体でもよい。 The image processing unit 32 is configured as an image processing device including one or more CPUs (Central Processing Units) 33, a ROM (Read Only Memory) 34, and a RAM (Random Access Memory) 35. The ROM 34 includes a program storage unit 341 and a facial feature amount storage unit 342, and the RAM 35 includes an image memory 351 that stores an input image from the camera 31. The driver monitoring device 30 may be provided with another storage unit, and the storage unit may be used as the program storage unit 341, the facial feature amount storage unit 342, and the image memory 351. The other storage unit may be a semiconductor memory or a storage medium that can be read by a disk drive or the like.

CPU33は、ハードウェアプロセッサの一例であり、ROM34のプログラム記憶部341に記憶されているプログラム、顔特徴量記憶部342に記憶されている顔特徴量などのデータを読み込み、解釈し実行することで、カメラ31から入力された画像の処理、例えば、顔検出処理などの顔画像処理を行う。また、CPU33は、該顔画像処理により得られた結果(例えば、処理データ、判定信号、又は制御信号など)を、通信部36を介してECU40などに出力する処理などを行う。 The CPU 33 is an example of a hardware processor, and by reading, interpreting, and executing data such as a program stored in the program storage unit 341 of the ROM 34 and the face feature amount stored in the face feature amount storage unit 342. , Processing of the image input from the camera 31, for example, face image processing such as face detection processing is performed. Further, the CPU 33 performs a process of outputting the result (for example, processing data, determination signal, control signal, etc.) obtained by the face image processing to the ECU 40 or the like via the communication unit 36.

顔特徴量記憶部342には、画像から顔センシング処理(顔検出や顔向き推定など)をするための学習を行った学習済みの顔特徴量として、図16に示す特定個人の顔特徴量342aと、通常の顔特徴量342bとが記憶されている。
学習済みの顔特徴量には、各種の特徴量を用いることができる。例えば、顔の局所的な領域の明暗差(さまざまな大きさの2つの矩形領域の平均輝度の差)に着目した特徴量(Haar-like特徴量)を用いてもよい。又は、顔の局所的な領域の輝度の分布の組み合わせに着目した特徴量(LBP (Local Binary Pattern) 特徴量)を用いてもよいし、顔の局所的な領域の輝度の勾配方向の分布の組み合わせに着目した特徴量(HOG (Histogram of Oriented Gradients) 特徴量)などを用いてもよい。
The face feature amount storage unit 342 contains the face feature amount 342a of a specific individual shown in FIG. 16 as a learned face feature amount that has been learned to perform face sensing processing (face detection, face orientation estimation, etc.) from the image. And the normal facial feature amount 342b are stored.
Various features can be used as the learned facial features. For example, a feature amount (Haar-like feature amount) focusing on the difference in brightness (difference in average brightness between two rectangular areas of various sizes) in a local area of the face may be used. Alternatively, a feature amount (LBP (Local Binary Pattern) feature amount) focusing on the combination of the brightness distributions in the local area of the face may be used, or the distribution of the brightness in the local area of the face in the gradient direction may be used. A feature quantity focusing on a combination (HOG (Histogram of Oriented Gradients) feature quantity) or the like may be used.

顔検出に有効な特徴量を抽出する方法として、各種の機械学習による手法を用いることができる。機械学習とは、データ(学習データ)に内在するパターンをコンピュータにより見つけ出す処理である。例えば、統計的な学習手法の一例としてAdaBoostを用いてもよい。AdaBoostは、判別能力の低い判別器(弱判別器)を多数選び出し、これら多数の弱判別器の中からエラー率が小さい弱判別器を選択し、重みなどのパラメータを調整し、階層的な構造にすることで、強判別器を構築することのできる学習アルゴリズムである。判別器は、識別器、分類器、又は学習器と称されてもよい。 Various machine learning methods can be used as a method for extracting features effective for face detection. Machine learning is a process of finding a pattern inherent in data (learning data) by a computer. For example, AdaBoost may be used as an example of a statistical learning method. AdaBoost selects a large number of discriminators (weak discriminators) with low discriminating ability, selects a weak discriminator with a small error rate from these many weak discriminators, adjusts parameters such as weights, and has a hierarchical structure. It is a learning algorithm that can construct a strong discriminator by setting. The discriminator may be referred to as a discriminator, a classifier, or a learner.

例えば、顔の検出に有効な1つの特徴量を1つの弱判別器によって判別する構成とし、AdaBoostにより多数の弱判別器とその組み合わせを選び出し、これらを用いて、階層的な構造を有する強判別器を構築してもよい。なお、1つの弱判別器は、例えば、顔の場合は1、非顔の場合は0という情報を出力してもよい。また、学習手法には、顔らしさを0または1ではなく、0から1の実数で出力可能なReal AdaBoostという学習手法を用いてもよい。また、これら学習手法には、入力層、中間層、及び出力層を有するニューラルネットワークを用いてもよい。 For example, one feature amount effective for face detection is discriminated by one weak discriminator, a large number of weak discriminators and their combinations are selected by AdaBoost, and these are used for strong discrimination having a hierarchical structure. You may build a vessel. Note that one weak discriminator may output information such as 1 for a face and 0 for a non-face. Further, as the learning method, a learning method called Real AdaBoost, which can output a real number from 0 to 1 instead of 0 or 1, may be used. Further, as these learning methods, a neural network having an input layer, an intermediate layer, and an output layer may be used.

このような学習アルゴリズムが搭載された学習装置に、さまざまな条件で撮像された多数の顔画像と多数の顔以外の画像(非顔画像)とを学習データとして与え、学習を繰り返し、重みなどのパラメータを調整して最適化を図ることにより、顔を高精度に検出可能な階層構造を有する強判別器を構築することが可能となる。そして、強判別器を構成する各階層の弱判別器で用いられる1以上の特徴量を、学習済みの顔特徴量として用いることができる。 A large number of face images captured under various conditions and a large number of non-face images (non-face images) are given as training data to a learning device equipped with such a learning algorithm, learning is repeated, weighting, etc. By adjusting the parameters and optimizing it, it is possible to construct a strong discriminator having a hierarchical structure capable of detecting a face with high accuracy. Then, one or more feature amounts used in the weak discriminators of each layer constituting the strong discriminator can be used as the learned facial feature amounts.

特定個人の顔特徴量342aは、例えば、予め所定の場所で、特定個人の顔画像をさまざまな条件(さまざまな顔の向き、視線の方向、又は目の開閉状態などの条件)で個別に撮像し、これら多数の撮像画像を教師データとして、上記学習装置に入力し、学習処理によって調整された、特定個人の顔の特徴を示すパラメータである。特定個人の顔特徴量342aは、例えば、学習処理によって得られた、顔の局所的な領域の明暗差の組み合わせパターンなどでもよい。顔特徴量記憶部342に記憶される特定個人の顔特徴量342aは、1人の特定個人の顔特徴量だけでもよいし、複数の特定個人が車両ECを運転する場合には、複数人の特定個人の顔特徴量が記憶されてもよい。 The face feature amount 342a of a specific individual is, for example, individually imaged at a predetermined place in advance under various conditions (conditions such as various face orientations, line-of-sight directions, or eye open / closed states). Then, these a large number of captured images are input to the learning device as teacher data, and are parameters that indicate the facial features of a specific individual adjusted by the learning process. The facial feature amount 342a of the specific individual may be, for example, a combination pattern of the difference in brightness of the local region of the face obtained by the learning process. The facial feature amount 342a of a specific individual stored in the facial feature amount storage unit 342 may be only the facial feature amount of one specific individual, or when a plurality of specific individuals drive a vehicle EC, a plurality of specific individuals may drive the vehicle EC. The facial features of a specific individual may be stored.

通常の顔特徴量342bは、通常の人の顔画像をさまざまな条件(さまざまな顔の向き、視線の方向、又は目の開閉状態などの条件)で撮像した画像を教師データとして、上記学習装置に入力し、学習処理によって調整された、通常の人の顔の特徴を示すパラメータである。通常の顔特徴量342bは、例えば、学習処理によって得られた、顔の局所的な領域の明暗差の組み合わせパターンなどでもよい。 The normal facial feature amount 342b is the learning apparatus described above using images of a normal human face image captured under various conditions (conditions such as various face orientations, line-of-sight directions, or eye open / closed states) as teacher data. It is a parameter indicating the characteristics of a normal human face, which is input to and adjusted by the learning process. The normal facial feature amount 342b may be, for example, a combination pattern of light and dark differences in a local region of the face obtained by a learning process.

顔特徴量記憶部342に記憶される学習済みの顔特徴量は、例えば、クラウド上のサーバなどからインターネット、携帯電話網などの通信ネットワークを介して取り込んで、顔特徴量記憶部342に記憶される構成としてもよい。 The learned facial feature amount stored in the facial feature amount storage unit 342 is fetched from a server on the cloud or the like via a communication network such as the Internet or a mobile phone network and stored in the facial feature amount storage unit 342. It may be configured as such.

ECU40は、1以上のプロセッサ、メモリ、及び通信モジュールなどを含むコンピュータ装置で構成されている。そして、ECU40に搭載されたプロセッサが、メモリに記憶されたプログラムを読み込み、解釈し実行することで、アクチュエータ42などに対する所定の制御が実行されるようになっている。 The ECU 40 is composed of a computer device including one or more processors, a memory, a communication module, and the like. Then, the processor mounted on the ECU 40 reads, interprets, and executes the program stored in the memory, so that predetermined control for the actuator 42 and the like is executed.

ECU40は、例えば、走行系ECU、運転支援系ECU、ボディ系ECU、及び情報系ECUのうちの少なくともいずれかを含んで構成されている。 The ECU 40 includes, for example, at least one of a traveling system ECU, a driving support system ECU, a body system ECU, and an information system ECU.

前記走行系ECUには、例えば、駆動系ECU、シャーシ系ECUなどが含まれている。前記駆動系ECUには、例えば、エンジン制御、モータ制御、燃料電池制御、EV(Electric Vehicle)制御、又はトランスミッション制御等の「走る」機能に関する制御ユニットが含まれている。前記シャーシ系ECUには、例えば、ブレーキ制御、又はステアリング制御等の「止まる、曲がる」機能に関する制御ユニットが含まれている。 The traveling system ECU includes, for example, a drive system ECU, a chassis system ECU, and the like. The drive system ECU includes a control unit related to a "running" function such as engine control, motor control, fuel cell control, EV (Electric Vehicle) control, or transmission control. The chassis-based ECU includes a control unit related to a "stop, turn" function such as brake control or steering control.

前記運転支援系ECUは、例えば、自動ブレーキ支援機能、車線維持支援機能(LKA/Lane Keep Assistともいう)、定速走行・車間距離支援機能(ACC/Adaptive Cruise Controlともいう)、前方衝突警告機能、車線逸脱警報機能、死角モニタリング機能、交通標識認識機能等、走行系ECUなどとの連携により自動的に安全性の向上、又は快適な運転を実現する機能(運転支援機能、又は自動運転機能)に関する制御ユニットを少なくとも1つ以上含んで構成され得る。 The driving support system ECU has, for example, an automatic braking support function, a lane keeping support function (also referred to as LKA / Lane Keep Assist), a constant speed driving / inter-vehicle distance support function (also referred to as ACC / Adaptive Cruise Control), and a forward collision warning function. , Lane departure warning function, blind spot monitoring function, traffic sign recognition function, etc., functions that automatically improve safety or realize comfortable driving by linking with driving ECUs (driving support function or automatic driving function) It may be configured to include at least one control unit for.

前記運転支援系ECUには、例えば、米国自動車技術会(SAE)が提示している自動運転レベルにおけるレベル1(ドライバ支援)、レベル2(部分的自動運転)、及びレベル3(条件付自動運転)の少なくともいずれかの機能が装備されてもよい。さらに、自動運転レベルのレベル4(高度自動運転)、又はレベル5(完全自動運転)の機能が装備されてもよいし、レベル1、2のみ、又はレベル2、3のみの機能が装備されてもよい。また、車載システムAを自動運転システムとして構成してもよい。 The driving support system ECU includes, for example, Level 1 (driver assistance), Level 2 (partially automatic driving), and Level 3 (conditional automatic driving) at the automatic driving level presented by the American Society of Automotive Engineers of Japan (SAE). ) May be equipped with at least one of the functions. Further, the functions of level 4 (highly automatic driving) or level 5 (fully automatic driving) of the automatic driving level may be equipped, and only the functions of level 1 and 2 or only level 2 and 3 are equipped. May be good. Further, the in-vehicle system A may be configured as an automatic driving system.

前記ボディ系ECUは、例えば、ドアロック、スマートキー、パワーウインドウ、エアコン、ライト、メーターパネル、又はウインカ等の車体の機能に関する制御ユニットを少なくとも1つ以上含んで構成され得る。 The body system ECU may be configured to include at least one control unit related to the function of the vehicle body such as a door lock, a smart key, a power window, an air conditioner, a light, an instrument panel, or a winker.

前記情報系ECUは、例えば、インフォテイメント装置、テレマティクス装置、又はITS(Intelligent Transport Systems)関連装置を含んで構成され得る。前記インフォテイメント装置には、例えば、ユーザインターフェースとして機能するHMI(Human Machine Interface)装置の他、カーナビゲーション装置、オーディオ機器などが含まれてもよい。前記テレマティクス装置には、外部と通信するための通信ユニットなどが含まれてもよい。前記ITS関連装置には、ETC(Electronic Toll Collection System)、又はITSスポットなどの路側機との路車間通信、若しくは車々間通信などを行うための通信ユニットなどが含まれてもよい。 The information system ECU may be configured to include, for example, an infotainment device, a telematics device, or an ITS (Intelligent Transport Systems) related device. The infotainment device may include, for example, an HMI (Human Machine Interface) device that functions as a user interface, a car navigation device, an audio device, and the like. The telematics device may include a communication unit or the like for communicating with the outside. The ITS-related device may include an ETC (Electronic Toll Collection System), a communication unit for performing road-to-vehicle communication with a roadside unit such as an ITS spot, or vehicle-to-vehicle communication.

センサ41には、ECU40でアクチュエータ42の動作制御を行うために必要となるセンシングデータを取得する各種の車載センサが含まれ得る。例えば、車速センサ、シフトポジションセンサ、アクセル開度センサ、ブレーキペダルセンサ、ステアリングセンサなどの他、車外撮像用カメラ、ミリ波等のレーダー(Radar)、ライダー(LIDER)、超音波センサなどの周辺監視センサなどが含まれてもよい。 The sensor 41 may include various in-vehicle sensors that acquire sensing data necessary for controlling the operation of the actuator 42 by the ECU 40. For example, in addition to vehicle speed sensors, shift position sensors, accelerator opening sensors, brake pedal sensors, steering sensors, etc., peripheral monitoring of external imaging cameras, millimeter-wave radar (Radar), riders (LIDER), ultrasonic sensors, etc. A sensor or the like may be included.

アクチュエータ42は、ECU40からの制御信号に基づいて、車両ECの走行、操舵、又は制動などに関わる動作を実行する装置であり、例えば、エンジン、モータ、トランスミッション、油圧又は電動シリンダー等が含まれる。 The actuator 42 is a device that executes an operation related to traveling, steering, braking, etc. of the vehicle EC based on a control signal from the ECU 40, and includes, for example, an engine, a motor, a transmission, a hydraulic cylinder, an electric cylinder, and the like.

[機能構成例]
図16は、実施の形態に係るドライバモニタリング装置30の画像処理部32の機能構成例を示すブロック図である。
画像処理部32は、画像入力部21、顔検出部22、特定個人判定部25、第1顔画像処理部26、第2顔画像処理部26a、出力部PO、及び顔特徴量記憶部342を含んで構成されている。
[Functional configuration example]
FIG. 16 is a block diagram showing a functional configuration example of the image processing unit 32 of the driver monitoring device 30 according to the embodiment.
The image processing unit 32 includes an image input unit 21, a face detection unit 22, a specific individual determination unit 25, a first face image processing unit 26, a second face image processing unit 26a, an output unit PO, and a face feature amount storage unit 342. It is configured to include.

画像入力部21は、カメラ31で撮像されたドライバDPの顔を含む画像を取り込む処理を行う。 The image input unit 21 performs a process of capturing an image including the face of the driver DP captured by the camera 31.

顔検出部22は、特定個人の顔検出部23と、通常の顔検出部24とを含んで構成され、入力画像から顔を検出するための特徴量を抽出しながら顔領域を検出する処理を行う。
特定個人の顔検出部23は、顔特徴量記憶部342から読み込んだ特定個人の顔特徴量342aを用いて、入力画像から顔領域を検出する処理を行う。
通常の顔検出部24は、顔特徴量記憶部342から読み込んだ通常の顔特徴量342bを用いて、入力画像から顔領域を検出する処理を行う。
The face detection unit 22 is configured to include a face detection unit 23 of a specific individual and a normal face detection unit 24, and performs a process of detecting a face region while extracting a feature amount for detecting a face from an input image. Do.
The face detection unit 23 of the specific individual uses the face feature amount 342a of the specific individual read from the face feature amount storage unit 342 to perform a process of detecting the face region from the input image.
The normal face detection unit 24 uses the normal face feature amount 342b read from the face feature amount storage unit 342 to perform a process of detecting a face region from an input image.

画像から顔領域を検出する手法は特に限定されないが、高速で高精度に顔領域を検出する手法が採用される。顔検出部22は、例えば、入力画像に対して所定の探索領域(探索窓)を走査させながら、それぞれの探索領域で顔を検出するための特徴量を抽出する。顔検出部22は、例えば、顔の局所的な領域の明暗差(輝度差)、エッジ強度、又はこれら局所的領域間の関連性などを特徴量として抽出してよい。そして、顔検出部22は、探索領域から抽出した特徴量と、顔特徴量記憶部342から読み込んだ通常の顔特徴量342b、又は特定個人の顔特徴量342aを用いて、階層的な構造(顔をおおまかにとらえる階層から顔の細部をとらえる階層構造)の検出器で顔か非顔かを判断し、画像中から顔領域を検出する処理を行う。 The method of detecting the face area from the image is not particularly limited, but a method of detecting the face area at high speed and with high accuracy is adopted. The face detection unit 22 extracts features for detecting a face in each search area while scanning a predetermined search area (search window) on the input image, for example. The face detection unit 22 may extract, for example, the difference in brightness (brightness difference) of a local region of the face, the edge strength, or the relationship between these local regions as a feature amount. Then, the face detection unit 22 uses the feature amount extracted from the search area, the normal face feature amount 342b read from the face feature amount storage unit 342, or the face feature amount 342a of a specific individual, and has a hierarchical structure ( A detector (hierarchical structure that captures the details of the face from the hierarchy that roughly captures the face) determines whether the face is face or non-face, and performs processing to detect the face area from the image.

特定個人判定部25は、顔検出部22で検出された顔領域の特徴量と、顔特徴量記憶部342から読み込んだ特定個人の顔特徴量342aとを用いて、検出された顔領域の顔が特定個人の顔であるか否かを判定する処理を行う。 The specific individual determination unit 25 uses the feature amount of the face area detected by the face detection unit 22 and the face feature amount 342a of the specific individual read from the face feature amount storage unit 342 to detect the face in the face area. Performs a process of determining whether or not is the face of a specific individual.

特定個人判定部25は、顔領域から抽出された特徴量と特定個人の顔特徴量342aとの関係を示す指標、例えば、相関係数を算出し、算出した相関係数に基づいて、顔領域の顔が特定個人の顔であるか否かを判定してもよい。例えば、顔領域内における1以上の局所的な領域のHaar-like特徴などの特徴量の相関を求めてもよい。そして、相関係数が所定の閾値より大きい場合、検出した顔領域の顔が特定個人の顔であると判定し、相関係数が所定の閾値以下の場合、検出した顔領域の顔が特定個人の顔ではないと判定してもよい。 The specific individual determination unit 25 calculates an index showing the relationship between the feature amount extracted from the face area and the face feature amount 342a of the specific individual, for example, a correlation coefficient, and based on the calculated correlation coefficient, the face area. It may be determined whether or not the face of is the face of a specific individual. For example, the correlation of feature quantities such as Haar-like features of one or more local regions in the face region may be obtained. Then, when the correlation coefficient is larger than a predetermined threshold value, it is determined that the face in the detected face area is the face of a specific individual, and when the correlation coefficient is equal to or less than the predetermined threshold value, the face in the detected face area is a specific individual. It may be determined that it is not the face of.

また、特定個人判定部25では、カメラ31からの入力画像の1フレームに対する判定の結果に基づいて、検出した顔領域の顔が特定個人の顔であるか否かを判定してもよいし、カメラ31からの入力画像の複数フレームに対する判定の結果に基づいて、検出した顔領域の顔が特定個人の顔であるか否かを判定してもよい。 Further, the specific individual determination unit 25 may determine whether or not the face in the detected face region is the face of a specific individual based on the result of determination for one frame of the input image from the camera 31. Based on the result of determination for a plurality of frames of the input image from the camera 31, it may be determined whether or not the face in the detected face region is the face of a specific individual.

第1顔画像処理部26は、特定個人判定部25により特定個人の顔であると判定された場合、特定個人の顔特徴量342aを用いて、特定個人用の顔画像処理を行う。第1顔画像処理部26は、特定個人の顔向き推定部27と、特定個人の目開閉検出部28と、特定個人の視線方向推定部29とを含んで構成されているが、さらに別の顔挙動を推定したり、検出したりする構成を含んでもよい。 When the specific individual determination unit 25 determines that the face is a specific individual's face, the first face image processing unit 26 performs face image processing for the specific individual using the face feature amount 342a of the specific individual. The first face image processing unit 26 includes a face orientation estimation unit 27 of a specific individual, an eye opening / closing detection unit 28 of the specific individual, and a line-of-sight direction estimation unit 29 of the specific individual, but is still different. It may include a configuration for estimating or detecting facial behavior.

特定個人の顔向き推定部27は、特定個人の顔の向きを推定する処理を行う。特定個人の顔向き推定部27は、例えば、特定個人の顔特徴量342aを用いて、特定個人の顔検出部23で検出された顔領域から目、鼻、口、眉などの顔器官の位置や形状を検出し、検出した顔器官の位置や形状に基づいて、顔の向きを推定する処理を行う。 The face orientation estimation unit 27 of the specific individual performs a process of estimating the face orientation of the specific individual. The face orientation estimation unit 27 of the specific individual uses, for example, the face feature amount 342a of the specific individual to position the facial organs such as eyes, nose, mouth, and eyebrows from the face area detected by the face detection unit 23 of the specific individual. And shape are detected, and the orientation of the face is estimated based on the position and shape of the detected facial organs.

画像中の顔領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007−249280号公報に記載された技術を適用することができるが、これに限定されるものではない。 The method for detecting the facial organs from the facial region in the image is not particularly limited, but it is preferable to adopt a method capable of detecting the facial organs at high speed and with high accuracy. For example, a method of creating a three-dimensional face shape model, fitting it to a face region on a two-dimensional image, and detecting the position and shape of each organ of the face can be adopted. As a technique for fitting a three-dimensional face shape model to a human face in an image, for example, the technique described in Japanese Patent Application Laid-Open No. 2007-249280 can be applied, but the technique is not limited thereto.

また、特定個人の顔向き推定部27は、特定個人の顔の向きの推定データとして、例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角を出力してもよい。 Further, the face orientation estimation unit 27 of the specific individual can use the estimation data of the face orientation of the specific individual, for example, the pitch angle of vertical rotation (around the X axis) included in the parameters of the three-dimensional face shape model. The yaw angle for left-right rotation (around the Y-axis) and the roll angle for the entire rotation (around the Z-axis) may be output.

特定個人の目開閉検出部28は、特定個人の目の開閉状態を検出する処理を行う。特定個人の目開閉検出部28は、例えば、特定個人の顔向き推定部27で求めた顔器官の位置や形状、特に目の特徴点(瞼、瞳孔)の位置や形状に基づいて、目の開閉状態、例えば、目を開けているか、閉じているかを検出する。目の開閉状態は、例えば、さまざまな目の開閉状態における目の画像の特徴量(瞼の位置、瞳孔(黒目)の形状、又は、白目部分と黒目部分の領域サイズなど)を予め学習器を用いて学習し、これら学習済みの特徴量データとの類似度を評価することで検出してもよい。 The eye opening / closing detection unit 28 of the specific individual performs a process of detecting the opening / closing state of the eyes of the specific individual. The eye opening / closing detection unit 28 of the specific individual, for example, is based on the position and shape of the facial organs obtained by the face orientation estimation unit 27 of the specific individual, particularly the position and shape of the feature points (eyelids, pupils) of the eyes. Detects the open / closed state, for example, whether the eyes are open or closed. For the open / closed state of the eye, for example, the feature amount of the image of the eye (the position of the eyelid, the shape of the pupil (black eye), the area size of the white eye part and the black eye part, etc.) in various open / closed states of the eye is previously learned. It may be detected by learning using and evaluating the degree of similarity with these learned feature amount data.

特定個人の視線方向推定部29は、特定個人の視線の方向を推定する処理を行う。特定個人の視線方向推定部29は、例えば、ドライバDPの顔の向き、及びドライバDPの顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔)の位置や形状に基づいて、視線の方向を推定する。視線の方向とは、ドライバDPが見ている方向のことであり、例えば、顔の向きと目の向きとの組み合わせによって求められる。 The line-of-sight direction estimation unit 29 of the specific individual performs a process of estimating the line-of-sight direction of the specific individual. The line-of-sight direction estimation unit 29 of a specific individual is based on, for example, the orientation of the face of the driver DP and the position and shape of the facial organs of the driver DP, particularly the position and shape of the feature points of the eyes (outer corners of eyes, inner corners of eyes, pupils). Estimate the direction of the line of sight. The direction of the line of sight is the direction that the driver DP is looking at, and is determined by, for example, a combination of the direction of the face and the direction of the eyes.

また、視線の方向は、例えば、さまざまな顔の向きと目の向きとの組み合わせにおける目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は白目部分と黒目部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。また、特定個人の視線方向推定部29は、前記3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。 In addition, the direction of the line of sight is, for example, the feature amount of the image of the eye in various combinations of face orientation and eye orientation (relative position of outer corner, inner corner of eye, pupil, relative position of white eye portion and black eye portion, shading, etc. (Texture, etc.) may be detected by learning in advance using a learning device and evaluating the degree of similarity with the learned feature amount data. In addition, the line-of-sight direction estimation unit 29 of the specific individual estimates the size and center position of the eyeball from the size and orientation of the face, the position of the eyes, etc., using the fitting result of the three-dimensional face shape model, and the pupil. The position of the eyeball may be detected, and the vector connecting the center of the eyeball and the center of the pupil may be detected as the line-of-sight direction.

第2顔画像処理部26aは、特定個人判定部25により特定個人の顔ではないと判定された場合、通常の顔特徴量342bを用いて、通常の顔画像処理を行う。第2顔画像処理部26aは、通常の顔向き推定部27aと、通常の目開閉検出部28aと、通常の視線方向推定部29aとを含んで構成されている。通常の顔向き推定部27aと、通常の目開閉検出部28aと、通常の視線方向推定部29aとで行われる処理は、通常の顔特徴量342bを用いる点などを除き、特定個人の顔向き推定部27と、特定個人の目開閉検出部28と、特定個人の視線方向推定部29と基本的に同様であるので、ここではその説明を省略する。 When the specific individual determination unit 25 determines that the face is not the face of a specific individual, the second face image processing unit 26a performs normal face image processing using the normal face feature amount 342b. The second face image processing unit 26a includes a normal face orientation estimation unit 27a, a normal eye opening / closing detection unit 28a, and a normal line-of-sight direction estimation unit 29a. The processing performed by the normal face orientation estimation unit 27a, the normal eye opening / closing detection unit 28a, and the normal line-of-sight direction estimation unit 29a uses the normal face feature amount 342b, etc., but the face orientation of a specific individual. Since it is basically the same as the estimation unit 27, the eye opening / closing detection unit 28 of the specific individual, and the line-of-sight direction estimation unit 29 of the specific individual, the description thereof will be omitted here.

出力部POは、画像処理部32による画像処理に基づく情報をECU40などに出力する処理を行う。画像処理に基づく情報は、例えば、ドライバDPの顔の向き、視線の方向、又は目の開閉状態などの顔の挙動に関する情報でもよいし、顔の挙動の検出結果に基づいて判定されたドライバDPの状態(例えば、前方注視、脇見、居眠り、後ろ向き、突っ伏しなどの状態)に関する情報でもよい。また、画像処理に基づく情報は、ドライバDPの状態判定に基づく、所定の制御信号(注意や警告処理を行うための制御信号、又は車両ECの動作制御を行うための制御信号など)でもよい。 The output unit PO performs a process of outputting information based on the image processing by the image processing unit 32 to the ECU 40 or the like. The information based on the image processing may be, for example, information on the behavior of the face such as the direction of the face of the driver DP, the direction of the line of sight, or the open / closed state of the eyes, or the driver DP determined based on the detection result of the behavior of the face. It may be information about the state of (for example, forward gaze, inattentiveness, dozing, backward facing, prone, etc.). Further, the information based on the image processing may be a predetermined control signal (control signal for performing caution or warning processing, control signal for performing operation control of the vehicle EC, etc.) based on the state determination of the driver DP.

以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
上記実施の形態では、本発明に係る画像処理装置をドライバモニタリング装置30に適用した場合について説明したが、適用例はこれに限定されない。例えば、工場内の機械や装置などの各種設備を操作したり、監視したり、所定の作業をしたりする人などをモニタリングする装置やシステムなどにおいて、モニタリング対象者に上記した特定個人が含まれる場合に、本発明に係る画像処理装置を適用可能である。
Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and changes can be made without departing from the scope of the present invention.
In the above embodiment, the case where the image processing device according to the present invention is applied to the driver monitoring device 30 has been described, but the application example is not limited to this. For example, in a device or system for monitoring a person who operates, monitors, or performs a predetermined work on various facilities such as machines and devices in a factory, the above-mentioned specific individual is included in the monitoring target person. In some cases, the image processing apparatus according to the present invention can be applied.

1 撮影画像データ格納部
1a 2次元画像データ格納部
1b 3次元距離画像データ格納部
2 表示部
3 操作部
4 CPU
5 ROM
6 RAM
6a 画像記憶部
6b 共通特徴点格納部
7 画像処理演算部
7a 特徴点マッチング部
7b 法線ベクトル算出部
7c 基準顔向き角度画像定義部
7d 相対顔向き角度算出部
7e 顔センシングパラメータ設定部
7f 顔センシングパラメータ検証部

21 画像入力部
22 顔検出部
23 特定個人の顔検出部
24 通常の顔検出部
25 特定個人判定部
26 第1顔画像処理部
26a 第2顔画像処理部
27 特定個人の顔向き推定部
28 特定個人の目開閉検出部
29 特定個人の視線方向推定部
27a 通常の顔向き推定部
28a 通常の目開閉検出部
29a 通常の視線方向推定部
30 ドライバモニタリング装置
31 カメラ
32 画像処理部
33 CPU
34 ROM
35 RAM
36 通信部

40 ECU
41 センサ
42 アクチュエータ
43 通信バス

B 暗幕
C 距離画像取得可能なカメラ(ToFカメラなど)
D ディーラのスタッフ
M インストラクション部としての目印
P ノートパソコン
S 三脚
U ユーザ
d ユーザとカメラとの間の距離

e1〜e4 特徴点(目)
e5 特徴点(耳)
m1、m2 特徴点(口)
n 法線ベクトル

A 車載システム
EC 車両
DP ドライバ
PO 出力部
1 Captured image data storage unit 1a 2D image data storage unit 1b 3D distance image data storage unit 2 Display unit 3 Operation unit 4 CPU
5 ROM
6 RAM
6a Image storage unit 6b Common feature point storage unit 7 Image processing calculation unit 7a Feature point matching unit 7b Normal vector calculation unit 7c Reference face orientation angle image definition unit 7d Relative face orientation angle calculation unit 7e Face sensing parameter setting unit 7f Face sensing Parameter verification unit

21 Image input unit 22 Face detection unit 23 Face detection unit of a specific individual 24 Normal face detection unit 25 Specific individual judgment unit 26 First face image processing unit 26a Second face image processing unit 27 Face orientation estimation unit 28 of a specific individual Individual eye opening / closing detection unit 29 Specific individual line-of-sight direction estimation unit 27a Normal face orientation estimation unit 28a Normal eye opening / closing detection unit 29a Normal line-of-sight direction estimation unit 30 Driver monitoring device 31 Camera 32 Image processing unit 33 CPU
34 ROM
35 RAM
36 Communication Department

40 ECU
41 Sensor 42 Actuator 43 Communication bus

B Blackout C Cameras capable of acquiring distance images (ToF cameras, etc.)
D Dealer staff M Mark as instruction department P Laptop S Tripod U User d Distance between user and camera

e1-e4 Feature points (eyes)
e5 Feature points (ears)
m1, m2 feature points (mouth)
n normal vector

A In-vehicle system EC vehicle DP driver PO output unit

Claims (9)

撮像対象の前方に設置され、距離画像取得可能な撮像部と、
前記距離画像を格納する画像データ格納部と、
前記画像データ格納部から入力される画像を処理する画像処理演算部と、
インストラクション部と、
を含んで構成された個人データ取得システムであって、
前記画像処理演算部が、特徴点マッチング部、法線ベクトル算出部、基準顔向き角度画像定義部、相対顔向き角度算出部を有し、
前記インストラクション部が、複数点の視認ポイントを指し示すものであることを特徴とする個人データ取得システム。
An imaging unit that is installed in front of the imaging target and can acquire distance images,
An image data storage unit that stores the distance image and
An image processing calculation unit that processes an image input from the image data storage unit,
Instruction department and
It is a personal data acquisition system configured to include
The image processing calculation unit has a feature point matching unit, a normal vector calculation unit, a reference face orientation angle image definition unit, and a relative face orientation angle calculation unit.
A personal data acquisition system characterized in that the instruction unit points to a plurality of visual recognition points.
さらに、表示部と、
操作部と、
を備えていることを特徴とする請求項1記載の個人データ取得システム。
In addition, the display and
Operation unit and
The personal data acquisition system according to claim 1, wherein the personal data acquisition system is provided.
前記撮像部が、前記距離画像と、該距離画像と同視点のRGBあるいは赤外光などの2次元画像とを取得可能に構成されていることを特徴とする請求項1又は請求項2記載の個人データ取得システム。 The first or second aspect of the invention, wherein the imaging unit is configured to be capable of acquiring the distance image and a two-dimensional image such as RGB or infrared light having the same viewpoint as the distance image. Personal data acquisition system. 前記画像処理演算部が、さらに、顔センシングパラメータ設定部、顔センシングパラメータ検証部を含んで構成されていることを特徴とする請求項1〜3のいずれかの項に記載の個人データ取得システム。 The personal data acquisition system according to any one of claims 1 to 3, wherein the image processing calculation unit is further configured to include a face sensing parameter setting unit and a face sensing parameter verification unit. さらに、背景幕を備えていることを特徴とする請求項1〜4のいずれかの項に記載の個人データ取得システム。 The personal data acquisition system according to any one of claims 1 to 4, further comprising a background curtain. 請求項1〜5のいずれかの項に記載の個人データ取得システムを用いた個人データ取得方法であって、
ユーザの前方に前記距離画像取得可能な撮像部を配置し、
ユーザに前記インストラクション部に基づく指示を出し、前記インストラクション部に基づく所定の順番、所定の時間間隔で顔向きが変更された画像データを取得することを特徴とする個人データ取得方法。
A personal data acquisition method using the personal data acquisition system according to any one of claims 1 to 5.
An imaging unit capable of acquiring the distance image is placed in front of the user.
A personal data acquisition method characterized in that an instruction based on the instruction unit is given to a user, and image data whose face orientation is changed in a predetermined order and at a predetermined time interval based on the instruction unit is acquired.
請求項1〜5のいずれかの項に記載の個人データ取得システムを用いた個人データ取得方法であって、
目・口などの顔特徴点の深度がほぼ一定(所定の閾値以内)となる3次元画像データを、基準顔向き角度(ピッチ角0度、ヨー角0度)の画像と定義するステップと、
画像系列における画像Iと画像Jにおける共通顔特徴点を選択するステップと、
画像Iと画像Jにおける顔特徴点のマッチングを行うステップと、
画像Iの顔特徴点からなる顔向き平面の法線ベクトルを算出するステップと、
画像Jの顔特徴点からなる顔向き平面の法線ベクトルを算出するステップと、
画像Iの画像Jに対する顔向きの相対角度を算出(顔向き平面の相対法線ベクトルを算出)するステップと、
を含んでいることを特徴とする個人データ取得方法。
A personal data acquisition method using the personal data acquisition system according to any one of claims 1 to 5.
A step of defining 3D image data in which the depth of facial feature points such as eyes and mouth is almost constant (within a predetermined threshold) as an image with a reference face orientation angle (pitch angle 0 degrees, yaw angle 0 degrees), and
Steps to select common facial feature points in image I and image J in the image series,
Steps for matching facial feature points in image I and image J,
The step of calculating the normal vector of the face-oriented plane consisting of the face feature points of image I,
Steps to calculate the normal vector of the face-oriented plane consisting of the face feature points of image J,
The step of calculating the relative angle of the face orientation of the image I with respect to the image J (calculating the relative normal vector of the face orientation plane), and
A method of acquiring personal data, which is characterized by including.
請求項1〜5のいずれかの項に記載の個人データ取得システムを用いて取得された個人データを使用して行われる画像処理装置用顔センシングパラメータの調整方法であって、
2次元画像データ群を入力するステップと、
入力された2次元画像データ群に基づいて顔センシングパラメータの学習・設定を行うステップと、
設定された顔センシングパラメータの取り込みを行うステップと、
顔センシング処理の試行(顔検出、顔向き推定など)を実施するステップと、
2次元画像データ群に対する顔センシング結果群を取り込み、出力するステップと、
2次元画像データ群に対応する顔検出矩形、顔向き角度などの真値群を取り込み、出力するステップと、
前記顔センシング結果群と前記真値群とを用いて顔センシングパラメータの検証を実施するステップと、
顔検出矩形結果と真値との差の絶対値、及び、顔向き角度結果と真値との差の絶対値などが所定の閾値より小さいかを比較し、
小さいと判断すれば、処理を終了し、小さくないと判断すれば、最初のステップに戻るステップと、
を含んでいることを特徴とする画像処理装置用顔センシングパラメータの調整方法。
A method for adjusting face sensing parameters for an image processing device, which is performed using personal data acquired by using the personal data acquisition system according to any one of claims 1 to 5.
Steps to input 2D image data group and
Steps to learn and set face sensing parameters based on the input 2D image data group,
Steps to capture the set face sensing parameters and
Steps to perform face sensing processing trials (face detection, face orientation estimation, etc.) and
Steps to capture and output face sensing result groups for 2D image data group,
A step to capture and output a true value group such as a face detection rectangle and a face orientation angle corresponding to a two-dimensional image data group, and
A step of verifying the face sensing parameter using the face sensing result group and the true value group, and
Compare whether the absolute value of the difference between the face detection rectangle result and the true value and the absolute value of the difference between the face orientation angle result and the true value are smaller than the predetermined threshold value.
If it is judged to be small, the process ends, and if it is judged not to be small, the step to return to the first step and
A method for adjusting face sensing parameters for an image processing device, which comprises.
画像処理装置用顔センシングパラメータの調整処理を少なくとも1以上のコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1以上のコンピュータに、
2次元画像データ群を取り込むステップと、
取り込まれた2次元画像データ群に基づいて顔センシングパラメータの学習・設定を行うステップと、
設定された顔センシングパラメータの取り込みを行うステップと、
顔センシングパラメータの学習・設定のための2次元画像データ群の取り込み処理を行ない、出力するステップと、
顔センシング処理の試行を実施し、顔検出、顔向き推定などを実施するステップと、
2次元画像データ群に対する顔センシング結果群を取り込み、出力するステップと、
2次元画像データ群に対応する顔検出矩形、顔向き角度などの真値群を取り込み、出力するステップと、
前記顔センシング結果群と前記真値群とを用いて顔センシングパラメータの検証を実施するステップと、
顔検出矩形結果と真値との差の絶対値が所定の閾値より小さいか比較され、また、顔向き角度結果と真値との差の絶対値が所定の閾値より小さいか比較され、
小さいと判断されれば、処理は終了し、小さくないと判断されれば、前記始めのステップに戻るステップと、
を実行させることを特徴とするコンピュータプログラム。

A computer program for causing at least one or more computers to perform adjustment processing of face sensing parameters for an image processing device.
To at least one of the above computers
Steps to capture 2D image data and
Steps to learn and set face sensing parameters based on the captured 2D image data group,
Steps to capture the set face sensing parameters and
Steps to import and output 2D image data groups for learning and setting face sensing parameters,
Steps to perform face sensing processing trials, face detection, face orientation estimation, etc.
Steps to capture and output face sensing result groups for 2D image data group,
A step to capture and output a true value group such as a face detection rectangle and a face orientation angle corresponding to a two-dimensional image data group, and
A step of verifying the face sensing parameter using the face sensing result group and the true value group, and
It is compared whether the absolute value of the difference between the face detection rectangle result and the true value is smaller than the predetermined threshold value, and whether the absolute value of the difference between the face orientation angle result and the true value is smaller than the predetermined threshold value.
If it is determined that it is small, the process is completed, and if it is determined that it is not small, the step of returning to the first step is performed.
A computer program characterized by running a computer program.

JP2019122253A 2019-06-28 2019-06-28 Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program Pending JP2021009503A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019122253A JP2021009503A (en) 2019-06-28 2019-06-28 Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019122253A JP2021009503A (en) 2019-06-28 2019-06-28 Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program

Publications (1)

Publication Number Publication Date
JP2021009503A true JP2021009503A (en) 2021-01-28

Family

ID=74199992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122253A Pending JP2021009503A (en) 2019-06-28 2019-06-28 Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program

Country Status (1)

Country Link
JP (1) JP2021009503A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116449968A (en) * 2023-06-20 2023-07-18 深圳市联志光电科技有限公司 Computer screen control method and device and computing equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116449968A (en) * 2023-06-20 2023-07-18 深圳市联志光电科技有限公司 Computer screen control method and device and computing equipment
CN116449968B (en) * 2023-06-20 2023-08-22 深圳市联志光电科技有限公司 Computer screen control method and device and computing equipment

Similar Documents

Publication Publication Date Title
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
EP4134949A1 (en) In-vehicle user positioning method, on-board interaction method, on-board device, and vehicle
Mbouna et al. Visual analysis of eye state and head pose for driver alertness monitoring
US20190377409A1 (en) Neural network image processing apparatus
Trivedi et al. Looking-in and looking-out of a vehicle: Computer-vision-based enhanced vehicle safety
US9405982B2 (en) Driver gaze detection system
WO2020186883A1 (en) Methods, devices and apparatuses for gaze area detection and neural network training
García et al. Driver monitoring based on low-cost 3-D sensors
KR102441171B1 (en) Apparatus and Method for Monitoring User based on Multi-View Face Image
US11163304B2 (en) Trajectory determination device
CN111488812B (en) Obstacle position recognition method and device, computer equipment and storage medium
Venturelli et al. From depth data to head pose estimation: a siamese approach
WO2023272453A1 (en) Gaze calibration method and apparatus, device, computer-readable storage medium, system, and vehicle
Rezaei et al. Simultaneous analysis of driver behaviour and road condition for driver distraction detection
Amanatiadis et al. ViPED: On-road vehicle passenger detection for autonomous vehicles
CN114821695A (en) Material spectrometry
CN114821697A (en) Material spectrum
DE102022100551A1 (en) MATERIAL SPECTROSCOPY
CN114821694A (en) Material spectrometry
JP2021009503A (en) Personal data acquisition system, personal data acquisition method, face sensing parameter adjustment method for image processing device and computer program
WO2021024905A1 (en) Image processing device, monitoring device, control system, image processing method, computer program, and recording medium
Yun et al. Video-based detection and analysis of driver distraction and inattention
CN116012822A (en) Fatigue driving identification method and device and electronic equipment
WO2020261820A1 (en) Image processing device, monitoring device, control system, image processing method, and program
WO2020261832A1 (en) Image processing device, monitoring device, control system, image processing method, and program