JP2017188017A - Device and method for identifying facial orientation - Google Patents
Device and method for identifying facial orientation Download PDFInfo
- Publication number
- JP2017188017A JP2017188017A JP2016078054A JP2016078054A JP2017188017A JP 2017188017 A JP2017188017 A JP 2017188017A JP 2016078054 A JP2016078054 A JP 2016078054A JP 2016078054 A JP2016078054 A JP 2016078054A JP 2017188017 A JP2017188017 A JP 2017188017A
- Authority
- JP
- Japan
- Prior art keywords
- face
- unit
- light emitting
- driver
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両を運転する運転者の顔の向きを特定する顔向き特定装置及び顔向き特定方法に関する。 The present invention relates to a face direction specifying device and a face direction specifying method for specifying the face direction of a driver who drives a vehicle.
従来、車両を運転する運転者の顔をカメラで撮影し、撮影した画像から認識した顔の特徴に基づいて、運転者の顔の向きを特定する技術が知られている。特許文献1には、認識した顔の特徴点に基づいて、運転者が脇見又は居眠りをしていることを検出する運転者監視システムが開示されている。
2. Description of the Related Art Conventionally, a technique for capturing a face of a driver driving a vehicle with a camera and specifying the direction of the driver's face based on the facial features recognized from the captured image is known.
しかし、運転者の顔をカメラで撮影する場合、顔向きの角度が過大である場合、光量が不足している場合、光量が多過ぎる場合、運転者がサングラスをかけている場合等のさまざまな状況下において、運転者の顔を高精度で認識できないという問題が生じていた。そこで、運転者の顔をカメラで良好に撮影できない状況下においても、運転者の顔の向きを高精度で特定する方法が求められていた。 However, when the driver's face is photographed with a camera, the face angle is excessive, the light intensity is insufficient, the light intensity is excessive, the driver is wearing sunglasses, etc. Under the circumstances, there was a problem that the driver's face could not be recognized with high accuracy. Therefore, there is a need for a method for specifying the direction of the driver's face with high accuracy even in a situation where the driver's face cannot be photographed satisfactorily by the camera.
そこで、本発明はこれらの点に鑑みてなされたものであり、運転者の顔の向きの特定精度を向上させることができる顔向き特定装置を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object thereof is to provide a face orientation identifying device that can improve the accuracy of identifying the driver's face orientation.
本発明の第1の態様においては、運転者の顔と、運転者が頭部に装着している装着部材に設けられた発光部とを撮影することにより生成された撮像画像を取得する画像取得部と、前記撮像画像に基づいて運転手の顔の特徴を特定する特徴特定部と、前記撮像画像に基づいて前記発光部の位置を特定する位置特定部と、前記位置特定部が特定した前記発光部の位置に基づいて前記発光部の向きを特定し、前記特徴特定部が特定した運転手の顔の特徴と前記発光部の向きとに基づいて前記運転者の顔の向きを特定する顔向き特定部と、を有する、顔向き特定装置を提供する。 In the first aspect of the present invention, image acquisition for acquiring a captured image generated by photographing a driver's face and a light emitting unit provided on a mounting member worn on the head of the driver. A feature specifying unit that specifies a driver's facial feature based on the captured image, a position specifying unit that specifies a position of the light emitting unit based on the captured image, and the position specified by the position specifying unit A face that identifies the direction of the light emitting unit based on the position of the light emitting unit, and that identifies the direction of the driver's face based on the facial features of the driver identified by the feature identifying unit and the orientation of the light emitting unit There is provided a face orientation identification device having an orientation identification section.
前記顔向き特定装置は、前記発光部の向きと前記顔の向きとの関係を示す関係情報を記憶した記憶部をさらに有し、前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した結果の精度が所定のレベルより低い場合に、前記発光部の向きに関連付けて前記記憶部に記憶された前記顔の向きを参照することにより、前記顔の向きを特定してもよい。 The face orientation specifying device further includes a storage unit that stores relationship information indicating a relationship between the orientation of the light emitting unit and the orientation of the face, and the face specifying unit is configured such that the feature specifying unit is a feature of the face. When the accuracy of the result of specifying is lower than a predetermined level, the face direction may be specified by referring to the face direction stored in the storage unit in association with the direction of the light emitting unit. .
前記顔向き特定部は、所定のタイミングにおいて、前記特徴特定部が特定した前記顔の特徴に基づく前記顔の向きと前記発光部の向きとの関係を示す関係情報を前記記憶部に記録するか否か判定してもよい。 Whether the face orientation specifying unit records, in a predetermined timing, relation information indicating a relationship between the face orientation and the light emitting unit based on the facial feature specified by the feature specifying unit in the storage unit. It may be determined whether or not.
前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した精度が所定の条件を満たす場合に、前記関係情報を前記記憶部に記録してもよい。 The face orientation specifying unit may record the relationship information in the storage unit when the accuracy with which the feature specifying unit specifies the facial feature satisfies a predetermined condition.
前記顔向き特定部は、前記特徴特定部が特定した前記顔の特徴に基づく前記顔の向きと前記発光部の向きとの関係が変化してから所定の時間が経過した後に、前記関係情報の記録を再開してもよい。 The face orientation specifying unit is configured to store the relationship information after a predetermined time has elapsed since the relationship between the face orientation based on the facial feature specified by the feature specifying unit and the orientation of the light emitting unit has changed. Recording may be resumed.
前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した精度に基づいて、前記顔の向きの特定に用いる前記顔の特徴の重み及び前記発光部の向きの重みを決定してもよい。 The face orientation specifying unit determines the weight of the face feature and the weight of the light emitting unit used for specifying the face orientation based on the accuracy with which the feature specifying unit specifies the feature of the face. Also good.
本発明の第2の態様においては、コンピュータが実行する、運転者の顔と、運転者が頭部に装着している装着部材に設けられた発光部とを撮影することにより生成された撮像画像を取得するステップと、前記撮像画像に基づいて運転手の顔の特徴を特定するステップと、前記撮像画像に基づいて前記発光部の位置を特定するステップと、前記発光部の位置に基づいて前記発光部の向きを特定し、運転手の顔の特徴を特定した結果と、特定した前記発光部の向きとに基づいて、前記運転者の顔の向きを特定するステップと、を有する、顔向き特定方法を提供する。 In the second aspect of the present invention, a captured image generated by photographing a driver's face and a light emitting unit provided on a mounting member mounted on the head of the driver, which is executed by a computer. Obtaining a feature of the driver's face based on the captured image, identifying a position of the light emitting unit based on the captured image, and based on the position of the light emitting unit Identifying the direction of the light emitting unit, identifying the characteristics of the driver's face, and identifying the direction of the driver's face based on the identified direction of the light emitting unit, Provide a specific method.
本発明によれば、運転者の顔の向きの特定精度を向上させることができるという効果を奏する。 According to the present invention, there is an effect that it is possible to improve the identification accuracy of the direction of the driver's face.
<実施形態>
[顔向き特定装置1の概要]
図1は、本実施形態に係る顔向き特定装置1の概要について説明するための図である。顔向き特定装置1は、車両の運転席に設置されたカメラ2が撮影した撮像画像に基づいて、運転者の顔の向きを特定する。運転者の頭部には、発光素子または光を反射するミラー等から構成される発光部3が設けられた装着部材Aが装着されている。発光素子は、例えば、電源とつながれたLED(Light Emitting Diode)素子である。装着部材Aは、例えば、つば付き帽子又はつば付き帽子型サンバイザであるが、つばがない帽子や鉢巻状の部材であってもよい。
<Embodiment>
[Outline of Face Orientation Identification Device 1]
FIG. 1 is a diagram for explaining an outline of the face
顔向き特定装置1は、撮像画像に基づいて、運転者の顔の特徴を認識することにより顔の向きを特定する。顔向き特定装置1は、強い光が入射した場合または光が不足している場合等のように、顔の特徴を特定できない場合に、装着部材Aに設けられた発光部3の向きに基づいて、運転者の顔の向きを特定する。
The face
発光部3の向きは、発光部3を構成する1つ以上の発光素子又は光を反射するミラーのそれぞれの位置によって特定される。上記1つ以上の発光素子又は光を反射するミラーのそれぞれの位置を発光部3の位置としたとき、発光部3の位置と発光部3の向きとは1対1に対応する。なお、発光部3の向きと装着部材Aの向きとは、同一の向きである。
The direction of the
顔向き特定装置1は、運転者の顔の向きが、所定の時間にわたって所定の範囲外である場合に、警報情報を外部に出力する。警報情報は、例えばECU(Electronic Control Unit)に通知され、ECUは、警報音を鳴動させるように制御したり、車両を停止させたりする。なお、図1では、顔向き特定装置1とカメラ2とが有線で接続されているが、顔向き特定装置1とカメラ2とは無線で接続されていてもよい。
The face
[顔向き特定装置1の構成]
以下に、実施形態に係る顔向き特定装置1の構成を具体的に説明する。図2は、実施形態に係る顔向き特定装置1の構成を示す図である。図2に示すように、顔向き特定装置1は、制御部11と記憶部12とを有する。記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体である。記憶部12は、制御部11が実行するプログラム、及び発光部3の向きと運転者の顔の向きとの関係を示す関係情報等のデータを記憶する。
[Configuration of Face Orientation Identification Device 1]
Below, the structure of the face direction specific |
制御部11は、例えばCPU(Central Processing Unit)である。制御部11は、記憶部12に記憶されたプログラムを実行することにより、画像取得部111、特徴特定部112、位置特定部113および顔向き特定部114として機能する。
The
画像取得部111は、カメラ2によって生成された運転者の撮像画像を取得し、特徴特定部112および位置特定部113へ撮像画像の信号を送信する。
The
特徴特定部112は、受信した運転者の撮像画像に基づいて運転者の顔の特徴を特定する。特徴特定部112は、例えば、運転者の目および鼻の位置を特定する。特徴特定部112が特定する対象の数は任意に設定することができる。特徴特定部112は、撮像画像における、特定した目および鼻の位置を示す座標を含む特徴情報を顔向き特定部114に送信する。
The
特徴特定部112は、運転者の顔の特徴を完全に特定できるとは限らず、強い外光が顔に当たっている状態又は暗過ぎる状態で撮像画像が生成された場合、及び顔の向きが適切でない場合等には、特定の精度が不十分であることもある。そこで、特徴特定部112は、顔の特徴の特定精度を示す情報を、特徴情報とともに顔向き特定部114に送信する。特徴特定部112は、例えば、特定する特徴の数に対する特定できた特徴の数の割合を、精度を示す情報として顔向き特定部114に送信する。
The
位置特定部113は、受信した撮像画像に基づいて発光部3の位置を特定し、特定した発光部3の位置を顔向き特定部114に送信する。運転者が頭部に装着している装着部材Aには、発光素子が1つ以上設けられており、位置特定部113は、上記1つ以上の発光素子の位置を特定する。外光の照射が強く、特徴特定部112が運転者の顔の特徴を特定しづらい場合であっても、位置特定部113は、発光部3の位置を特定できる。
The
なお、運転者が装着部材Aを装着する位置が不適切であっても、撮像画像に写っている発光素子の数及び位置に基づいて装着部材Aの向きを特定しやすくするために、装着部材Aには、複数の発光素子が広い範囲に設けられていることが好ましい。この際、装着部材Aの向きを特定しやすくするために、装着部材Aの右側に設けられた発光素子の数と、左側に設けられた発光素子の数とが異なることが好ましい。 In order to make it easier to identify the orientation of the mounting member A based on the number and position of the light emitting elements shown in the captured image even if the position where the driver mounts the mounting member A is inappropriate, the mounting member In A, a plurality of light emitting elements are preferably provided in a wide range. At this time, in order to easily identify the orientation of the mounting member A, it is preferable that the number of light emitting elements provided on the right side of the mounting member A is different from the number of light emitting elements provided on the left side.
顔向き特定部114は、特徴特定部112が特定した顔の特徴の精度が所定の値よりも高い場合、特徴特定部112が特定した運転者の顔の特徴および顔の特徴の位置座標に基づいて運転者の顔の向きを特定する。
When the accuracy of the facial feature identified by the
また、顔向き特定部114は、特徴特定部112が特定した顔の特徴の精度が所定の値よりも高い場合、位置特定部113が特定した発光部3の位置に基づいて発光部3の向きも特定し、発光部3の向きと運転者の顔の向きとの関係を示す関係情報を記憶部12に記録することによりキャリブレーションをする。関係情報は、顔向き特定部114が同一の撮像画像から特定した顔の向きと発光部3の向きとの関係を含む。
In addition, when the accuracy of the facial feature specified by the
顔の向きは、例えば、車両の進行方向に対する角度で表される。本実施形態においては、運転者が車両の進行方向を向いている場合の顔の向きを0度とし、右側を向いている場合の顔の向きを+n度(nは、1から90までの自然数)、左側を向いている場合の顔の向きを−n度とする。 The direction of the face is represented by an angle with respect to the traveling direction of the vehicle, for example. In the present embodiment, the face orientation when the driver is facing the traveling direction of the vehicle is 0 degree, and the face orientation when the driver is facing the right side is + n degrees (n is a natural number from 1 to 90). ), The orientation of the face when facing left is -n degrees.
発光部3の向きは、例えば、車両の進行方向に対する角度で表される。発光部3が車両の進行方向を向いている場合の発光部3の向きを0度とし、右側を向いている場合の発光部3の向きを+n度(nは、1から90までの自然数)、左側を向いている場合の発光部3の向きを−n度とする。
The direction of the
ここで、運転者は、装着している装着部材Aの位置が意図せず大きく変化した場合、すぐに装着部材Aの向きを正面へ戻す可能性がある。運転者が装着部材Aの位置が大きく変化してから装着部材Aを正しい位置へ戻すまでの間に顔向き特定部114が記録した関係情報は、顔の向きを特定するのに不適切な情報である可能性が高い。
Here, when the position of the mounting member A that is mounted changes unexpectedly, the driver may immediately return the direction of the mounting member A to the front. The relationship information recorded by the face
そこで、顔向き特定部114は、運転者の顔の向きに対する発光部3の向きが所定の値から変化した場合、関係情報の記録を停止し、所定の時間が経過した後に、運転者の顔の向きに対する発光部3の向きが同じ値であることを条件として、関係情報の記録を再開(または更新)してもよい。このようにすることで、顔向き特定部114は、装着部材Aの位置が一時的に変化した状態の関係情報が用いられないので、誤判定の確率を下げることができる。
Therefore, when the direction of the
顔向き特定部114は、特徴特定部112が特定した顔の特徴の精度が所定の値よりも低い場合、発光部3の向きと記憶部12に記録された関係情報とに基づいて運転者の顔の向きを特定する。
When the accuracy of the facial feature specified by the
図3は、記憶部12が記憶している関係情報の例を示す表である。図3に示す表の第1列目C1にはアドレスが記載され、第2列目C2には記録時刻が記載され、第3列目C3には顔の向きが記載され、第4列目C4には発光部3の向きが記載されている。関係情報は、記憶部12における書き換え可能なRAMに記憶されている。アドレスは、RAMのアドレスを示す。記録時刻は、顔向き特定部114が顔の向きと発光部3の向きとを記憶部12に書き込んだ時刻である。
FIG. 3 is a table showing an example of the relationship information stored in the
図3では、運転者は経時的に顔の向きを変えていることがわかる。図3では、例えば、アドレス2番において、10:56に運転者が真正面を向き、装着部材Aは正面から左向きに10度の向きに装着されていたことが記録されている。アドレス3番において、顔の向きと装着部材Aの向きとの角度が20度になっていることから、10:56から10:57の間に、運転者が装着部材Aの位置を変えたこともわかる。また、図3では、顔向き特定部114が1分おきに関係情報を記録しているが、10:55の関係情報は、顔の特徴の特定精度が不十分であったために記録されていない。なお、図3において、顔向き特定部114は1分おきに関係情報を記録しているが、関係情報の記録間隔は任意の間隔でよい。
In FIG. 3, it can be seen that the driver changes the face direction over time. In FIG. 3, for example, at
[顔の向きを特定する処理の例]
続いて、図4および図5を参照しながら、特徴特定部112が顔の特徴を特定した結果の精度が所定のレベルより低い場合に、顔向き特定部114が関係情報に基づいて運転者の顔の向きを特定する方法を具体的に説明する。図4及び図5は、顔向き特定部114が顔の向きを特定する方法について説明するための図である。ここでは、顔向き特定部114が顔の向きを特定するために参照する関係情報を基準情報と称する。基準情報とは、顔向き特定部114が顔の向きを特定する時刻に最も近い時刻の関係情報である。
[Example of processing to specify face orientation]
Subsequently, referring to FIG. 4 and FIG. 5, when the accuracy of the result of specifying the facial features by the
図4は、発光部3の向きと運転者の顔の向きが同時に0度であった場合の関係情報を基準情報(a)として、顔向き特定部114が運転者の顔の向きを特定した結果(b)、(c)、(d)を示した図である。基準情報(a)では、特徴特定部112が運転者の顔の特徴を精度よく特定できているため、特定した顔の部位が顔に描かれている。また、特定結果(b)、(c)、(d)では、特徴特定部112が運転者の顔の特徴を精度よく特定できていないため、顔の部位が顔に描かれていない。
In FIG. 4, the relationship information when the direction of the
特定結果(b)では、発光素子3a〜3fにより構成される発光部3が正面を向いている様子が描かれている。基準情報では、発光部3の向きと運転者の顔の向きとは一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは0度であると特定している。
In the specific result (b), a state in which the
特定結果(c)では、発光部3が正面から右に90度向きを変え、発光素子3c、3dが隠れている様子が描かれている。基準情報では、発光部3の向きと運転者の顔の向きとは一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは90度であると特定している。
In the specific result (c), the
特定結果(d)では、発光部3が正面から左に45度向きを変え、発光素子3e、3fが隠れている様子が描かれている。基準情報では、発光部3の向きと運転者の顔の向きとは一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは−45度であると特定している。
In the specific result (d), the
図5は、発光部3の向きが45度であり、運転者の顔向きが0度であった場合の関係情報を基準情報(a)として、顔向き特定部114が運転者の顔の向きを特定した結果(b)、(c)、(d)を示した図である。基準情報(a)では、特徴特定部112が運転者の顔の特徴を精度よく特定できているため、特定した顔の部位が顔に描かれている。また、特定結果(b)、(c)、(d)では、特徴特定部112が運転者の顔の特徴を精度よく特定できていないため、顔の部位が顔に描かれていない。
FIG. 5 shows the relationship information when the direction of the
特定結果(b)では、発光素子3a〜3fにより構成される発光部3が正面を向いている様子が描かれている。基準情報では、発光部3の向きと運転者の顔の向きとが互いに45度ずれているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは−45度であると特定している。
In the specific result (b), a state in which the
特定結果(c)では、発光部3が正面から右に90度向きを変え、発光素子3c、3dが隠れている様子が描かれている。基準情報では、発光部3の向きと運転者の顔向きとは互いに一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは45度であると特定している。
In the specific result (c), the
特定結果(d)では、発光部3が正面から左に45度向きを変え、発光素子3e、3fが隠れている様子が描かれている。基準情報では、発光部3の向きと運転者の顔向きとは一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは−90度であると特定している。
In the specific result (d), the
[顔向き特定装置1の動作フローチャート]
図6は、顔向き特定装置1が行う信号処理の流れを示すフローチャートである。先ず、画像取得部111はカメラ2から撮像画像を取得する(S1)。続いて、特徴特定部112は、顔向き特定装置1は取得した撮像画像に基づいて、運転者の顔の特徴を精度よく特定できるか否かを判定する(S2)。
[Operation Flowchart of Face Orientation Identification Device 1]
FIG. 6 is a flowchart showing a flow of signal processing performed by the face
特徴特定部112が、運転者の顔の特徴を精度よく特定できると判定し(S2においてYES)、顔向き特定部114が、前回の関係情報記録時から所定時間が経過していると判定した場合(S3においてYES)、顔向き特定部114は、顔の向きと発光部3の向きとの関係を記憶部12に記録する(S4)。特徴特定部112が、運転者の顔の特徴を精度よく特定できると判定し(S2においてYES)、顔向き特定部114が、前回の関係情報記録時より所定時間が経過していないと判定した場合(S3においてNO)、制御部11は、所定時間が経過するまで待機する。
The
特徴特定部112が、運転者の顔の特徴を精度よく特定できないと判定した場合(S2においてNO)、顔向き特定部114は、発光部3の位置を特定し(S5)、続いて運転者の顔の向きを特定する(S6)。顔向き特定部114は、運転者の顔の向きが所定の正常範囲内であれば(S7においてYES)、運転者が運転する車のエンジンが停止しているか否かを判定する(S9)。顔向き特定部114は、運転者の顔の向きが所定の正常範囲外であれば(S7においてNO)、警報を出力後(S8)、運転者が運転する車のエンジンが停止しているか否かを判定する(S9)。制御部11は、車のエンジンが停止している場合(S9においてYES)、顔の向きを特定する処理を終了する。制御部11は、車のエンジンが停止していない場合(S9においてNO)、ステップS1に戻って、ステップS1からステップS9までの処理を行う。
When the
[変形例1]
顔向き特定装置1において、顔向き特定部114は、特徴特定部112が顔の特徴を特定できた場合に、顔の特徴から特定する顔の向きと発光部3の位置から特定する顔の向きとを重み付けして顔の向きを特定してもよい。顔向き特定部114は、例えば、特徴特定部112が顔の特徴を特定した精度に基づいて重み付けを行う。
[Modification 1]
In the face
例えば、顔向き特定部114は、特徴特定部112が検出すべき項目のうち、実際に検出できた項目の数に基づいて重み付けを決定する。このようにすることで、特徴特定部112が顔の特徴を特定した際の精度が十分に高くない場合であっても、発光部3の位置を併用することにより、顔向き特定部114が顔の向きを特定する精度を十分なレベルにすることができる。
For example, the face
[変形例2]
上記の説明において、顔向き特定部114は、特徴特定部112が顔の特徴を特定できた場合に関係情報を記憶部12に記録するものとした。この際、顔向き特定部114は、特徴特定部112が顔の特徴を特定できた時の発光部3の向きが、特徴特定部112が特定した顔の向きに対して所定の範囲内にあることを条件として、関係情報を記憶部12に記録してもよい。また、発光部3の向きが、顔の向きに対して所定の範囲内に入っていない場合、顔向き特定部114は、装着部材Aを正しく装着することを促す警告情報を運転者に通知してもよい。このようにすることで、運転者が装着部材Aを適切に装着していなかったり、装着部材Aを取り外していたりする状態が長く継続しないようにすることができる。
[Modification 2]
In the above description, the face
[本実施形態の効果]
上述した顔向き特定装置1によれば、運転者の顔の特徴と発光部3の位置との双方に基づいて顔の向きを特定できる。例えば、顔向き特定部114は、特徴特定部112が顔の特徴を特定した結果の精度が所定のレベルより低い場合に、位置特定部113が特定した発光部3の向きに関連付けて記憶部12に記憶された顔の向きを参照することにより、顔の向きを特定する。従って、特徴特定部112が運転者の顔の特徴を特定できない状態であっても、発光部3の向きに基づいて運転者の顔の特徴を特定できるので、顔向き特定装置1は、顔の特徴と発光部3の位置のどちらか一方のみに基づいて顔の向きを特定するよりも精度よく顔の向きを特定できる。
[Effect of this embodiment]
According to the face
また、顔向き特定装置1は、特徴特定部112が顔の特徴を特定した精度が所定の条件を満たす場合に、関係情報を記憶部12に記録する。このように顔の向きに対する相対的な発光部3の向きが記憶部12に記録されているため、顔向き特定装置1は、発光部3の向きのみしか特定できない場合でも運転者の顔の向きを特定できる。
Further, the face
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
1 顔向き特定装置
2 カメラ
3 発光部
11 制御部
111 画像取得部
112 特徴特定部
113 位置特定部
114 顔向き特定部
12 記憶部
A 装着部材
DESCRIPTION OF
Claims (7)
前記撮像画像に基づいて運転手の顔の特徴を特定する特徴特定部と、
前記撮像画像に基づいて前記発光部の位置を特定する位置特定部と、
前記位置特定部が特定した前記発光部の位置に基づいて前記発光部の向きを特定し、前記特徴特定部が特定した運転手の顔の特徴と前記発光部の向きとに基づいて前記運転者の顔の向きを特定する顔向き特定部と、
を有することを特徴とする顔向き特定装置。 An image acquisition unit that acquires a captured image generated by photographing a driver's face and a light emitting unit provided on a mounting member that the driver is wearing on the head;
A feature identifying unit that identifies a feature of the driver's face based on the captured image;
A position specifying unit for specifying the position of the light emitting unit based on the captured image;
The direction of the light emitting unit is specified based on the position of the light emitting unit specified by the position specifying unit, and the driver is based on the facial feature of the driver specified by the feature specifying unit and the direction of the light emitting unit. A face orientation identifying unit for identifying the face orientation of
A device for identifying face orientation, comprising:
前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した結果の精度が所定のレベルより低い場合に、前記発光部の向きに関連付けて前記記憶部に記憶された前記顔の向きを参照することにより、前記顔の向きを特定する、
請求項1に記載の顔向き特定装置。 A storage unit that stores relationship information indicating a relationship between the orientation of the light emitting unit and the orientation of the face;
The face orientation specifying unit, when the accuracy of the result of specifying the facial features by the feature specifying unit is lower than a predetermined level, the face orientation stored in the storage unit in association with the direction of the light emitting unit Identify the orientation of the face by referring to
The face orientation identifying device according to claim 1.
請求項2に記載の顔向き特定装置。 Whether the face orientation specifying unit records, in a predetermined timing, relation information indicating a relationship between the face orientation and the light emitting unit based on the facial feature specified by the feature specifying unit in the storage unit. Whether or not
The face orientation identifying device according to claim 2.
請求項3に記載の顔向き特定装置。 The face orientation specifying unit records the relation information in the storage unit when the accuracy with which the feature specifying unit specifies the facial feature satisfies a predetermined condition.
The face orientation identifying device according to claim 3.
請求項3又は4に記載の顔向き特定装置。 The face orientation specifying unit is configured to store the relationship information after a predetermined time has elapsed since the relationship between the face orientation based on the facial feature specified by the feature specifying unit and the orientation of the light emitting unit has changed. Characterized by resuming recording,
The face orientation identification device according to claim 3 or 4.
請求項1から5のいずれか1項に記載の顔向き特定装置。 The face orientation specifying unit determines the weight of the face feature and the weight of the light emitting unit used for specifying the face orientation based on the accuracy with which the feature specifying unit specifies the facial feature. Characterized by the
The face orientation identifying device according to any one of claims 1 to 5.
運転者の顔と、運転者が頭部に装着している装着部材に設けられた発光部とを撮影することにより生成された撮像画像を取得するステップと、
前記撮像画像に基づいて運転手の顔の特徴を特定するステップと、
前記撮像画像に基づいて前記発光部の位置を特定するステップと、
前記発光部の位置に基づいて前記発光部の向きを特定し、運転手の顔の特徴を特定した結果と、特定した前記発光部の向きとに基づいて、前記運転者の顔の向きを特定するステップと、
を有することを特徴とする顔向き特定方法。 The computer runs,
Acquiring a captured image generated by photographing a driver's face and a light emitting unit provided on a mounting member worn by the driver on the head;
Identifying a driver's facial features based on the captured image;
Identifying the position of the light emitting unit based on the captured image;
The direction of the light emitting unit is specified based on the position of the light emitting unit, and the driver's face direction is specified based on the result of specifying the characteristics of the driver's face and the specified direction of the light emitting unit. And steps to
A face orientation specifying method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078054A JP6769077B2 (en) | 2016-04-08 | 2016-04-08 | Face orientation identification device and face orientation identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078054A JP6769077B2 (en) | 2016-04-08 | 2016-04-08 | Face orientation identification device and face orientation identification method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017188017A true JP2017188017A (en) | 2017-10-12 |
JP6769077B2 JP6769077B2 (en) | 2020-10-14 |
Family
ID=60044947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016078054A Active JP6769077B2 (en) | 2016-04-08 | 2016-04-08 | Face orientation identification device and face orientation identification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6769077B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10307026A (en) * | 1997-05-08 | 1998-11-17 | Matsushita Electric Ind Co Ltd | Position detector |
JP2001347881A (en) * | 2000-06-08 | 2001-12-18 | Stanley Electric Co Ltd | Driver's face direction detector |
JP2004023180A (en) * | 2002-06-12 | 2004-01-22 | Toshiba Corp | Voice transmission apparatus, voice transmission method and program |
JP2004070514A (en) * | 2002-08-02 | 2004-03-04 | Nissan Motor Co Ltd | Face state detection device |
WO2012046276A1 (en) * | 2010-10-06 | 2012-04-12 | 三菱電機株式会社 | Av system |
-
2016
- 2016-04-08 JP JP2016078054A patent/JP6769077B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10307026A (en) * | 1997-05-08 | 1998-11-17 | Matsushita Electric Ind Co Ltd | Position detector |
JP2001347881A (en) * | 2000-06-08 | 2001-12-18 | Stanley Electric Co Ltd | Driver's face direction detector |
JP2004023180A (en) * | 2002-06-12 | 2004-01-22 | Toshiba Corp | Voice transmission apparatus, voice transmission method and program |
JP2004070514A (en) * | 2002-08-02 | 2004-03-04 | Nissan Motor Co Ltd | Face state detection device |
WO2012046276A1 (en) * | 2010-10-06 | 2012-04-12 | 三菱電機株式会社 | Av system |
Also Published As
Publication number | Publication date |
---|---|
JP6769077B2 (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6695503B2 (en) | Method and system for monitoring the condition of a vehicle driver | |
US9390337B2 (en) | Alertness level detection apparatus and alertness level detection method | |
US9852506B1 (en) | Zoom and image capture based on features of interest | |
US10554829B2 (en) | Information processing device, photographing device, image sharing system, and method of information processing | |
JP6946649B2 (en) | Electronic devices, information processing methods and programs | |
JP2005353010A5 (en) | ||
US10809800B2 (en) | Robust convergence signal | |
US11119580B2 (en) | Head and eye-based gesture recognition | |
US10091466B2 (en) | Visual perception determination system and method | |
JP2008242725A (en) | Image data recording system and integrated circuit device | |
US10474232B2 (en) | Information processing method, information processing apparatus and user equipment | |
JPH11142784A (en) | Head mount display with position detecting function | |
JP6908339B2 (en) | Line-of-sight detection device, line-of-sight detection program and line-of-sight detection method | |
JP6769077B2 (en) | Face orientation identification device and face orientation identification method | |
JP2008128867A (en) | Device for identifying tire direction | |
US20200159318A1 (en) | Information processing device, information processing method, and computer program | |
US10529135B2 (en) | Low-power mode feature identification at a head mounted display | |
JP2015211741A (en) | Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method | |
WO2022141114A1 (en) | Line-of-sight estimation method and apparatus, vehicle, and computer-readable storage medium | |
JP6989025B2 (en) | Biometric device, counterfeit discrimination program and counterfeit discrimination method | |
US10048752B2 (en) | Information processing method, information processing apparatus and user equipment | |
CN110544317A (en) | Image processing method, image processing device, electronic equipment and readable storage medium | |
US11994675B2 (en) | Head-mounted device for tracking screen time | |
JP2012227830A (en) | Information processing equipment, processing method thereof, program, and imaging apparatus | |
US11366328B1 (en) | Controlling a level of magnification of content on a display device based on user movement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6769077 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |