JP2017188017A - Device and method for identifying facial orientation - Google Patents

Device and method for identifying facial orientation Download PDF

Info

Publication number
JP2017188017A
JP2017188017A JP2016078054A JP2016078054A JP2017188017A JP 2017188017 A JP2017188017 A JP 2017188017A JP 2016078054 A JP2016078054 A JP 2016078054A JP 2016078054 A JP2016078054 A JP 2016078054A JP 2017188017 A JP2017188017 A JP 2017188017A
Authority
JP
Japan
Prior art keywords
face
unit
light emitting
driver
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016078054A
Other languages
Japanese (ja)
Other versions
JP6769077B2 (en
Inventor
茂 滝波
Shigeru Takinami
茂 滝波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isuzu Motors Ltd
Original Assignee
Isuzu Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isuzu Motors Ltd filed Critical Isuzu Motors Ltd
Priority to JP2016078054A priority Critical patent/JP6769077B2/en
Publication of JP2017188017A publication Critical patent/JP2017188017A/en
Application granted granted Critical
Publication of JP6769077B2 publication Critical patent/JP6769077B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device and method and device for identifying facial orientation, which offer improved accuracy in identifying facial orientation of a driver.SOLUTION: A facial orientation identification device 1 comprises; an image acquisition unit 111 configured to acquire a captured image obtained by photographing the face of a driver and a luminous part provided on a wearable member worn on the head of the driver; a characteristics identification unit 112 configured to identify characteristics of the face of the driver from the captured image; a position identification unit 113 configured to identify the position of the luminous part from the captured image; and a facial orientation identification unit 114 configured to identify orientation of the luminous part based on the position of the luminous part identified by the position identification unit, and to identify orientation of the face of the driver based on the characteristics of the face of the driver identified by the characteristics identification unit and the orientation of the luminous part.SELECTED DRAWING: Figure 2

Description

本発明は、車両を運転する運転者の顔の向きを特定する顔向き特定装置及び顔向き特定方法に関する。   The present invention relates to a face direction specifying device and a face direction specifying method for specifying the face direction of a driver who drives a vehicle.

従来、車両を運転する運転者の顔をカメラで撮影し、撮影した画像から認識した顔の特徴に基づいて、運転者の顔の向きを特定する技術が知られている。特許文献1には、認識した顔の特徴点に基づいて、運転者が脇見又は居眠りをしていることを検出する運転者監視システムが開示されている。   2. Description of the Related Art Conventionally, a technique for capturing a face of a driver driving a vehicle with a camera and specifying the direction of the driver's face based on the facial features recognized from the captured image is known. Patent Document 1 discloses a driver monitoring system that detects that a driver is looking aside or falling asleep based on recognized facial feature points.

特開2015−194884号公報JP-A-2015-194484

しかし、運転者の顔をカメラで撮影する場合、顔向きの角度が過大である場合、光量が不足している場合、光量が多過ぎる場合、運転者がサングラスをかけている場合等のさまざまな状況下において、運転者の顔を高精度で認識できないという問題が生じていた。そこで、運転者の顔をカメラで良好に撮影できない状況下においても、運転者の顔の向きを高精度で特定する方法が求められていた。   However, when the driver's face is photographed with a camera, the face angle is excessive, the light intensity is insufficient, the light intensity is excessive, the driver is wearing sunglasses, etc. Under the circumstances, there was a problem that the driver's face could not be recognized with high accuracy. Therefore, there is a need for a method for specifying the direction of the driver's face with high accuracy even in a situation where the driver's face cannot be photographed satisfactorily by the camera.

そこで、本発明はこれらの点に鑑みてなされたものであり、運転者の顔の向きの特定精度を向上させることができる顔向き特定装置を提供することを目的とする。   Therefore, the present invention has been made in view of these points, and an object thereof is to provide a face orientation identifying device that can improve the accuracy of identifying the driver's face orientation.

本発明の第1の態様においては、運転者の顔と、運転者が頭部に装着している装着部材に設けられた発光部とを撮影することにより生成された撮像画像を取得する画像取得部と、前記撮像画像に基づいて運転手の顔の特徴を特定する特徴特定部と、前記撮像画像に基づいて前記発光部の位置を特定する位置特定部と、前記位置特定部が特定した前記発光部の位置に基づいて前記発光部の向きを特定し、前記特徴特定部が特定した運転手の顔の特徴と前記発光部の向きとに基づいて前記運転者の顔の向きを特定する顔向き特定部と、を有する、顔向き特定装置を提供する。   In the first aspect of the present invention, image acquisition for acquiring a captured image generated by photographing a driver's face and a light emitting unit provided on a mounting member worn on the head of the driver. A feature specifying unit that specifies a driver's facial feature based on the captured image, a position specifying unit that specifies a position of the light emitting unit based on the captured image, and the position specified by the position specifying unit A face that identifies the direction of the light emitting unit based on the position of the light emitting unit, and that identifies the direction of the driver's face based on the facial features of the driver identified by the feature identifying unit and the orientation of the light emitting unit There is provided a face orientation identification device having an orientation identification section.

前記顔向き特定装置は、前記発光部の向きと前記顔の向きとの関係を示す関係情報を記憶した記憶部をさらに有し、前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した結果の精度が所定のレベルより低い場合に、前記発光部の向きに関連付けて前記記憶部に記憶された前記顔の向きを参照することにより、前記顔の向きを特定してもよい。   The face orientation specifying device further includes a storage unit that stores relationship information indicating a relationship between the orientation of the light emitting unit and the orientation of the face, and the face specifying unit is configured such that the feature specifying unit is a feature of the face. When the accuracy of the result of specifying is lower than a predetermined level, the face direction may be specified by referring to the face direction stored in the storage unit in association with the direction of the light emitting unit. .

前記顔向き特定部は、所定のタイミングにおいて、前記特徴特定部が特定した前記顔の特徴に基づく前記顔の向きと前記発光部の向きとの関係を示す関係情報を前記記憶部に記録するか否か判定してもよい。   Whether the face orientation specifying unit records, in a predetermined timing, relation information indicating a relationship between the face orientation and the light emitting unit based on the facial feature specified by the feature specifying unit in the storage unit. It may be determined whether or not.

前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した精度が所定の条件を満たす場合に、前記関係情報を前記記憶部に記録してもよい。   The face orientation specifying unit may record the relationship information in the storage unit when the accuracy with which the feature specifying unit specifies the facial feature satisfies a predetermined condition.

前記顔向き特定部は、前記特徴特定部が特定した前記顔の特徴に基づく前記顔の向きと前記発光部の向きとの関係が変化してから所定の時間が経過した後に、前記関係情報の記録を再開してもよい。   The face orientation specifying unit is configured to store the relationship information after a predetermined time has elapsed since the relationship between the face orientation based on the facial feature specified by the feature specifying unit and the orientation of the light emitting unit has changed. Recording may be resumed.

前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した精度に基づいて、前記顔の向きの特定に用いる前記顔の特徴の重み及び前記発光部の向きの重みを決定してもよい。   The face orientation specifying unit determines the weight of the face feature and the weight of the light emitting unit used for specifying the face orientation based on the accuracy with which the feature specifying unit specifies the feature of the face. Also good.

本発明の第2の態様においては、コンピュータが実行する、運転者の顔と、運転者が頭部に装着している装着部材に設けられた発光部とを撮影することにより生成された撮像画像を取得するステップと、前記撮像画像に基づいて運転手の顔の特徴を特定するステップと、前記撮像画像に基づいて前記発光部の位置を特定するステップと、前記発光部の位置に基づいて前記発光部の向きを特定し、運転手の顔の特徴を特定した結果と、特定した前記発光部の向きとに基づいて、前記運転者の顔の向きを特定するステップと、を有する、顔向き特定方法を提供する。   In the second aspect of the present invention, a captured image generated by photographing a driver's face and a light emitting unit provided on a mounting member mounted on the head of the driver, which is executed by a computer. Obtaining a feature of the driver's face based on the captured image, identifying a position of the light emitting unit based on the captured image, and based on the position of the light emitting unit Identifying the direction of the light emitting unit, identifying the characteristics of the driver's face, and identifying the direction of the driver's face based on the identified direction of the light emitting unit, Provide a specific method.

本発明によれば、運転者の顔の向きの特定精度を向上させることができるという効果を奏する。   According to the present invention, there is an effect that it is possible to improve the identification accuracy of the direction of the driver's face.

実施形態に係る顔向き特定装置の概要について説明するための図である。It is a figure for demonstrating the outline | summary of the face direction specific device which concerns on embodiment. 実施形態に係る顔向き特定装置の構成を示す図である。It is a figure showing composition of a face direction specific device concerning an embodiment. 記憶部の各アドレスに、記録時の時刻、顔の向きおよび発光部の向きが記録された関係情報の例を示した表である。It is the table | surface which showed the example of the relationship information by which the time at the time of recording, the direction of a face, and the direction of the light emission part were recorded on each address of a memory | storage part. 顔向き特定部が顔の向きを特定する方法について説明するための図である。It is a figure for demonstrating the method in which a face direction specific | specification part specifies the direction of a face. 顔向き特定部が顔の向きを特定する方法について説明するための図である。It is a figure for demonstrating the method in which a face direction specific | specification part specifies the direction of a face. 実施形態に係る顔向き特定装置が行う信号処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the signal processing which the face direction identification apparatus which concerns on embodiment performs.

<実施形態>
[顔向き特定装置1の概要]
図1は、本実施形態に係る顔向き特定装置1の概要について説明するための図である。顔向き特定装置1は、車両の運転席に設置されたカメラ2が撮影した撮像画像に基づいて、運転者の顔の向きを特定する。運転者の頭部には、発光素子または光を反射するミラー等から構成される発光部3が設けられた装着部材Aが装着されている。発光素子は、例えば、電源とつながれたLED(Light Emitting Diode)素子である。装着部材Aは、例えば、つば付き帽子又はつば付き帽子型サンバイザであるが、つばがない帽子や鉢巻状の部材であってもよい。
<Embodiment>
[Outline of Face Orientation Identification Device 1]
FIG. 1 is a diagram for explaining an outline of the face orientation identifying device 1 according to the present embodiment. The face orientation identifying device 1 identifies the orientation of the driver's face based on the captured image taken by the camera 2 installed in the driver's seat of the vehicle. Mounted on the driver's head is a mounting member A provided with a light emitting part 3 composed of a light emitting element or a light reflecting mirror. The light emitting element is, for example, an LED (Light Emitting Diode) element connected to a power source. The mounting member A is, for example, a hat with a collar or a hat-type sun visor with a collar, but may be a hat without a collar or a headband-shaped member.

顔向き特定装置1は、撮像画像に基づいて、運転者の顔の特徴を認識することにより顔の向きを特定する。顔向き特定装置1は、強い光が入射した場合または光が不足している場合等のように、顔の特徴を特定できない場合に、装着部材Aに設けられた発光部3の向きに基づいて、運転者の顔の向きを特定する。   The face orientation identifying device 1 identifies the face orientation by recognizing the characteristics of the driver's face based on the captured image. The face orientation identifying device 1 is based on the orientation of the light emitting unit 3 provided on the mounting member A when the facial features cannot be identified, such as when strong light is incident or when light is insufficient. Identify the driver's face orientation.

発光部3の向きは、発光部3を構成する1つ以上の発光素子又は光を反射するミラーのそれぞれの位置によって特定される。上記1つ以上の発光素子又は光を反射するミラーのそれぞれの位置を発光部3の位置としたとき、発光部3の位置と発光部3の向きとは1対1に対応する。なお、発光部3の向きと装着部材Aの向きとは、同一の向きである。   The direction of the light emitting unit 3 is specified by each position of one or more light emitting elements constituting the light emitting unit 3 or a mirror that reflects light. When the position of the one or more light emitting elements or the mirror that reflects light is set as the position of the light emitting unit 3, the position of the light emitting unit 3 and the direction of the light emitting unit 3 correspond one-to-one. The direction of the light emitting unit 3 and the direction of the mounting member A are the same direction.

顔向き特定装置1は、運転者の顔の向きが、所定の時間にわたって所定の範囲外である場合に、警報情報を外部に出力する。警報情報は、例えばECU(Electronic Control Unit)に通知され、ECUは、警報音を鳴動させるように制御したり、車両を停止させたりする。なお、図1では、顔向き特定装置1とカメラ2とが有線で接続されているが、顔向き特定装置1とカメラ2とは無線で接続されていてもよい。   The face orientation specifying device 1 outputs alarm information to the outside when the orientation of the driver's face is outside a predetermined range for a predetermined time. The alarm information is notified to, for example, an ECU (Electronic Control Unit), and the ECU controls the alarm sound to sound or stops the vehicle. In FIG. 1, the face orientation specifying device 1 and the camera 2 are connected by wire, but the face orientation specifying device 1 and the camera 2 may be connected wirelessly.

[顔向き特定装置1の構成]
以下に、実施形態に係る顔向き特定装置1の構成を具体的に説明する。図2は、実施形態に係る顔向き特定装置1の構成を示す図である。図2に示すように、顔向き特定装置1は、制御部11と記憶部12とを有する。記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体である。記憶部12は、制御部11が実行するプログラム、及び発光部3の向きと運転者の顔の向きとの関係を示す関係情報等のデータを記憶する。
[Configuration of Face Orientation Identification Device 1]
Below, the structure of the face direction specific | identification apparatus 1 which concerns on embodiment is demonstrated concretely. FIG. 2 is a diagram illustrating a configuration of the face orientation identification device 1 according to the embodiment. As shown in FIG. 2, the face orientation identification device 1 includes a control unit 11 and a storage unit 12. The storage unit 12 is a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The storage unit 12 stores a program executed by the control unit 11 and data such as relationship information indicating the relationship between the direction of the light emitting unit 3 and the direction of the driver's face.

制御部11は、例えばCPU(Central Processing Unit)である。制御部11は、記憶部12に記憶されたプログラムを実行することにより、画像取得部111、特徴特定部112、位置特定部113および顔向き特定部114として機能する。   The control unit 11 is, for example, a CPU (Central Processing Unit). The control unit 11 functions as an image acquisition unit 111, a feature specifying unit 112, a position specifying unit 113, and a face orientation specifying unit 114 by executing a program stored in the storage unit 12.

画像取得部111は、カメラ2によって生成された運転者の撮像画像を取得し、特徴特定部112および位置特定部113へ撮像画像の信号を送信する。   The image acquisition unit 111 acquires a captured image of the driver generated by the camera 2 and transmits a signal of the captured image to the feature specifying unit 112 and the position specifying unit 113.

特徴特定部112は、受信した運転者の撮像画像に基づいて運転者の顔の特徴を特定する。特徴特定部112は、例えば、運転者の目および鼻の位置を特定する。特徴特定部112が特定する対象の数は任意に設定することができる。特徴特定部112は、撮像画像における、特定した目および鼻の位置を示す座標を含む特徴情報を顔向き特定部114に送信する。   The feature specifying unit 112 specifies the feature of the driver's face based on the received captured image of the driver. The feature specifying unit 112 specifies the positions of the driver's eyes and nose, for example. The number of objects specified by the feature specifying unit 112 can be arbitrarily set. The feature specifying unit 112 transmits feature information including coordinates indicating the specified eye and nose positions in the captured image to the face orientation specifying unit 114.

特徴特定部112は、運転者の顔の特徴を完全に特定できるとは限らず、強い外光が顔に当たっている状態又は暗過ぎる状態で撮像画像が生成された場合、及び顔の向きが適切でない場合等には、特定の精度が不十分であることもある。そこで、特徴特定部112は、顔の特徴の特定精度を示す情報を、特徴情報とともに顔向き特定部114に送信する。特徴特定部112は、例えば、特定する特徴の数に対する特定できた特徴の数の割合を、精度を示す情報として顔向き特定部114に送信する。   The feature specifying unit 112 may not be able to completely specify the features of the driver's face, and when a captured image is generated in a state where strong external light is hitting the face or too dark, and the orientation of the face is not appropriate In some cases, the specific accuracy may be insufficient. Therefore, the feature specifying unit 112 transmits information indicating the specification accuracy of the facial features to the face orientation specifying unit 114 together with the feature information. For example, the feature specifying unit 112 transmits the ratio of the number of specified features to the number of specified features to the face orientation specifying unit 114 as information indicating accuracy.

位置特定部113は、受信した撮像画像に基づいて発光部3の位置を特定し、特定した発光部3の位置を顔向き特定部114に送信する。運転者が頭部に装着している装着部材Aには、発光素子が1つ以上設けられており、位置特定部113は、上記1つ以上の発光素子の位置を特定する。外光の照射が強く、特徴特定部112が運転者の顔の特徴を特定しづらい場合であっても、位置特定部113は、発光部3の位置を特定できる。   The position specifying unit 113 specifies the position of the light emitting unit 3 based on the received captured image, and transmits the specified position of the light emitting unit 3 to the face direction specifying unit 114. One or more light emitting elements are provided in the mounting member A worn by the driver on the head, and the position specifying unit 113 specifies the positions of the one or more light emitting elements. Even when the external light is strong and it is difficult for the feature specifying unit 112 to specify the feature of the driver's face, the position specifying unit 113 can specify the position of the light emitting unit 3.

なお、運転者が装着部材Aを装着する位置が不適切であっても、撮像画像に写っている発光素子の数及び位置に基づいて装着部材Aの向きを特定しやすくするために、装着部材Aには、複数の発光素子が広い範囲に設けられていることが好ましい。この際、装着部材Aの向きを特定しやすくするために、装着部材Aの右側に設けられた発光素子の数と、左側に設けられた発光素子の数とが異なることが好ましい。   In order to make it easier to identify the orientation of the mounting member A based on the number and position of the light emitting elements shown in the captured image even if the position where the driver mounts the mounting member A is inappropriate, the mounting member In A, a plurality of light emitting elements are preferably provided in a wide range. At this time, in order to easily identify the orientation of the mounting member A, it is preferable that the number of light emitting elements provided on the right side of the mounting member A is different from the number of light emitting elements provided on the left side.

顔向き特定部114は、特徴特定部112が特定した顔の特徴の精度が所定の値よりも高い場合、特徴特定部112が特定した運転者の顔の特徴および顔の特徴の位置座標に基づいて運転者の顔の向きを特定する。   When the accuracy of the facial feature identified by the feature identifying unit 112 is higher than a predetermined value, the face orientation identifying unit 114 is based on the driver's facial feature identified by the feature identifying unit 112 and the position coordinates of the facial feature. To determine the direction of the driver's face.

また、顔向き特定部114は、特徴特定部112が特定した顔の特徴の精度が所定の値よりも高い場合、位置特定部113が特定した発光部3の位置に基づいて発光部3の向きも特定し、発光部3の向きと運転者の顔の向きとの関係を示す関係情報を記憶部12に記録することによりキャリブレーションをする。関係情報は、顔向き特定部114が同一の撮像画像から特定した顔の向きと発光部3の向きとの関係を含む。   In addition, when the accuracy of the facial feature specified by the feature specifying unit 112 is higher than a predetermined value, the face orientation specifying unit 114 determines the orientation of the light emitting unit 3 based on the position of the light emitting unit 3 specified by the position specifying unit 113. Is also specified, and calibration is performed by recording relation information indicating the relation between the direction of the light emitting unit 3 and the direction of the driver's face in the storage unit 12. The relationship information includes the relationship between the face direction specified by the face direction specifying unit 114 from the same captured image and the direction of the light emitting unit 3.

顔の向きは、例えば、車両の進行方向に対する角度で表される。本実施形態においては、運転者が車両の進行方向を向いている場合の顔の向きを0度とし、右側を向いている場合の顔の向きを+n度(nは、1から90までの自然数)、左側を向いている場合の顔の向きを−n度とする。   The direction of the face is represented by an angle with respect to the traveling direction of the vehicle, for example. In the present embodiment, the face orientation when the driver is facing the traveling direction of the vehicle is 0 degree, and the face orientation when the driver is facing the right side is + n degrees (n is a natural number from 1 to 90). ), The orientation of the face when facing left is -n degrees.

発光部3の向きは、例えば、車両の進行方向に対する角度で表される。発光部3が車両の進行方向を向いている場合の発光部3の向きを0度とし、右側を向いている場合の発光部3の向きを+n度(nは、1から90までの自然数)、左側を向いている場合の発光部3の向きを−n度とする。   The direction of the light emitting unit 3 is represented by an angle with respect to the traveling direction of the vehicle, for example. The direction of the light emitting unit 3 when the light emitting unit 3 is facing the traveling direction of the vehicle is 0 degree, and the direction of the light emitting unit 3 when it is facing the right side is + n degrees (n is a natural number from 1 to 90) The direction of the light emitting unit 3 when facing the left side is -n degrees.

ここで、運転者は、装着している装着部材Aの位置が意図せず大きく変化した場合、すぐに装着部材Aの向きを正面へ戻す可能性がある。運転者が装着部材Aの位置が大きく変化してから装着部材Aを正しい位置へ戻すまでの間に顔向き特定部114が記録した関係情報は、顔の向きを特定するのに不適切な情報である可能性が高い。   Here, when the position of the mounting member A that is mounted changes unexpectedly, the driver may immediately return the direction of the mounting member A to the front. The relationship information recorded by the face orientation identifying unit 114 between the time when the driver greatly changes the position of the mounting member A and before the mounting member A is returned to the correct position is information inappropriate for identifying the face orientation. Is likely.

そこで、顔向き特定部114は、運転者の顔の向きに対する発光部3の向きが所定の値から変化した場合、関係情報の記録を停止し、所定の時間が経過した後に、運転者の顔の向きに対する発光部3の向きが同じ値であることを条件として、関係情報の記録を再開(または更新)してもよい。このようにすることで、顔向き特定部114は、装着部材Aの位置が一時的に変化した状態の関係情報が用いられないので、誤判定の確率を下げることができる。   Therefore, when the direction of the light emitting unit 3 with respect to the driver's face direction changes from a predetermined value, the face direction specifying unit 114 stops recording the related information, and after the predetermined time has elapsed, The recording of the related information may be resumed (or updated) on condition that the direction of the light emitting unit 3 with respect to the direction is the same. By doing so, the face orientation specifying unit 114 can reduce the probability of erroneous determination because the relationship information of the state in which the position of the mounting member A has temporarily changed is not used.

顔向き特定部114は、特徴特定部112が特定した顔の特徴の精度が所定の値よりも低い場合、発光部3の向きと記憶部12に記録された関係情報とに基づいて運転者の顔の向きを特定する。   When the accuracy of the facial feature specified by the feature specifying unit 112 is lower than a predetermined value, the face orientation specifying unit 114 is based on the direction of the light emitting unit 3 and the relationship information recorded in the storage unit 12. Identify the face orientation.

図3は、記憶部12が記憶している関係情報の例を示す表である。図3に示す表の第1列目C1にはアドレスが記載され、第2列目C2には記録時刻が記載され、第3列目C3には顔の向きが記載され、第4列目C4には発光部3の向きが記載されている。関係情報は、記憶部12における書き換え可能なRAMに記憶されている。アドレスは、RAMのアドレスを示す。記録時刻は、顔向き特定部114が顔の向きと発光部3の向きとを記憶部12に書き込んだ時刻である。   FIG. 3 is a table showing an example of the relationship information stored in the storage unit 12. In the table shown in FIG. 3, the address is written in the first column C1, the recording time is written in the second column C2, the face orientation is written in the third column C3, and the fourth column C4 is written. Describes the direction of the light emitting unit 3. The related information is stored in a rewritable RAM in the storage unit 12. The address indicates a RAM address. The recording time is the time when the face orientation identifying unit 114 writes the face orientation and the light emitting unit 3 orientation in the storage unit 12.

図3では、運転者は経時的に顔の向きを変えていることがわかる。図3では、例えば、アドレス2番において、10:56に運転者が真正面を向き、装着部材Aは正面から左向きに10度の向きに装着されていたことが記録されている。アドレス3番において、顔の向きと装着部材Aの向きとの角度が20度になっていることから、10:56から10:57の間に、運転者が装着部材Aの位置を変えたこともわかる。また、図3では、顔向き特定部114が1分おきに関係情報を記録しているが、10:55の関係情報は、顔の特徴の特定精度が不十分であったために記録されていない。なお、図3において、顔向き特定部114は1分おきに関係情報を記録しているが、関係情報の記録間隔は任意の間隔でよい。   In FIG. 3, it can be seen that the driver changes the face direction over time. In FIG. 3, for example, at address 2, it is recorded that the driver is facing the front at 10:56, and the mounting member A is mounted 10 degrees from the front to the left. At address 3, the angle between the face and the mounting member A is 20 degrees, so the driver changed the position of the mounting member A between 10:56 and 10:57. I understand. In FIG. 3, the face orientation specifying unit 114 records the relationship information every minute, but the 10:55 relationship information is not recorded because the facial feature specification accuracy was insufficient. . In FIG. 3, the face orientation specifying unit 114 records the related information every minute, but the recording interval of the related information may be an arbitrary interval.

[顔の向きを特定する処理の例]
続いて、図4および図5を参照しながら、特徴特定部112が顔の特徴を特定した結果の精度が所定のレベルより低い場合に、顔向き特定部114が関係情報に基づいて運転者の顔の向きを特定する方法を具体的に説明する。図4及び図5は、顔向き特定部114が顔の向きを特定する方法について説明するための図である。ここでは、顔向き特定部114が顔の向きを特定するために参照する関係情報を基準情報と称する。基準情報とは、顔向き特定部114が顔の向きを特定する時刻に最も近い時刻の関係情報である。
[Example of processing to specify face orientation]
Subsequently, referring to FIG. 4 and FIG. 5, when the accuracy of the result of specifying the facial features by the feature specifying unit 112 is lower than a predetermined level, the face orientation specifying unit 114 determines the driver's A method for specifying the orientation of the face will be specifically described. 4 and 5 are diagrams for explaining a method by which the face orientation identifying unit 114 identifies the face orientation. Here, the relationship information referred to by the face orientation identifying unit 114 to identify the face orientation is referred to as reference information. The reference information is related information at a time closest to the time when the face orientation identifying unit 114 identifies the face orientation.

図4は、発光部3の向きと運転者の顔の向きが同時に0度であった場合の関係情報を基準情報(a)として、顔向き特定部114が運転者の顔の向きを特定した結果(b)、(c)、(d)を示した図である。基準情報(a)では、特徴特定部112が運転者の顔の特徴を精度よく特定できているため、特定した顔の部位が顔に描かれている。また、特定結果(b)、(c)、(d)では、特徴特定部112が運転者の顔の特徴を精度よく特定できていないため、顔の部位が顔に描かれていない。   In FIG. 4, the relationship information when the direction of the light emitting unit 3 and the driver's face is simultaneously 0 degrees is used as the reference information (a), and the face orientation specifying unit 114 specifies the driver's face orientation. It is the figure which showed the result (b), (c), (d). In the reference information (a), since the feature specifying unit 112 can accurately specify the features of the driver's face, the specified face part is drawn on the face. Further, in the identification results (b), (c), and (d), since the feature identification unit 112 cannot accurately identify the facial features of the driver, the facial part is not drawn on the face.

特定結果(b)では、発光素子3a〜3fにより構成される発光部3が正面を向いている様子が描かれている。基準情報では、発光部3の向きと運転者の顔の向きとは一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは0度であると特定している。   In the specific result (b), a state in which the light emitting unit 3 configured by the light emitting elements 3a to 3f faces the front is illustrated. In the reference information, since the direction of the light emitting unit 3 matches the direction of the driver's face, the face direction specifying unit 114 has the driver's face direction of 0 degrees based on the direction of the light emitting unit 3. It is specified.

特定結果(c)では、発光部3が正面から右に90度向きを変え、発光素子3c、3dが隠れている様子が描かれている。基準情報では、発光部3の向きと運転者の顔の向きとは一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは90度であると特定している。   In the specific result (c), the light emitting unit 3 is turned 90 degrees from the front to the right, and the light emitting elements 3c and 3d are hidden. In the reference information, since the direction of the light emitting unit 3 matches the direction of the driver's face, the face direction specifying unit 114 has the driver's face direction of 90 degrees based on the direction of the light emitting unit 3. It is specified.

特定結果(d)では、発光部3が正面から左に45度向きを変え、発光素子3e、3fが隠れている様子が描かれている。基準情報では、発光部3の向きと運転者の顔の向きとは一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは−45度であると特定している。   In the specific result (d), the light emitting unit 3 changes its direction from the front to the left by 45 degrees, and the light emitting elements 3e and 3f are hidden. In the reference information, since the direction of the light emitting unit 3 matches the direction of the driver's face, the face direction specifying unit 114 determines that the driver's face direction is −45 degrees based on the direction of the light emitting unit 3. It is specified that there is.

図5は、発光部3の向きが45度であり、運転者の顔向きが0度であった場合の関係情報を基準情報(a)として、顔向き特定部114が運転者の顔の向きを特定した結果(b)、(c)、(d)を示した図である。基準情報(a)では、特徴特定部112が運転者の顔の特徴を精度よく特定できているため、特定した顔の部位が顔に描かれている。また、特定結果(b)、(c)、(d)では、特徴特定部112が運転者の顔の特徴を精度よく特定できていないため、顔の部位が顔に描かれていない。   FIG. 5 shows the relationship information when the direction of the light emitting unit 3 is 45 degrees and the driver's face direction is 0 degree as reference information (a), and the face direction specifying unit 114 is the driver's face direction. It is the figure which showed the result (b), (c), (d) which identified this. In the reference information (a), since the feature specifying unit 112 can accurately specify the features of the driver's face, the specified face part is drawn on the face. Further, in the identification results (b), (c), and (d), since the feature identification unit 112 cannot accurately identify the facial features of the driver, the facial part is not drawn on the face.

特定結果(b)では、発光素子3a〜3fにより構成される発光部3が正面を向いている様子が描かれている。基準情報では、発光部3の向きと運転者の顔の向きとが互いに45度ずれているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは−45度であると特定している。   In the specific result (b), a state in which the light emitting unit 3 configured by the light emitting elements 3a to 3f faces the front is illustrated. In the reference information, since the direction of the light emitting unit 3 and the direction of the driver's face are deviated from each other by 45 degrees, the face direction specifying unit 114 determines that the driver's face direction is −45 based on the direction of the light emitting unit 3. The degree is specified.

特定結果(c)では、発光部3が正面から右に90度向きを変え、発光素子3c、3dが隠れている様子が描かれている。基準情報では、発光部3の向きと運転者の顔向きとは互いに一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは45度であると特定している。   In the specific result (c), the light emitting unit 3 is turned 90 degrees from the front to the right, and the light emitting elements 3c and 3d are hidden. In the reference information, since the direction of the light emitting unit 3 and the face direction of the driver coincide with each other, the face direction specifying unit 114 is 45 degrees based on the direction of the light emitting unit 3. It is specified.

特定結果(d)では、発光部3が正面から左に45度向きを変え、発光素子3e、3fが隠れている様子が描かれている。基準情報では、発光部3の向きと運転者の顔向きとは一致しているため、顔向き特定部114は、発光部3の向きに基づいて運転者の顔の向きは−90度であると特定している。   In the specific result (d), the light emitting unit 3 changes its direction from the front to the left by 45 degrees, and the light emitting elements 3e and 3f are hidden. In the reference information, since the direction of the light emitting unit 3 and the face direction of the driver are the same, the face direction specifying unit 114 has the driver's face direction of −90 degrees based on the direction of the light emitting unit 3. It is specified.

[顔向き特定装置1の動作フローチャート]
図6は、顔向き特定装置1が行う信号処理の流れを示すフローチャートである。先ず、画像取得部111はカメラ2から撮像画像を取得する(S1)。続いて、特徴特定部112は、顔向き特定装置1は取得した撮像画像に基づいて、運転者の顔の特徴を精度よく特定できるか否かを判定する(S2)。
[Operation Flowchart of Face Orientation Identification Device 1]
FIG. 6 is a flowchart showing a flow of signal processing performed by the face orientation identification device 1. First, the image acquisition unit 111 acquires a captured image from the camera 2 (S1). Subsequently, the feature identifying unit 112 determines whether or not the face orientation identifying device 1 can accurately identify the feature of the driver's face based on the acquired captured image (S2).

特徴特定部112が、運転者の顔の特徴を精度よく特定できると判定し(S2においてYES)、顔向き特定部114が、前回の関係情報記録時から所定時間が経過していると判定した場合(S3においてYES)、顔向き特定部114は、顔の向きと発光部3の向きとの関係を記憶部12に記録する(S4)。特徴特定部112が、運転者の顔の特徴を精度よく特定できると判定し(S2においてYES)、顔向き特定部114が、前回の関係情報記録時より所定時間が経過していないと判定した場合(S3においてNO)、制御部11は、所定時間が経過するまで待機する。   The feature specifying unit 112 determines that the features of the driver's face can be specified with high accuracy (YES in S2), and the face orientation specifying unit 114 determines that a predetermined time has elapsed since the previous recording of the relationship information. In the case (YES in S3), the face orientation identifying unit 114 records the relationship between the face orientation and the light emitting unit 3 in the storage unit 12 (S4). The feature specifying unit 112 determines that the features of the driver's face can be specified with high accuracy (YES in S2), and the face orientation specifying unit 114 determines that the predetermined time has not elapsed since the previous recording of the relationship information. In the case (NO in S3), the control unit 11 stands by until a predetermined time elapses.

特徴特定部112が、運転者の顔の特徴を精度よく特定できないと判定した場合(S2においてNO)、顔向き特定部114は、発光部3の位置を特定し(S5)、続いて運転者の顔の向きを特定する(S6)。顔向き特定部114は、運転者の顔の向きが所定の正常範囲内であれば(S7においてYES)、運転者が運転する車のエンジンが停止しているか否かを判定する(S9)。顔向き特定部114は、運転者の顔の向きが所定の正常範囲外であれば(S7においてNO)、警報を出力後(S8)、運転者が運転する車のエンジンが停止しているか否かを判定する(S9)。制御部11は、車のエンジンが停止している場合(S9においてYES)、顔の向きを特定する処理を終了する。制御部11は、車のエンジンが停止していない場合(S9においてNO)、ステップS1に戻って、ステップS1からステップS9までの処理を行う。   When the feature specifying unit 112 determines that the driver's facial features cannot be specified with high accuracy (NO in S2), the face orientation specifying unit 114 specifies the position of the light emitting unit 3 (S5), and then the driver. The face orientation is specified (S6). If the driver's face orientation is within a predetermined normal range (YES in S7), the face orientation specifying unit 114 determines whether or not the engine of the vehicle driven by the driver is stopped (S9). If the driver's face orientation is outside the predetermined normal range (NO in S7), the face orientation specifying unit 114 outputs a warning (S8), and then whether or not the engine of the vehicle driven by the driver is stopped. Is determined (S9). If the vehicle engine is stopped (YES in S9), control unit 11 ends the process of specifying the face orientation. If the vehicle engine is not stopped (NO in S9), control unit 11 returns to step S1 and performs the processes from step S1 to step S9.

[変形例1]
顔向き特定装置1において、顔向き特定部114は、特徴特定部112が顔の特徴を特定できた場合に、顔の特徴から特定する顔の向きと発光部3の位置から特定する顔の向きとを重み付けして顔の向きを特定してもよい。顔向き特定部114は、例えば、特徴特定部112が顔の特徴を特定した精度に基づいて重み付けを行う。
[Modification 1]
In the face orientation identifying device 1, the face orientation identifying unit 114, when the feature identifying unit 112 is able to identify a facial feature, identifies the face orientation identified from the facial features and the face orientation identified from the position of the light emitting unit 3. And the face direction may be specified. For example, the face orientation specifying unit 114 performs weighting based on the accuracy with which the feature specifying unit 112 specifies facial features.

例えば、顔向き特定部114は、特徴特定部112が検出すべき項目のうち、実際に検出できた項目の数に基づいて重み付けを決定する。このようにすることで、特徴特定部112が顔の特徴を特定した際の精度が十分に高くない場合であっても、発光部3の位置を併用することにより、顔向き特定部114が顔の向きを特定する精度を十分なレベルにすることができる。   For example, the face orientation specifying unit 114 determines the weighting based on the number of items that can be actually detected among the items to be detected by the feature specifying unit 112. By doing so, even if the accuracy when the feature specifying unit 112 specifies facial features is not sufficiently high, the face orientation specifying unit 114 can be used by using the position of the light emitting unit 3 together. The accuracy of specifying the orientation of the can be made to a sufficient level.

[変形例2]
上記の説明において、顔向き特定部114は、特徴特定部112が顔の特徴を特定できた場合に関係情報を記憶部12に記録するものとした。この際、顔向き特定部114は、特徴特定部112が顔の特徴を特定できた時の発光部3の向きが、特徴特定部112が特定した顔の向きに対して所定の範囲内にあることを条件として、関係情報を記憶部12に記録してもよい。また、発光部3の向きが、顔の向きに対して所定の範囲内に入っていない場合、顔向き特定部114は、装着部材Aを正しく装着することを促す警告情報を運転者に通知してもよい。このようにすることで、運転者が装着部材Aを適切に装着していなかったり、装着部材Aを取り外していたりする状態が長く継続しないようにすることができる。
[Modification 2]
In the above description, the face orientation specifying unit 114 records the related information in the storage unit 12 when the feature specifying unit 112 can specify the facial features. At this time, the face orientation specifying unit 114 has the orientation of the light emitting unit 3 when the feature specifying unit 112 can specify the facial features within a predetermined range with respect to the face orientation specified by the feature specifying unit 112. On this condition, the related information may be recorded in the storage unit 12. Further, when the direction of the light emitting unit 3 is not within a predetermined range with respect to the face direction, the face direction specifying unit 114 notifies the driver of warning information that prompts the user to mount the mounting member A correctly. May be. By doing in this way, the state where the driver is not wearing wearing member A appropriately, or removing wearing member A can be prevented from continuing for a long time.

[本実施形態の効果]
上述した顔向き特定装置1によれば、運転者の顔の特徴と発光部3の位置との双方に基づいて顔の向きを特定できる。例えば、顔向き特定部114は、特徴特定部112が顔の特徴を特定した結果の精度が所定のレベルより低い場合に、位置特定部113が特定した発光部3の向きに関連付けて記憶部12に記憶された顔の向きを参照することにより、顔の向きを特定する。従って、特徴特定部112が運転者の顔の特徴を特定できない状態であっても、発光部3の向きに基づいて運転者の顔の特徴を特定できるので、顔向き特定装置1は、顔の特徴と発光部3の位置のどちらか一方のみに基づいて顔の向きを特定するよりも精度よく顔の向きを特定できる。
[Effect of this embodiment]
According to the face orientation specifying device 1 described above, the face orientation can be specified based on both the facial features of the driver and the position of the light emitting unit 3. For example, when the accuracy of the result of specifying the facial feature by the feature specifying unit 112 is lower than a predetermined level, the face orientation specifying unit 114 is associated with the direction of the light emitting unit 3 specified by the position specifying unit 113 and stored in the storage unit 12. The orientation of the face is specified by referring to the orientation of the face stored in. Therefore, even if the feature specifying unit 112 cannot specify the driver's facial feature, the driver's facial feature can be specified based on the direction of the light emitting unit 3, so the face orientation specifying device 1 It is possible to specify the face direction with higher accuracy than specifying the face direction based on only one of the feature and the position of the light emitting unit 3.

また、顔向き特定装置1は、特徴特定部112が顔の特徴を特定した精度が所定の条件を満たす場合に、関係情報を記憶部12に記録する。このように顔の向きに対する相対的な発光部3の向きが記憶部12に記録されているため、顔向き特定装置1は、発光部3の向きのみしか特定できない場合でも運転者の顔の向きを特定できる。   Further, the face orientation identifying device 1 records the related information in the storage unit 12 when the accuracy with which the feature identifying unit 112 identifies the facial feature satisfies a predetermined condition. Since the direction of the light emitting unit 3 relative to the direction of the face is recorded in the storage unit 12 in this way, the face direction identifying device 1 can identify the direction of the driver's face even when only the direction of the light emitting unit 3 can be identified. Can be identified.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

1 顔向き特定装置
2 カメラ
3 発光部
11 制御部
111 画像取得部
112 特徴特定部
113 位置特定部
114 顔向き特定部
12 記憶部
A 装着部材


DESCRIPTION OF SYMBOLS 1 Face direction identification apparatus 2 Camera 3 Light emission part 11 Control part 111 Image acquisition part 112 Feature specification part 113 Position specification part 114 Face direction specification part 12 Storage part A Mounting member


Claims (7)

運転者の顔と、運転者が頭部に装着している装着部材に設けられた発光部とを撮影することにより生成された撮像画像を取得する画像取得部と、
前記撮像画像に基づいて運転手の顔の特徴を特定する特徴特定部と、
前記撮像画像に基づいて前記発光部の位置を特定する位置特定部と、
前記位置特定部が特定した前記発光部の位置に基づいて前記発光部の向きを特定し、前記特徴特定部が特定した運転手の顔の特徴と前記発光部の向きとに基づいて前記運転者の顔の向きを特定する顔向き特定部と、
を有することを特徴とする顔向き特定装置。
An image acquisition unit that acquires a captured image generated by photographing a driver's face and a light emitting unit provided on a mounting member that the driver is wearing on the head;
A feature identifying unit that identifies a feature of the driver's face based on the captured image;
A position specifying unit for specifying the position of the light emitting unit based on the captured image;
The direction of the light emitting unit is specified based on the position of the light emitting unit specified by the position specifying unit, and the driver is based on the facial feature of the driver specified by the feature specifying unit and the direction of the light emitting unit. A face orientation identifying unit for identifying the face orientation of
A device for identifying face orientation, comprising:
前記発光部の向きと前記顔の向きとの関係を示す関係情報を記憶した記憶部をさらに有し、
前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した結果の精度が所定のレベルより低い場合に、前記発光部の向きに関連付けて前記記憶部に記憶された前記顔の向きを参照することにより、前記顔の向きを特定する、
請求項1に記載の顔向き特定装置。
A storage unit that stores relationship information indicating a relationship between the orientation of the light emitting unit and the orientation of the face;
The face orientation specifying unit, when the accuracy of the result of specifying the facial features by the feature specifying unit is lower than a predetermined level, the face orientation stored in the storage unit in association with the direction of the light emitting unit Identify the orientation of the face by referring to
The face orientation identifying device according to claim 1.
前記顔向き特定部は、所定のタイミングにおいて、前記特徴特定部が特定した前記顔の特徴に基づく前記顔の向きと前記発光部の向きとの関係を示す関係情報を前記記憶部に記録するか否か判定する、
請求項2に記載の顔向き特定装置。
Whether the face orientation specifying unit records, in a predetermined timing, relation information indicating a relationship between the face orientation and the light emitting unit based on the facial feature specified by the feature specifying unit in the storage unit. Whether or not
The face orientation identifying device according to claim 2.
前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した精度が所定の条件を満たす場合に、前記関係情報を前記記憶部に記録することを特徴とする、
請求項3に記載の顔向き特定装置。
The face orientation specifying unit records the relation information in the storage unit when the accuracy with which the feature specifying unit specifies the facial feature satisfies a predetermined condition.
The face orientation identifying device according to claim 3.
前記顔向き特定部は、前記特徴特定部が特定した前記顔の特徴に基づく前記顔の向きと前記発光部の向きとの関係が変化してから所定の時間が経過した後に、前記関係情報の記録を再開することを特徴とする、
請求項3又は4に記載の顔向き特定装置。
The face orientation specifying unit is configured to store the relationship information after a predetermined time has elapsed since the relationship between the face orientation based on the facial feature specified by the feature specifying unit and the orientation of the light emitting unit has changed. Characterized by resuming recording,
The face orientation identification device according to claim 3 or 4.
前記顔向き特定部は、前記特徴特定部が前記顔の特徴を特定した精度に基づいて、前記顔の向きの特定に用いる前記顔の特徴の重み及び前記発光部の向きの重みを決定することを特徴とする、
請求項1から5のいずれか1項に記載の顔向き特定装置。
The face orientation specifying unit determines the weight of the face feature and the weight of the light emitting unit used for specifying the face orientation based on the accuracy with which the feature specifying unit specifies the facial feature. Characterized by the
The face orientation identifying device according to any one of claims 1 to 5.
コンピュータが実行する、
運転者の顔と、運転者が頭部に装着している装着部材に設けられた発光部とを撮影することにより生成された撮像画像を取得するステップと、
前記撮像画像に基づいて運転手の顔の特徴を特定するステップと、
前記撮像画像に基づいて前記発光部の位置を特定するステップと、
前記発光部の位置に基づいて前記発光部の向きを特定し、運転手の顔の特徴を特定した結果と、特定した前記発光部の向きとに基づいて、前記運転者の顔の向きを特定するステップと、
を有することを特徴とする顔向き特定方法。
The computer runs,
Acquiring a captured image generated by photographing a driver's face and a light emitting unit provided on a mounting member worn by the driver on the head;
Identifying a driver's facial features based on the captured image;
Identifying the position of the light emitting unit based on the captured image;
The direction of the light emitting unit is specified based on the position of the light emitting unit, and the driver's face direction is specified based on the result of specifying the characteristics of the driver's face and the specified direction of the light emitting unit. And steps to
A face orientation specifying method characterized by comprising:
JP2016078054A 2016-04-08 2016-04-08 Face orientation identification device and face orientation identification method Active JP6769077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016078054A JP6769077B2 (en) 2016-04-08 2016-04-08 Face orientation identification device and face orientation identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016078054A JP6769077B2 (en) 2016-04-08 2016-04-08 Face orientation identification device and face orientation identification method

Publications (2)

Publication Number Publication Date
JP2017188017A true JP2017188017A (en) 2017-10-12
JP6769077B2 JP6769077B2 (en) 2020-10-14

Family

ID=60044947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016078054A Active JP6769077B2 (en) 2016-04-08 2016-04-08 Face orientation identification device and face orientation identification method

Country Status (1)

Country Link
JP (1) JP6769077B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307026A (en) * 1997-05-08 1998-11-17 Matsushita Electric Ind Co Ltd Position detector
JP2001347881A (en) * 2000-06-08 2001-12-18 Stanley Electric Co Ltd Driver's face direction detector
JP2004023180A (en) * 2002-06-12 2004-01-22 Toshiba Corp Voice transmission apparatus, voice transmission method and program
JP2004070514A (en) * 2002-08-02 2004-03-04 Nissan Motor Co Ltd Face state detection device
WO2012046276A1 (en) * 2010-10-06 2012-04-12 三菱電機株式会社 Av system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307026A (en) * 1997-05-08 1998-11-17 Matsushita Electric Ind Co Ltd Position detector
JP2001347881A (en) * 2000-06-08 2001-12-18 Stanley Electric Co Ltd Driver's face direction detector
JP2004023180A (en) * 2002-06-12 2004-01-22 Toshiba Corp Voice transmission apparatus, voice transmission method and program
JP2004070514A (en) * 2002-08-02 2004-03-04 Nissan Motor Co Ltd Face state detection device
WO2012046276A1 (en) * 2010-10-06 2012-04-12 三菱電機株式会社 Av system

Also Published As

Publication number Publication date
JP6769077B2 (en) 2020-10-14

Similar Documents

Publication Publication Date Title
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
US9390337B2 (en) Alertness level detection apparatus and alertness level detection method
US9852506B1 (en) Zoom and image capture based on features of interest
US10554829B2 (en) Information processing device, photographing device, image sharing system, and method of information processing
JP6946649B2 (en) Electronic devices, information processing methods and programs
JP2005353010A5 (en)
US10809800B2 (en) Robust convergence signal
US11119580B2 (en) Head and eye-based gesture recognition
US10091466B2 (en) Visual perception determination system and method
JP2008242725A (en) Image data recording system and integrated circuit device
US10474232B2 (en) Information processing method, information processing apparatus and user equipment
JPH11142784A (en) Head mount display with position detecting function
JP6908339B2 (en) Line-of-sight detection device, line-of-sight detection program and line-of-sight detection method
JP6769077B2 (en) Face orientation identification device and face orientation identification method
JP2008128867A (en) Device for identifying tire direction
US20200159318A1 (en) Information processing device, information processing method, and computer program
US10529135B2 (en) Low-power mode feature identification at a head mounted display
JP2015211741A (en) Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method
WO2022141114A1 (en) Line-of-sight estimation method and apparatus, vehicle, and computer-readable storage medium
JP6989025B2 (en) Biometric device, counterfeit discrimination program and counterfeit discrimination method
US10048752B2 (en) Information processing method, information processing apparatus and user equipment
CN110544317A (en) Image processing method, image processing device, electronic equipment and readable storage medium
US11994675B2 (en) Head-mounted device for tracking screen time
JP2012227830A (en) Information processing equipment, processing method thereof, program, and imaging apparatus
US11366328B1 (en) Controlling a level of magnification of content on a display device based on user movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200907

R150 Certificate of patent or registration of utility model

Ref document number: 6769077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150