JP2020135037A - Head determination device, computer program, and storage medium - Google Patents

Head determination device, computer program, and storage medium Download PDF

Info

Publication number
JP2020135037A
JP2020135037A JP2019023628A JP2019023628A JP2020135037A JP 2020135037 A JP2020135037 A JP 2020135037A JP 2019023628 A JP2019023628 A JP 2019023628A JP 2019023628 A JP2019023628 A JP 2019023628A JP 2020135037 A JP2020135037 A JP 2020135037A
Authority
JP
Japan
Prior art keywords
head
radius
processor
past
position data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019023628A
Other languages
Japanese (ja)
Other versions
JP7288309B2 (en
Inventor
佑記 名和
Yuki Nawa
佑記 名和
圭吾 多田
Keigo Tada
圭吾 多田
久光 原田
Hisamitsu Harada
久光 原田
忠 関原
Tadashi Sekihara
忠 関原
安利 深谷
Yasutoshi Fukaya
安利 深谷
将城 榊原
Masaki Sakakibara
将城 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Original Assignee
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd, Tokai Rika Co Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2019023628A priority Critical patent/JP7288309B2/en
Publication of JP2020135037A publication Critical patent/JP2020135037A/en
Application granted granted Critical
Publication of JP7288309B2 publication Critical patent/JP7288309B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

To increase the accuracy in determining a head of an occupant in a cabin.SOLUTION: A processor receives a position data set including a plurality of point elements each associated with a position in a three-dimensional space. The processor extracts a head data sub set corresponding to an area in the three-dimensional space where a head of an occupant is highly likely to be present from the position data set (STEP 511). The processor reads a previous position that is a previously identified position of the head of the occupant in a cabin from a storage (STEP 512). The processor limits the head data sub set by deleting a point element present in an area in the three-dimensional space away from the previous position by a predetermined distance (STEP 514). The processor estimates a center position of the head based on the limited position data sub set (STEP 515).SELECTED DRAWING: Figure 9

Description

本発明は、車室内の乗員の頭部を判別する装置に関連する。本発明は、当該装置が備えているプロセッサにより実行されるコンピュータプログラム、および当該コンピュータプログラムが記憶された記憶媒体にも関連する。 The present invention relates to a device for discriminating the head of an occupant in a vehicle interior. The present invention also relates to a computer program executed by a processor included in the device and a storage medium in which the computer program is stored.

特許文献1に開示されているように、画像データに基づいて、撮像された車室内の乗員の頭部を判別する装置が知られている。 As disclosed in Patent Document 1, there is known a device for discriminating an imaged head of an occupant in a vehicle interior based on image data.

特開2008−285015号公報Japanese Unexamined Patent Publication No. 2008-285015

本発明の目的は、車室内の乗員の頭部の判別精度を高めることである。 An object of the present invention is to improve the discrimination accuracy of the head of an occupant in a vehicle interior.

上記の目的を達成するための第一態様は、頭部判別装置であって、
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する第一位置データサブセットを、前記位置データセットから抽出し、
前記過去位置から所定の距離よりも離れた前記三次元空間の領域に対応する第二位置データサブセットで、前記第一位置データサブセットを制限し、
制限された前記第一位置データサブセットに基づいて、前記頭部の中心位置を推定し、
推定された前記中心位置に基づいて、前記頭部の位置を特定する。
The first aspect for achieving the above object is a head discrimination device.
An input interface that accepts position datasets, each containing multiple point elements associated with positions in three-dimensional space.
A processor that determines the head based on the position data set and the past position, which is the position of the head of the occupant in the vehicle interior identified in the past.
Is equipped with
The processor
A first position data subset corresponding to the region of the three-dimensional space where the occupant's head is likely to be present is extracted from the position data set.
The first position data subset is restricted by the second position data subset corresponding to the region of the three-dimensional space that is more than a predetermined distance from the past position.
Based on the restricted first position data subset, the central position of the head is estimated.
The position of the head is specified based on the estimated center position.

上記の目的を達成するための第二態様は、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する第一位置データサブセットを、前記位置データセットから抽出させ、
前記過去位置から所定の距離よりも離れた前記三次元空間の領域に対応する第二位置データサブセットで、前記第一位置データサブセットを制限させ、
制限された前記第一位置データサブセットに基づいて、前記頭部の中心位置を推定させ、
推定された前記中心位置に基づいて、前記頭部の位置を特定させる。
A second aspect of achieving the above objectives is a position dataset containing multiple point elements, each associated with a position in three-dimensional space, and a previously identified position of the occupant's head in the vehicle interior. A computer program that causes a processor to determine the head based on a certain past position.
When the computer program is executed, the processor
A first position data subset corresponding to the region of the three-dimensional space in which the occupant's head is likely to be present is extracted from the position data set.
The first position data subset is restricted by the second position data subset corresponding to the region of the three-dimensional space that is more than a predetermined distance from the past position.
Based on the restricted first position data subset, the central position of the head is estimated.
The position of the head is specified based on the estimated center position.

第一データサブセットは、乗員の頭部が存在する可能性が高い三次元空間の領域に対応している。しかしながら、乗員の姿勢や体格、位置データセットの取得条件などによっては、頭部以外の身体部位が位置データサブセットに含まれてしまう場合がある。上記のような構成によれば、予期せず位置データサブセットに含まれた頭部以外の身体部位に対応するデータが、頭部の中心位置の推定に対してノイズとして及ぼす影響を抑制できる。したがって、頭部の中心位置の推定精度が高まる。結果として、車室内の乗員の頭部の判別精度を高めることができる。 The first data subset corresponds to an area of three-dimensional space where the occupant's head is likely to be present. However, depending on the posture and physique of the occupant, the acquisition conditions of the position data set, and the like, body parts other than the head may be included in the position data subset. According to the above configuration, it is possible to suppress the influence of the data corresponding to the body part other than the head unexpectedly included in the position data subset as noise on the estimation of the central position of the head. Therefore, the accuracy of estimating the center position of the head is improved. As a result, the accuracy of discriminating the head of the occupant in the vehicle interior can be improved.

上記の第一態様に係る頭部判別装置は、以下のように構成されうる。
前記所定の距離は、前記頭部の大きさと前記頭部の移動可能性に基づいて定められている。
The head discrimination device according to the first aspect may be configured as follows.
The predetermined distance is determined based on the size of the head and the mobility of the head.

上記の第二態様に係るコンピュータプログラムは、以下のように構成されうる。
前記所定の距離は、前記頭部の大きさと前記頭部の移動可能性に基づいて定められている。
The computer program according to the second aspect may be configured as follows.
The predetermined distance is determined based on the size of the head and the mobility of the head.

上記のような構成によれば、中心位置の推定に本来必要である頭部に対応するデータが制限の対象とされてしまう事態の回避が容易になる。したがって、中心位置の推定精度の低下を抑制できる。 According to the above configuration, it is easy to avoid the situation where the data corresponding to the head, which is originally necessary for estimating the central position, is subject to the restriction. Therefore, it is possible to suppress a decrease in the estimation accuracy of the center position.

上記の目的を達成するための第三態様は、頭部判別装置であって、
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出し、
前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の位置の重心位置と、前記過去位置との中間点を特定し、
前記中間点に基づいて、前記頭部の中心位置を推定し、
推定された前記中心位置に基づいて、前記頭部の位置を特定する。
A third aspect for achieving the above object is a head discrimination device.
An input interface that accepts position datasets, each containing multiple point elements associated with positions in three-dimensional space.
A processor that determines the head based on the position data set and the past position, which is the position of the head of the occupant in the vehicle interior identified in the past.
Is equipped with
The processor
A subset of position data corresponding to the region of the three-dimensional space where the occupant's head is likely to be present is extracted from the position data set.
The center-of-gravity positions of the plurality of positions associated with the plurality of point elements included in the position data subset and the intermediate points between the past positions are specified.
Based on the midpoint, the center position of the head is estimated.
The position of the head is specified based on the estimated center position.

上記の目的を達成するための第四態様は、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記乗員の頭部が存在する可能性が高い空間領域に対応する位置データサブセットを、前記位置データセットから抽出させ、
前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の位置の重心位置と、前記過去位置との中間点を特定させ、
前記中間点に基づいて、前記頭部の中心位置を推定させ、
推定された前記中心位置に基づいて、前記頭部の位置を特定させる。
A fourth aspect of achieving the above objectives is a position dataset containing a plurality of point elements, each associated with a position in three-dimensional space, and a previously identified position of the occupant's head in the vehicle interior. A computer program that causes a processor to determine the head based on a certain past position.
When the computer program is executed, the processor
A subset of position data corresponding to the spatial region in which the occupant's head is likely to be present is extracted from the position data set.
The center of gravity positions of the plurality of positions associated with the plurality of point elements included in the position data subset and the intermediate points between the past positions are specified.
Based on the midpoint, the center position of the head is estimated.
The position of the head is specified based on the estimated center position.

上記のような構成によれば、今回取得された位置データサブセットに含まれる複数の点要素から特定される重心位置ではなく、重心位置と過去位置の中間点に基づいて頭部の中心位置の推定が行なわれる。過去位置により近い位置を重心位置と仮定して中心位置の推定が行なわれるので、特に位置データサブセットに含まれる複数の点要素が偏った分布を示す場合において、中心位置の推定位置が実際の頭部の中心からずれる量を抑制できる。したがって、頭部の中心位置の推定精度が高まる。結果として、車室内の乗員の頭部の判別精度を高めることができる。 According to the above configuration, the center position of the head is estimated based on the midpoint between the center of gravity position and the past position, not the center of gravity position specified from the plurality of point elements included in the position data subset acquired this time. Is performed. Since the center position is estimated assuming the position closer to the past position as the center of gravity position, the estimated position of the center position is the actual head, especially when multiple point elements included in the position data subset show a biased distribution. The amount of deviation from the center of the part can be suppressed. Therefore, the accuracy of estimating the center position of the head is improved. As a result, the accuracy of discriminating the head of the occupant in the vehicle interior can be improved.

上記の目的を達成するための第五態様は、頭部判別装置であって、
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出し、
前記位置データサブセットに基づいて前記頭部の中心位置を推定し、
前記中心位置を中心とする前記頭部を近似する球体の半径を第一半径として特定し、
前記第一半径を、前記過去位置における前記頭部を近似する球体の半径である第二半径と比較し、
前記第一半径と前記第二半径の差異が所定値未満である場合、前記中心位置に基づいて前記頭部の位置を特定する。
A fifth aspect for achieving the above object is a head discrimination device.
An input interface that accepts position datasets, each containing multiple point elements associated with positions in three-dimensional space.
A processor that determines the head based on the position data set and the past position, which is the position of the head of the occupant in the vehicle interior identified in the past.
Is equipped with
The processor
A subset of position data corresponding to the region of the three-dimensional space where the occupant's head is likely to be present is extracted from the position data set.
The central position of the head is estimated based on the position data subset and
The radius of the sphere that approximates the head centered on the center position is specified as the first radius.
The first radius is compared to the second radius, which is the radius of the sphere that approximates the head at the past position.
When the difference between the first radius and the second radius is less than a predetermined value, the position of the head is specified based on the center position.

上記の目的を達成するための第六態様は、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出させ、
前記位置データサブセットに基づいて前記頭部の中心位置を推定させ、
前記中心位置を中心とする前記頭部を近似する球体の半径を、第一半径として特定させ、
前記第一半径を、前記過去位置における前記頭部を近似する球体の半径である第二半径と比較させ、
前記第一半径と前記第二半径の差異が所定値未満である場合、前記中心位置に基づいて前記頭部の位置を特定させる。
A sixth aspect for achieving the above objectives is a position dataset containing a plurality of point elements, each associated with a position in three-dimensional space, and a previously identified position of the occupant's head in the vehicle interior. A computer program that causes a processor to determine the head based on a certain past position.
A subset of position data corresponding to the region of the three-dimensional space in which the occupant's head is likely to be present is extracted from the position data set.
The central position of the head is estimated based on the position data subset,
The radius of the sphere that approximates the head centered on the center position is specified as the first radius.
The first radius is compared with the second radius, which is the radius of the sphere that approximates the head at the past position.
When the difference between the first radius and the second radius is less than a predetermined value, the position of the head is specified based on the center position.

上記の構成は、繰り返される中心位置の推定の間に、頭部を近似する球体の半径が大きく変動することはないという前提に基づいている。したがって、今回特定された球体の半径と過去に特定された球体の半径の差異が大きい場合、今回特定された半径が基づいている重心位置が、位置データサブセット含まれる複数の点要素の偏った分布に起因している蓋然性が高い。今回特定された球体の半径と過去に特定された球体の半径の差異が所定値以上である場合は推定された中心位置を採用しないことにより、特に位置データサブセットに含まれる複数の点要素が偏った分布を示す場合において、中心位置の推定位置が実際の頭部の中心からずれる量を抑制できる。したがって、頭部の中心位置の推定精度が高まる。結果として、車室内の乗員の頭部の判別精度を高めることができる。 The above configuration is based on the assumption that the radius of the sphere that approximates the head does not fluctuate significantly during repeated estimation of the center position. Therefore, if the difference between the radius of the sphere identified this time and the radius of the sphere identified in the past is large, the center of gravity position on which the radius identified this time is based is a biased distribution of multiple point elements that include a subset of position data. It is highly probable that it is caused by. When the difference between the radius of the sphere specified this time and the radius of the sphere specified in the past is greater than or equal to a predetermined value, by not adopting the estimated center position, multiple point elements included in the position data subset are particularly biased. It is possible to suppress the amount of deviation of the estimated position of the center position from the actual center of the head when the distribution is shown. Therefore, the accuracy of estimating the center position of the head is improved. As a result, the accuracy of discriminating the head of the occupant in the vehicle interior can be improved.

上記の第五態様に係る頭部判別装置は、以下のように構成されうる。
前記第一半径と前記第二半径の差異が所定値以上である場合、前記プロセッサは、
前記第二半径に基づいて前記頭部の中心位置を再推定し、
再推定された前記頭部の中心位置に基づいて前記頭部の位置を特定する。
The head discrimination device according to the fifth aspect may be configured as follows.
When the difference between the first radius and the second radius is equal to or greater than a predetermined value, the processor
The center position of the head is re-estimated based on the second radius,
The position of the head is specified based on the re-estimated center position of the head.

上記の第六態様に係るコンピュータプログラムは、以下のように構成されうる。
前記第一半径と前記第二半径の差異が所定値以上である場合、前記プロセッサに、
前記第二半径に基づいて前記頭部の中心位置を再推定させ、
再推定された前記頭部の中心位置に基づいて前記頭部の位置を特定させる。
The computer program according to the sixth aspect may be configured as follows.
When the difference between the first radius and the second radius is equal to or greater than a predetermined value, the processor
The center position of the head is re-estimated based on the second radius.
The position of the head is specified based on the re-estimated center position of the head.

上記のような構成によれば、頭部の中心位置の再推定に係る演算負荷を抑制できる。 According to the above configuration, the calculation load related to the re-estimation of the center position of the head can be suppressed.

上記の第一態様、第三態様、および第五態様のいずれかに係る頭部判別装置は、以下のように構成されうる。
前記プロセッサは、
前記位置データセットに基づいて前記乗員の顔の向きを判別し、
判別された前記顔の向きが特定の向きである場合に、前記頭部の中心位置の推定を行なう。
The head discrimination device according to any one of the above-mentioned first aspect, third aspect, and fifth aspect can be configured as follows.
The processor
The orientation of the occupant's face is determined based on the position data set.
When the determined face orientation is a specific orientation, the center position of the head is estimated.

上記の第二態様、第四態様、および第六態様のいずれかに係るコンピュータプログラムは、以下のように構成されうる。
前記プロセッサに、
前記位置データセットに基づいて前記乗員の顔の向きを判別させ、
判別された前記顔の向きが特定の向きである場合に、前記頭部の中心位置の推定を行なわせる、
The computer program according to any one of the above-mentioned second aspect, fourth aspect, and sixth aspect can be configured as follows.
To the processor
The orientation of the occupant's face is determined based on the position data set.
When the determined orientation of the face is a specific orientation, the center position of the head is estimated.

例えば乗員の顔が位置データセットの取得装置に面していない場合、位置データサブセットに含まれる複数の点要素の分布が偏り、頭部の位置の特定が難しくなる傾向にある。頭部の中心位置の推定の実行をこのような場合に限ることにより、頭部判別装置の処理負荷を抑制しつつ、乗員の頭部の判別精度の低下を抑制できる。 For example, when the occupant's face does not face the position data set acquisition device, the distribution of a plurality of point elements included in the position data subset tends to be biased, making it difficult to identify the position of the head. By limiting the estimation of the center position of the head to such a case, it is possible to suppress the processing load of the head discrimination device and suppress the deterioration of the discrimination accuracy of the occupant's head.

上記の第一態様、第三態様、および第五態様のいずれかに係る頭部判別装置は、以下のように構成されうる。
前記入力インターフェースは、前記位置データセットを、TOF(Time of Flight)カメラから受け付ける。
The head discrimination device according to any one of the above-mentioned first aspect, third aspect, and fifth aspect can be configured as follows.
The input interface receives the position data set from a TOF (Time of Flight) camera.

上記の第二態様、第四態様、および第六態様のいずれかに係るコンピュータプログラムは、以下のように構成されうる。
前記位置データセットは、TOF(Time of Flight)カメラから取得される。
The computer program according to any one of the above-mentioned second aspect, fourth aspect, and sixth aspect can be configured as follows.
The position data set is acquired from a TOF (Time of Flight) camera.

上記のような構成によれば、乗員の頭部に係る位置情報を、画像情報とともに効率的に取得できる。 According to the above configuration, the position information related to the occupant's head can be efficiently acquired together with the image information.

上記の目的を達成するための一態様は、上記の第二態様、第四態様、および第六態様のいずれかに係るコンピュータプログラムを記憶している記憶媒体である。 One aspect for achieving the above object is a storage medium that stores a computer program according to any one of the second, fourth, and sixth aspects described above.

本発明によれば、車室内の乗員の頭部の判別精度を高めることができる。 According to the present invention, it is possible to improve the discrimination accuracy of the head of the occupant in the vehicle interior.

一実施形態に係る頭部判別システムの構成を例示している。The configuration of the head discrimination system according to one embodiment is illustrated. 図1の頭部判別システムが搭載される車両の一部を例示している。A part of the vehicle equipped with the head discrimination system of FIG. 1 is illustrated. 図1の頭部判別装置により実行される処理の流れを例示している。The flow of processing executed by the head discriminating device of FIG. 1 is illustrated. 図1の頭部判別装置により実行される処理を説明するための図である。It is a figure for demonstrating the process executed by the head discriminating device of FIG. 図1の頭部判別装置により実行される処理を説明するための図である。It is a figure for demonstrating the process executed by the head discriminating device of FIG. 図1の頭部判別装置により実行される処理を説明するための図である。It is a figure for demonstrating the process executed by the head discriminating device of FIG. 図1の頭部判別装置により実行される処理を説明するための図である。It is a figure for demonstrating the process executed by the head discriminating device of FIG. 図1の頭部判別装置により実行される処理を説明するための図である。It is a figure for demonstrating the process executed by the head discriminating device of FIG. 図3における頭部中心位置の推定処理の第一の具体例を示している。A first specific example of the head center position estimation process in FIG. 3 is shown. 図9の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 図3における頭部中心位置の推定処理の第二の具体例を示している。A second specific example of the head center position estimation process in FIG. 3 is shown. 図11の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 図3における頭部中心位置の推定処理の第三の具体例を示している。A third specific example of the head center position estimation process in FIG. 3 is shown. 図13の処理を説明するための図である。It is a figure for demonstrating the process of FIG.

添付の図面を参照しつつ、実施形態例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。 An embodiment will be described in detail below with reference to the accompanying drawings. In each drawing used in the following description, the scale is appropriately changed so that each member has a recognizable size.

図1は、一実施形態に係る頭部判別システム1の構成を模式的に示している。頭部判別システム1は、TOF(Time of Flight)カメラ2と頭部判別装置3を含んでいる。図2は、頭部判別システム1が搭載される車両4の一部を示している。矢印Lは、車両4の前後方向に沿う向きを示している。矢印Hは、車両4の高さ方向に沿う向きを示している。 FIG. 1 schematically shows the configuration of the head discrimination system 1 according to the embodiment. The head discrimination system 1 includes a TOF (Time of Flight) camera 2 and a head discrimination device 3. FIG. 2 shows a part of the vehicle 4 on which the head discrimination system 1 is mounted. The arrow L indicates the direction along the front-rear direction of the vehicle 4. The arrow H indicates the direction along the height direction of the vehicle 4.

TOFカメラ2は、図2に示される車両4の車室41内における適宜の位置に配置され、撮像された車室41を含む画像を取得する。 The TOF camera 2 is arranged at an appropriate position in the passenger compartment 41 of the vehicle 4 shown in FIG. 2, and acquires an image including the captured passenger compartment 41.

TOFカメラ2は、発光素子と受光素子を備えている。発光素子は、検出光として例えば赤外光を出射する。出射された検出光は、対象物によって反射され、戻り光として受光素子に入射する。検出光が発光素子より出射されてから戻り光が受光素子に入射するまでの時間が測定されることにより、戻り光を生じた対象物までの距離が算出される。TOFカメラ2により取得される画像を構成する複数の画素の各々について当該距離が算出されることにより、各画素は、画像における二次元的な位置座標(U,V)に加えて、当該画素に対応する対象物の一部までの距離(奥行き)を示す距離情報d(U,V)を含む。 The TOF camera 2 includes a light emitting element and a light receiving element. The light emitting element emits, for example, infrared light as detection light. The emitted detection light is reflected by the object and enters the light receiving element as return light. The distance to the object that generated the return light is calculated by measuring the time from when the detection light is emitted from the light emitting element to when the return light is incident on the light receiving element. By calculating the distance for each of the plurality of pixels constituting the image acquired by the TOF camera 2, each pixel can be attached to the pixel in addition to the two-dimensional position coordinates (U, V) in the image. Includes distance information d (U, V) indicating the distance (depth) to a part of the corresponding object.

TOFカメラ2は、取得された画像に対応する画像データIDを出力する。画像データIDは、複数の画素データセットを含んでいる。複数の画素データセットの各々は、取得された画像を構成する複数の画素の対応する一つに関連づけられている。複数の画素データセットの各々は、位置座標(U,V)と距離情報d(U,V)を含んでいる。すなわち、複数の画素データセットの各々は、三次元空間における位置に対応付けられている。複数の画素データセットの各々は、点要素の一例である。画像データIDは、位置データセットの一例でもある。 The TOF camera 2 outputs an image data ID corresponding to the acquired image. The image data ID includes a plurality of pixel data sets. Each of the plurality of pixel data sets is associated with a corresponding one of the plurality of pixels constituting the acquired image. Each of the plurality of pixel data sets includes position coordinates (U, V) and distance information d (U, V). That is, each of the plurality of pixel data sets is associated with a position in the three-dimensional space. Each of the plurality of pixel data sets is an example of a point element. The image data ID is also an example of a position data set.

頭部判別装置3は、車両4における適宜の位置に搭載される。頭部判別装置3は、TOFカメラ2から提供される画像データIDに基づいて、撮像された車室41内の運転者5の頭部51を判別するための装置である。運転者5は、乗員の一例である。 The head discrimination device 3 is mounted at an appropriate position on the vehicle 4. The head discrimination device 3 is a device for discriminating the head 51 of the driver 5 in the vehicle interior 41 that has been imaged based on the image data ID provided by the TOF camera 2. The driver 5 is an example of an occupant.

頭部判別装置3は、入力インターフェース31を備えている。入力インターフェース31は、TOFカメラ2から出力された画像データIDを受け付ける。 The head discrimination device 3 includes an input interface 31. The input interface 31 receives the image data ID output from the TOF camera 2.

頭部判別装置3は、プロセッサ32を備えている。プロセッサ32は、入力インターフェース31に入力された画像データIDに基づいて、撮像された運転者5の頭部51を判別する処理を実行する。 The head discrimination device 3 includes a processor 32. The processor 32 executes a process of determining the head 51 of the driver 5 that has been imaged based on the image data ID input to the input interface 31.

図3を参照しつつ、プロセッサ32によって行なわれる処理の流れを説明する。プロセッサ32は、まず画像データIDに対して予備処理を実行する(STEP1)。 The flow of processing performed by the processor 32 will be described with reference to FIG. The processor 32 first executes preliminary processing on the image data ID (STEP 1).

各画素データに含まれる位置座標(U,V)と距離情報d(U,V)は、画像中心座標が(cX,cY)と定義された場合、次式を用いてカメラ座標系における三次元空間上の点(X,Y,Z)に変換されうる。fは、TOFカメラ2が備えるレンズの焦点距離を表している。 The position coordinates (U, V) and distance information d (U, V) included in each pixel data are in the camera coordinate system using the following equation when the image center coordinates are defined as (c X , c Y ). It can be converted into points (X, Y, Z) in three-dimensional space. f represents the focal length of the lens included in the TOF camera 2.

プロセッサ32は、上式に基づいて、位置座標(U,V)と距離情報d(U,V)からカメラ座標系における三次元空間上の点(X,Y,Z)への変換を行なう。なお、位置座標(U,V)と距離情報d(U,V)からカメラ座標系における三次元空間上の点(X,Y,Z)への変換は、TOFカメラ2に内蔵されたプロセッサによって行なわれてもよい。この場合、TOFカメラ2から出力される画像データIDに含まれる複数の画素データセットの各々は、位置座標(X,Y,Z)を含む。この場合においても、複数の画素データセットの各々は、三次元空間における位置に対応付けられている。この場合においても、複数の画素データセットの各々は、点要素の一例である。この場合においても、画像データIDは、位置データセットの一例でもある。 Based on the above equation, the processor 32 converts the position coordinates (U, V) and the distance information d (U, V) into points (X, Y, Z) in the three-dimensional space in the camera coordinate system. The conversion of the position coordinates (U, V) and the distance information d (U, V) to the points (X, Y, Z) in the three-dimensional space in the camera coordinate system is performed by the processor built in the TOF camera 2. It may be done. In this case, each of the plurality of pixel data sets included in the image data ID output from the TOF camera 2 includes the position coordinates (X, Y, Z). Even in this case, each of the plurality of pixel data sets is associated with a position in the three-dimensional space. Even in this case, each of the plurality of pixel data sets is an example of a point element. In this case as well, the image data ID is also an example of the position data set.

カメラ座標系における位置座標(X,Y,Z)は、車両4における特定の位置を原点とする車両座標系における位置座標(W,L,H)に変換されうる。W軸は、車両4の左右方向に延びる座標軸である。例えば、運転席における特定の位置を原点とした場合、W軸の座標値は、運転者5から見て原点よりも右方において正の値をとり、原点よりも左方において負の値をとる。L軸は、車両4の前後方向に延びる座標軸である。例えば、L軸の座標値は、原点よりも前方において正の値をとり、原点よりも後方において負の値をとる。H軸は、車両4の上下方向に延びる座標軸である。例えば、H軸の座標値は、原点よりも上方において正の値をとり、原点よりも下方において負の値をとる。 The position coordinates (X, Y, Z) in the camera coordinate system can be converted into the position coordinates (W, L, H) in the vehicle coordinate system having a specific position in the vehicle 4 as the origin. The W axis is a coordinate axis extending in the left-right direction of the vehicle 4. For example, when a specific position in the driver's seat is set as the origin, the coordinate value of the W axis takes a positive value to the right of the origin and a negative value to the left of the origin when viewed from the driver 5. .. The L-axis is a coordinate axis extending in the front-rear direction of the vehicle 4. For example, the coordinate value of the L-axis takes a positive value in front of the origin and a negative value in the rear of the origin. The H axis is a coordinate axis extending in the vertical direction of the vehicle 4. For example, the H-axis coordinate value takes a positive value above the origin and a negative value below the origin.

プロセッサ32は、各画素データについてカメラ座標系における位置座標(X,Y,Z)から車両座標系における位置座標(W,L,H)への変換を行なう。原点は、例えば運転者5の腰骨に対応する位置として選ばれる。車両座標系への座標変換は、周知の座標回転変換、平行移動変換、スケール変換などを用いて行なわれうる。 The processor 32 converts each pixel data from the position coordinates (X, Y, Z) in the camera coordinate system to the position coordinates (W, L, H) in the vehicle coordinate system. The origin is selected, for example, as a position corresponding to the hipbone of the driver 5. The coordinate transformation to the vehicle coordinate system can be performed using well-known coordinate rotation transformation, translation transformation, scale transformation, or the like.

続いてプロセッサ32は、処理対象とされる空間領域を限定する処理を行なう。具体的には、TOFカメラ2から取得された画像データIDから、限定された空間領域に対応する複数の画素データセットPDが抽出される。 Subsequently, the processor 32 performs a process of limiting the spatial area to be processed. Specifically, a plurality of pixel data set PDs corresponding to a limited spatial area are extracted from the image data ID acquired from the TOF camera 2.

図4の(A)は、TOFカメラ2から取得された画像データIDの一例を示している。図2に示されるように、運転席に着座した運転者5の頭部51は、車室41の上部に位置している蓋然性が高い。したがって、処理対象とされる空間領域が当該車室41の上部に限定される。例えば、限定された空間領域は、W軸の座標値が−510mm〜360mm、L軸の座標値が−280mm〜700mm、H軸の座標値が430mm〜750mmの範囲である空間領域として定義されうる。図4の(B)は、限定された空間領域に対応する複数の画素データセットPDの一例を示している。 FIG. 4A shows an example of the image data ID acquired from the TOF camera 2. As shown in FIG. 2, it is highly probable that the head 51 of the driver 5 seated in the driver's seat is located above the passenger compartment 41. Therefore, the space area to be processed is limited to the upper part of the vehicle interior 41. For example, a limited spatial region can be defined as a spatial region in which the W-axis coordinate value ranges from -510 mm to 360 mm, the L-axis coordinate value ranges from -280 mm to 700 mm, and the H-axis coordinate value ranges from 430 mm to 750 mm. .. FIG. 4B shows an example of a plurality of pixel data sets PD corresponding to a limited spatial area.

空間領域を限定する処理が行なわれることにより、後述する頭部51の判別処理の負荷が軽減されうる。しかしながら、この処理は省略されてもよい。 By performing the process of limiting the spatial area, the load of the discrimination process of the head 51, which will be described later, can be reduced. However, this process may be omitted.

続いてプロセッサ32は、上記のように抽出された複数の画素データセットPDを複数のデータサブセットDSに分割する(図3のSTEP2)。 Subsequently, the processor 32 divides the plurality of pixel data set PDs extracted as described above into a plurality of data subset DSs (STEP 2 in FIG. 3).

図5の(A)は、L軸とH軸により形成されるLH座標平面に射影された複数の画素データセットPDを示している。プロセッサ32は、LH座標平面に射影された複数の画素データセットPDを複数のデータサブセットDSに分割することにより、車室41の一部を構成する複数の空間領域(車室空間領域)の一つに各データサブセットDSを対応付ける。 FIG. 5A shows a plurality of pixel data sets PD projected on the LH coordinate plane formed by the L-axis and the H-axis. The processor 32 divides a plurality of pixel data sets PD projected on the LH coordinate plane into a plurality of data subsets DS, thereby dividing the plurality of pixel data sets PD into one of a plurality of space areas (vehicle compartment space areas) constituting a part of the vehicle interior 41. Each data subset DS is associated with one.

各データサブセットDSに対応する車室空間領域は、L軸に沿う所定の幅dLを有している。幅dLは、人の頭部に対応する寸法として予め定められうる。「人の頭部に対応する寸法」は、例えば国立研究開発法人産業技術総合研究所の人体寸法データベースや独立行政法人製品評価技術基盤機構の人間特性データベースなどに公開されている頭部の大きさに係る情報に基づいて定められうる。 The vehicle interior space area corresponding to each data subset DS has a predetermined width dL along the L axis. The width dL can be predetermined as a dimension corresponding to the human head. "Dimensions corresponding to the human head" are, for example, the size of the head published in the human body size database of the National Institute of Advanced Industrial Science and Technology and the human characteristics database of the National Institute of Technology and Evaluation Technology. It can be determined based on the information related to.

続いてプロセッサ32は、高尤度データサブセットLDSを特定する(図3のSTEP3)。高尤度データサブセットLDSは、運転者5の頭部51が存在する可能性が高い車室空間領域に対応するデータサブセットDSである。 The processor 32 then identifies the high likelihood data subset LDS (STEP 3 in FIG. 3). The high-likelihood data subset LDS is a data subset DS corresponding to the vehicle interior space region in which the head 51 of the driver 5 is likely to be present.

具体的には、プロセッサ32は、各データサブセットDSに含まれる有意な画素データセットの数を計数する。「有意な画素データセット」とは、運転者5によって検出光が反射されたことにより取得された可能性が高い距離情報D(U,V)を有している画素データセットを意味する。そのような距離情報Dの数値範囲は、TOFカメラ2と運転者5との位置関係に基づいて適宜に定められうる。 Specifically, the processor 32 counts the number of significant pixel data sets contained in each data subset DS. The “significant pixel data set” means a pixel data set having distance information D (U, V) that is likely to have been acquired by reflecting the detected light by the driver 5. The numerical range of such distance information D can be appropriately determined based on the positional relationship between the TOF camera 2 and the driver 5.

LH座標平面に射影された複数の画素データセットPDの場合、有意な画素データセットを最も多く含むデータサブセットDSに対応する車室空間領域には、運転者5の頭部51と胴体52が含まれている可能性が高い。 In the case of a plurality of pixel data sets PD projected on the LH coordinate plane, the cabin space area corresponding to the data subset DS containing the most significant pixel data sets includes the head 51 and the fuselage 52 of the driver 5. There is a high possibility that it has been.

したがって、図5の(B)に示されるように、プロセッサ32は、有意な画素データセットを最も多く含むデータサブセットDSを、高尤度データサブセットLDSとして特定する。換言すると、プロセッサ32は、各データサブセットDSに含まれる運転者5に対応する画素データセットの数に基づいて、頭部51が存在する可能性が高い複数の車室空間領域の少なくとも一つに対応する高尤度データサブセットLDSを特定する。 Therefore, as shown in FIG. 5B, the processor 32 identifies the data subset DS, which contains the most significant pixel data sets, as the high likelihood data subset LDS. In other words, the processor 32 is in at least one of the plurality of cabin space areas where the head 51 is likely to be present, based on the number of pixel data sets corresponding to the driver 5 included in each data subset DS. Identify the corresponding high likelihood data subset LDS.

続いてプロセッサ32は、特定された高尤度データサブセットLDSに基づいて、頭部の判別を行なう(図3のSTEP4)。 The processor 32 then discriminates the head based on the identified high likelihood data subset LDS (STEP 4 in FIG. 3).

まず、図5の(B)に示されるように、プロセッサ32は、運転者5の頭頂部51aを特定する。具体的には、高尤度データサブセットLDSに含まれる有意な画素データセットのうち、最も高い位置にあるものが、頭頂部51aであると特定される。換言すると、高尤度データサブセットLDSに含まれる有意な画素データセットのうち、最も大きなH軸座標値を有するものが、頭頂部51aであると特定される。 First, as shown in FIG. 5B, the processor 32 identifies the crown 51a of the driver 5. Specifically, among the significant pixel data sets included in the high-likelihood data subset LDS, the one at the highest position is identified as the crown 51a. In other words, among the significant pixel data sets included in the high likelihood data subset LDS, the one having the largest H-axis coordinate value is identified as the crown 51a.

続いて、図6の(A)と(B)に示されるように、プロセッサ32は、撮像された運転者5の頭部51が含まれる蓋然性の高い頭部空間領域HSRを定義する。頭部空間領域HSRは、特定された頭頂部51aの座標に基づいて定められる。具体的には、国立研究開発法人産業技術総合研究所の人体寸法データベースや独立行政法人製品評価技術基盤機構の人間特性データベースなどに公開されている頭部の大きさに係る情報に基づいて、頭部空間領域HSRのL軸に沿う方向の寸法hdL、H軸に沿う方向の寸法hdH、およびW軸に沿う方向の寸法hdWが定められる。 Subsequently, as shown in FIGS. 6A and 6B, the processor 32 defines a probable head space region HSR that includes the imaged driver 5 head 51. The head space region HSR is determined based on the coordinates of the identified parietal region 51a. Specifically, the head is based on the information on the size of the head published in the human body size database of the National Institute of Advanced Industrial Science and Technology and the human characteristics database of the National Institute of Technology and Evaluation Technology. The dimension hdL in the direction along the L axis of the partial space region HSR, the dimension hdH in the direction along the H axis, and the dimension hdW in the direction along the W axis are determined.

例えば、寸法hdLは、頭頂部51aの座標を中心として176mmの値をとるように定められる。寸法hdHは、頭頂部51aの座標から下方へ146mmの値をとるように定められる。寸法hdWは、頭頂部51aの座標を中心として176mmの値をとるように定められる。 For example, the dimension hdL is determined to take a value of 176 mm centered on the coordinates of the crown 51a. The dimension hdH is determined to take a value of 146 mm downward from the coordinates of the crown 51a. The dimension hdW is determined to take a value of 176 mm centered on the coordinates of the crown 51a.

次にプロセッサ32は、図7の(A)に示されるように、上記のように定められた頭部空間領域HSRに対応する頭部データサブセットHSDを、複数の画素データセットPDから抽出する。 Next, as shown in FIG. 7A, the processor 32 extracts the head data subset HSD corresponding to the head space region HSR defined as described above from the plurality of pixel data sets PD.

さらに、図7の(B)に示されるように、プロセッサ32は、頭部データサブセットHSDのうち、上記のように定められた頭部空間領域HSRの重心位置G(Wg,Lg,Hg)に対応する画素データセットを特定する。 Further, as shown in FIG. 7B, the processor 32 is located at the center of gravity position G (Wg, Lg, Hg) of the head space region HSR defined as described above in the head data subset HSD. Identify the corresponding pixel dataset.

続いてプロセッサ32は、頭部51の中心位置を推定する処理を行なう(図3のSTEP5)。頭部データサブセットHSDは、頭部51の表面からの戻り光に基づいて取得されているので、上記のように特定された重心位置Gは、頭部51の中心(実際の重心)よりも表面に寄る傾向にある。図8の(A)に示されるように、運転者5の頭部51は球体Sで近似できる。頭部データサブセットHSDに含まれる複数の画素データセット(点要素)が球体Sの表面に分布していると仮定すれば、各点要素から球体Sの中心までの距離は等しくなる。 Subsequently, the processor 32 performs a process of estimating the center position of the head 51 (STEP 5 in FIG. 3). Since the head data subset HSD is acquired based on the return light from the surface of the head 51, the center of gravity position G identified as described above is more surface than the center of the head 51 (actual center of gravity). There is a tendency to approach. As shown in FIG. 8A, the head 51 of the driver 5 can be approximated by a sphere S. Assuming that a plurality of pixel data sets (point elements) included in the head data subset HSD are distributed on the surface of the sphere S, the distances from each point element to the center of the sphere S are equal.

そこでプロセッサ32は、各点要素からの距離のばらつきが最小となる点を探索し、重心位置Gがそのような点の位置となるように補正する。プロセッサ32は、補正された重心位置G’を頭部51の中心位置Cとして推定する。 Therefore, the processor 32 searches for a point where the variation in the distance from each point element is the minimum, and corrects the center of gravity position G to be the position of such a point. The processor 32 estimates the corrected center of gravity position G'as the center position C of the head 51.

各点要素からの距離のばらつきが最小となる点は、例えば次式で表される評価関数の値が最小になるような点として探索されうる。
nは、頭部データサブセットHSDに含まれる複数の点要素の数を表している。
kは、頭部データサブセットHSDに含まれる各点要素の位置を表している。
Gは、上記のように特定された頭部51の重心位置を表している。
d(pk,G)は、ある点要素の位置と重心位置の間のユークリッド距離を表している。
The point where the variation in the distance from each point element is minimized can be searched for, for example, the point where the value of the evaluation function represented by the following equation is minimized.
n represents the number of plurality of point elements contained in the head data subset HSD.
p k represents the position of each point element included in the head data subset HSD.
G represents the position of the center of gravity of the head 51 specified as described above.
d ( pk , G) represents the Euclidean distance between the position of a certain point element and the position of the center of gravity.

さらにプロセッサ32は、頭部51を近似する球体Sの半径を特定する。当該半径は、例えば当初の重心位置Gと補正後の重心位置G’の間のユークリッド距離に基づいて特定されうる。 Further, the processor 32 specifies the radius of the sphere S that approximates the head 51. The radius can be specified, for example, based on the Euclidean distance between the initial center of gravity position G and the corrected center of gravity position G'.

プロセッサ32は、このようにして推定された中心位置Cに基づいて、運転者5の頭部51の位置を特定する。図1に示されるように、頭部判別装置3は、出力インターフェース33を備えている。出力インターフェース33は、判別された運転者5の頭部の位置を示すデータHDを出力しうる。出力されたデータHDは、後段の認識処理において利用される。当該認識処理においては、例えば、当該データが示す顔の向きの経時変化がモニタされることによって、運転者5の頭部51の向き、傾き、動きなどが認識されうる。これにより、運転中における運転者5の脇見、居眠り、発作による異常挙動などが検知されうる。 The processor 32 identifies the position of the driver 5's head 51 based on the center position C thus estimated. As shown in FIG. 1, the head discrimination device 3 includes an output interface 33. The output interface 33 can output data HD indicating the position of the determined head of the driver 5. The output data HD is used in the subsequent recognition process. In the recognition process, for example, the direction, inclination, movement, etc. of the head 51 of the driver 5 can be recognized by monitoring the change with time of the face orientation indicated by the data. As a result, inattentiveness, dozing, and abnormal behavior due to seizures of the driver 5 during driving can be detected.

図1に示されるように、頭部判別装置3は、ストレージ34を備えている。ストレージ34は、プロセッサ32と協働して所定のデータを記憶可能な装置である。ストレージ34としては、半導体メモリやハードディスクドライブ装置が例示されうる。 As shown in FIG. 1, the head discrimination device 3 includes a storage 34. The storage 34 is a device capable of storing predetermined data in cooperation with the processor 32. Examples of the storage 34 include a semiconductor memory and a hard disk drive device.

プロセッサ32は、推定された頭部51の中心位置Cを示すデータと頭部51を近似する球体Sの半径を示すデータを、ストレージ34に記憶させる(図3のSTEP6)。 The processor 32 stores the data indicating the estimated center position C of the head 51 and the data indicating the radius of the sphere S that approximates the head 51 in the storage 34 (STEP 6 in FIG. 3).

頭部判別装置3は、運転者5の頭部51を繰り返し判別するように構成されている。繰り返しの周期は、適宜に定められる。頭部51の中心位置Cを示すデータが一旦ストレージ34に記憶されると、プロセッサ32は、頭部データサブセットHSDとストレージに記憶された中心位置Cを示すデータに基づいて、運転者5の頭部51の位置を特定する。換言すると、プロセッサ32は、今回取得された頭部データサブセットHSDと過去に特定された運転者5の頭部51の位置に基づいて、頭部51の判別を行なう。ストレージ34に格納されたデータに対応する頭部51の中心位置Cは、過去位置の一例である。 The head discrimination device 3 is configured to repeatedly discriminate the head 51 of the driver 5. The cycle of repetition is determined as appropriate. Once the data indicating the center position C of the head 51 is stored in the storage 34, the processor 32 heads the driver 5 based on the head data subset HSD and the data indicating the center position C stored in the storage. The position of the part 51 is specified. In other words, the processor 32 discriminates the head 51 based on the head data subset HSD acquired this time and the position of the head 51 of the driver 5 identified in the past. The center position C of the head 51 corresponding to the data stored in the storage 34 is an example of the past position.

図9は、頭部51の過去位置に基づいて現在の頭部51の中心位置Cを推定する処理の第一の例を示している。 FIG. 9 shows a first example of the process of estimating the center position C of the current head 51 based on the past position of the head 51.

図3から図7を参照して説明したように、プロセッサ32は、TOFカメラ2から取得された画像データIDから頭部データサブセットHSDを抽出する(STEP511)。前述のように、頭部データサブセットHSDは、運転者5の頭部51が存在する可能性が高い三次元空間の領域に対応している。本例においては、頭部データサブセットHSDは、第一位置データサブセットの一例である。 As described with reference to FIGS. 3 to 7, the processor 32 extracts the head data subset HSD from the image data ID acquired from the TOF camera 2 (STEP 511). As mentioned above, the head data subset HSD corresponds to a region of three-dimensional space in which the head 51 of the driver 5 is likely to be present. In this example, the head data subset HSD is an example of a first position data subset.

図10の(A)は、今回取得された頭部データサブセットHSDを示している。本例においては、運転者5の頭部51だけでなく、左肩部53からの戻り光に基づく画素データセット(点要素)が含まれている。このような頭部データサブセットHSDに含まれる複数の点要素に基づいて求められる重心位置Gは、実際の頭部51の重心位置よりも左肩部53に近づく。このような重心位置Gに基づいて中心位置Cの推定がなされると、実際の頭部51の中心位置よりも左肩部53に近い位置が推定されてしまう。 FIG. 10A shows the head data subset HSD acquired this time. In this example, not only the head 51 of the driver 5 but also a pixel data set (point element) based on the return light from the left shoulder 53 is included. The center of gravity position G obtained based on the plurality of point elements included in such a head data subset HSD is closer to the left shoulder portion 53 than the actual center of gravity position of the head 51. When the center position C is estimated based on the center of gravity position G, the position closer to the left shoulder portion 53 than the actual center position of the head 51 is estimated.

そこでプロセッサ32は、ストレージ34に記憶されている過去の頭部51の中心位置Cに対応するデータを読み出す(図9のSTEP512)。以降の説明において、過去の頭部51の中心位置Cを過去中心位置C’と表記する。 Therefore, the processor 32 reads out the data corresponding to the center position C of the past head portion 51 stored in the storage 34 (STEP 512 in FIG. 9). In the following description, the center position C of the past head 51 will be referred to as the past center position C'.

続いてプロセッサ32は、過去中心位置C’から所定の距離よりも離れた三次元空間の領域に頭部データサブセットHSDに含まれる点要素があるかを判断する(STEP513)。図10の(B)において、球体Sの外側は、過去中心位置C’から所定の距離よりも離れた三次元空間の領域に対応している。 The processor 32 then determines whether there is a point element included in the head data subset HSD in a region of three-dimensional space that is more than a predetermined distance from the past center position C'(STEP 513). In FIG. 10B, the outside of the sphere S corresponds to a region of three-dimensional space that is more than a predetermined distance from the past center position C'.

本例においては、当該領域に頭部データサブセットHSDの点要素が存在している(図9のSTEP513においてYES)。この場合、プロセッサ32は、過去中心位置C’から所定の距離よりも離れた三次元空間の領域に対応する頭部データサブセットHSDの一部を削除する(STEP514)。過去中心位置C’から所定の距離よりも離れた三次元空間の領域に対応する頭部データサブセットHSDの一部は、第二位置データサブセットの一例である。 In this example, the point element of the head data subset HSD exists in the region (YES in STEP 513 of FIG. 9). In this case, the processor 32 deletes a part of the head data subset HSD corresponding to the region of the three-dimensional space that is more than a predetermined distance from the past center position C'(STEP 514). A portion of the head data subset HSD corresponding to a region of three-dimensional space that is more than a predetermined distance from the past center position C'is an example of a second position data subset.

続いてプロセッサ32は、図10の(C)に示されるように、残された頭部データサブセットHSDの一部に含まれる複数の点要素の重心位置Gを特定し、当該重心位置Gに基づいて頭部51の中心位置Cを推定する(図9のSTEP515)。中心位置Cの推定の仕方は、図8の(A)を参照して説明した通りである。図10の(A)に示された例と比較すると、実際の頭部51の中心のより近くに中心位置Cが推定されていることが判る。 Subsequently, as shown in (C) of FIG. 10, the processor 32 identifies the center-of-gravity positions G of a plurality of point elements included in a part of the remaining head data subset HSD, and is based on the center-of-gravity position G. The center position C of the head 51 is estimated (STEP 515 in FIG. 9). The method of estimating the center position C is as described with reference to FIG. 8A. Comparing with the example shown in FIG. 10A, it can be seen that the center position C is estimated closer to the center of the actual head 51.

過去中心位置C’から所定の距離よりも離れた三次元空間の領域に頭部データサブセットHSDに含まれる点要素がない場合(STEP513においてNO)、処理はSTEP515に移行し、頭部データサブセットHSDに含まれる全ての点要素に基づいて重心位置Gの特定と中心位置Cの推定がなされる。 If there is no point element included in the head data subset HSD in the region of the three-dimensional space more than a predetermined distance from the past center position C'(NO in STEP 513), the process shifts to STEP 515 and the head data subset HSD The center of gravity position G is specified and the center position C is estimated based on all the point elements included in.

続いてプロセッサ32は、このように推定された中心位置Cに対応するデータを、ストレージ34に記憶させる(図9のSTEP516)。すなわち、今回推定された中心位置Cに対応するデータによって、ストレージ34に記憶されていた過去中心位置C’に対応するデータが上書きされる。今回記憶されたデータは、次回の頭部51の中心位置Cの推定処理時において、過去中心位置C’に対応するデータとして取り扱われる。 Subsequently, the processor 32 stores the data corresponding to the center position C thus estimated in the storage 34 (STEP 516 in FIG. 9). That is, the data corresponding to the center position C estimated this time overwrites the data corresponding to the past center position C'stored in the storage 34. The data stored this time is treated as data corresponding to the past center position C'in the next estimation process of the center position C of the head 51.

すなわち、本例においては、頭部51の中心位置Cの推定に用いられる頭部データサブセットHSDが制限される場合がある。制限は、過去中心位置C’から所定の距離よりも離れた三次元空間の領域にある頭部データサブセットHSDの一部を削除することによってなされる。頭部データサブセットHSDの一部は、中心位置Cの推定に使用されなければ、削除されなくてもよい。 That is, in this example, the head data subset HSD used to estimate the center position C of the head 51 may be restricted. The limitation is made by deleting a portion of the head data subset HSD in a region of three-dimensional space that is more than a predetermined distance from the past center position C'. A portion of the head data subset HSD may not be deleted if it is not used to estimate center position C.

前述のように、頭部データサブセットHSDは、運転者5の頭部51が存在する可能性が高い三次元空間の領域に対応している。しかしながら、運転者5の姿勢や体格、TOFカメラ2による画像取得条件などによっては、頭部51以外の身体部位が頭部データサブセットHSDに含まれてしまう場合がある。上記のような構成によれば、予期せず頭部データサブセットに含まれた頭部51以外の身体部位に対応するデータが、頭部51の中心位置Cの推定に対してノイズとして及ぼす影響を抑制できる。したがって、頭部51の中心位置Cの推定精度が高まる。結果として、車室41内の運転者5の頭部51の判別精度を高めることができる。 As mentioned above, the head data subset HSD corresponds to a region of three-dimensional space in which the head 51 of the driver 5 is likely to be present. However, depending on the posture and physique of the driver 5, the image acquisition conditions by the TOF camera 2, and the like, body parts other than the head 51 may be included in the head data subset HSD. According to the above configuration, the data corresponding to the body parts other than the head 51 unexpectedly included in the head data subset has an effect as noise on the estimation of the center position C of the head 51. Can be suppressed. Therefore, the estimation accuracy of the center position C of the head 51 is improved. As a result, the discrimination accuracy of the head 51 of the driver 5 in the vehicle interior 41 can be improved.

STEP513における判断の基準となる過去中心位置C’からの所定の距離は、頭部51の一般的な大きさに対応する距離として定められうる。この場合、「頭部51の一般的な大きさに対応する距離」は、例えば国立研究開発法人産業技術総合研究所の人体寸法データベースや独立行政法人製品評価技術基盤機構の人間特性データベースなどに公開されている頭部の大きさに係る情報に基づいて定められうる。 The predetermined distance from the past center position C', which is the reference for the judgment in STEP 513, can be determined as a distance corresponding to the general size of the head 51. In this case, the "distance corresponding to the general size of the head 51" is disclosed in, for example, the human body size database of the National Institute of Advanced Industrial Science and Technology and the human characteristics database of the National Institute of Technology and Evaluation Technology. It can be determined based on the information regarding the size of the head.

より好ましくは、繰り返される中心位置Cの推定の間に頭部51が移動しうる距離が、頭部51の大きさに基づいて定められた距離に加えられる。加えられる距離の値は、例えば60mmとされうる。すなわち、過去中心位置C’からの所定の距離は、頭部51の大きさと頭部51の移動可能性に基づいて定められうる。 More preferably, the distance that the head 51 can move during the repeated estimation of the center position C is added to the distance determined based on the size of the head 51. The value of the distance added can be, for example, 60 mm. That is, the predetermined distance from the past center position C'can be determined based on the size of the head 51 and the mobility of the head 51.

このような構成によれば、中心位置Cの推定に本来必要である頭部51に対応するデータが制限の対象とされてしまう事態の回避が容易になる。したがって、中心位置Cの推定精度の低下を抑制できる。 With such a configuration, it becomes easy to avoid a situation in which the data corresponding to the head 51, which is originally necessary for estimating the central position C, is subject to restriction. Therefore, it is possible to suppress a decrease in the estimation accuracy of the center position C.

図11は、頭部51の過去位置に基づいて現在の頭部51の中心位置Cを推定する処理の第二の例を示している。 FIG. 11 shows a second example of the process of estimating the center position C of the current head 51 based on the past position of the head 51.

図3から図7を参照して説明したように、プロセッサ32は、TOFカメラ2から取得された画像データIDから頭部データサブセットHSDを抽出する(STEP521)。前述のように、頭部データサブセットHSDは、運転者5の頭部51が存在する可能性が高い三次元空間の領域に対応している。頭部データサブセットHSDは、位置データサブセットの一例である。 As described with reference to FIGS. 3 to 7, the processor 32 extracts the head data subset HSD from the image data ID acquired from the TOF camera 2 (STEP 521). As mentioned above, the head data subset HSD corresponds to a region of three-dimensional space in which the head 51 of the driver 5 is likely to be present. The head data subset HSD is an example of a position data subset.

続いてプロセッサ32は、抽出された頭部データサブセットHSDに含まれる複数の点要素の重心位置Gを特定する。 Subsequently, the processor 32 identifies the center of gravity positions G of the plurality of point elements included in the extracted head data subset HSD.

図8の(B)は、運転者5の顔が車室41における右方を向いている場合を例示している。運転者5の顔がTOFカメラ2に面していない本例においては、頭部データサブセットHSDに含まれる複数の点要素の分布が特定の方向へ偏る。このような複数の点要素が表面に分布していると仮定された球体Sの半径は、妥当な値を有しない傾向にある。偏った分布の複数の点要素から特定された重心位置Gに基づいて推定される中心位置Cもまた、実際の頭部51の中心からずれる傾向にある。 FIG. 8B illustrates a case where the driver 5's face is facing to the right in the passenger compartment 41. In this example in which the face of the driver 5 does not face the TOF camera 2, the distribution of a plurality of point elements included in the head data subset HSD is biased in a specific direction. The radius of the sphere S, which is assumed to have such a plurality of point elements distributed on the surface, tends not to have a valid value. The center position C estimated based on the center of gravity position G identified from the plurality of point elements of the biased distribution also tends to deviate from the center of the actual head 51.

そこでプロセッサ32は、ストレージ34に記憶されている頭部51の過去中心位置C’に対応するデータを読み出す(図11のSTEP522)。さらにプロセッサ32は、図12の(A)に示されるように、特定された重心位置Gと過去中心位置C’の中間点Iを特定する(STEP523)。 Therefore, the processor 32 reads out the data corresponding to the past center position C'of the head 51 stored in the storage 34 (STEP 522 in FIG. 11). Further, the processor 32 identifies the midpoint I between the identified center of gravity position G and the past center position C'as shown in FIG. 12 (A) (STEP 523).

続いてプロセッサ32は、図12の(B)に示されるように、特定された中間点Iに基づいて頭部51の中心位置Cの推定を行なう(図11のSTEP524)。中心位置Cの推定の仕方は、図8の(A)を参照して説明した通りである。図8の(B)に示された例と比較すると、実際の頭部51の中心のより近くに中心位置Cが推定されていることが判る。 Subsequently, the processor 32 estimates the center position C of the head 51 based on the identified midpoint I, as shown in FIG. 12 (B) (STEP 524 in FIG. 11). The method of estimating the center position C is as described with reference to FIG. 8A. Comparing with the example shown in FIG. 8B, it can be seen that the center position C is estimated closer to the center of the actual head 51.

続いてプロセッサ32は、このように推定された中心位置Cに対応するデータを、ストレージ34に記憶させる(図11のSTEP525)。すなわち、今回推定された中心位置Cに対応するデータによって、ストレージ34に記憶されていた過去中心位置C’に対応するデータが上書きされる。今回記憶されたデータは、次回の頭部51の中心位置Cの推定処理時において、過去中心位置C’に対応するデータとして取り扱われる。 Subsequently, the processor 32 stores the data corresponding to the center position C thus estimated in the storage 34 (STEP 525 in FIG. 11). That is, the data corresponding to the center position C estimated this time overwrites the data corresponding to the past center position C'stored in the storage 34. The data stored this time is treated as data corresponding to the past center position C'in the next estimation process of the center position C of the head 51.

すなわち、本例においては、今回取得された頭部データサブセットHSDに含まれる複数の点要素から特定される重心位置Gではなく、重心位置Gと過去中心位置C’の中間点Iに基づいて頭部51の中心位置Cの推定が行なわれる。過去中心位置C’により近い位置を重心位置と仮定して中心位置Cの推定を行なわれるので、特に頭部データサブセットHSDに含まれる複数の点要素が偏った分布を示す場合において、中心位置Cの推定位置が実際の頭部51の中心からずれる量を抑制できる。したがって、頭部51の中心位置Cの推定精度が高まる。結果として、車室41内の運転者5の頭部51の判別精度を高めることができる。 That is, in this example, the head is based on the midpoint I between the center of gravity position G and the past center position C', not the center of gravity position G specified from the plurality of point elements included in the head data subset HSD acquired this time. The center position C of the unit 51 is estimated. Since the center position C is estimated assuming that the position closer to the past center position C'is the center of gravity position, the center position C is particularly when a plurality of point elements included in the head data subset HSD show a biased distribution. It is possible to suppress the amount of deviation of the estimated position of the head 51 from the center of the actual head 51. Therefore, the estimation accuracy of the center position C of the head 51 is improved. As a result, the discrimination accuracy of the head 51 of the driver 5 in the vehicle interior 41 can be improved.

図13は、頭部51の過去位置に基づいて現在の頭部51の中心位置Cを推定する処理の第三の例を示している。 FIG. 13 shows a third example of the process of estimating the center position C of the current head 51 based on the past position of the head 51.

図3から図7を参照して説明したように、プロセッサ32は、TOFカメラ2から取得された画像データIDから頭部データサブセットHSDを抽出する(STEP531)。前述のように、頭部データサブセットHSDは、運転者5の頭部51が存在する可能性が高い三次元空間の領域に対応している。頭部データサブセットHSDは、位置データサブセットの一例である。 As described with reference to FIGS. 3 to 7, the processor 32 extracts the head data subset HSD from the image data ID acquired from the TOF camera 2 (STEP 531). As mentioned above, the head data subset HSD corresponds to a region of three-dimensional space in which the head 51 of the driver 5 is likely to be present. The head data subset HSD is an example of a position data subset.

続いてプロセッサ32は、抽出された頭部データサブセットHSDに含まれる複数の点要素の重心位置Gを特定し、当該重心位置Gに基づいて頭部51の中心位置Cを推定する(STEP532)。中心位置Cの推定の仕方は、図8の(A)を参照して説明した通りである。 Subsequently, the processor 32 identifies the center-of-gravity positions G of a plurality of point elements included in the extracted head data subset HSD, and estimates the center position C of the head 51 based on the center-of-gravity position G (STEP 532). The method of estimating the center position C is as described with reference to FIG. 8A.

続いてプロセッサ32は、頭部51を近似する球体Sの半径を特定する(図13のSTEP533)。半径の特定の仕方は、図8の(A)を参照して説明した通りである。今回推定された中心位置Cを中心とする頭部51を近似する球体Sの半径は、第一半径の一例である。 Subsequently, the processor 32 specifies the radius of the sphere S that approximates the head 51 (STEP 533 in FIG. 13). The method of specifying the radius is as described with reference to FIG. 8A. The radius of the sphere S that approximates the head 51 centered on the center position C estimated this time is an example of the first radius.

図8の(C)は、運転者5の顔が車室41における下方を向いている場合を例示している。運転者5の顔がTOFカメラ2に面していない本例においては、頭部データサブセットHSDに含まれる複数の点要素の分布が特定の方向へ偏る。このような複数の点要素が表面に分布していると仮定された球体Sの半径は、妥当な値を有しない傾向にある。 FIG. 8C illustrates a case where the face of the driver 5 is facing downward in the passenger compartment 41. In this example in which the face of the driver 5 does not face the TOF camera 2, the distribution of a plurality of point elements included in the head data subset HSD is biased in a specific direction. The radius of the sphere S, which is assumed to have such a plurality of point elements distributed on the surface, tends not to have a valid value.

そこでプロセッサ32は、ストレージ34に記憶されている過去の頭部51を近似する球体S’の半径に対応するデータを読み出す(図13のSTEP534)。以降の説明において、過去の頭部51を近似する球体S’の半径を、過去半径と表記する。過去半径は、第二半径の一例である。 Therefore, the processor 32 reads out the data corresponding to the radius of the sphere S'that approximates the past head 51 stored in the storage 34 (STEP 534 in FIG. 13). In the following description, the radius of the sphere S'that approximates the past head 51 is referred to as the past radius. The past radius is an example of the second radius.

続いてプロセッサ32は、STEP533で特定された球体Sの半径と過去半径を比較し、両者の差異が所定値未満であるかを判断する(STEP535)。所定値は、例えば±30mmとされうる。 Subsequently, the processor 32 compares the radius of the sphere S specified in STEP 533 with the past radius, and determines whether the difference between the two is less than a predetermined value (STEP 535). The predetermined value can be, for example, ± 30 mm.

両者の差異が所定値未満であると判断されると(STEP535においてYES)、プロセッサ32は、STEP532で推定された中心位置Cに対応するデータとSTEP533で推定された球体Sの半径に対応するデータを、ストレージ34に記憶させる(STEP536)。すなわち、今回推定された中心位置Cに対応するデータと今回特定された球体Sの半径に対応するデータによって、ストレージ34に記憶されていた過去中心位置C’に対応するデータと過去半径に対応するデータがそれぞれ上書きされる。今回記憶されたデータは、次回の頭部51の中心位置Cの推定処理時において、過去中心位置C’に対応するデータおよび過去半径に対応するデータとして取り扱われる。 If it is determined that the difference between the two is less than a predetermined value (YES in STEP 535), the processor 32 has data corresponding to the center position C estimated in STEP 532 and data corresponding to the radius of the sphere S estimated in STEP 533. Is stored in the storage 34 (STEP 536). That is, the data corresponding to the center position C estimated this time and the data corresponding to the radius of the sphere S specified this time correspond to the data corresponding to the past center position C'stored in the storage 34 and the past radius. Each data is overwritten. The data stored this time will be treated as data corresponding to the past center position C'and data corresponding to the past radius at the time of the next estimation processing of the center position C of the head 51.

図14の(A)は、STEP533で特定された球体Sの半径が大きく、過去半径との差異が所定値以上である場合を示している(図13のSTEP535においてNO)。この場合、処理はSTEP532に戻り、プロセッサ32は、中心位置Cを推定し直す。 FIG. 14A shows a case where the radius of the sphere S specified in STEP 533 is large and the difference from the past radius is equal to or more than a predetermined value (NO in STEP 535 of FIG. 13). In this case, the process returns to STEP 532, and the processor 32 re-estimates the center position C.

本例の処理は、繰り返される中心位置Cの推定の間に、頭部51を近似する球体Sの半径が大きく変動することはないという前提に基づいている。したがって、今回特定された球体Sの半径と過去半径の差異が大きい場合、今回特定された半径が基づいている重心位置Gが、頭部データサブセットHSDに含まれる複数の点要素の偏った分布に起因している蓋然性が高い。今回特定された球体Sの半径と過去半径の差異が所定値以上である場合は推定された中心位置Cを採用しないことにより、特に頭部データサブセットHSDに含まれる複数の点要素が偏った分布を示す場合において、中心位置Cの推定位置が実際の頭部51の中心からずれる量を抑制できる。したがって、頭部51の中心位置Cの推定精度が高まる。結果として、車室41内の運転者5の頭部51の判別精度を高めることができる。 The processing of this example is based on the premise that the radius of the sphere S that approximates the head 51 does not fluctuate significantly during the repeated estimation of the center position C. Therefore, when the difference between the radius of the sphere S specified this time and the past radius is large, the center of gravity position G based on the radius specified this time has a biased distribution of a plurality of point elements included in the head data subset HSD. It is highly probable that it is caused. When the difference between the radius of the sphere S specified this time and the past radius is greater than or equal to a predetermined value, by not adopting the estimated center position C, a distribution in which a plurality of point elements included in the head data subset HSD are particularly biased. In the case of, the amount that the estimated position of the center position C deviates from the center of the actual head 51 can be suppressed. Therefore, the estimation accuracy of the center position C of the head 51 is improved. As a result, the discrimination accuracy of the head 51 of the driver 5 in the vehicle interior 41 can be improved.

STEP533で特定された球体Sの半径と過去半径の差異が所定値以上である場合(STEP535においてNO)、プロセッサ32は、過去に特定された球体S’の半径に基づいて頭部51の中心位置Cを再推定しうる(STEP537)。 When the difference between the radius of the sphere S specified in STEP 533 and the past radius is equal to or greater than a predetermined value (NO in STEP 535), the processor 32 is the center position of the head 51 based on the radius of the sphere S'specified in the past. C can be re-estimated (STEP 537).

具体的には、STEP532で特定された頭部データサブセットHSDに含まれる複数の点要素の重心位置Gと、STEP533で特定された球体Sの中心位置Cとを結ぶ直線CLが設定される。続いて、この直線CL上の点であって、重心位置Gからの距離が過去に特定された球体S’の半径と一致する点が特定される。このようにして特定された点が、再推定された頭部51の中心位置Cとされる。 Specifically, a straight line CL connecting the center of gravity positions G of a plurality of point elements included in the head data subset HSD specified in STEP 532 and the center position C of the sphere S specified in STEP 533 is set. Subsequently, a point on the straight line CL whose distance from the center of gravity position G coincides with the radius of the sphere S'specified in the past is specified. The point identified in this way is the center position C of the re-estimated head 51.

図14の(B)は、このようにして再推定された中心位置Cを示している。図14の(A)に示される例と比較すると、実際の頭部51の中心のより近くに中心位置Cが推定されていることが判る。 FIG. 14B shows the center position C re-estimated in this way. Comparing with the example shown in FIG. 14 (A), it can be seen that the center position C is estimated closer to the center of the actual head 51.

この場合、頭部51の中心位置Cの再推定に係る演算負荷を抑制できる。 In this case, the calculation load related to the re-estimation of the center position C of the head 51 can be suppressed.

頭部判別装置3は、運転者5の顔がTOFカメラ2に面していない場合にのみ各処理例に係る頭部51の中心位置Cを推定する処理を行なうように構成されうる。この場合、頭部判別装置3は、TOFカメラ2から取得した画像データIDに基づいて、運転者5の顔の向きを判別する処理を行なう。「運転者5の顔がTOFカメラ2に面していない場合」は、判別された運転者5の顔の向きが特定の向きである場合の一例である。 The head discrimination device 3 may be configured to perform a process of estimating the center position C of the head 51 according to each processing example only when the face of the driver 5 does not face the TOF camera 2. In this case, the head discrimination device 3 performs a process of discriminating the orientation of the driver 5's face based on the image data ID acquired from the TOF camera 2. “When the face of the driver 5 does not face the TOF camera 2” is an example of a case where the determined face orientation of the driver 5 is a specific orientation.

運転者5の顔がTOFカメラ2に面していない場合、頭部データサブセットHSDに含まれる複数の点要素の分布が偏り、頭部51の位置の特定が難しくなる傾向にある。頭部51の中心位置Cの推定の実行をこのような場合に限ることにより、頭部判別装置3の処理負荷を抑制しつつ、運転者5の頭部51の判別精度の低下を抑制できる。 When the face of the driver 5 does not face the TOF camera 2, the distribution of the plurality of point elements included in the head data subset HSD tends to be biased, and it tends to be difficult to specify the position of the head 51. By limiting the estimation of the center position C of the head 51 to such a case, it is possible to suppress a decrease in the discrimination accuracy of the head 51 of the driver 5 while suppressing the processing load of the head discrimination device 3.

本実施形態においては、頭部判別装置3の入力インターフェース31は、運転者5の頭部51の三次元空間における位置に係る情報を、画像データIDの一部としてTOFカメラ2から受け付けている。このような構成によれば、運転者5の頭部51に係る位置情報を、画像情報とともに効率的に取得できる。しかしながら、画像情報を出力する撮像装置と位置情報を出力する装置は、異なっていてもよい。後者の装置としては、LiDAR(Light Detection and Ranging)センサなどが例示されうる。 In the present embodiment, the input interface 31 of the head discrimination device 3 receives information relating to the position of the head 51 of the driver 5 in the three-dimensional space from the TOF camera 2 as a part of the image data ID. According to such a configuration, the position information related to the head 51 of the driver 5 can be efficiently acquired together with the image information. However, the image pickup device that outputs the image information and the device that outputs the position information may be different. Examples of the latter device include a LiDAR (Light Detection and Ranging) sensor.

上述したプロセッサ32の機能は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している記憶媒体の一例である。プロセッサ32は、ROM上に記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。ストレージ34は、上記の汎用メモリとして使用されてもよい。プロセッサ32は、上述した処理を実現するコンピュータプログラムを実行可能なマイクロコントローラ、ASIC、FPGAなどの専用集積回路によって実現されてもよい。プロセッサ32は、汎用マイクロプロセッサと専用集積回路の組合せによって実現されてもよい。 The functions of the processor 32 described above can be realized by a general-purpose microprocessor that operates in cooperation with a general-purpose memory. Examples of general-purpose microprocessors include CPUs, MPUs, and GPUs. ROM and RAM can be exemplified as the general-purpose memory. In this case, the ROM may store a computer program that executes the above-described processing. The ROM is an example of a storage medium for storing a computer program. The processor 32 specifies at least a part of the program stored in the ROM, expands it on the RAM, and executes the above-described processing in cooperation with the RAM. The storage 34 may be used as the general-purpose memory described above. The processor 32 may be realized by a dedicated integrated circuit such as a microcontroller, ASIC, or FPGA capable of executing a computer program that realizes the above-mentioned processing. The processor 32 may be realized by a combination of a general-purpose microprocessor and a dedicated integrated circuit.

図1に示されるように、頭部判別装置3は、ネットワーク6を介して外部サーバ7と通信可能に構成されうる。この場合、上述した処理を実行するコンピュータプログラムは、外部サーバ7からネットワーク6を介してダウンロードされうる。外部サーバ7は、コンピュータプログラムを記憶している記憶媒体の一例である。 As shown in FIG. 1, the head discrimination device 3 can be configured to be communicable with the external server 7 via the network 6. In this case, the computer program that executes the above-described processing can be downloaded from the external server 7 via the network 6. The external server 7 is an example of a storage medium that stores a computer program.

上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。 The above embodiments are merely examples for facilitating the understanding of the present invention. The configuration according to the above embodiment may be appropriately changed or improved without departing from the gist of the present invention.

上記の実施形態においては、運転者5の頭部51の過去位置は、頭部51の中心位置Cに基づいている。しかしながら、頭頂部といった頭部51における他の部位が過去位置の基準とされてもよい。 In the above embodiment, the past position of the head 51 of the driver 5 is based on the center position C of the head 51. However, other parts of the head 51, such as the crown, may be used as a reference for the past position.

上記の実施形態においては、「TOFカメラ2に面していない顔の向き」は、車室41における右方と下方である。しかしながら、「TOFカメラ2に面していない顔の向き」は、TOFカメラ2と運転席の位置関係に応じて変わりうる。例えば、車室41の左側に運転席が配置されている車両の場合、TOFカメラ2は、右上方から運転者5の画像を取得する。この場合、「TOFカメラ2に面していない顔の向き」は、車室41における左方と下方である。 In the above embodiment, the "face orientation not facing the TOF camera 2" is to the right and downward in the passenger compartment 41. However, the "direction of the face not facing the TOF camera 2" may change depending on the positional relationship between the TOF camera 2 and the driver's seat. For example, in the case of a vehicle in which the driver's seat is arranged on the left side of the passenger compartment 41, the TOF camera 2 acquires an image of the driver 5 from the upper right. In this case, the "direction of the face not facing the TOF camera 2" is to the left and downward in the passenger compartment 41.

上記の実施形態においては、車室41内における撮像された運転者5の頭部51が判別に供されている。しかしながら、TOFカメラ2を適宜に配置することにより、撮像された他の乗員の頭部が判別に供されてもよい。 In the above embodiment, the head 51 of the driver 5 imaged in the vehicle interior 41 is used for discrimination. However, by appropriately arranging the TOF camera 2, the heads of other occupants imaged may be used for discrimination.

2:TOFカメラ、3:頭部判別装置、31:入力インターフェース、32:プロセッサ、41:車室、5:運転者、51:頭部、7:外部サーバ、ID:画像データ、PD:画素データセット、HSD:頭部データサブセット、C:頭部の中心位置、G:複数の点要素の重心位置、S:球体 2: TOF camera, 3: Head discrimination device, 31: Input interface, 32: Processor, 41: Vehicle room, 5: Driver, 51: Head, 7: External server, ID: Image data, PD: Pixel data Set, HSD: Head data subset, C: Head center position, G: Center of gravity of multiple point elements, S: Sphere

Claims (15)

各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する第一位置データサブセットを、前記位置データセットから抽出し、
前記過去位置から所定の距離よりも離れた前記三次元空間の領域に対応する第二位置データサブセットで、前記第一位置データサブセットを制限し、
制限された前記第一位置データサブセットに基づいて前記頭部の中心位置を推定し、
推定された前記中心位置に基づいて、前記頭部の位置を特定する、
頭部判別装置。
An input interface that accepts position datasets, each containing multiple point elements associated with positions in three-dimensional space.
A processor that determines the head based on the position data set and the past position, which is the position of the head of the occupant in the vehicle interior identified in the past.
Is equipped with
The processor
A first position data subset corresponding to the region of the three-dimensional space where the occupant's head is likely to be present is extracted from the position data set.
The first position data subset is restricted by the second position data subset corresponding to the region of the three-dimensional space that is more than a predetermined distance from the past position.
Estimate the central position of the head based on the restricted first position data subset and
Identify the position of the head based on the estimated center position.
Head discrimination device.
前記所定の距離は、前記頭部の大きさと前記頭部の移動可能性に基づいて定められている、
請求項1に記載の頭部判別装置。
The predetermined distance is determined based on the size of the head and the mobility of the head.
The head discrimination device according to claim 1.
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出し、
前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の位置の重心位置と、前記過去位置との中間点を特定し、
前記中間点に基づいて、前記頭部の中心位置を推定し、
推定された前記中心位置に基づいて、前記頭部の位置を特定する、
頭部判別装置。
An input interface that accepts position datasets, each containing multiple point elements associated with positions in three-dimensional space.
A processor that determines the head based on the position data set and the past position, which is the position of the head of the occupant in the vehicle interior identified in the past.
Is equipped with
The processor
A subset of position data corresponding to the region of the three-dimensional space where the occupant's head is likely to be present is extracted from the position data set.
The center-of-gravity positions of the plurality of positions associated with the plurality of point elements included in the position data subset and the intermediate points between the past positions are specified.
Based on the midpoint, the center position of the head is estimated.
Identify the position of the head based on the estimated center position.
Head discrimination device.
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出し、
前記位置データサブセットに基づいて前記頭部の中心位置を推定し、
前記中心位置を中心とする前記頭部を近似する球体の半径を第一半径として特定し、
前記第一半径を、前記過去位置における前記頭部を近似する球体の半径である第二半径と比較し、
前記第一半径と前記第二半径の差異が所定値未満である場合、前記中心位置に基づいて前記頭部の位置を特定する、
頭部判別装置。
An input interface that accepts position datasets, each containing multiple point elements associated with positions in three-dimensional space.
A processor that determines the head based on the position data set and the past position, which is the position of the head of the occupant in the vehicle interior identified in the past.
Is equipped with
The processor
A subset of position data corresponding to the region of the three-dimensional space where the occupant's head is likely to be present is extracted from the position data set.
The central position of the head is estimated based on the position data subset and
The radius of the sphere that approximates the head centered on the center position is specified as the first radius.
The first radius is compared to the second radius, which is the radius of the sphere that approximates the head at the past position.
When the difference between the first radius and the second radius is less than a predetermined value, the position of the head is specified based on the center position.
Head discrimination device.
前記第一半径と前記第二半径の差異が所定値以上である場合、前記プロセッサは、
前記第二半径に基づいて前記頭部の中心位置を再推定し、
再推定された前記頭部の中心位置に基づいて前記頭部の位置を特定する、
請求項4に記載の頭部判別装置。
When the difference between the first radius and the second radius is equal to or greater than a predetermined value, the processor
The center position of the head is re-estimated based on the second radius,
Identify the position of the head based on the re-estimated center position of the head.
The head discrimination device according to claim 4.
前記プロセッサは、
前記位置データセットに基づいて前記乗員の顔の向きを判別し、
判別された前記顔の向きが特定の向きである場合に、前記頭部の中心位置の推定を行なう、
請求項1から5のいずれか一項に記載の頭部判別装置。
The processor
The orientation of the occupant's face is determined based on the position data set.
When the determined orientation of the face is a specific orientation, the center position of the head is estimated.
The head discrimination device according to any one of claims 1 to 5.
前記入力インターフェースは、前記位置データセットを、TOF(Time of Flight)カメラから受け付ける、
請求項1から6のいずれか一項に記載の頭部判別装置。
The input interface receives the position data set from a TOF (Time of Flight) camera.
The head discrimination device according to any one of claims 1 to 6.
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する第一位置データサブセットを、前記位置データセットから抽出させ、
前記過去位置から所定の距離よりも離れた前記三次元空間の領域に対応する第二位置データサブセットで、前記第一位置データサブセットを制限させ、
制限された前記第一位置データサブセットに基づいて、前記頭部の中心位置を推定させ、
推定された前記中心位置に基づいて、前記頭部の位置を特定させる、
コンピュータプログラム。
Processor the head based on a position dataset containing multiple point elements, each associated with a position in three-dimensional space, and a past position, which is the position of the occupant's head in the passenger compartment identified in the past. It ’s a computer program that lets you know
When the computer program is executed, the processor
A first position data subset corresponding to the region of the three-dimensional space in which the occupant's head is likely to be present is extracted from the position data set.
The first position data subset is restricted by the second position data subset corresponding to the region of the three-dimensional space that is more than a predetermined distance from the past position.
Based on the restricted first position data subset, the central position of the head is estimated.
The position of the head is specified based on the estimated center position.
Computer program.
前記所定の距離は、前記頭部の大きさと前記頭部の移動可能性に基づいて定められている、
請求項8に記載のコンピュータプログラム。
The predetermined distance is determined based on the size of the head and the mobility of the head.
The computer program according to claim 8.
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記乗員の頭部が存在する可能性が高い空間領域に対応する位置データサブセットを、前記位置データセットから抽出させ、
前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の位置の重心位置と、前記過去位置との中間点を特定させ、
前記中間点に基づいて、前記頭部の中心位置を推定させ、
推定された前記中心位置に基づいて、前記頭部の位置を特定させる、
コンピュータプログラム。
Processor the head based on a position dataset containing multiple point elements, each associated with a position in three-dimensional space, and a past position, which is the position of the occupant's head in the passenger compartment identified in the past. It ’s a computer program that lets you know
When the computer program is executed, the processor
A subset of position data corresponding to the spatial region in which the occupant's head is likely to be present is extracted from the position data set.
The center of gravity positions of the plurality of positions associated with the plurality of point elements included in the position data subset and the intermediate points between the past positions are specified.
Based on the midpoint, the center position of the head is estimated.
The position of the head is specified based on the estimated center position.
Computer program.
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットと過去に特定された車室内の乗員の頭部の位置である過去位置とに基づいて、当該頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記乗員の頭部が存在する可能性が高い前記三次元空間の領域に対応する位置データサブセットを、前記位置データセットから抽出させ、
前記位置データサブセットに基づいて前記頭部の中心位置を推定させ、
前記中心位置を中心とする前記頭部を近似する球体の半径を、第一半径として特定させ、
前記第一半径を、前記過去位置における前記頭部を近似する球体の半径である第二半径と比較させ、
前記第一半径と前記第二半径の差異が所定値未満である場合、前記中心位置に基づいて前記頭部の位置を特定させる、
コンピュータプログラム。
Processor the head based on a position dataset containing multiple point elements, each associated with a position in three-dimensional space, and a past position, which is the position of the occupant's head in the passenger compartment identified in the past. It ’s a computer program that lets you know
When the computer program is executed, the processor
A subset of position data corresponding to the region of the three-dimensional space in which the occupant's head is likely to be present is extracted from the position data set.
The central position of the head is estimated based on the position data subset,
The radius of the sphere that approximates the head centered on the center position is specified as the first radius.
The first radius is compared with the second radius, which is the radius of the sphere that approximates the head at the past position.
When the difference between the first radius and the second radius is less than a predetermined value, the position of the head is specified based on the center position.
Computer program.
前記第一半径と前記第二半径の差異が所定値以上である場合、前記プロセッサに、
前記第二半径に基づいて前記頭部の中心位置を再推定させ、
再推定された前記頭部の中心位置に基づいて前記頭部の位置を特定させる、
請求項11に記載のコンピュータプログラム。
When the difference between the first radius and the second radius is equal to or greater than a predetermined value, the processor
The center position of the head is re-estimated based on the second radius.
The position of the head is specified based on the re-estimated center position of the head.
The computer program according to claim 11.
前記プロセッサに、
前記位置データセットに基づいて前記乗員の顔の向きを判別させ、
判別された前記顔の向きが特定の向きである場合に、前記頭部の中心位置の推定を行なわせる、
請求項8から12のいずれか一項に記載のコンピュータプログラム。
To the processor
The orientation of the occupant's face is determined based on the position data set.
When the determined orientation of the face is a specific orientation, the center position of the head is estimated.
The computer program according to any one of claims 8 to 12.
前記位置データセットは、TOF(Time of Flight)カメラから取得される、
請求項8から13のいずれか一項に記載のコンピュータプログラム。
The position data set is acquired from a TOF (Time of Flight) camera.
The computer program according to any one of claims 8 to 13.
請求項8から14のいずれか一項に記載のコンピュータプログラムを記憶している記憶媒体。 A storage medium that stores the computer program according to any one of claims 8 to 14.
JP2019023628A 2019-02-13 2019-02-13 Head identification device, computer program, and storage medium Active JP7288309B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019023628A JP7288309B2 (en) 2019-02-13 2019-02-13 Head identification device, computer program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023628A JP7288309B2 (en) 2019-02-13 2019-02-13 Head identification device, computer program, and storage medium

Publications (2)

Publication Number Publication Date
JP2020135037A true JP2020135037A (en) 2020-08-31
JP7288309B2 JP7288309B2 (en) 2023-06-07

Family

ID=72278748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019023628A Active JP7288309B2 (en) 2019-02-13 2019-02-13 Head identification device, computer program, and storage medium

Country Status (1)

Country Link
JP (1) JP7288309B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172865A1 (en) * 2011-06-17 2012-12-20 本田技研工業株式会社 Occupant sensing device
JP2015191268A (en) * 2014-03-27 2015-11-02 株式会社リコー Person's head detection device and posture estimation device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172865A1 (en) * 2011-06-17 2012-12-20 本田技研工業株式会社 Occupant sensing device
JP2015191268A (en) * 2014-03-27 2015-11-02 株式会社リコー Person's head detection device and posture estimation device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
阿部 友一、萩原 将文: ""単眼視動画像からの人物頭部動作の解析と認識"", 電子情報通信学会論文誌, vol. 83, no. 2, JPN6022049086, 25 February 2000 (2000-02-25), JP, pages 601 - 609, ISSN: 0005057904 *

Also Published As

Publication number Publication date
JP7288309B2 (en) 2023-06-07

Similar Documents

Publication Publication Date Title
JP6739672B2 (en) Physical constitution estimation device and physical constitution estimation method
US20170262734A1 (en) Image processing apparatus, imaging device, moving object device control system, and image processing method
CN109643372A (en) A kind of recognition methods, equipment and moveable platform
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
WO2017051480A1 (en) Image processing device and image processing method
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JPWO2006087789A1 (en) Image processing method, image processing system, image processing apparatus, and computer program
CN110537207B (en) Face orientation estimating device and face orientation estimating method
JP5073700B2 (en) Object detection device
JP6635621B2 (en) Automotive vision system and method of controlling the vision system
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2021051347A (en) Distance image generation apparatus and distance image generation method
JP2020135037A (en) Head determination device, computer program, and storage medium
CN114467111B (en) Object recognition method and object recognition device
JP7079187B2 (en) Crew discriminator, computer program, and storage medium
JP7195963B2 (en) Head identification device, computer program, and storage medium
JP7079188B2 (en) Crew discriminator, computer program, and storage medium
JP7053341B2 (en) Processing equipment and programs
JP7240193B2 (en) Face orientation determination device, computer program, and storage medium
CN115131752A (en) Learning method, learning device, and program recording medium
JP7212531B2 (en) Motion discrimination device, computer program, and storage medium
JP7409240B2 (en) Obstacle detection device and obstacle detection method
JP7053340B2 (en) Processing equipment and programs
JP7564611B2 (en) Head discrimination device, computer program, and storage medium
CN114762019A (en) Camera system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230419

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230526

R150 Certificate of patent or registration of utility model

Ref document number: 7288309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150