JP2020135036A - 顔方向判別装置、コンピュータプログラム、および記憶媒体 - Google Patents
顔方向判別装置、コンピュータプログラム、および記憶媒体 Download PDFInfo
- Publication number
- JP2020135036A JP2020135036A JP2019023627A JP2019023627A JP2020135036A JP 2020135036 A JP2020135036 A JP 2020135036A JP 2019023627 A JP2019023627 A JP 2019023627A JP 2019023627 A JP2019023627 A JP 2019023627A JP 2020135036 A JP2020135036 A JP 2020135036A
- Authority
- JP
- Japan
- Prior art keywords
- face
- occupant
- processor
- position data
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004590 computer program Methods 0.000 title claims description 37
- 230000001815 facial effect Effects 0.000 title 1
- 238000001514 detection method Methods 0.000 claims description 96
- 230000005484 gravity Effects 0.000 claims description 24
- 238000012706 support-vector machine Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 abstract description 3
- 210000003128 head Anatomy 0.000 description 94
- 238000000034 method Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 30
- 238000012545 processing Methods 0.000 description 11
- 239000008186 active pharmaceutical agent Substances 0.000 description 8
- 210000000887 face Anatomy 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 206010010904 Convulsion Diseases 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000001981 hip bone Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001936 parietal effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットに基づいて車室内の乗員の顔の向きを判別するプロセッサと、
を備えており、
前記プロセッサは、
前記位置データセットから前記乗員の頭部が存在する可能性が高い三次元空間の領域に対応する位置データサブセットを抽出し、
前記位置データサブセットに含まれる前記点要素の数に基づいて、前記乗員の顔の向きを判別する。
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記位置データセットから前記乗員の頭部が存在する可能性が高い空間領域に対応する位置データサブセットを抽出させ、
前記位置データサブセットに含まれる前記点要素の数に基づいて、前記乗員の顔の向きを判別させる。
各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットに基づいて車室内の乗員の顔の向きを判別するプロセッサと、
を備えており、
前記プロセッサは、
前記位置データセットから前記乗員の頭部が存在する可能性が高い三次元空間の領域に対応する位置データサブセットを抽出し、
前記位置データサブセットに基づいて前記頭部の中心位置を推定し、
前記中心位置を中心とする前記頭部を近似する球体の半径を特定し、
前記半径に基づいて、前記乗員の顔の向きを判別する。
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記位置データセットから前記乗員の頭部が存在する可能性が高い空間領域に対応する位置データサブセットを抽出させ、
前記位置データサブセットに基づいて前記頭部の中心位置を推定させ、
前記中心位置を中心とする前記頭部を近似する球体の半径を特定させ、
前記半径に基づいて、前記乗員の顔の向きを判別させる。
前記プロセッサは、
前記中心位置から前記位置データサブセットに含まれる前記複数の点要素の各々までの距離の代表値を算出し、
前記代表値と前記半径との比較に基づいて、前記乗員の顔の向きを判別する。
前記プロセッサに、
前記中心位置から前記位置データサブセットに含まれる前記複数の点要素の各々までの距離の代表値を算出させ、
前記代表値と前記半径との比較に基づいて、前記乗員の顔の向きを判別させる。
前記プロセッサは、前記位置データサブセットに含まれる前記複数の点要素に対応付けられた前記三次元空間における複数の位置の重心位置と前記中心位置との位置関係に基づいて、前記乗員の顔の向きを判別する。
前記プロセッサに、前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の前記三次元位置の重心位置と前記中心位置との位置関係に基づいて、前記乗員の顔の向きを判別させる。
前記入力インターフェースは、前記位置データセットをTOF(Time of Flight)カメラから受け付け、
前記複数の点要素の各々は、前記TOFカメラから出力される複数の画素データの一つに対応している。
前記位置データセットは、TOF(Time of Flight)カメラから取得される。
撮像された車室を含む画像に対応し複数の画素データを含む画像データを受け付ける入力インターフェースと、
画像の輝度に関する特徴量に基づいて撮像された乗員の顔の向きを判別するために少なくとも撮像された頭部を含む画像を教師データとして学習した識別器を用い、前記画像データに基づいて、前記画像に含まれる撮像された乗員の顔の向きを判別するプロセッサと、
を備えており、
前記プロセッサは、
前記画像データにおいて前記撮像された乗員の頭部が含まれる可能性がある第一検出領域を特定し、
前記第一検出領域に含まれる各画素の輝度に基づく特徴量を前記識別器に入力し、
前記第一検出領域についての前記識別器による識別結果に基づいて、前記撮像された乗員の顔の向きについて第一判別結果を取得し、
前記第一検出領域と一部が重なる位置に当該第一検出領域と同じ大きさを有する少なくとも一つの第二検出領域を設定し、
前記第二検出領域に含まれる各画素の輝度に基づく特徴量を前記識別器に入力し、
前記第二検出領域についての前記識別器による識別結果に基づいて、前記撮像された乗員の顔の向きについて少なくとも一つの第二判別結果を取得し、
前記少なくとも一つの第二判別結果が前記第一判別結果と一致している場合、前記第一判別結果を有効にする。
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記画像データにおいて前記撮像された乗員の頭部が含まれる可能性がある第一検出領域を特定させ、
前記第一検出領域に含まれる各画素の輝度に基づく特徴量を前記識別器に入力させ、
前記第一検出領域についての前記識別器による識別結果に基づいて、前記撮像された乗員の顔の向きについて第一判別結果を取得させ、
前記第一検出領域と一部が重なる位置に当該第一検出領域と同じ大きさを有する少なくとも一つの第二検出領域を設定させ、
前記第二検出領域に含まれる各画素の輝度に基づく特徴量を前記識別器に入力させ、
前記第二検出領域についての前記識別器による識別結果に基づいて、前記撮像された乗員の顔の向きについて少なくとも一つの第二判別結果を取得させ、
前記少なくとも一つの第二判別結果が前記第一判別結果と一致している場合、前記第一判別結果を有効にさせる。
前記入力インターフェースは、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付け、
前記プロセッサは、
前記位置データセットから前記第一検出領域に対応する位置データサブセットを抽出し、
前記位置データサブセットに基づいて推定された前記頭部の中心位置と、当該位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の前記位置の重心位置との位置関係に基づいて、前記撮像された乗員の顔の向きを判別する。
前記プロセッサに、
各々が三次元位置に対応付けられた複数の点要素を含む位置データセットから前記第一検出領域に対応する位置データサブセットを抽出させ、
前記位置データサブセットに基づいて推定された前記頭部の中心位置と、当該位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の前記三次元位置の重心位置との位置関係に基づいて、前記撮像された乗員の顔の向きを判別させる。
前記特徴量は、HOG(Histograms of Oriented Gradients)である。
前記特徴量は、HOG(Histograms of Oriented Gradients)である。
前記識別器は、サポートベクターマシンである。
前記識別器は、サポートベクターマシンである。
前記入力インターフェースは、前記位置データセットを、前記画像データの一部としてTOF(Time of Flight)カメラから受け付ける。
前記位置データセットは、前記画像データの一部としてTOF(Time of Flight)カメラから取得されたものである。
pkは、頭部データサブセットHSDに含まれる各点要素の位置を表している。
Gは、上記のように特定された頭部51の重心位置を表している。
d(pk,G)は、ある点要素の位置と重心位置の間のユークリッド距離を表している。
Claims (21)
- 各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットに基づいて車室内の乗員の顔の向きを判別するプロセッサと、
を備えており、
前記プロセッサは、
前記位置データセットから前記乗員の頭部が存在する可能性が高い三次元空間の領域に対応する位置データサブセットを抽出し、
前記位置データサブセットに含まれる前記点要素の数に基づいて、前記乗員の顔の向きを判別する、
顔方向判別装置。 - 各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付ける入力インターフェースと、
前記位置データセットに基づいて車室内の乗員の顔の向きを判別するプロセッサと、
を備えており、
前記プロセッサは、
前記位置データセットから前記乗員の頭部が存在する可能性が高い三次元空間の領域に対応する位置データサブセットを抽出し、
前記位置データサブセットに基づいて前記頭部の中心位置を推定し、
前記中心位置を中心とする前記頭部を近似する球体の半径を特定し、
前記半径に基づいて、前記乗員の顔の向きを判別する、
顔方向判別装置。 - 前記プロセッサは、
前記中心位置から前記位置データサブセットに含まれる前記複数の点要素の各々までの距離の代表値を算出し、
前記代表値と前記半径との比較に基づいて、前記乗員の顔の向きを判別する、
請求項2に記載の顔方向判別装置。 - 前記プロセッサは、前記位置データサブセットに含まれる前記複数の点要素に対応付けられた前記三次元空間における複数の位置の重心位置と前記中心位置との位置関係に基づいて、前記乗員の顔の向きを判別する、
請求項2または3に記載の顔方向判別装置。 - 前記入力インターフェースは、前記位置データセットをTOF(Time of Flight)カメラから受け付け、
前記複数の点要素の各々は、前記TOFカメラから出力される複数の画素データの一つに対応している、
請求項1から4のいずれか一項に記載の顔方向判別装置。 - 撮像された車室を含む画像に対応し複数の画素データを含む画像データを受け付ける入力インターフェースと、
画像の輝度に関する特徴量に基づいて撮像された乗員の顔の向きを判別するために少なくとも撮像された頭部を含む画像を教師データとして学習した識別器を用い、前記画像データに基づいて、前記画像に含まれる撮像された乗員の顔の向きを判別するプロセッサと、
を備えており、
前記プロセッサは、
前記画像データにおいて前記撮像された乗員の頭部が含まれる可能性がある第一検出領域を特定し、
前記第一検出領域に含まれる各画素の輝度に基づく特徴量を前記識別器に入力し、
前記第一検出領域についての前記識別器による識別結果に基づいて、前記撮像された乗員の顔の向きについて第一判別結果を取得し、
前記第一検出領域と一部が重なる位置に当該第一検出領域と同じ大きさを有する少なくとも一つの第二検出領域を設定し、
前記第二検出領域に含まれる各画素の輝度に基づく特徴量を前記識別器に入力し、
前記第二検出領域についての前記識別器による識別結果に基づいて、前記撮像された乗員の顔の向きについて少なくとも一つの第二判別結果を取得し、
前記少なくとも一つの第二判別結果が前記第一判別結果と一致している場合、前記第一判別結果を有効にする、
顔方向判別装置。 - 前記入力インターフェースは、各々が三次元空間における位置に対応付けられた複数の点要素を含む位置データセットを受け付け、
前記プロセッサは、
前記位置データセットから前記第一検出領域に対応する位置データサブセットを抽出し、
前記位置データサブセットに基づいて推定された前記頭部の中心位置と、当該位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の前記位置の重心位置との位置関係に基づいて、前記撮像された乗員の顔の向きを判別する、
請求項6に記載の顔方向判別装置。 - 前記特徴量は、HOG(Histograms of Oriented Gradients)である、
請求項6または7に記載の顔方向判別装置。 - 前記識別器は、サポートベクターマシンである、
請求項6から8のいずれか一項に記載の顔方向判別装置。 - 前記入力インターフェースは、前記位置データセットを、前記画像データの一部としてTOF(Time of Flight)カメラから受け付ける、
請求項7から9のいずれか一項に記載の顔方向判別装置。 - 各々が三次元位置に対応付けられた複数の点要素を含む位置データセットに基づいて、車室内の乗員の顔の向きをプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記位置データセットから前記乗員の頭部が存在する可能性が高い空間領域に対応する位置データサブセットを抽出させ、
前記位置データサブセットに含まれる前記点要素の数に基づいて、前記乗員の顔の向きを判別させる、
コンピュータプログラム。 - 各々が三次元位置に対応付けられた複数の点要素を含む位置データセットに基づいて、車室内の乗員の顔の向きをプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記位置データセットから前記乗員の頭部が存在する可能性が高い空間領域に対応する位置データサブセットを抽出させ、
前記位置データサブセットに基づいて前記頭部の中心位置を推定させ、
前記中心位置を中心とする前記頭部を近似する球体の半径を特定させ、
前記半径に基づいて、前記乗員の顔の向きを判別させる、
コンピュータプログラム。 - 前記プロセッサに、
前記中心位置から前記位置データサブセットに含まれる前記複数の点要素の各々までの距離の代表値を算出させ、
前記代表値と前記半径との比較に基づいて、前記乗員の顔の向きを判別させる、
請求項12に記載のコンピュータプログラム。 - 前記プロセッサに、前記位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の前記三次元位置の重心位置と前記中心位置との位置関係に基づいて、前記乗員の顔の向きを判別させる、
請求項12または13に記載のコンピュータプログラム。 - 前記位置データセットは、TOF(Time of Flight)カメラから取得される、
請求項12から14のいずれか一項に記載のコンピュータプログラム。 - 画像の輝度に関する特徴量に基づいて撮像された乗員の顔の向きを判別するために少なくとも撮像された頭部を含む画像を教師データとして学習した識別器を用い、撮像された車室を含む画像に対応し複数の画素データを含む画像データに基づいて、当該画像に含まれる撮像された乗員の顔の向きをプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されると、当該プロセッサに、
前記画像データにおいて前記撮像された乗員の頭部が含まれる可能性がある第一検出領域を特定させ、
前記第一検出領域に含まれる各画素の輝度に基づく特徴量を前記識別器に入力させ、
前記第一検出領域についての前記識別器による識別結果に基づいて、前記撮像された乗員の顔の向きについて第一判別結果を取得させ、
前記第一検出領域と一部が重なる位置に当該第一検出領域と同じ大きさを有する少なくとも一つの第二検出領域を設定させ、
前記第二検出領域に含まれる各画素の輝度に基づく特徴量を前記識別器に入力させ、
前記第二検出領域についての前記識別器による識別結果に基づいて、前記撮像された乗員の顔の向きについて少なくとも一つの第二判別結果を取得させ、
前記少なくとも一つの第二判別結果が前記第一判別結果と一致している場合、前記第一判別結果を有効にさせる、
コンピュータプログラム。 - 前記プロセッサに、
各々が三次元位置に対応付けられた複数の点要素を含む位置データセットから前記第一検出領域に対応する位置データサブセットを抽出させ、
前記位置データサブセットに基づいて推定された前記頭部の中心位置と、当該位置データサブセットに含まれる前記複数の点要素に対応付けられた複数の前記三次元位置の重心位置との位置関係に基づいて、前記撮像された乗員の顔の向きを判別させる、
請求項16に記載のコンピュータプログラム。 - 前記特徴量は、HOG(Histograms of Oriented Gradients)である、
請求項16または17に記載のコンピュータプログラム。 - 前記識別器は、サポートベクターマシンである、
請求項16から18のいずれか一項に記載のコンピュータプログラム。 - 前記位置データセットは、前記画像データの一部としてTOF(Time of Flight)カメラから取得されたものである、
請求項17から19のいずれか一項に記載のコンピュータプログラム。 - 請求項11から20のいずれか一項に記載のコンピュータプログラムを記憶している記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019023627A JP7240193B2 (ja) | 2019-02-13 | 2019-02-13 | 顔方向判別装置、コンピュータプログラム、および記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019023627A JP7240193B2 (ja) | 2019-02-13 | 2019-02-13 | 顔方向判別装置、コンピュータプログラム、および記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135036A true JP2020135036A (ja) | 2020-08-31 |
JP7240193B2 JP7240193B2 (ja) | 2023-03-15 |
Family
ID=72278698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019023627A Active JP7240193B2 (ja) | 2019-02-13 | 2019-02-13 | 顔方向判別装置、コンピュータプログラム、および記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7240193B2 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017199302A (ja) * | 2016-04-28 | 2017-11-02 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、判定プログラム及び記録媒体 |
-
2019
- 2019-02-13 JP JP2019023627A patent/JP7240193B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017199302A (ja) * | 2016-04-28 | 2017-11-02 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、判定プログラム及び記録媒体 |
Non-Patent Citations (1)
Title |
---|
大西 広樹、浮田 浩行: ""Kinectを用いた顔の検出とその方向の推定’", 電気学会研究会資料, JPN6022049085, 29 March 2013 (2013-03-29), JP, pages 1 - 5, ISSN: 0004982218 * |
Also Published As
Publication number | Publication date |
---|---|
JP7240193B2 (ja) | 2023-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7369921B2 (ja) | 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法 | |
KR102109941B1 (ko) | 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치 | |
EP1983484B1 (en) | Three-dimensional-object detecting device | |
US10532459B2 (en) | Information processing apparatus, information processing method, and storage medium for grasping an object | |
US7372996B2 (en) | Method and apparatus for determining the position of a vehicle seat | |
US20050232463A1 (en) | Method and apparatus for detecting a presence prior to collision | |
JP5742873B2 (ja) | 物体識別装置 | |
US20120062749A1 (en) | Human body identification method using range image camera and human body identification apparatus | |
CN111867466A (zh) | 体格估计装置及体格估计方法 | |
US10699106B2 (en) | Direction discrimination device and direction discrimination method | |
JP2020135616A (ja) | 物体検出装置 | |
CN114467111B (zh) | 物体识别方法及物体识别装置 | |
JP7240193B2 (ja) | 顔方向判別装置、コンピュータプログラム、および記憶媒体 | |
JP6762794B2 (ja) | 瞼開閉検出装置および瞼開閉検出方法 | |
JP7079187B2 (ja) | 乗員判別装置、コンピュータプログラム、および記憶媒体 | |
JP7079188B2 (ja) | 乗員判別装置、コンピュータプログラム、および記憶媒体 | |
JP7053341B2 (ja) | 処理装置、及びプログラム | |
JP7195963B2 (ja) | 頭部判別装置、コンピュータプログラム、および記憶媒体 | |
JP7212531B2 (ja) | 動作判別装置、コンピュータプログラム、および記憶媒体 | |
JP2020135034A (ja) | 頭部判別装置、コンピュータプログラム、および記憶媒体 | |
US11138755B2 (en) | Analysis apparatus, analysis method, and non transitory storage medium | |
JP7288309B2 (ja) | 頭部判別装置、コンピュータプログラム、および記憶媒体 | |
JP7053340B2 (ja) | 処理装置、及びプログラム | |
JP2021060720A (ja) | 物体検出装置 | |
JP6359866B2 (ja) | 対象者存在範囲推定装置及び対象者存在範囲推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190301 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7240193 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |