JP7195963B2 - 頭部判別装置、コンピュータプログラム、および記憶媒体 - Google Patents

頭部判別装置、コンピュータプログラム、および記憶媒体 Download PDF

Info

Publication number
JP7195963B2
JP7195963B2 JP2019023626A JP2019023626A JP7195963B2 JP 7195963 B2 JP7195963 B2 JP 7195963B2 JP 2019023626 A JP2019023626 A JP 2019023626A JP 2019023626 A JP2019023626 A JP 2019023626A JP 7195963 B2 JP7195963 B2 JP 7195963B2
Authority
JP
Japan
Prior art keywords
distance
comparison
head
area
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019023626A
Other languages
English (en)
Other versions
JP2020135035A (ja
Inventor
佑記 名和
圭吾 多田
久光 原田
忠 関原
安利 深谷
将城 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Original Assignee
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd, Tokai Rika Co Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2019023626A priority Critical patent/JP7195963B2/ja
Publication of JP2020135035A publication Critical patent/JP2020135035A/ja
Application granted granted Critical
Publication of JP7195963B2 publication Critical patent/JP7195963B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像された車室内の乗員の頭部を判別する装置に関連する。本発明は、当該装置が備えているプロセッサにより実行されるコンピュータプログラム、および当該コンピュータプログラムが記憶された記憶媒体にも関連する。
特許文献1に開示されているように、画像データに基づいて、撮像された車室内の乗員の頭部を判別する装置が知られている。
特開2008-285015号公報
本発明の目的は、画像データに基づいて、撮像された車室内の乗員の頭部の判別精度を高めることである。
上記の目的を達成するための一態様は、頭部判別装置であって、
撮像された車室を含む画像に対応し複数の画素データを含む画像データ、および各々が当該複数の画素データの一つに対応付けられた複数の距離データを含む距離データセットを受け付ける入力インターフェースと、
前記画像データと前記距離データセットに基づいて、前記画像に含まれる撮像された乗員の頭部を判別するプロセッサと、
を備えており、
前記プロセッサは、
前記画像データにおいて前記撮像された乗員の頭部が含まれる可能性がある検出領域を特定し、
前記検出領域内に基準領域を設定し、
前記検出領域内に前記基準領域の周囲に位置する複数の比較領域を設定し、
前記基準領域に含まれる複数の基準画素データに対応付けられた前記複数の距離データに基づいて基準代表距離を算出し、
前記複数の比較領域の各々に含まれる複数の比較画素データに対応付けられた前記複数の距離データに基づいて比較代表距離を算出し、
前記基準代表距離を上回る前記比較代表距離を有する前記比較領域の数が所定値以上である場合、前記検出領域を、前記撮像された乗員の頭部が含まれる可能性が高い高尤度領域として特定する。
上記の目的を達成するための一態様は、撮像された車室を含む画像に対応し複数の画素データを含む画像データ、および各々が当該複数の画素データの一つに対応付けられた複数の距離データを含む距離データセットに基づいて、当該画像に含まれる撮像された乗員の頭部をプロセッサに判別させるコンピュータプログラムであって、
当該コンピュータプログラムが実行されることにより、当該プロセッサに、
前記画像データにおいて前記撮像された乗員の頭部が含まれる可能性がある検出領域を特定させ、
前記検出領域内に基準領域を設定させ、
前記検出領域内に前記基準領域の周囲に位置する複数の比較領域を設定させ、
前記基準領域に含まれる複数の基準画素データに対応付けられた前記複数の距離データに基づいて基準代表距離を算出させ、
前記複数の比較領域の各々に含まれる複数の比較画素データに対応付けられた前記複数の距離データに基づいて比較代表距離を算出させ、
前記基準代表距離を上回る前記比較代表距離を有する前記比較領域の数が所定値以上である場合、前記検出領域を、前記撮像された乗員の頭部が含まれる可能性が高い高尤度領域として特定させる。
上記のような構成によれば、頭部の形状的特徴に鑑みた距離データを画像データと組み合わせて考慮することにより、検出領域に含まれる頭部と一旦みなされた物体の画像が実際に頭部の画像であるかを検証できる。したがって、画像データに基づく、撮像された乗員の頭部の判別精度を高めることができる。
上記の頭部判別装置は、以下のように構成されうる。
前記基準代表距離を上回る前記比較代表距離を有する前記比較領域の数が前記所定値未満である場合、前記検出領域の特定を解除する。
上記のコンピュータプログラムは、以下のように構成されうる。
前記基準代表距離を上回る前記比較代表距離を有する前記比較領域の数が所定値未満である場合、前記プロセッサに、前記検出領域の特定を解除させる。
このような構成によれば、誤った画像認識を通じて特定された検出領域が頭部の判別に与える影響を低減できる。したがって、画像データに基づく、撮像された乗員の頭部の判別精度を高めることができる。
上記の頭部判別装置は、以下のように構成されうる。
前記プロセッサは、所定の範囲から外れた距離を示す前記距離データを除外して前記比較代表距離の算出を行なう。
上記のコンピュータプログラムは、以下のように構成されうる。
前記プロセッサに、所定の範囲から外れた距離を示す前記距離データを除外して前記比較代表距離を算出させる。
このような構成によれば、ノイズになりうる距離データを除外できるので、検出領域が高尤度領域として特定されうるかの判断に使用される比較平均距離の算出精度が向上する。結果として、画像データに基づく、撮像された乗員の頭部の判別精度を高めることができる。
上記の頭部判別装置は、以下のように構成されうる。
前記比較領域に含まれる全ての比較画素データのうち、前記所定の範囲から外れた距離を示す前記距離データに対応付けられた比較画素データの比率が所定値以上である場合、前記プロセッサは、前記比較代表距離として一定の距離値を当該比較領域に付与する。
上記のコンピュータプログラムは、以下のように構成されうる。
前記比較領域に含まれる全ての比較画素データのうち、前記所定の範囲から外れた距離を示す前記距離データに対応付けられた比較画素データの比率が所定値を上回る場合、前記プロセッサに、前記比較代表距離として一定の距離値を当該比較領域に付与させる。
このような構成によれば、検出領域が高尤度領域として特定されうるかを判断するために行なわれる基準平均距離と比較平均距離の比較処理を単純化できる。したがって、処理負荷の増大を抑制しつつ、画像データに基づく、撮像された乗員の頭部の判別精度を高めることができる。
上記の頭部判別装置は、以下のように構成されうる。
前記入力インターフェースは、前記距離データセットを、前記画像データの一部としてTOF(Time of Flight)カメラから受け付ける。
上記のコンピュータプログラムは、以下のように構成されうる。
前記距離データセットは、前記画像データの一部としてTOF(Time of Flight)カメラから取得されたものである。
このような構成によれば、撮像された乗員の頭部が含まれている可能性が高い高尤度領域を特定するために使用される画像データと距離データセットを、効率的に取得できる。
上記の目的を達成するための一態様は、上記のコンピュータプログラムを記憶している記憶媒体である。
本発明によれば、画像データに基づく、撮像された車室内の乗員の頭部の判別精度を高めることができる。
一実施形態に係る頭部判別システムの構成を例示している。 図1の頭部判別システムが搭載される車両の一部を例示している。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理の流れを例示している。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理を説明するための図である。 図1の頭部判別装置により実行される処理の流れを例示している。
添付の図面を参照しつつ、実施形態例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
図1は、一実施形態に係る頭部判別システム1の構成を模式的に示している。頭部判別システム1は、TOF(Time of Flight)カメラ2と頭部判別装置3を含んでいる。図2は、頭部判別システム1が搭載される車両4の一部を示している。矢印Lは、車両4の前後方向に沿う向きを示している。矢印Hは、車両4の高さ方向に沿う向きを示している。
TOFカメラ2は、図2に示される車両4の車室41内における適宜の位置に配置され、車室41を含む画像Iを取得する。図3の(A)は、画像Iの一例を示している。画像Iは、撮像された運転者5を含んでいる。運転者5は、乗員の一例である。矢印Wは、車両4の左右方向に沿う向きを示している。
図1に示されるように、TOFカメラ2は、取得された画像Iに対応する画像データIDを出力する。画像データIDは、複数の画素データを含んでいる。複数の画素データの各々は、取得された画像Iを構成する複数の画素の対応する一つに関連づけられている。
TOFカメラ2は、発光素子と受光素子を備えている。発光素子は、検出光として例えば赤外光を出射する。出射された検出光は、対象物によって反射され、戻り光として受光素子に入射する。検出光が発光素子より出射されてから戻り光が受光素子に入射するまでの時間が測定されることにより、戻り光を生じた対象物までの距離が算出される。TOFカメラ2により取得される画像を構成する複数の画素の各々について当該距離が算出されることにより、各画素は、画像における二次元的な位置座標(U,V)に加えて、当該画素に対応する対象物の一部までの距離(奥行き)を示す距離情報d(U,V)を含む。
したがって、TOFカメラ2から出力される画像データIDに含まれる複数の画素データの各々は、位置座標(U,V)と距離情報d(U,V)を含む。すなわち、画像データIDは、距離データセットDDを含んでいる。
頭部判別装置3は、車両4における適宜の位置に搭載される。頭部判別装置3は、TOFカメラ2から提供される画像データIDに基づいて、撮像された車室41内の運転者5の頭部51を判別するための装置である。
頭部判別装置3は、入力インターフェース31を備えている。入力インターフェース31は、TOFカメラ2から出力された画像データIDを受け付ける。
頭部判別装置3は、プロセッサ32を備えている。プロセッサ32は、入力インターフェース31に入力された画像データIDに基づいて、撮像された運転者5の頭部51を判別する処理を実行する。
図4を参照しつつ、プロセッサ32によって行なわれる処理の流れを説明する。前述のように、プロセッサ32は、まず入力インターフェース31を通じて画像データIDを取得する(STEP1)。
続いてプロセッサ32は、画像データIDにおいて撮像された運転者5の頭部51が含まれる可能性がある検出領域DAを設定する(STEP2)。検出領域DAの特定は、適宜の画像認識技術を用いて行なわれうる。図3の(B)は、画像データID中に特定された検出領域DAの一例を示している。
続いてプロセッサ32は、検出領域DAに含まれる頭部51と一旦みなされた物体の画像が実際に頭部51の画像であるかを検証する処理を行なう。
図5の(A)に示されるように、検出領域DAに含まれる物体の画像が頭部の画像であるならば、周辺領域Pに位置する画素に対応付けられた距離データが示す距離(カメラから物体までの距離)は、検出領域DAの中央領域Cに位置する画素に対応付けられた距離データが示す距離よりも大きい値をとる蓋然性が高い。
そこでプロセッサ32は、図5の(B)に示されるように、検出領域DA内に基準領域RAを設定する(図4のSTEP3)。基準領域RAは、検出領域DAの中央を含む位置に設定される。さらにプロセッサ32は、検出領域DA内に複数の比較領域CAを設定する(図4のSTEP4)。複数の比較領域CAは、基準領域RAの周囲に位置している。本例においては、基準領域RAを包囲するように、五つの比較領域CAが設定されている。
複数の比較領域CAの数と位置は、TOFカメラ2と運転者5の位置関係に応じて適宜に定められうる。本例においては、運転者5の左上方からTOFカメラ2が撮像を行なっているので、頭部51と判断された物体の右下方には胴体52が位置している蓋然性が高い。胴体52は、距離について頭部51との有意な差異を提供しない可能性が高いので、当該領域には比較領域CAが設定されていない。頭部51と判断された物体の上方には有意な距離情報を提供しうる物体が存在しない蓋然性が高いので、当該領域にも比較領域CAが設定されていない。処理負荷を軽減するために検証対象から除外される領域の位置もまた、TOFカメラ2と運転者5の位置関係に応じて適宜に定められうる。
続いてプロセッサ32は、基準領域RAに含まれる複数の基準画素データに対応付けられた複数の距離データに基づいて、基準平均距離を算出する(図4のSTEP5)。算出された基準平均距離は、TOFカメラ2から基準領域RAに含まれる物体までの平均距離に対応する。基準平均距離は、各基準画素データに対応付けられた距離データが示す距離値の単純平均として算出されてもよいし、基準領域RAにおける基準画素データの位置に応じて重み付けが加味された加重平均として算出されてもよい。基準平均距離は、基準代表距離の一例である。複数の距離データが示す複数の距離値の中間値や最頻値が、基準代表距離として採用されてもよい。
基準平均距離の算出(図4のSTEP5)は、複数の比較領域CAの設定(図4のSTEP4)に先立って行なわれてもよい。
続いてプロセッサ32は、複数の比較領域CAの各々に含まれる複数の比較画素データに対応付けられた複数の距離データに基づいて、比較平均距離を算出する(図4のSTEP6)。算出された比較平均距離は、TOFカメラ2から比較領域CAに含まれる物体までの平均距離に対応する。比較平均距離は、各比較画素データに対応付けられた距離データが示す距離値の単純平均として算出されてもよいし、比較領域CAにおける比較画素データの位置に応じて重み付けが加味された加重平均として算出されてもよい。比較平均距離は、比較代表距離の一例である。複数の距離データが示す複数の距離値の中間値や最頻値が、比較代表距離として採用されてもよい。
続いてプロセッサ32は、複数の比較領域CAの各々について算出された比較平均距離を、基準領域RAについて算出された基準平均距離と比較する。図5の(A)を参照して説明したように、基準領域RAに含まれる物体の画像が運転者5の頭部51の画像ならば、比較平均距離は、基準平均距離を上回るはずである。プロセッサ32は、比較の結果、基準平均距離を上回る比較平均距離を有する比較領域CAの数が所定値以上であるかを判断する(図4のSTEP7)。本例においては、所定値は4である。
基準平均距離を上回る比較平均距離を有する比較領域CAの数が所定値以上であると判断されると(STEP7においてYES)、プロセッサ32は、検出領域DAを、撮像された運転者5の頭部51が含まれる可能性が高い高尤度領域HAとして特定する(STEP8)。すなわち、図3の(B)に示される検出領域DAが、高尤度領域HAとして特定される。
図1に示されるように、頭部判別装置3は、出力インターフェース33を備えている。出力インターフェース33は、特定された高尤度領域HAの位置(すなわち頭部51の位置)を示すデータHDを出力しうる。出力されたデータHDは、後段の認識処理において利用される。当該認識処理においては、例えば、当該データが示す頭部51の位置の経時変化がモニタされることにより、運転者5の頭部51の向き、傾き、動きなどが認識されうる。これにより、運転中における運転者5の脇見、居眠り、発作による異常挙動などが検知されうる。
後段の認識処理は、プロセッサ32によって行なわれてもよいし、プロセッサ32とは別のプロセッサによって行なわれてもよい。すなわち、出力インターフェース33は、物理的なインターフェースであってもよいし、論理的なインターフェースであってもよい。
上記のような構成によれば、頭部51の形状的特徴に鑑みた距離データを画像データと組み合わせて考慮することにより、検出領域DAに含まれる頭部51と一旦みなされた物体の画像が実際に頭部51の画像であるかを検証できる。したがって、画像データに基づく、撮像された運転者5の頭部51の判別精度を高めることができる。
基準平均距離を上回る比較平均距離を有する比較領域CAの数が所定値未満であると判断されると(図4のSTEP7においてNO)、プロセッサ32は、検出領域DAの特定を解除しうる(STEP9)。この場合、処理はSTEP2へ戻り、検出領域DAの特定が再度なされうる。
図6の(A)は、検出領域DAが一旦特定されたものの、上記の判断を通じて特定が解除された画像の一例を示している。画像認識処理を通じて運転者5の右肩53を含むように検出領域DAが一旦特定されたものの、実際には基準領域RAの右下方に頭部51が位置している。この場合、基準領域RAについて算出された基準平均距離を下回る比較平均距離を有する比較領域CAの数が多くなる。
図6の(B)は、検出領域DAが一旦特定されたものの、上記の判断を通じて特定が解除された画像の別例を示している。画像認識処理を通じて車両4のヘッドレスト42を含むように検出領域DAが一旦特定されたものの、実際には基準領域RAの左方に頭部51が位置している。この場合においても、基準領域RAについて算出された基準平均距離を下回る比較平均距離を有する比較領域CAの数が多くなる。
このような構成によれば、誤った画像認識を通じて特定された検出領域DAが頭部51の判別に与える影響を低減できる。したがって、画像データに基づく、撮像された運転者5の頭部51の判別精度を高めることができる。
図7は、複数の比較領域CAの各々について比較平均距離を算出するために(図4のSTEP6)プロセッサ32が実行しうる具体的な処理を例示している。
プロセッサ32は、まず比較領域CAに含まれる複数の比較画素データの一つを指定する(STEP61)。
続いてプロセッサ32は、指定された比較画素データに関連付けられた距離データが示す距離値が所定の範囲にあるかを判断する(STEP62)。距離値が所定の範囲にある場合(STEP62においてNO)、プロセッサ32は、当該比較画素データの距離データを比較平均距離の算出に使用する(STEP63)。距離値が所定の範囲から外れている場合(STEP62においてYES)、プロセッサ32は、当該比較画素データの距離データを比較平均距離の算出に使用しない(STEP64)。換言すると、プロセッサ32は、所定の範囲から外れた距離値を示す距離データを除外して比較平均距離の算出を行なう。
TOFカメラ2の発光素子から出射された赤外光は、運転者5の身体や車両4の座席により反射されて戻り光として受光素子に入射する。したがって、運転者5の身体や車両4の座席の位置に対応する比較画素データには、妥当な距離値を示す距離データが関連付けられている。他方、運転者5の身体や車両4の座席へ赤外光が出射されても、環境条件によっては十分な戻り光が得られない場合がある。十分な戻り光が得られない比較画素データに対応付けられた距離データが示す距離値は、上記の所定の範囲から外れるように設定されている。
このような構成によれば、ノイズになりうる距離データを除外できるので、検出領域DAが高尤度領域HAとして特定されうるかの判断に使用される比較平均距離の算出精度が向上する。結果として、画像データに基づく、撮像された運転者5の頭部51の判別精度を高めることができる。
続いてプロセッサ32は、全ての比較画素データについて上記の処理が完了したかを判断する(STEP65)。全ての比較画素データについて処理が完了していなければ(STEP65においてNO)、処理はSTEP61に戻り、次の比較画素データが指定される。
全ての比較画素データについて上記の処理が完了したと判断されると(STEP65においてYES)、プロセッサ32は、比較領域CAに含まれる全ての比較画素データのうち、上記所定の範囲から外れた距離値を示す比較画素データの比率が所定値以上であるかを判断する(STEP66)。換言すると、比較領域CAに含まれる比較画素データのうち、比較平均距離の算出対象から除外された比較画素データの比率が所定値以上であるかが判断される。
十分な戻り光が得られない理由としては、前述の環境要因に加えて、発光素子から出射された赤外光の進路上に頭部51との比較対象になりうる物体が存在しない場合がありうる。すなわち、除外された比較画素データの比率が所定値以上となる理由として、その比較領域CAに頭部51との比較対象になりうる物体が存在しない事態が考えられる。
したがって、比較領域CAに含まれる比較画素データのうち、比較平均距離の算出対象から除外された比較画素データの比率が所定値以上であると判断されると(STEP66においてYES)、プロセッサ32は、その比較領域CAに対して一律の距離値を比較平均距離として付与する(STEP67)。一律の距離値としては、頭部51までの妥当な距離値に対して十分大きな値が選ばれる。
比較領域CAに含まれる比較画素データのうち、比較平均距離の算出対象から除外された比較画素データの比率が所定値未満であると判断されると(STEP66においてNO)、プロセッサ32は、算出された平均比較距離の値を採用する(STEP68)。
このような構成によれば、検出領域DAが高尤度領域HAとして特定されうるかを判断するために行なわれる基準平均距離と比較平均距離の比較処理を単純化できる。したがって、処理負荷の増大を抑制しつつ、画像データに基づく、撮像された運転者5の頭部51の判別精度を高めることができる。
上述したプロセッサ32の機能は、汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している記憶媒体の一例である。プロセッサ32は、ROM上に記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。プロセッサ32は、上述した処理を実現するコンピュータプログラムを実行可能なマイクロコントローラ、ASIC、FPGAなどの専用集積回路によって実現されてもよい。プロセッサ32は、汎用マイクロプロセッサと専用集積回路の組合せによって実現されてもよい。
図1に示されるように、頭部判別装置3は、ネットワーク6を介して外部サーバ7と通信可能に構成されうる。この場合、上述した処理を実行するコンピュータプログラムは、外部サーバ7からネットワーク6を介してダウンロードされうる。外部サーバ7は、コンピュータプログラムを記憶している記憶媒体の一例である。
上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。
上記の実施形態において、頭部判別装置3の入力インターフェース31は、距離データセットDDを、画像データIDの一部としてTOFカメラ2から受け付けている。このような構成によれば、運転者5の頭部51が含まれている可能性が高い高尤度領域HAを特定するために使用される画像データIDと距離データセットDDを、効率的に取得できる。しかしながら、画像データIDを出力する撮像装置と、距離データセットDDを出力する装置は、異なっていてもよい。そのような装置としては、LiDAR(Light Detection and Ranging)センサなどが例示されうる。
上記の実施形態においては、車室41内における運転者5の頭部51が判別に供されている。しかしながら、画像データIDと距離データセットDDを出力する装置を適宜に配置することにより、他の乗員の頭部が判別に供されてもよい。
2:TOFカメラ、3:頭部判別装置、31:入力インターフェース、32:プロセッサ、41:車室、5:運転者、51:頭部、7:外部サーバ、I:画像、ID:画像データ、DD:距離データセット、DA:検出領域、CA:比較領域、HA:高尤度領域、RA:基準領域

Claims (11)

  1. 撮像された車室を含む画像に対応し複数の画素データを含む画像データ、および各々が当該複数の画素データの一つに対応付けられた複数の距離データを含む距離データセットを受け付ける入力インターフェースと、
    前記画像データと前記距離データセットに基づいて、前記画像に含まれる撮像された乗員の頭部を判別するプロセッサと、
    を備えており、
    前記プロセッサは、
    前記画像データにおいて前記撮像された乗員の頭部が含まれる可能性がある検出領域を特定し、
    前記検出領域内に基準領域を設定し、
    前記検出領域内に前記基準領域の周囲に位置する複数の比較領域を設定し、
    前記基準領域に含まれる複数の基準画素データに対応付けられた前記複数の距離データに基づいて基準代表距離を算出し、
    前記複数の比較領域の各々に含まれる複数の比較画素データに対応付けられた前記複数の距離データに基づいて比較代表距離を算出し、
    前記基準代表距離を上回る前記比較代表距離を有する前記比較領域の数が所定値以上である場合、前記検出領域を、前記撮像された乗員の頭部が含まれる可能性が高い高尤度領域として特定する、
    頭部判別装置。
  2. 前記基準代表距離を上回る前記比較代表距離を有する前記比較領域の数が前記所定値未満である場合、前記検出領域の特定を解除する、
    請求項1に記載の頭部判別装置。
  3. 前記プロセッサは、所定の範囲から外れた距離を示す前記距離データを除外して前記比較代表距離の算出を行なう、
    請求項1または2に記載の頭部判別装置。
  4. 前記比較領域に含まれる全ての比較画素データのうち、前記所定の範囲から外れた距離を示す前記距離データに対応付けられた比較画素データの比率が所定値以上である場合、前記プロセッサは、前記比較代表距離として一定の距離値を当該比較領域に付与する、
    請求項3に記載の頭部判別装置。
  5. 前記入力インターフェースは、前記距離データセットを、前記画像データの一部としてTOF(Time of Flight)カメラから受け付ける、
    請求項1から4のいずれか一項に記載の頭部判別装置。
  6. 撮像された車室を含む画像に対応し複数の画素データを含む画像データ、および各々が当該複数の画素データの一つに対応付けられた複数の距離データを含む距離データセットに基づいて、当該画像に含まれる撮像された乗員の頭部をプロセッサに判別させるコンピュータプログラムであって、
    当該コンピュータプログラムが実行されることにより、当該プロセッサに、
    前記画像データにおいて前記撮像された乗員の頭部が含まれる可能性がある検出領域を特定させ、
    前記検出領域内に基準領域を設定させ、
    前記検出領域内に前記基準領域の周囲に位置する複数の比較領域を設定させ、
    前記基準領域に含まれる複数の基準画素データに対応付けられた前記複数の距離データに基づいて基準代表距離を算出させ、
    前記複数の比較領域の各々に含まれる複数の比較画素データに対応付けられた前記複数の距離データに基づいて比較代表距離を算出させ、
    前記基準代表距離を上回る前記比較代表距離を有する前記比較領域の数が所定値以上である場合、前記検出領域を、前記撮像された乗員の頭部が含まれる可能性が高い高尤度領域として特定させる、
    コンピュータプログラム。
  7. 前記基準代表距離を上回る前記比較代表距離を有する前記比較領域の数が所定値未満である場合、前記プロセッサに、前記検出領域の特定を解除させる、
    請求項6に記載のコンピュータプログラム。
  8. 前記プロセッサに、所定の範囲から外れた距離を示す前記距離データを除外して前記比較代表距離を算出させる、
    請求項6または7に記載のコンピュータプログラム。
  9. 前記比較領域に含まれる全ての比較画素データのうち、前記所定の範囲から外れた距離を示す前記距離データに対応付けられた比較画素データの比率が所定値を上回る場合、前記プロセッサに、前記比較代表距離として一定の距離値を当該比較領域に付与させる、
    請求項8に記載のコンピュータプログラム。
  10. 前記距離データセットは、前記画像データの一部としてTOF(Time of Flight)カメラから取得されたものである、
    請求項6から9のいずれか一項に記載のコンピュータプログラム。
  11. 請求項6から10のいずれか一項に記載のコンピュータプログラムを記憶している記憶媒体。
JP2019023626A 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体 Active JP7195963B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019023626A JP7195963B2 (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023626A JP7195963B2 (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Publications (2)

Publication Number Publication Date
JP2020135035A JP2020135035A (ja) 2020-08-31
JP7195963B2 true JP7195963B2 (ja) 2022-12-26

Family

ID=72278624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019023626A Active JP7195963B2 (ja) 2019-02-13 2019-02-13 頭部判別装置、コンピュータプログラム、および記憶媒体

Country Status (1)

Country Link
JP (1) JP7195963B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171929A (ja) 2004-12-14 2006-06-29 Honda Motor Co Ltd 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
JP2014528135A (ja) 2011-09-30 2014-10-23 インテル・コーポレーション 深度画像における人の頭部の検出
JP2016081251A (ja) 2014-10-15 2016-05-16 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171929A (ja) 2004-12-14 2006-06-29 Honda Motor Co Ltd 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
JP2014528135A (ja) 2011-09-30 2014-10-23 インテル・コーポレーション 深度画像における人の頭部の検出
JP2016081251A (ja) 2014-10-15 2016-05-16 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chaohui Lv et al.,"The Head Detection Method Based on Binocular Stereo Vision",2016 9th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI),米国,IEEE,2016年10月15日,pp.477-483
鈴木 一正、呉 海元,"奥行き情報を利用した顔・髪の検出と追跡に関する研究",情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM),日本,情報処理学会,2016年05月05日,Vol.2016-CVIM-202, No.44,pp.1-16

Also Published As

Publication number Publication date
JP2020135035A (ja) 2020-08-31

Similar Documents

Publication Publication Date Title
CN113556975B (zh) 检测车辆中的对象并获得对象信息的系统、装置和方法
JP7216672B2 (ja) 統合撮像装置を使用しての視覚的データ、深さデータ、および微小振動データの抽出
US11427193B2 (en) Methods and systems for providing depth maps with confidence estimates
JP7025912B2 (ja) 車載環境認識装置
US20240087165A1 (en) Systems, devices and methods for measuring the mass of objects in a vehicle
US20190266425A1 (en) Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program
US10275665B2 (en) Device and method for detecting a curbstone in an environment of a vehicle and system for curbstone control for a vehicle
JP7195963B2 (ja) 頭部判別装置、コンピュータプログラム、および記憶媒体
US10572753B2 (en) Outside recognition device for vehicle
JP7212531B2 (ja) 動作判別装置、コンピュータプログラム、および記憶媒体
JP7053341B2 (ja) 処理装置、及びプログラム
JP7240193B2 (ja) 顔方向判別装置、コンピュータプログラム、および記憶媒体
JP7288309B2 (ja) 頭部判別装置、コンピュータプログラム、および記憶媒体
JP7079187B2 (ja) 乗員判別装置、コンピュータプログラム、および記憶媒体
JP7064400B2 (ja) 物体検知装置
JP7079188B2 (ja) 乗員判別装置、コンピュータプログラム、および記憶媒体
JP7053340B2 (ja) 処理装置、及びプログラム
JP7265873B2 (ja) 動作判別装置、コンピュータプログラム、および記憶媒体
JP7525936B2 (ja) 確信度推定値を有する深度マップを提供するための方法およびシステム
JP2020135034A (ja) 頭部判別装置、コンピュータプログラム、および記憶媒体
JP7514664B2 (ja) 物体認識方法及び物体認識システム
CN111043977B (zh) 用于确定第一车辆相对于第二车辆的相对参数的方法
JP2024020838A (ja) 表示制御装置
JP2020117184A (ja) 動作認識装置、コンピュータプログラム、および記憶媒体
JP2024029977A (ja) 表示制御装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R150 Certificate of patent or registration of utility model

Ref document number: 7195963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150