JP2021056968A - 物体判定装置 - Google Patents

物体判定装置 Download PDF

Info

Publication number
JP2021056968A
JP2021056968A JP2019182206A JP2019182206A JP2021056968A JP 2021056968 A JP2021056968 A JP 2021056968A JP 2019182206 A JP2019182206 A JP 2019182206A JP 2019182206 A JP2019182206 A JP 2019182206A JP 2021056968 A JP2021056968 A JP 2021056968A
Authority
JP
Japan
Prior art keywords
feature points
reliability
predetermined
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019182206A
Other languages
English (en)
Inventor
紀 宇野
Tadashi Uno
紀 宇野
聡 毛利
Satoshi Mori
聡 毛利
拓郎 押田
Takuro Oshida
拓郎 押田
藤本 真吾
Shingo Fujimoto
真吾 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2019182206A priority Critical patent/JP2021056968A/ja
Publication of JP2021056968A publication Critical patent/JP2021056968A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】低計算コストかつ高精度で、撮影画像について所定の物体の存在の有無を判定する。【解決手段】実施形態に係る物体判定装置は、例えば、撮影画像を取得する取得部と、所定の物体について機械学習によって予め生成された特徴点に関する情報、および、前記撮影画像に基づいて、所定の座標系において複数の前記特徴点を推定し、推定した前記特徴点ごとの確からしさを示す信頼度を出力する推定部と、複数の前記信頼度に基づいて、前記信頼度が所定の信頼度閾値以上の前記特徴点の個数が所定の個数閾値以上である場合に、推定された複数の前記特徴点に対応する対象物が前記所定の物体であると判定する判定部と、を備える。【選択図】図3

Description

本発明の実施形態は、物体判定装置に関する。
従来、撮影装置(カメラ)によって撮影された撮影画像と、所定の物体(例えば人)について機械学習によって予め生成された特徴点(例えば骨格点)に関する情報に基づいて、撮影画像における複数の特徴点を推定する技術が知られている。この場合、推定した特徴点ごとにその確からしさを示す信頼度の情報を得られるものもある。
また、この推定特徴点と信頼度を得る機械学習とは別に、撮影画像中に所定の物体が写っているか否かを判定するための別の機械学習を用意することもできる。しかし、その場合、別々の2つの機械学習を用いるため、計算コストが大きくなってしまうというデメリットがある。そこで、例えば、推定特徴点と信頼度を得る技術で、すべての特徴点の信頼度に基づいて、撮影画像中に所定の物体が写っているか否かを判定することもできる。そうすれば、低計算コストで済む。
Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh, "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", [online], 2017, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), [2019年6月10日検索], インターネット<https://arxiv.org/abs/1611.08050>
しかしながら、推定特徴点と信頼度を得る技術で、すべての特徴点の信頼度を用いると、撮影画像中に所定の物体が写っているか否かの判定精度が低くなる場合がある。これは、機械学習の性質から特徴点(例えば骨格点であれば頭、肩、腕など)ごとに得られる信頼度の精度が異なっていたり、あるいは、一部の特徴点が撮影画像中で隠れていたりすることに起因する。
そこで、本発明の課題の一つは、低計算コストかつ高精度で、撮影画像について所定の物体の存在の有無を判定することができる物体判定装置を提供することにある。
本発明の実施形態に係る物体判定装置は、例えば、撮影画像を取得する取得部と、所定の物体について機械学習によって予め生成された特徴点に関する情報、および、前記撮影画像に基づいて、所定の座標系において複数の前記特徴点を推定し、推定した前記特徴点ごとの確からしさを示す信頼度を出力する推定部と、複数の前記信頼度に基づいて、前記信頼度が所定の信頼度閾値以上の前記特徴点の個数が所定の個数閾値以上である場合に、推定された複数の前記特徴点に対応する対象物が前記所定の物体であると判定する判定部と、を備える。この構成により、すべての特徴点の信頼度を用いるのではなく、信頼度が所定の信頼度閾値以上の特徴点の個数が所定の個数閾値以上か否かを判定することで、低計算コストかつ高精度で、撮影画像について所定の物体の存在の有無を判定することができる。
また、前記物体判定装置では、例えば、前記信頼度に関する再現率と適合率の調和平均であるF値が最大になるように、前記信頼度閾値と前記個数閾値を決定する閾値決定部を、さらに備える。この構成により、上述のF値を用いてより適切な信頼度閾値と個数閾値を決定することができ、物体判定精度をさらに向上させることができる。
また、前記物体判定装置では、例えば、前記所定の物体は人であり、前記特徴点は骨格点である。この構成により、骨格点の情報を用いて人の存在を高精度で判定することができる。
また、前記物体判定装置では、例えば、前記所定の物体は車両のシートベルトである。この構成により、シートベルトの存在の有無の判定結果に応じてその後の制御を効果的に実行することができる。
また、前記物体判定装置では、例えば、前記取得部は、前記撮影画像として2次元画像および距離画像を取得し、前記推定部は、所定の物体について機械学習によって予め生成された特徴点に関する情報、および、前記2次元画像および距離画像に基づいて、3次元座標系において複数の前記特徴点を推定し、推定した前記特徴点ごとの確からしさを示す信頼度を出力する。この構成により、3次元座標系を用いることで、所定の物体の存在の有無をさらに高精度で判定することができる。
図1は、第1実施形態に係る物体判定装置が搭載される車両の車室内を上方から見た平面図である。 図2は、第1実施形態に係る制御システムの構成を示すブロック図である。 図3は、第1実施形態に係るECUの機能的構成を示すブロック図である。 図4は、第1実施形態における2次元骨格情報の例を示す図である。 図5は、第1実施形態に係るECUが実行する処理を示すフローチャートである。 図6は、第1実施形態における2次元特徴点情報の例を示す図である。 図7は、第2実施形態に係るECUの機能的構成を示すブロック図である。 図8は、第2実施形態における3次元骨格情報の例を示す図である。 図9は、第2実施形態に係るECUが実行する処理を示すフローチャートである。
以下、本発明の例示的な実施形態(第1実施形態、第2実施形態)が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも1つを得ることが可能である。
(第1実施形態)
まず、第1実施形態について説明する。図1は、第1実施形態に係る物体判定装置が搭載される車両の車室内を上方から見た平面図である。図1に示すように、車両1の車室内には、複数の座席2が設けられている。例えば、車室内の前方側には運転席2aおよび助手席2bが設けられ、後方側には複数の後部座席2c〜2eが設けられる。複数の後部座席2c〜2eのうち、後部座席2cは、運転席2aの後方に設けられ、後部座席2dは、助手席2bの後方に設けられ、後部座席2eは、後部座席2cと後部座席2dとの間に設けられる。
車室内の前方側には、撮影装置3が設けられる。撮影装置3は、例えば、赤外線カメラであり、車室内の乗員を撮影した2次元の赤外線撮影画像(以下、単に「撮影画像」とも称する。)を撮影する。なお、赤外線撮影画像は、グレースケール画像、モノクロ画像等の種類を問わない。
第1実施形態において、撮影装置3は、車室内の全ての座席2を撮影可能なように、すなわち、車室内の全ての座席2に着座した乗員全員を撮影可能なように、向き、画角、設置位置等が決められる。例えば、撮影装置3は、ダッシュボード、ルームミラー、天井等に設置され得る。なお、これに限らず、撮影装置3は、特定の座席2(例えば、運転席2a)に着座した乗員のみを撮影可能な位置に配置されてもよい。
次に、図2を参照して、第1実施形態に係る制御システム100の構成について説明する。図2は、第1実施形態に係る制御システム100の構成を示すブロック図である。車両1には、物体判定装置を含む制御システム100が設けられる。
図2に示すように、制御システム100は、撮影装置3と、シート調整装置8と、ECU10と、車内ネットワーク40とを備える。ECU10は、物体判定装置の一例である。
撮影装置3は、例えばNTSC(National Television System Committee)ケーブル等の出力線を介してECU10に接続され、撮影した撮影画像を出力線を介してECU10に出力する。
シート調整装置8は、座席2の位置を調整する。例えば、シート調整装置8は、運転席2aの位置を調整するものとするが、他の座席2の位置を調整するものであってもよい。また、シート調整装置8は、運転席2aの前後方向における位置を調整するものとするが、これに限らず、例えば運転席2aの高さ位置を調整してもよい。
ECU10は、車内ネットワーク40を介して制御信号を送ることにより、シート調整装置8を制御することができる。その他、ECU10は、ブレーキシステムの制御、操舵システムの制御等を実行し得る。
ECU10は、例えば、CPU(Central Processing Unit)11と、SSD(Solid State Drive)12と、ROM(Read Only Memory)13と、RAM(Random Access Memory)14とを備える。CPU11は、ROM13等の不揮発性の記憶装置にインストールされたプログラムを実行することによって、物体判定装置としての機能を実現する。
RAM14は、CPU11での演算で用いられる各種のデータを一時的に記憶する。SSD12は、書き換え可能な不揮発性の記憶装置であって、ECU10の電源がオフされた場合にあってもデータを記憶することができる。CPU11、ROM13、およびRAM14等は、同一パッケージ内に集積され得る。
なお、ECU10は、CPU11に替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD12に替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD12やHDDは、ECU10とは別に設けられてもよい。
このような構成において、従来から、撮影画像と、所定の物体(例えば人)について機械学習によって予め生成された特徴点(例えば骨格点)に関する情報に基づいて、撮影画像における複数の特徴点を推定する技術が知られている。この場合、推定した特徴点ごとにその確からしさを示す信頼度の情報を得られる場合もある。
また、この推定特徴点と信頼度を得る機械学習とは別に、撮影画像中に所定の物体が写っているか否かを判定するための別の機械学習を用意することもできる。しかし、その場合、別々の2つの機械学習を用いるため、計算コストが大きくなってしまうというデメリットがある。つまり、それぞれの機械学習に必要な情報の蓄積や学習動作に膨大な時間が必要となる。したがって、特に車両にこのような技術を適用することは、計算コストや必要な時間の観点から非常に困難である。
そこで、例えば、推定特徴点と信頼度を得る技術で、すべての特徴点の信頼度に基づいて、撮影画像中に所定の物体が写っているか否かを判定することもできる。そうすれば、低計算コストで済む。
しかしながら、推定特徴点と信頼度を得る技術で、すべての特徴点の信頼度を用いると、撮影画像中に所定の物体が写っているか否かの判定精度が低くなる場合がある。これは、機械学習の性質から特徴点(例えば骨格点であれば頭、肩、腕など)ごとに得られる信頼度の精度が異なっていたり、あるいは、一部の特徴点が撮影画像中で隠れていたりすることに起因する。
そこで、以下では、低計算コストかつ高精度で、撮影画像について所定の物体の存在の有無を判定することができる物体判定装置について説明する。
図3は、第1実施形態に係るECU10の機能的構成を示すブロック図である。図3に示すように、ECU10は、処理部20と、記憶部30と、を備える。処理部20において、CPU11がROM13に格納されたプログラムを実行することによって、取得部21と、推定部22と、判定部23と、閾値決定部24と、が実現される。なお、これらの構成は、ハードウェア回路にて実現されてもよい。
記憶部30は、例えばSSD12により構成される。記憶部30は、処理部20の各部21〜24によって取得、算出等された情報等を記憶する。
取得部21は、撮影装置3によって撮影された撮影画像を撮影装置3から取得する。
推定部22は、所定の物体について機械学習によって予め生成され記憶部30に記憶されている骨格点(特徴点)に関する情報、および、撮影画像に基づいて、2次元座標系(所定の座標系の一例)において撮影画像中の乗員の複数の骨格点を推定し、推定した骨格点ごとの確からしさを示す信頼度を出力する。なお、骨格点とは、被写体の各部位の位置を示す特徴点であり、例えば、人体上の端点(顔の上下端部)や関節(腕の付け根、足の付け根、肘、手首等)等を含む。
推定部22は、DNN(Deep Neural Network)を用いて、人の骨格点を推定する。DNNでは、ヒートマップによって特徴点を算出する。つまり、ヒートマップにおいて局所的に最大値を取る点を特徴点とし、その特徴点における値が信頼度である。すなわち、信頼度とは、例えば、人の特徴点である頭を考える場合、推定した特徴点がどれほど「頭らしい」かを示す値である。また、撮影画像中で特徴点が何かの別の物体で隠れている場合、この特徴点の確からしさを示す信頼度は低い値を示す。
推定部22は、推定した各骨格点の位置を2次元座標で表した2次元骨格情報(2次元特徴点情報の一例)を生成して記憶部30に記憶する。ここで、図4は、第1実施形態における2次元骨格情報の例を示す図である。図4に示すように、2次元骨格情報は、例えば、2次元画像の左上の角を原点(0,0)(左の値が横座標(X座標)で、右の値が縦座標(Y座標))とする2次元座標系で表される。例えば、図4に示す2次元骨格情報において、被写体の左腕の付け根に位置する骨格点P1の2次元座標は、(400,250)で表される。なお、2次元画像の右下の角の座標は、例えば、(639,479)である。
図3に戻って、判定部23は、複数の信頼度に基づいて、信頼度が所定の信頼度閾値以上の骨格点の個数が所定の個数閾値以上である場合に、推定された複数の骨格点に対応する対象物が所定の物体(例えば人)であると判定する。例えば、判定部23は、人について機械学習によって予め生成された骨格点が30個の場合、信頼度が0.3(信頼度閾値)以上の骨格点が10個(個数閾値)以上であれば、対象物を「人」と判定する。
信頼度閾値と個数閾値については、ユーザによって任意の値に設定してよいが、閾値決定部24によって決定してもよい。閾値決定部24は、例えば、信頼度に関する再現率と適合率の調和平均であるF値が最大になるように、信頼度閾値と個数閾値を決定する。
具体的には、閾値決定部24は、信頼度閾値と個数閾値をパラメータとし、所定の検証用データ群に対して、再現率と適合率を計算し、その再現率と適合率からF値(F-measure)を計算し、F値が最大になるように、信頼度閾値と個数閾値を決定する。
ここで、再現率は、検出性能の良さを示す指標であり、次の式(1)により算出される。
再現率=TP/(TP+FN) ・・・式(1)
なお、TP(True Positive)は真陽性(出現した正解(人))を示し、FN(False Negative)は偽陰性(出現しなかった不正解(人以外))を示す。
また、適合率は、誤検出の少なさを示す指標であり、次の式(2)により算出される。
適合率=TP/(TP+FP) ・・・式(2)
なお、FP(False Positive)は偽陽性(出現した不正解(人以外))を示す。
そして、F値は、再現率と適合率の調和平均であり、次の式(3)により算出される。
F値=(2×再現率×適合率)/(再現率+適合率) ・・・式(3)
一般に、再現率が高いと適合率は低く、また、適合率が高いと再現率は低い傾向がある。したがって、再現率と適合率の調和平均であるF値を指標とすることで、よりよい信頼度閾値と個数閾値を決定することができる。以下の表1は、信頼度閾値αを0.1〜0.9の範囲で0.1刻みで変化させ、また、個数閾値nを1〜8の範囲で1刻みで変化させた場合のF値を示す。
Figure 2021056968
表1では、α=0.4、n=4のときにF値が最大の0.98となっているので、信頼度閾値を「0.4」に決定し、個数閾値を「4」に決定すればよい。
次に、図5を参照して、第1実施形態に係るECU10が実行する処理について説明する。図5は、第1実施形態に係るECU10が実行する処理を示すフローチャートである。
ステップS1において、取得部21は、撮影装置3によって撮影された撮影画像(2次元画像)を撮影装置3から取得する。
次に、ステップS2において、推定部22は、所定の物体について機械学習によって予め生成された特徴点(骨格点)に関する情報、および、撮影画像に基づいて、2次元座標系において撮影画像中の乗員の複数の特徴点を推定し、推定した特徴点ごとの信頼度を出力する。
次に、ステップS3において、判定部23は、信頼度が所定の信頼度閾値以上の特徴点の個数を算出する。
次に、ステップS4において、判定部23は、ステップS3で算出した個数が所定の個数閾値以上であるか否かを判定し、Yesの場合はステップS6に進み、Noの場合はステップS5に進む。
ステップS5において、判定部23は、特徴点に対応する対象物が所定の物体(人)でないと判定し、処理を終了する。
ステップS6において、判定部23は、特徴点に対応する対象物が所定の物体(人)であると判定する。
次に、図6を参照して、第1実施形態における2次元特徴点情報の例について説明する。図6は、第1実施形態における2次元特徴点情報の例を示す図である。
図6に示す2次元特徴点情報は、図4に示す2次元骨格情報に対して、車両の座席のシートベルトに対応する特徴点P2、P3、P4を加えたものである。記憶部30にシートベルトについて機械学習によって予め生成された特徴点に関する情報を記憶させておくことで、推定部22は、その情報と撮影画像に基づいて、2次元座標系においてシートベルトに対応する特徴点を推定し、推定した特徴点ごとの確からしさを示す信頼度を出力する。
このように、第1実施形態のECU10によれば、すべての特徴点の信頼度を用いるのではなく、信頼度が所定の信頼度閾値以上の特徴点の個数が所定の個数閾値以上か否かを判定することで、低計算コストかつ高精度で、撮影画像について所定の物体の存在の有無を判定することができる。具体的には、例えば、撮影画像について所定の物体の存在の有無を判定するための専用の機械学習を必要とせず、簡単な閾値処理で実現できるため、専用の機械学習を必要とする場合と比較して計算コストが大幅に小さくて済む。
また、上述のF値を用いてより適切な信頼度閾値と個数閾値を決定することができ、物体判定精度をさらに向上させることができる。
また、骨格点の情報を用いて人の存在を高精度で判定することができる。具体的には、人体内部にある骨格点の位置を直接推定することができるので、例えば被写体の肉付きや服装等の影響を受けにくい高精度な2次元骨格情報を得ることができる。
また、シートベルトの存在の有無の判定結果に応じてその後の制御を効果的に実行することができる。例えば、乗員がシートベルトを着用していないときに、的確に、表示や音声によってシートベルトリマインダの機能を実行することができる。
また、再現率と適合率の調和平均であるF値を用いて適切な信頼度閾値と個数閾値を決定するので、例えば、新たな検証用データ群を取得した場合等に、新たな信頼度閾値と個数閾値を迅速かつ容易に決定することができる。
なお、ヒートマップによって特徴点を算出するDNN全般に適用可能である。
また、物体存在判定を例えばディープラーニング(深層学習)によって行うと、計算コストが大きくなるほかに、判定結果に至った理由が不明で説明性に欠けるというデメリットがある。一方、本実施形態の手法によれば、計算コストが小さいだけでなく、信頼度閾値や個数閾値やF値がわかっていることから判定結果に至った理由が明確で説明性が充分であるというメリットがある。
(第2実施形態)
次に、第2実施形態について説明する。第1実施形態と同様の事項については、説明を適宜省略する。第2実施形態は、第1実施形態と比較して、2次元骨格情報の代わりに3次元骨格情報を用いる点で相違する。
図7は、第2実施形態に係るECU10の機能的構成を示すブロック図である。ECU10の処理部20は、各部21〜24に加えて座標変換部25を備えている。
また、車両に設けられる撮影装置3(図1、図2)は、例えば、TOF(Time Of Flight)距離画像カメラであり、車室内の乗員を撮影した2次元画像に加え、撮影位置から乗員までの距離情報を画素値とする距離画像を撮影する。
取得部21は、撮影装置3によって撮影された2次元画像および距離画像を撮影装置3から取得する。
また、推定部22は、所定の物体について機械学習によって予め生成された特徴点に関する情報、および、2次元画像および距離画像に基づいて、3次元座標系において複数の特徴点を推定し、推定した特徴点ごとの確からしさを示す信頼度を出力する。具体的には、推定部22と座標変換部25によって次の処理が行われる。
まず、推定部22は、第1実施形態の場合と同様にして、撮影画像に基づいて、2次元座標系において撮影画像中の乗員の複数の骨格点を推定する。また、座標変換部25は、推定部22によって推定された2次元座標を3次元座標に変換する。詳細には次の通りである。
まず、座標変換部25は、距離画像および2次元骨格情報に基づき、撮影装置3の撮影位置から各骨格点までの距離を特定する。具体的には、座標変換部25は、各骨格点の2次元座標に対応する2次元画像上の画素に割り当てられた距離情報を距離画像から取得する。これにより、各骨格点の撮影位置からの距離を特定することができる。
そして、座標変換部25は、各骨格点の2次元座標、各骨格点の撮影位置からの距離および撮影環境情報に基づいて、各骨格点の2次元座標を3次元座標に変換する。撮影環境情報は、後述する3次元座標系における撮影装置3の位置、姿勢の他、レンズの種類、撮影時における各種パラメータの値を含む情報である。撮影環境情報を用いることで、各骨格点の位置を、撮影装置3の撮影位置とは異なる位置を原点とする3次元座標系における3次元座標で表すことができる。このようにして、座標変換部25は、各骨格点の位置を3次元座標系における3次元座標で表した3次元骨格情報を生成することができる。
ここで、図8は、第2実施形態における3次元骨格情報の例を示す図である。図8に示すように、3次元座標系は、撮影装置3の撮影位置PCと異なる位置を原点POとする3次元座標系である。例えば、2次元骨格情報(図4)における2次元座標が(400,250)であった骨格点P1の3次元座標は、図8に示す3次元座標系においては(500,300,200)(X座標,Y座標,Z座標)で表される。この3次元座標の値は、3次元座標系の原点PO(0,0,0)から骨格点P1までの実際の距離の値である。すなわち、骨格点P1の3次元座標(500,300,200)は、原点PO(0,0,0)からX軸方向に500mm、Y軸方向に300mm、Z軸方向に200mmの場所に骨格点P1が位置することを示している。
このように、座標変換部25によれば、撮影装置3の位置、向き、レンズの種類といった撮影環境に依存する2次元座標系で表された2次元骨格情報における2次元座標を、かかる撮影環境に依存しない3次元座標系における3次元座標に変換することができる。これにより、例えば、2次元画像から得られる骨格点の2次元座標に基づいて乗員の身体情報(肩幅など)を認識する場合と比べて、個々の環境に応じた機械学習が不要となるため、汎用性のさらに高い乗員認識ロジックを構築することができる。すなわち、いかなる撮影環境においても、その環境に応じた機械学習を行うことなく、乗員の身体情報を認識することが可能となる。
次に、図9を参照して、第2実施形態に係るECU10が実行する処理について説明する。図9は、第2実施形態に係るECU10が実行する処理を示すフローチャートである。
ステップS1aにおいて、取得部21は、撮影装置3によって撮影された2次元画像と距離画像を撮影装置3から取得する。
次に、ステップS2において、推定部22は、所定の物体について機械学習によって予め生成された特徴点(骨格点)に関する情報、および、撮影画像に基づいて、2次元座標系において撮影画像中の乗員の複数の骨格点を推定し、推定した骨格点ごとの信頼度を出力する。
次に、ステップS100において、座標変換部25は、ステップS2で推定された2次元座標系における特徴点を3次元座標系に変換する。ステップS3〜S6は図5の場合と同様である。
このように、第2実施形態のECU10によれば、3次元座標系における被写体の骨格点の3次元座標を推定することで、撮影環境に依存しない骨格情報を生成することができる。
以上、本発明の実施形態を例示したが、上記実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上記実施形態や変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、各実施形態や各変形例の構成や形状は、部分的に入れ替えて実施することも可能である。
例えば、第1実施形態では、撮影画像は、赤外線画像であるものとしたが、これに限定されず、ほかに、一般的なカメラで取得可能な可視光画像等の別の画像であってもよい。
また、上述の第2実施形態では1台の撮影装置3を用いて2次元画像および距離画像の両方を撮影するものとしたが、これに限定されず、2次元画像を撮影する撮影装置と距離画像を撮影する撮影装置を別々に設けてもよい。また、距離画像を撮影する撮影装置は、TOF距離画像カメラに限定されず、例えば、ステレオカメラや、ストラクチャードライト方式による3Dスキャナ等であってもよい。
また、信頼度閾値や個数閾値は、物体存在判定の目的や用途ごとに別々に設定してもよい。
また、所定の物体は、人やシートベルトに限定されず、例えば、車両内のチャイルドシートであってもよい。その場合、チャイルドシートの存在の有無だけでなく、チャイルドシートが設置されている向きも併せて判定してもよい。そうすれば、例えば、その判定結果に応じてユーザに注意喚起メッセージ等を報知することができる。
1…車両、2…座席、3…撮影装置、8…シート調整装置、10…ECU、20…処理部、21…取得部、22…推定部、23…判定部、24…閾値決定部、25…座標変換部、30…記憶部、40…車内ネットワーク

Claims (5)

  1. 撮影画像を取得する取得部と、
    所定の物体について機械学習によって予め生成された特徴点に関する情報、および、前記撮影画像に基づいて、所定の座標系において複数の前記特徴点を推定し、推定した前記特徴点ごとの確からしさを示す信頼度を出力する推定部と、
    複数の前記信頼度に基づいて、前記信頼度が所定の信頼度閾値以上の前記特徴点の個数が所定の個数閾値以上である場合に、推定された複数の前記特徴点に対応する対象物が前記所定の物体であると判定する判定部と、を備える物体判定装置。
  2. 前記信頼度に関する再現率と適合率の調和平均であるF値が最大になるように、前記信頼度閾値と前記個数閾値を決定する閾値決定部を、さらに備える、請求項1に記載の物体判定装置。
  3. 前記所定の物体は人であり、前記特徴点は骨格点である、請求項1に記載の物体判定装置。
  4. 前記所定の物体は車両のシートベルトである、請求項1に記載の物体判定装置。
  5. 前記取得部は、前記撮影画像として2次元画像および距離画像を取得し、
    前記推定部は、所定の物体について機械学習によって予め生成された特徴点に関する情報、および、前記2次元画像および距離画像に基づいて、3次元座標系において複数の前記特徴点を推定し、推定した前記特徴点ごとの確からしさを示す信頼度を出力する、請求項1に記載の物体判定装置。
JP2019182206A 2019-10-02 2019-10-02 物体判定装置 Pending JP2021056968A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019182206A JP2021056968A (ja) 2019-10-02 2019-10-02 物体判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019182206A JP2021056968A (ja) 2019-10-02 2019-10-02 物体判定装置

Publications (1)

Publication Number Publication Date
JP2021056968A true JP2021056968A (ja) 2021-04-08

Family

ID=75272842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019182206A Pending JP2021056968A (ja) 2019-10-02 2019-10-02 物体判定装置

Country Status (1)

Country Link
JP (1) JP2021056968A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090274A1 (ja) * 2021-11-18 2023-05-25 オムロン株式会社 作業認識装置、作業認識方法、及び作業認識プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090274A1 (ja) * 2021-11-18 2023-05-25 オムロン株式会社 作業認識装置、作業認識方法、及び作業認識プログラム

Similar Documents

Publication Publication Date Title
JP4756044B2 (ja) 自動車シート上の対象物を検出するための装置
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
US20200090299A1 (en) Three-dimensional skeleton information generating apparatus
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
EP3304493A1 (en) A computer implemented method of detecting the distance of an object from an image sensor
JP6919619B2 (ja) 画像解析装置、方法およびプログラム
JP2008140290A (ja) 頭部の位置・姿勢検出装置
CN114144814A (zh) 用于测量车辆中对象的质量的系统、装置和方法
JP2019148865A (ja) 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体
CN111854620B (zh) 基于单目相机的实际瞳距测定方法、装置以及设备
CN110537207B (zh) 脸部朝向推定装置及脸部朝向推定方法
CN111860292A (zh) 基于单目相机的人眼定位方法、装置以及设备
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JP2018060466A (ja) 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6561511B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム
JP2021056968A (ja) 物体判定装置
JP6519138B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP6295556B2 (ja) 物体分割装置及び方法
JP2016206774A (ja) 立体物検出装置及び立体物検出方法
JP2021148730A (ja) 位置推定方法、位置推定装置、及び、プログラム
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
JP2006227739A (ja) 画像処理装置及び画像処理方法
JP2017167970A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム