JP2019179288A - 処理装置、及びプログラム - Google Patents
処理装置、及びプログラム Download PDFInfo
- Publication number
- JP2019179288A JP2019179288A JP2018066467A JP2018066467A JP2019179288A JP 2019179288 A JP2019179288 A JP 2019179288A JP 2018066467 A JP2018066467 A JP 2018066467A JP 2018066467 A JP2018066467 A JP 2018066467A JP 2019179288 A JP2019179288 A JP 2019179288A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- voxel
- detection
- control unit
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
Description
[2]前記制御部は、規定された1つの特徴点を特定し、その規定された1つの特徴点を基準として、予め規定された特徴点探索モデルを順次照合して残りの特徴点を検出することを、前記特徴点検出処理として実行する、上記[1]に記載の処理装置であってもよい。
[3]また、前記制御部は、前記特徴点の周囲に位置するボクセルを含めたボクセルの集合を考え、前記ボクセルの集合におけるボクセル値の合計が閾値未満かどうかにより、前記特徴点の確からしさを判断する閾値処理を、前記特徴点検出処理の1つとして実行する、上記[1]又は[2]に記載の処理装置であってもよい。
[4]また、前記制御部は、前記ボクセル値の合計が閾値未満かどうかを判定する、前記ボクセルの集合を、規定された1つの特徴点である起点から当該特徴点とは別の特徴点である対象特徴点までの間を所定間隔で存在するボクセル群とする、上記[3]に記載の処理装置であってもよい。
[5]また、前記制御部は、前記起点から前記対象特徴点までの全てのボクセル群の各々におけるボクセル値の合計が閾値以上であれば、前記対象特徴点を確からしいものとする、上記[4]に記載の処理装置であってもよい。
[6]また、前記制御部は、前記起点から前記対象特徴点までのボクセル群において、規定された距離を示す個数のボクセル群におけるボクセル値の合計が閾値未満であっても、前記対象特徴点を確からしいものとする、上記[4]又は[5]に記載の処理装置であってもよい。
[7]また、前記制御部は、前記特徴点が未検出の場合、前フレームまでの検出結果を用いて補完処理を行う、上記[1]から[6]のいずれか1に記載の処理装置であってもよい。
[8]また、前記規定された1つの特徴点は、頭部である、上記[1]から[7]のいずれか1に記載の処理装置であってもよい。
[9]上記目的を達成するため、車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、車両の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、乗員の特徴点を少なくとも1つ検出する特徴点検出処理を実行する制御ステップとを、コンピュータに実行させるためのプログラムを提供する。
[10]前記制御ステップは、規定された1つの特徴点を特定し、その規定された1つの特徴点を基準として、予め規定された特徴点探索モデルを順次照合して残りの特徴点を検出することを、前記特徴点検出処理として実行する、上記[9]に記載のプログラムであってもよい。
[11]前記制御ステップは、前記特徴点の周囲に位置するボクセルを含めたボクセルの集合を考え、前記ボクセルの集合におけるボクセル値の合計が閾値未満かどうかにより、前記特徴点の確からしさを判断する閾値処理を、前記特徴点検出処理の1つとして実行する、上記[9]又は[10]に記載のプログラムであってもよい。
[12]また、前記制御ステップは、前記ボクセル値の合計が閾値未満かどうかを判定する、前記ボクセルの集合を、規定された1つの特徴点である起点から当該特徴点とは別の特徴点である対象特徴点までの間を所定間隔で存在するボクセル群とする、上記[11]に記載のプログラムであってもよい。
[13]また、前記制御ステップは、前記起点から前記対象特徴点までの全てのボクセル群の各々におけるボクセル値の合計が閾値以上であれば、前記対象特徴点を確からしいものとする、上記[12]に記載のプログラムであってもよい。
[14]また、前記制御ステップは、前記起点から前記対象特徴点までのボクセル群において、規定された距離を示す個数のボクセル群におけるボクセル値の合計が閾値未満であっても、前記対象特徴点を確からしいものとする、上記[12]又は[13]に記載のプログラムであってもよい。
[15]また、前記制御ステップは、前記特徴点が未検出の場合、前フレームまでの検出結果を用いて補完処理を行う、上記[9]から[14]のいずれか1に記載のプログラムであってもよい。
[16]また、前記制御ステップは、前記規定された1つの特徴点は、頭部である、上記[9]から[15]のいずれか1に記載のプログラムであってもよい。
本発明の実施の形態に係る処理装置1は、車両8の乗員5を含む撮像領域を撮像対象とした距離画像であって、撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部としてのTOFカメラ10と、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、乗員5の特徴点を少なくとも1つ検出する特徴点検出処理を実行する制御部20と、を有して構成されている。
スケルトンモデルは、図1(a)に示すように、人体の各骨格のサイズ、関節の可動範囲を定義したものであって、一例を図1(b)に示す。この定義は例えば、産業技術総合研究所が公開している人体寸法データベースや、独立行政法人製品評価技術基盤機構が公開している人間特性データベース等の情報をもとに決めることができる。各部位(肩、肘、手首、手)の可動範囲(スケルトンモデル定義の中で規定しているなす角)は、前腕部を例として図1(c)のように定義する。
取得部としては撮像対象の3次元認識が可能なものであれば使用可能であるが、本実施の形態では、取得部としてTOF(Time Of Flight)カメラ10を使用する。TOFカメラ10は、光源の光が測定対象物に当たって戻るまでの時間を画素毎に検出し、奥行き方向の距離に相当する位置情報を含む立体的な画像を撮影できる。TOFカメラ10は、赤外光等を発光後、その光が物体に反射して戻ってきた反射光を受光し、発光から受光までの時間を測定して、画素ごとに撮像対象物までの距離を検出する。
距離画像における座標値u,vと、座標(u,v)における画素値d(u,v)は、以下の式を用いて3次元空間上の点(x,y,z)に変換することで、図2に示すカメラ座標系(x,y,z)における3次元画素群を作成することができる。
カメラ座標系(x,y,z)は、検出対象であるドライバ(例えば腰骨の位置)を原点とする車両座標系(w,l,h)に変換することができる。変換方法は、一般的な座標回転変換、平行移動変換、スケール変換の組み合わせである。変換後の座標軸は、ドライバ右方向をw軸、前方をl軸(エル軸)、上方をh軸とし、原点はドライバの腰骨位置203とする。図3に3次元画素群の例を示す。
制御部20は、図4(a)に示すように、車室内空間の広さを考慮し、図4(b)に一例として示すボクセル作成パラメータ設定例のサイズでボクセル(3次元空間を一定サイズで格子状に分割し、離散的にエリアを表現する方法)を作成する。各ボクセルは、ボクセル値を持ち、3次元画素群の密度情報(ここでは、各ボクセルに含まれる3次元画素群の数×3、とする)をボクセル値とする。
制御部20は、座標変換、頭頂部特定処理、頭部特定処理等を行なうための、例えばマイクロコンピュータを備えている。制御部20は、図2に示すように、TOFカメラ10と接続されている。制御部20は、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)21、半導体メモリであるRAM(Random Access Memory)22及びROM(Read Only Memory)23などを備えている。
頭部は、規定された1つの特徴点であり、本実施の形態では、予め規定された特徴点探索モデルを順次照合して残りの特徴点(左右の肩部、肘部、手首、手)を検出するための基準となるものである。頭部の検出、特定の手法は任意であり、公知の方法により頭部の検出、特定を行なうことができる。また、制御部20による検出、特定でなく、頭部の3次元データ(w,l,h)を制御部20に入力してもよい。
制御部20は、図5(a)に示すように、スケルトンモデルで定義した長さおよび可動範囲に含まれるボクセルを探索し、抽出する。可動範囲は、前部位起点から現在部位起点Pの方向を基準とし、図5(a)に示す母線250で規定される円錐形状として定義する。探索は、図5(b)に示すような、探索範囲絞り込みパラメータに基づいて行なう。
(1)閾値処理
制御部20は、探索範囲を絞り込んだ各ボクセルについて、周囲のボクセルを含めたボクセルの集合を考える。ここでは、図6に示すように、周囲1ボクセルを含めた3×3×3のボクセルとする。ここで、当該ボクセルのボクセル値の合計が閾値未満の場合、候補から除外する。すなわち、閾値処理は、特徴点の周囲に位置するボクセルを含めたボクセルの集合を考え、このボクセルの集合におけるボクセル値の合計が閾値未満かどうかにより、特徴点の確からしさを判断するものである。
制御部20は、(1)の閾値処理で抽出した各ボクセルについて、図7に示すように、起点Pとの間をX[mm]間隔で、(1)と同じ領域(3×3×3のボクセル)を考え、全ての位置でボクセル値の合計が閾値以上の場合、当該ボクセルを部位候補とする。ただし、腕時計等、TOFカメラで情報が取得できない可能性がある装着物を考慮して、起点Pとの間でボクセル値の閾値を満たさない点が存在しても許容できるよう、許容ギャップ数を定義する。例えば、許容ギャップ数が1の場合、閾値を満たさない点が1つまでなら連続性があると判定する。
制御部20は、検出あるいは特定した頭部位置から首位置を算出する。ここでは、頭部位置の座標から真下にオフセットした点を首位置とする。オフセット値は例えば100mmとする。前部位起点を頭部位置、起点Pを首位置として、部位検出共通ロジックを用いて肩候補を抽出する。ただし、首位置がボクセル値の低いボクセルに位置する可能性を考慮し、連続性チェックはしない。首位置より左側(−w軸側)の肩候補を左肩候補、右側(+w軸側)の肩候補を右肩候補とし、各候補の重心位置をそれぞれ左肩位置、右肩位置とする。
制御部20は、前部位起点を首位置、起点を肩位置として、部位検出共通ロジックを用いて肘候補を抽出する。制御部20は、連続性チェックを行なう。連続性チェックがNGとなり、肘候補点が0の場合、肩が宙に浮いている(ボクセル値の低い位置にある)と考えられ、位置を補正して再探索する。補正方法は例えば、最も近い閾値以上のボクセル値を持つボクセルを選択することで行う。抽出した肘候補の重心を肘位置とする。左肩を起点とした位置を左肘、右肩を起点とした位置を右肘とする。
制御部20は、前部位起点を肩位置、起点を肘位置として、部位検出共通ロジックを用いて手首候補を抽出する。制御部20は、連続性チェックを行ない、連続性チェックがNGの場合は、位置を補正して再探索を行なう。抽出した手首候補の重心を手首位置とする。左肘を起点とした位置を左手首、右肘を起点とした位置を右手首とする。
制御部20は、前部位起点を肘位置、起点を手首位置として、部位検出共通ロジックを用いて手候補を抽出する。制御部20は、連続性チェックを行ない、連続性チェックがNGの場合は、位置を補正して再探索を行なう。抽出した手候補の重心を手位置とする。左手首を起点とした位置を左手、右手首を起点とした位置を右手とする。
制御部20は、各部位が特徴点として未検出の場合(肩が隠れた時、手首が腕時計等で切れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
図9で示す本発明の実施の形態に係る処理装置1の動作を示すフローチャートに基づいて、説明する。制御部20は、フローチャートに従って以下の演算、処理を実行する。
制御部20には、TOFカメラ10からのカメラ画像が入力される。このカメラ画像は、連続するフレーム画像の1フレームとして入力される。制御部20は、特徴点検出処理の前処理として、カメラ画像を車両座標系へ変換して、図3に示すような3次元画素群を抽出する。また、ボクセル作成パラメータ設定例に基づいてボクセルを作成する。また、特徴点探索の基準となる頭部の検出、特定を行なう。
制御部20は、図10に示すように、基準となる規定された1つの特徴点である、頭部位置300から、所定の距離だけオフセットした点を首位置305として算出する。起点を首位置305として、部位検出共通ロジックを用いて肩候補を抽出する。図10に示すように、首位置より左側(−w軸側)の肩候補を左肩候補、右側(+w軸側)の肩候補を右肩候補とし、各候補の重心位置をそれぞれ左肩位置311、右肩位置310とする。
制御部20は、肩の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、肩の検出に成功したかどうかを判断することができる。ただし、肩の検出に限って、首位置がボクセル値の低いボクセルに位置する可能性を考慮し、連続性チェックはしないものとする。肩の検出に成功した場合は、Step5へ進み(Step3:Yes)、肩の検出に成功しない場合は、Step4へ進む(Step3:No)。
制御部20は、肩の部位が未検出の場合(肩が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を首位置305、起点を肩位置310、311として、部位検出共通ロジックを用いて肘候補を抽出する。連続性チェックがNGとなり、肘候補点が0の場合、肩が宙に浮いている(ボクセル値の低い位置にある)と考えられ、位置を補正して再探索する。補正方法は例えば、最も近い閾値以上のボクセル値を持つボクセルを選択することで行う。抽出した肘候補の重心を肘位置とする。図10に示すように、左肩を起点とした位置を左肘321、右肩を起点とした位置を右肘320とする。
制御部20は、肘の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、肘の検出に成功したかどうかを判断することができる。肘の検出に成功した場合は、Step8へ進み(Step6:Yes)、肘の検出に成功しない場合は、Step7へ進む(Step6:No)。
制御部20は、肘の部位が未検出の場合(肘が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を肩位置310、311、起点を肘位置320、321として、部位検出共通ロジックを用いて手首候補を抽出する。抽出した手首候補の重心を手首位置とする。図10に示すように、左肘を起点とした位置を左手首331、右肘を起点とした位置を右手首330とする。
制御部20は、手首の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、手首の検出に成功したかどうかを判断することができる。手首の検出に成功した場合は、Step11へ進み(Step9:Yes)、手首の検出に成功しない場合は、Step10へ進む(Step9:No)。
制御部20は、手首の部位が未検出の場合(手首が腕時計等で切れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を肘位置320、321、起点を手首位置330、331として、部位検出共通ロジックを用いて手候補を抽出する。抽出した手候補の重心を手位置とする。図10に示すように、左手首を起点とした位置を左手341、右手首を起点とした位置を右手340とする。
制御部20は、手の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、手の検出に成功したかどうかを判断することができる。手の検出に成功した場合は、Step14へ進み(Step12:Yes)、手の検出に成功しない場合は、Step13へ進む(Step12:No)。
制御部20は、手の部位が未検出の場合(手が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、部位検出結果として、図10に示すように、左右の肩、肘、手首、手の位置を出力することができる。なお、それぞれの位置は、車両座標系(w,l,h)で出力されるが、座標変換により、カメラ座標系(x,y,z)等の他の座標系での値としても出力可能である。
コンピュータに、処理装置1で示した、車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、乗員5の特徴点を少なくとも1つ検出する特徴点検出処理を実行する制御ステップとを、コンピュータに実行させるためのプログラムも、本発明の実施の形態の一つである。
本発明の実施の形態によれば、以下のような効果を有する。
(1)本発明の実施の形態に係る処理装置は、車両8の乗員5を含む撮像領域を撮像対象とした距離画像であって、撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部としてのTOFカメラ10と、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、乗員5の特徴点を少なくとも1つ検出する特徴点検出処理を実行する制御部20と、を有して構成されている。これにより、人体の特徴点を特定する技術において、その特徴点の特定精度を向上させることができる。
(2)3次元情報を活用することで、外乱光等による濃淡変化の影響によらず人の骨格を精度良く検出することができる。
(3)他の物体で隠れにくい頭部位置を検出の起点としているため、胴体の隠れによらず検出することができる。
(4)スケルトンモデルを用いて部位の探索範囲を絞り込むことで、処理の高速化が可能となる。
(5)前処理でボクセルを作成することで、3次元画素群の密度情報を容易に取得することができ、処理の高速化が可能となる。
(6)3次元情報を用いて前部位との連続性を確認することで、部位の位置を精度良く検出できる。
(7)連続性チェックで説明したように、許容ギャップ数を設けることで、腕時計等の影響による3次元情報の途切れにも対応できる。
(8)補完処理により、各部位の隠れなどにより未検出となった場合でも検出結果を出力することができ、ロバスト性が向上する。
Claims (16)
- 車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部と、
前記車両の車室内空間における座標系と前記距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、前記乗員の特徴点を少なくとも1つ検出する特徴点検出処理を実行する制御部と、
を有する処理装置。 - 前記制御部は、規定された1つの特徴点を特定し、その規定された1つの特徴点を基準として、予め規定された特徴点探索モデルを順次照合して残りの特徴点を検出することを、前記特徴点検出処理として実行する、請求項1に記載の処理装置。
- 前記制御部は、前記特徴点の周囲に位置するボクセルを含めたボクセルの集合を考え、前記ボクセルの集合におけるボクセル値の合計が閾値未満かどうかにより、前記特徴点の確からしさを判断する閾値処理を、前記特徴点検出処理の1つとして実行する、請求項1又は2に記載の処理装置。
- 前記制御部は、前記ボクセル値の合計が閾値未満かどうかを判定する、前記ボクセルの集合を、規定された1つの特徴点である起点から当該特徴点とは別の特徴点である対象特徴点までの間を所定間隔で存在するボクセル群とする、請求項3に記載の処理装置。
- 前記制御部は、前記起点から前記対象特徴点までの全てのボクセル群の各々におけるボクセル値の合計が閾値以上であれば、前記対象特徴点を確からしいものとする、請求項4に記載の処理装置。
- 前記制御部は、前記起点から前記対象特徴点までのボクセル群において、規定された距離を示す個数のボクセル群におけるボクセル値の合計が閾値未満であっても、前記対象特徴点を確からしいものとする、請求項4または請求項5に記載の処理装置。
- 前記制御部は、前記特徴点が未検出の場合、前フレームまでの検出結果を用いて補完処理を行う、請求項1から6までのいずれか1項に記載の処理装置。
- 前記規定された1つの特徴点は、頭部である、請求項1から7までのいずれか1項に記載の処理装置。
- 車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、
車両の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、乗員の特徴点を少なくとも1つ検出する特徴点検出処理を実行する制御ステップとを、コンピュータに実行させるためのプログラム。 - 前記制御ステップは、規定された1つの特徴点を特定し、その規定された1つの特徴点を基準として、予め規定された特徴点探索モデルを順次照合して残りの特徴点を検出することを、前記特徴点検出処理として実行する、請求項9に記載のプログラム。
- 前記制御ステップは、前記特徴点の周囲に位置するボクセルを含めたボクセルの集合を考え、前記ボクセルの集合におけるボクセル値の合計が閾値未満かどうかにより、前記特徴点の確からしさを判断する閾値処理を、前記特徴点検出処理の1つとして実行する、請求項9又は10に記載のプログラム。
- 前記制御ステップは、前記ボクセル値の合計が閾値未満かどうかを判定する、前記ボクセルの集合を、規定された1つの特徴点である起点から当該特徴点とは別の特徴点である対象特徴点までの間を所定間隔で存在するボクセル群とする、請求項11に記載のプログラム。
- 前記制御ステップは、前記起点から前記対象特徴点までの全てのボクセル群の各々におけるボクセル値の合計が閾値以上であれば、前記対象特徴点を確からしいものとする、請求項12に記載のプログラム。
- 前記制御ステップは、前記起点から前記対象特徴点までのボクセル群において、規定された距離を示す個数のボクセル群におけるボクセル値の合計が閾値未満であっても、前記対象特徴点を確からしいものとする、請求項12又は13に記載のプログラム。
- 前記制御ステップは、前記特徴点が未検出の場合、前フレームまでの検出結果を用いて補完処理を行う、請求項9から14までのいずれか1項に記載のプログラム。
- 前記制御ステップは、前記規定された1つの特徴点は、頭部である、請求項9から15までのいずれか1項に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018066467A JP7117878B2 (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018066467A JP7117878B2 (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019179288A true JP2019179288A (ja) | 2019-10-17 |
JP7117878B2 JP7117878B2 (ja) | 2022-08-15 |
Family
ID=68278674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018066467A Active JP7117878B2 (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7117878B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023100679A1 (ja) * | 2021-12-03 | 2023-06-08 | パナソニックIpマネジメント株式会社 | 判定方法、判定装置、及び、判定システム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012127811A (ja) * | 2010-12-15 | 2012-07-05 | Honda Motor Co Ltd | 乗員検知装置 |
JP2017111508A (ja) * | 2015-12-14 | 2017-06-22 | 富士通テン株式会社 | 情報処理装置、情報処理システム、および、情報処理方法 |
-
2018
- 2018-03-30 JP JP2018066467A patent/JP7117878B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012127811A (ja) * | 2010-12-15 | 2012-07-05 | Honda Motor Co Ltd | 乗員検知装置 |
JP2017111508A (ja) * | 2015-12-14 | 2017-06-22 | 富士通テン株式会社 | 情報処理装置、情報処理システム、および、情報処理方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023100679A1 (ja) * | 2021-12-03 | 2023-06-08 | パナソニックIpマネジメント株式会社 | 判定方法、判定装置、及び、判定システム |
Also Published As
Publication number | Publication date |
---|---|
JP7117878B2 (ja) | 2022-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102109941B1 (ko) | 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치 | |
CN113243016A (zh) | 物体识别系统、运算处理装置、汽车、车辆用灯具、分类器的学习方法 | |
KR101283262B1 (ko) | 영상 처리 방법 및 장치 | |
US9811742B2 (en) | Vehicle-surroundings recognition device | |
JP5877053B2 (ja) | 姿勢推定装置および姿勢推定方法 | |
JP6328327B2 (ja) | 画像処理装置及び画像処理方法 | |
US11132563B2 (en) | Method for identifying objects in an image of a camera | |
JP2015057690A (ja) | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム | |
JP2010176380A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
JP2007538318A5 (ja) | ||
US20190266425A1 (en) | Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program | |
KR101628155B1 (ko) | Ccl을 이용한 실시간 미확인 다중 동적물체 탐지 및 추적 방법 | |
JP2012159958A (ja) | 移動物体追跡装置 | |
JP5048609B2 (ja) | 対象物追跡装置及びプログラム | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
JP2006090957A (ja) | 移動体の周囲物体検出装置及び移動体の周囲物体検出方法 | |
JP2010079639A (ja) | 車両の歩行者検出装置 | |
JP2019179289A (ja) | 処理装置、及びプログラム | |
JP7117878B2 (ja) | 処理装置、及びプログラム | |
JP2017167974A (ja) | 推定装置、方法及びプログラム | |
JP4745966B2 (ja) | 目標物の自動識別システム | |
JP7053342B2 (ja) | 処理装置、及びプログラム | |
JP4742695B2 (ja) | 視線認識装置、及び視線認識方法 | |
JP7375806B2 (ja) | 画像処理装置、及び画像処理方法 | |
JP2016004382A (ja) | 動き情報推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20180427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7117878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |