JP2019179290A - 処理装置、及びプログラム - Google Patents
処理装置、及びプログラム Download PDFInfo
- Publication number
- JP2019179290A JP2019179290A JP2018066469A JP2018066469A JP2019179290A JP 2019179290 A JP2019179290 A JP 2019179290A JP 2018066469 A JP2018066469 A JP 2018066469A JP 2018066469 A JP2018066469 A JP 2018066469A JP 2019179290 A JP2019179290 A JP 2019179290A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- feature point
- image
- occupant
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
[2]前記補正処理は、検出した複数の前記特徴点を分類し、前記不動点に対して、前側、外側、又は、上側の特徴点を分離して抽出する、上記[1]に記載の処理装置であってもよい。
[3]また、前記補正処理は、前記乗員の肘検出において、前記不動点に対して、前記前側、外側、又は、上側の特徴点を分離して、前記乗員の肘の特徴点として抽出する、上記[1]又は[2]に記載の処理装置であってもよい。
[4]また、前記補正処理は、前記乗員の手首検出において、前記不動点に対して、前記前側の特徴点を分離して、前記乗員の手首の特徴点として抽出する、上記[1]又は[2]に記載の処理装置であってもよい。
[5]また、前記補正処理により抽出された前記特徴点の重心位置を正規な特徴点の位置とする、上記[1]から[4]のいずれか1に記載の処理装置であってもよい。
[6]上記目的を達成するため、車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、前記車両の車室内空間における座標系と前記距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換して、その検出画像において複数の前記乗員の特徴点を検出する特徴点検出処理、及び前記特徴点検出処理で検出された特徴点を、人体構造における不動点との位置関係に従って補正する補正処理を実行する制御ステップとを、コンピュータに実行させるためのプログラムを提供する。
[7]前記制御ステップにおいて、前記補正処理は、検出した複数の前記特徴点を分類し、前記不動点に対して、前側、外側、又は、上側の特徴点を分離して抽出する、上記[6]に記載のプログラムであってもよい。
[8]また、前記制御ステップにおいて、前記補正処理は、前記乗員の肘検出において、前記不動点に対して、前記前側、外側、又は、上側の特徴点を分離して、前記乗員の肘の特徴点として抽出する、上記[6]又は[7]に記載のプログラムであってもよい。
[9]また、前記制御ステップにおいて、前記補正処理は、前記乗員の手首検出において、前記不動点に対して、前記前側の特徴点を分離して、前記乗員の手首の特徴点として抽出する、上記[6]又は[7]に記載のプログラムであってもよい。
[10]また、前記制御ステップにおいて、前記補正処理により抽出された前記特徴点の重心位置を正規な特徴点の位置とする、上記[6]から[9]のいずれか1に記載のプログラムであってもよい。
本発明の実施の形態に係る処理装置1は、車両8の乗員5を含む撮像領域を撮像対象とした距離画像であって、撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部としてのTOFカメラ10と、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換して、その検出画像において複数の乗員5の特徴点を検出する特徴点検出処理、及び特徴点検出処理で検出された特徴点を、人体構造における不動点との位置関係に従って補正する補正処理を実行する制御部20と、を有して構成されている。
スケルトンモデルは、図1(a)に示すように、人体の各骨格のサイズ、関節の可動範囲を定義したものであって、一例を図1(b)に示す。この定義は例えば、産業技術総合研究所が公開している人体寸法データベースや、独立行政法人製品評価技術基盤機構が公開している人間特性データベース等の情報をもとに決めることができる。各部位(肩、肘、手首、手)の可動範囲(スケルトンモデル定義の中で規定しているなす角)は、前腕部を例として図1(c)のように定義する。
取得部としては撮像対象の3次元認識が可能なものであれば使用可能であるが、本実施の形態では、取得部としてTOF(Time Of Flight)カメラ10を使用する。TOFカメラ10は、光源の光が測定対象物に当たって戻るまでの時間を画素毎に検出し、奥行き方向の距離に相当する位置情報を含む立体的な画像を撮影できる。TOFカメラ10は、赤外光等を発光後、その光が物体に反射して戻ってきた反射光を受光し、発光から受光までの時間を測定して、画素ごとに撮像対象物までの距離を検出する。
つまり、TOFカメラ10で撮像された画像における各画素に、3次元空間における距離情報を割り当てることで距離画像が生成される。
距離画像における座標値u,vと、座標(u,v)における画素値d(u,v)は、以下の式を用いて3次元空間上の点(x,y,z)に変換することで、図1に示すカメラ座標系(x,y,z)における3次元画素群を作成することができる。
カメラ座標系(x,y,z)は、検出対象であるドライバ(例えば腰骨の位置)を原点とする車両座標系(w,l,h)に変換することができる。変換方法は、一般的な座標回転変換、平行移動変換、スケール変換の組み合わせである。変換後の座標軸は、ドライバ右方向をw軸、前方をl軸(エル軸)、上方をh軸とし、原点はドライバの腰骨位置203とする。図3に3次元画素群の例を示す。
図4(a)に示すように、車室内空間の広さを考慮し、図4(b)に一例として示すボクセル作成パラメータ設定例のサイズでボクセル(3次元空間を一定サイズで格子状に分割し、離散的にエリアを表現する方法)を作成する。各ボクセルは、ボクセル値を持ち、3次元画素群の密度情報(ここでは、各ボクセルに含まれる3次元画素群の数×3、とする)をボクセル値とする。
制御部20は、座標変換、頭頂部特定処理、頭部特定処理等を行なうための、例えばマイクロコンピュータを備えている。制御部20は、図2に示すように、TOFカメラ10と接続されている。制御部20は、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)21、半導体メモリであるRAM(Random Access Memory)22及びROM(Read Only Memory)23などを備えている。
頭部は、規定された1つの特徴点であり、本実施の形態では、予め規定された特徴点探索モデルを順次照合して残りの特徴点(左右の肩部、肘部、手首、手)を検出するための基準となるものである。頭部の検出、特定の手法は任意であり、公知の方法により頭部の検出、特定を行なうことができる。また、制御部20による検出、特定でなく、頭部の3次元データ(w,l,h)を制御部20に入力してもよい。
制御部20は、図5(a)に示すように、スケルトンモデルで定義した長さおよび可動範囲に含まれるボクセルを探索し、抽出する。可動範囲は、前部位起点から現在部位起点Pの方向を基準とし、図5(a)に示す母線250で規定される円錐形状として定義する。探索は、図5(b)に示すような、探索範囲絞り込みパラメータに基づいて行なう。
(1)閾値処理
制御部20は、探索範囲を絞り込んだ各ボクセルについて、周囲のボクセルを含めたボクセルの集合を考える。ここでは、図6に示すように、周囲1ボクセルを含めた3×3×3のボクセルとする。ここで、当該ボクセルのボクセル値の合計が閾値未満の場合、候補から除外する。
制御部20は、(1)の閾値処理で抽出した各ボクセルについて、図7に示すように、起点Pとの間をX[mm]間隔で、(1)と同じ領域(3×3×3のボクセル)を考え、全ての位置でボクセル値の合計が閾値以上の場合、当該ボクセルを部位候補とする。ただし、腕時計等、TOFカメラで情報が取得できない可能性がある装着物を考慮して、起点Pとの間でボクセル値の閾値を満たさない点が存在しても許容できるよう、許容ギャップ数を定義する。例えば、許容ギャップ数が1の場合、閾値を満たさない点が1つまでなら連続性があると判定する。
制御部20は、検出あるいは特定した頭部位置から首位置を算出する。ここでは、頭部位置の座標から真下にオフセットした点を首位置とする。オフセット値は例えば100mmとする。前部位起点を頭部位置、起点Pを首位置として、部位検出共通ロジックを用いて肩候補を抽出する。ただし、首位置がボクセル値の低いボクセルに位置する可能性を考慮し、連続性チェックはしない。首位置より左側(−w軸側)の肩候補を左肩候補、右側(+w軸側)の肩候補を右肩候補とし、各候補の重心位置をそれぞれ左肩位置、右肩位置とする。
制御部20は、前部位起点を首位置、起点を肩位置として、部位検出共通ロジックを用いて肘候補を抽出する。制御部20は、連続性チェックを行なう。連続性チェックがNGとなり、肘候補点が0の場合、肩が宙に浮いている(ボクセル値の低い位置にある)と考えられ、位置を補正して再探索する。補正方法は例えば、最も近い閾値以上のボクセル値を持つボクセルを選択することで行う。
図9(a)に示すように、複数の部位(肘)候補点が広い探索範囲にある場合でも、ドライバの着座姿勢を考慮して、肘は不動点としての胴体より前側、外側、上側にあるということを特徴と考える。そこで、制御部20は、図9(b)に示すように、複数の候補点を分類し、不動点(胴体)に対して、前側、外側(左肘は左側、右肘は右側)、上側の候補点を分離して抽出する補正処理を実行する。このような補正処理により、例えば、図9(b)に示すように、不動点としての胴体、例えば、腰骨位置203に対して、前側、外側(左肘は左側、右肘は右側)、上側の候補点が分離して抽出される。
(B)w軸方向に画素群を分類し、外側の画素群を分離して抽出する。例えば、抽出した候補点のw軸方向における最大値と最小値の差が、図1(b)で示すスケルトンモデルで定義した上腕部の長さの最大値と最小値の差の範囲内かどうかを判定し、範囲内の場合、分離不要と判断し、範囲外の場合、候補点のw座標の平均値を算出し、その平均より外側(左肘は−w方向、右肘は+w方向)の候補点を分離して抽出する。
(C)h軸方向に画素群を分類し、上側の画素群を分離して抽出する。例えば、抽出した候補点のh軸方向における最大値と最小値の差が、図1(b)で示すスケルトンモデルで定義した上腕部の長さの最大値と最小値の差の範囲内かどうかを判定し、範囲内の場合、分離不要と判断し、範囲外の場合、候補点のh座標の平均値を算出し、その平均より上側(+h方向)の候補点を分離して抽出する。
(D)上記(A)〜(C)の全てで平均値による分離不要の場合、抽出した画素群から肘位置を算出し、肘検出処理を終了する。上記(A)〜(C)の何れかで平均値による分離処理が実施された場合は、上記(A)へ戻って補正処理を繰り返して実行する。
なお、所定回数だけ上記の補正処理を実行した場合は、補正処理の実行ループから抜けて次のステップに進む、あるいは、処理全体を終了することができる。
制御部20は、前部位起点を肩位置、起点を肘位置として、部位検出共通ロジックを用いて手首候補を抽出する。制御部20は、連続性チェックを行ない、連続性チェックがNGの場合は、位置を補正して再探索を行なう。
肘候補点の補正処理と同様にして、ドライバの着座姿勢を考慮したとき、手首は不動点としての胴体より前側にあるということを特徴と考える。制御部20は、複数の候補点を分類し、前側の候補点を分離して抽出する補正処理を実行する。
(F)上記の(E)で平均値による分離不要の場合、抽出した画素群から手首位置を算出し、手首検出処理を終了する。上記(E)で平均値による分離処理が実施された場合、上記(E)へ戻って補正処理を繰り返して実行する。
なお、所定回数だけ上記の補正処理を実行した場合は、補正処理の実行ループから抜けて次のステップに進む、あるいは、処理全体を終了することができる。
制御部20は、前部位起点を肘位置、起点を手首位置として、部位検出共通ロジックを用いて手候補を抽出する。制御部20は、連続性チェックを行ない、連続性チェックがNGの場合は、位置を補正して再探索を行なう。抽出した手候補の重心を手位置とする。左手首を起点とした位置を左手、右手首を起点とした位置を右手とする。
制御部20は、各部位が特徴点として未検出の場合(肩が隠れた時、手首が腕時計等で切れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
図10、12、13で示す本発明の実施の形態に係る処理装置1の動作を示すフローチャートに基づいて、説明する。制御部20は、フローチャートに従って以下の演算、処理を実行する。
制御部20には、TOFカメラ10からのカメラ画像が入力される。このカメラ画像は、連続するフレーム画像の1フレームとして入力される。制御部20は、特徴点検出処理の前処理として、カメラ画像を車両座標系へ変換して、図3に示すような3次元画素群を抽出する。また、ボクセル作成パラメータ設定例に基づいてボクセルを作成する。また、特徴点探索の基準となる頭部の検出、特定を行なう。
制御部20は、図11に示すように、基準となる規定された1つの特徴点である、頭部位置300から、所定の距離だけオフセットした点を首位置305として算出する。起点を首位置305として、部位検出共通ロジックを用いて肩候補を抽出する。図11に示すように、首位置より左側(−w軸側)の肩候補を左肩候補、右側(+w軸側)の肩候補を右肩候補とし、各候補の重心位置をそれぞれ左肩位置311、右肩位置310とする。
制御部20は、肩の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、肩の検出に成功したかどうかを判断することができる。ただし、肩の検出に限って、首位置がボクセル値の低いボクセルに位置する可能性を考慮し、連続性チェックはしないものとする。肩の検出に成功した場合は、Step5へ進み(Step3:Yes)、肩の検出に成功しない場合は、Step4へ進む(Step3:No)。
制御部20は、肩の部位が未検出の場合(肩が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を首位置305、起点を肩位置310、311として、部位検出共通ロジックを用いて肘候補を抽出する。連続性チェックがNGとなり、肘候補点が0の場合、肩が宙に浮いている(ボクセル値の低い位置にある)と考えられ、位置を補正して再探索する。補正方法は例えば、最も近い閾値以上のボクセル値を持つボクセルを選択することで行う。
制御部20は、人体構造の不動点との位置関係に従って補正する補正処理を実行する。
制御部20は、l軸方向に画素群を分類し、前側の画素群を分離して候補点として抽出する。
制御部20は、スケルトンモデルで定義した上腕部の長さの最大値と最小値の差の範囲内かどうかを判定する。スケルトンモデルの範囲内の場合、Step5−4へ進み(Step5−2:Yes)、スケルトンモデルの範囲内でない場合、Step5−3へ進む(Step5−2:No)。
制御部20は、候補点のl座標の平均値を算出し、その平均より前側(+l方向)の候補点を分離して抽出する。
制御部20は、w軸方向に画素群を分類し、前側の画素群を分離して候補点として抽出する。
制御部20は、スケルトンモデルで定義した上腕部の長さの最大値と最小値の差の範囲内かどうかを判定する。スケルトンモデルの範囲内の場合、Step5−7へ進み(Step5−5:Yes)、スケルトンモデルの範囲内でない場合、Step5−6へ進む(Step5−5:No)。
制御部20は、候補点のw座標の平均値を算出し、その平均より前側(+w方向)の候補点を分離して抽出する。
制御部20は、h軸方向に画素群を分類し、前側の画素群を分離して候補点として抽出する。
制御部20は、スケルトンモデルで定義した上腕部の長さの最大値と最小値の差の範囲内かどうかを判定する。スケルトンモデルの範囲内の場合、Step5−10へ進み(Step5−8:Yes)、スケルトンモデルの範囲内でない場合、Step5−9へ進む(Step5−8:No)。
制御部20は、候補点のh座標の平均値を算出し、その平均より前側(+h方向)の候補点を分離して抽出する。
制御部20は、Step5−3、Step5−6、Step5−9の何れかのステップで平均値による分離処理が実施されたかどうかを判断する。分離処理が実施された場合は、Step5−1へ戻る(Step5−10:Yes)。分離処理が実施されない場合は、抽出した肘候補の重心を求めて肘位置として、Step6へ進む(Step5−10:No)。図11に示すように、左肩を起点とした位置を左肘321、右肩を起点とした位置を右肘320とする。
制御部20は、肘の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、肘の検出に成功したかどうかを判断することができる。肘の検出に成功した場合は、Step8へ進み(Step6:Yes)、肘の検出に成功しない場合は、Step7へ進む(Step6:No)。
制御部20は、肘の部位が未検出の場合(肘が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を肩位置310、311、起点を肘位置320、321として、部位検出共通ロジックを用いて手首候補を抽出する。
制御部20は、人体構造の不動点との位置関係に従って補正する補正処理を実行する。
制御部20は、l軸方向に画素群を分類し、前側の画素群を分離して候補点として抽出する。
制御部20は、スケルトンモデルで定義した前腕部の長さの最大値と最小値の差の範囲内かどうかを判定する。スケルトンモデルの範囲内の場合、Step8−4へ進み(Step8−2:Yes)、スケルトンモデルの範囲内でない場合、Step8−3へ進む(Step8−2:No)。
制御部20は、候補点のl座標の平均値を算出し、その平均より前側(+l方向)の候補点を分離して抽出する。
制御部20は、Step8−3のステップで平均値による分離処理が実施されたかどうかを判断する。分離処理が実施された場合は、Step8−1へ戻る(Step8−4:Yes)。分離処理が実施されない場合は、抽出した手首候補の重心を求めて手首位置として、Step9へ進む(Step8−4:No)。図11に示すように、左肘を起点とした位置を左手首331、右肘を起点とした位置を右手首330とする。
制御部20は、手首の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、手首の検出に成功したかどうかを判断することができる。手首の検出に成功した場合は、Step11へ進み(Step9:Yes)、手首の検出に成功しない場合は、Step10へ進む(Step9:No)。
制御部20は、手首の部位が未検出の場合(手首が腕時計等で切れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を肘位置320、321、起点を手首位置330、331として、部位検出共通ロジックを用いて手候補を抽出する。抽出した手候補の重心を手位置とする。図11に示すように、左手首を起点とした位置を左手341、右手首を起点とした位置を右手340とする。
制御部20は、手の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、手の検出に成功したかどうかを判断することができる。手の検出に成功した場合は、Step14へ進み(Step12:Yes)、手の検出に成功しない場合は、Step13へ進む(Step12:No)。
制御部20は、手の部位が未検出の場合(手が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、部位検出結果として、図11に示すように、左右の肩、肘、手首、手の位置を出力することができる。なお、それぞれの位置は、車両座標系(w,l,h)で出力されるが、座標変換により、カメラ座標系(x,y,z)等の他の座標系での値としても出力可能である。
コンピュータに、処理装置1で示した、車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換して、その検出画像において複数の乗員5の特徴点を検出する特徴点検出処理、及び特徴点検出処理で検出された特徴点を、人体構造における不動点との位置関係に従って補正する補正処理を実行する制御ステップとを、コンピュータに実行させるためのプログラムも、本発明の実施の形態の一つである。
本発明の実施の形態によれば、以下のような効果を有する。
(1)本発明の実施の形態に係る処理装置は、車両8の乗員5を含む撮像領域を撮像対象とした距離画像であって、撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部としてのTOFカメラ10と、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換して、その検出画像において複数の乗員5の特徴点を検出する特徴点検出処理、及び特徴点検出処理で検出された特徴点を、人体構造における不動点との位置関係に従って補正する補正処理を実行する制御部20と、を有して構成されている。これにより、人体の特徴点を特定する技術において、その特徴点の特定精度を向上させることができる。
(2)図14(a)に示すように、補正処理がない場合の部位抽出結果では、右腕を胴体に誤検出しているが、図14(b)に示すように、本実施の形態に係る補正処理を行なった部位検出の結果では、肘、手首が胴体と誤検出されることが改善されている。
(3)部位の候補点に非検出対象が含まれたときも、検出対象の候補点のみに分離可能である。また、検出対象の候補点のみに分離することで、部位の誤検出を防止することが可能となる。
Claims (10)
- 車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部と、
前記車両の車室内空間における座標系と前記距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換して、その検出画像において複数の前記乗員の特徴点を検出する特徴点検出処理、及び前記特徴点検出処理で検出された特徴点を、人体構造における不動点との位置関係に従って補正する補正処理を実行する制御部と、
を有する処理装置。 - 前記補正処理は、検出した複数の前記特徴点を分類し、前記不動点に対して、前側、外側、又は、上側の特徴点を分離して抽出する、請求項1に記載の処理装置。
- 前記補正処理は、前記乗員の肘検出において、前記不動点に対して、前記前側、外側、又は、上側の特徴点を分離して、前記乗員の肘の特徴点として抽出する、請求項1又は2に記載の処理装置。
- 前記補正処理は、前記乗員の手首検出において、前記不動点に対して、前記前側の特徴点を分離して、前記乗員の手首の特徴点として抽出する、請求項1又は2に記載の処理装置。
- 前記補正処理により抽出された前記特徴点の重心位置を正規な特徴点の位置とする、請求項1から4のいずれか1項に記載の処理装置。
- 車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、
前記車両の車室内空間における座標系と前記距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換して、その検出画像において複数の前記乗員の特徴点を検出する特徴点検出処理、及び前記特徴点検出処理で検出された特徴点を、人体構造における不動点との位置関係に従って補正する補正処理を実行する制御ステップとを、コンピュータに実行させるためのプログラム。 - 前記制御ステップにおいて、前記補正処理は、検出した複数の前記特徴点を分類し、前記不動点に対して、前側、外側、又は、上側の特徴点を分離して抽出する、請求項6に記載のプログラム。
- 前記制御ステップにおいて、前記補正処理は、前記乗員の肘検出において、前記不動点に対して、前記前側、外側、又は、上側の特徴点を分離して、前記乗員の肘の特徴点として抽出する、請求項6又は7に記載のプログラム。
- 前記制御ステップにおいて、前記補正処理は、前記乗員の手首検出において、前記不動点に対して、前記前側の特徴点を分離して、前記乗員の手首の特徴点として抽出する、請求項6又は7に記載のプログラム。
- 前記制御ステップにおいて、前記補正処理により抽出された前記特徴点の重心位置を正規な特徴点の位置とする、請求項6から9のいずれか1項に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018066469A JP7053342B2 (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018066469A JP7053342B2 (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019179290A true JP2019179290A (ja) | 2019-10-17 |
JP7053342B2 JP7053342B2 (ja) | 2022-04-12 |
Family
ID=68278615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018066469A Active JP7053342B2 (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7053342B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012127811A (ja) * | 2010-12-15 | 2012-07-05 | Honda Motor Co Ltd | 乗員検知装置 |
JP2017111508A (ja) * | 2015-12-14 | 2017-06-22 | 富士通テン株式会社 | 情報処理装置、情報処理システム、および、情報処理方法 |
-
2018
- 2018-03-30 JP JP2018066469A patent/JP7053342B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012127811A (ja) * | 2010-12-15 | 2012-07-05 | Honda Motor Co Ltd | 乗員検知装置 |
JP2017111508A (ja) * | 2015-12-14 | 2017-06-22 | 富士通テン株式会社 | 情報処理装置、情報処理システム、および、情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7053342B2 (ja) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10599228B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
US11138467B2 (en) | Method, device, product, and computer program for operating a technical system | |
EP3293669B1 (en) | Enhanced camera object detection for automated vehicles | |
CN113243016A (zh) | 物体识别系统、运算处理装置、汽车、车辆用灯具、分类器的学习方法 | |
US9809227B2 (en) | Apparatus and method for identifying target object | |
US11132563B2 (en) | Method for identifying objects in an image of a camera | |
WO2015104898A1 (ja) | 車両用外界認識装置 | |
JP5800494B2 (ja) | 特定領域選択装置、特定領域選択方法及びプログラム | |
CN109923583A (zh) | 一种姿态的识别方法、设备及可移动平台 | |
JP5687082B2 (ja) | 移動物体追跡装置 | |
WO2017051480A1 (ja) | 画像処理装置及び画像処理方法 | |
JP2012518857A (ja) | 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 | |
CN109643372A (zh) | 一种识别方法、设备以及可移动平台 | |
US20190266425A1 (en) | Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program | |
JP2019179289A (ja) | 処理装置、及びプログラム | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
JP2010079639A (ja) | 車両の歩行者検出装置 | |
CN110991292A (zh) | 动作识别比对方法、系统、计算机存储介质和电子装置 | |
CN112862862B (zh) | 基于人工智能视觉跟踪的飞机自主受油装置及应用方法 | |
JP7117878B2 (ja) | 処理装置、及びプログラム | |
JP7053342B2 (ja) | 処理装置、及びプログラム | |
JP4742695B2 (ja) | 視線認識装置、及び視線認識方法 | |
JP7053341B2 (ja) | 処理装置、及びプログラム | |
JP7053340B2 (ja) | 処理装置、及びプログラム | |
JP2006010652A (ja) | 物体検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20180427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7053342 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |