JP2019179289A - 処理装置、及びプログラム - Google Patents
処理装置、及びプログラム Download PDFInfo
- Publication number
- JP2019179289A JP2019179289A JP2018066468A JP2018066468A JP2019179289A JP 2019179289 A JP2019179289 A JP 2019179289A JP 2018066468 A JP2018066468 A JP 2018066468A JP 2018066468 A JP2018066468 A JP 2018066468A JP 2019179289 A JP2019179289 A JP 2019179289A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- detection
- coordinate system
- image
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
[2]前記関節モデルは、前記関節間の距離、及び関節を結ぶ線分の為す角の少なくとも一方である、上記[1]に記載の処理装置であってもよい。
[3]また、前記補正された特徴点の位置を、正規な特徴点の位置とする、上記[1]又は[2]に記載の処理装置であってもよい。
[4]また、前記制御部は、前記補正処理にて補正された前記特徴点の妥当性を検証する検証処理を実行する、上記[1]から[3]のいずれか1に記載の処理装置であってもよい。
[5]また、前記制御部は、未検出である特徴点を補完する補完処理を実行し、更に、当該補完処理にて補完した特徴点について前記検証処理を実行する、上記[4]に記載の処理装置であってもよい。
[6]上記目的を達成するため、車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、前記車両の車室内空間における座標系と前記距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、前記乗員の特徴点を少なくとも1つ検出する特徴点検出処理、及び前記特徴点検出処理で検出された特徴点を、人体構造に基づく各関節の位置関係を示す関節モデルに従って補正する補正処理を実行する制御ステップとを、コンピュータに実行させるためのプログラムを提供する。
[7]前記制御ステップにおいて、前記関節モデルは、前記関節間の距離、及び関節を結ぶ線分の為す角の少なくとも一方である、上記[6]に記載のプログラムであってもよい。
[8]前記制御ステップにおいて、前記補正された特徴点の位置を、正規な特徴点の位置とする、上記[6]又は[7]に記載のプログラムであってもよい。
[9]前記制御ステップは、前記補正処理にて補正された前記特徴点の妥当性を検証する検証処理を実行する、上記[6]から[8]のいずれか1に記載のプログラムであってもよい。
[10]前記制御ステップは、前未検出である特徴点を補完する補完処理を実行し、更に、当該補完処理にて補完した特徴点について前記検証処理を実行する、上記[9]に記載のプログラムであってもよい。
本発明の実施の形態に係る処理装置1は、車両8の乗員5を含む撮像領域を撮像対象とした距離画像であって、撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部としてのTOFカメラ10と、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、乗員5の特徴点を少なくとも1つ検出する特徴点検出処理、及び特徴点検出処理で検出された特徴点を、人体構造に基づく各関節の位置関係を示す関節モデルに従って補正する補正処理を実行する制御部20と、を有して構成されている。
スケルトンモデルは、図1(a)に示すように、人体の各骨格のサイズ、関節の可動範囲を定義したものであって、一例を図1(b)に示す。この定義は例えば、産業技術総合研究所が公開している人体寸法データベースや、独立行政法人製品評価技術基盤機構が公開している人間特性データベース等の情報をもとに決めることができる。各部位(肩、肘、手首、手)の可動範囲(スケルトンモデル定義の中で規定しているなす角)は、前腕部を例として図1(c)のように定義する。
取得部としては撮像対象の3次元認識が可能なものであれば使用可能であるが、本実施の形態では、取得部としてTOF(Time Of Flight)カメラ10を使用する。TOFカメラ10は、光源の光が測定対象物に当たって戻るまでの時間を画素毎に検出し、奥行き方向の距離に相当する位置情報を含む立体的な画像を撮影できる。TOFカメラ10は、赤外光等を発光後、その光が物体に反射して戻ってきた反射光を受光し、発光から受光までの時間を測定して、画素ごとに撮像対象物までの距離を検出する。
距離画像における座標値u,vと、座標(u,v)における画素値d(u,v)は、以下の式を用いて3次元空間上の点(x,y,z)に変換することで、図1に示すカメラ座標系(x,y,z)における3次元画素群を作成することができる。
カメラ座標系(x,y,z)は、検出対象であるドライバ(例えば腰骨の位置)を原点とする車両座標系(w,l,h)に変換することができる。変換方法は、一般的な座標回転変換、平行移動変換、スケール変換の組み合わせである。変換後の座標軸は、ドライバ右方向をw軸、前方をl軸(エル軸)、上方をh軸とし、原点はドライバの腰骨位置203とする。図3に3次元画素群の例を示す。
図4(a)に示すように、車室内空間の広さを考慮し、図4(b)に一例として示すボクセル作成パラメータ設定例のサイズでボクセル(3次元空間を一定サイズで格子状に分割し、離散的にエリアを表現する方法)を作成する。各ボクセルは、ボクセル値を持ち、3次元画素群の密度情報(ここでは、各ボクセルに含まれる3次元画素群の数×3、とする)をボクセル値とする。
制御部20は、座標変換、頭頂部特定処理、頭部特定処理等を行なうための、例えばマイクロコンピュータを備えている。制御部20は、図2に示すように、TOFカメラ10と接続されている。制御部20は、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)21、半導体メモリであるRAM(Random Access Memory)22及びROM(Read Only Memory)23などを備えている。
頭部は、規定された1つの特徴点であり、本実施の形態では、予め規定された特徴点探索モデルを順次照合して残りの特徴点(左右の肩部、肘部、手首、手)を検出するための基準となるものである。頭部の検出、特定の手法は任意であり、公知の方法により頭部の検出、特定を行なうことができる。また、制御部20による検出、特定でなく、頭部の3次元データ(w,l,h)を制御部20に入力してもよい。
制御部20は、図5(a)に示すように、スケルトンモデルで定義した長さおよび可動範囲に含まれるボクセルを探索し、抽出する。可動範囲は、前部位起点から現在部位起点Pの方向を基準とし、図5(a)に示す母線250で規定される円錐形状として定義する。探索は、図5(b)に示すような、探索範囲絞り込みパラメータに基づいて行なう。
(1)閾値処理
制御部20は、探索範囲を絞り込んだ各ボクセルについて、周囲のボクセルを含めたボクセルの集合を考える。ここでは、図6に示すように、周囲1ボクセルを含めた3×3×3のボクセルとする。ここで、当該ボクセルのボクセル値の合計が閾値未満の場合、候補から除外する。
制御部20は、(1)の閾値処理で抽出した各ボクセルについて、図7に示すように、起点Pとの間をX[mm]間隔で、(1)と同じ領域(3×3×3のボクセル)を考え、全ての位置でボクセル値の合計が閾値以上の場合、当該ボクセルを部位候補とする。ただし、腕時計等、TOFカメラで情報が取得できない可能性がある装着物を考慮して、起点Pとの間でボクセル値の閾値を満たさない点が存在しても許容できるよう、許容ギャップ数を定義する。例えば、許容ギャップ数が1の場合、閾値を満たさない点が1つまでなら連続性があると判定する。
制御部20は、検出あるいは特定した頭部位置から首位置を算出する。ここでは、頭部位置の座標から真下にオフセットした点を首位置とする。オフセット値は例えば100mmとする。前部位起点を頭部位置、起点Pを首位置として、部位検出共通ロジックを用いて肩候補を抽出する。ただし、首位置がボクセル値の低いボクセルに位置する可能性を考慮し、連続性チェックはしない。首位置より左側(−w軸側)の肩候補を左肩候補、右側(+w軸側)の肩候補を右肩候補とし、各候補の重心位置をそれぞれ左肩位置、右肩位置とする。
制御部20は、前部位起点を首位置、起点を肩位置として、部位検出共通ロジックを用いて肘候補を抽出する。制御部20は、連続性チェックを行なう。連続性チェックがNGとなり、肘候補点が0の場合、肩が宙に浮いている(ボクセル値の低い位置にある)と考えられ、位置を補正して再探索する。補正方法は例えば、最も近い閾値以上のボクセル値を持つボクセルを選択することで行う。抽出した肘候補の重心を肘位置とする。左肩を起点とした位置を左肘、右肩を起点とした位置を右肘とする。
制御部20は、前部位起点を肩位置、起点を肘位置として、部位検出共通ロジックを用いて手首候補を抽出する。制御部20は、連続性チェックを行ない、連続性チェックがNGの場合は、位置を補正して再探索を行なう。抽出した手首候補の重心を手首位置とする。左肘を起点とした位置を左手首、右肘を起点とした位置を右手首とする。
制御部20は、前部位起点を肘位置、起点を手首位置として、部位検出共通ロジックを用いて手候補を抽出する。制御部20は、連続性チェックを行ない、連続性チェックがNGの場合は、位置を補正して再探索を行なう。抽出した手候補の重心を手位置とする。左手首を起点とした位置を左手、右手首を起点とした位置を右手とする。
制御部20は、各部位が特徴点として未検出の場合(肩が隠れた時、手首が腕時計等で切れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
上記説明した、肩検出、肘検出、手首検出、手検出の後に、次に示すような補正処理を実行する。この補正処理は、人体構造に基づく各関節の位置関係を示す関節モデルに従って補正するものである。この関節モデルは、関節間の距離、及び関節を結ぶ線分の為す角の少なくとも一方である。すなわち、肩、肘、手首、手の検出結果を、図9に示すように、スケルトンモデル定義で規定される各部の比率で算出し直して検出位置のずれを補正するものである。
上腕:前腕:手=(上腕最大長さ−上腕最小長さ)/2
:(前腕最大長さ−前腕最小長さ)/2
:(手最大長さ−手最小長さ)/4
なお、手のモデル長さは指先までのため、半分の長さとする。腕全体の長さを、検出した肩から手の長さから算出しておく(肩〜肘、肘〜手首、手首〜手の長さの和)。
上記算出後に、図11に示すように、以下の(A)〜(C)の手順で肘位置、手首位置を補正する。
(A)検出した腕全体の長さとモデルから算出した部位の長さの比率から肘位置を補正する。長さは「腕全体の長さ×上腕の比率」で求め、方向は肩から補正前の肘に向かう方向とする。
(B)同様に、手首位置を補正する。長さは、(腕全体の長さ−補正後の前腕の長さ)×前腕の比率/(前腕の比率+手の比率)で求め、方向は補正後の肘から補正前の手首に向かう方向とする。
(C)補正後の手首位置から補正前の手の位置に向かう方向を手の方向とする。
検証処理は、補正処理にて補正された特徴点、又は、補完処理にて補完された特徴点の妥当性を検証する処理である。図1(b)で示したスケルトンモデルを適合して、本来存在すべき位置に、各特徴点が存在するかを検証することができる。検証処理の対象となる特徴点は、補正処理にて補正された特徴点、補完処理にて補完された特徴点であるが、補完処理は省略されていてもよい。
図10で示す本発明の実施の形態に係る処理装置1の動作を示すフローチャートに基づいて、説明する。制御部20は、フローチャートに従って以下の演算、処理を実行する。
制御部20には、TOFカメラ10からのカメラ画像が入力される。このカメラ画像は、連続するフレーム画像の1フレームとして入力される。制御部20は、特徴点検出処理の前処理として、カメラ画像を車両座標系へ変換して、図3に示すような3次元画素群を抽出する。また、ボクセル作成パラメータ設定例に基づいてボクセルを作成する。また、特徴点探索の基準となる頭部の検出、特定を行なう。
制御部20は、図11に示すように、基準となる規定された1つの特徴点である、頭部位置300から、所定の距離だけオフセットした点を首位置305として算出する。起点を首位置305として、部位検出共通ロジックを用いて肩候補を抽出する。図11に示すように、首位置より左側(−w軸側)の肩候補を左肩候補、右側(+w軸側)の肩候補を右肩候補とし、各候補の重心位置をそれぞれ左肩位置311、右肩位置310とする。
制御部20は、肩の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、肩の検出に成功したかどうかを判断することができる。ただし、肩の検出に限って、首位置がボクセル値の低いボクセルに位置する可能性を考慮し、連続性チェックはしないものとする。肩の検出に成功した場合は、Step5へ進み(Step3:Yes)、肩の検出に成功しない場合は、Step4へ進む(Step3:No)。
制御部20は、肩の部位が未検出の場合(肩が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を首位置305、起点を肩位置310、311として、部位検出共通ロジックを用いて肘候補を抽出する。連続性チェックがNGとなり、肘候補点が0の場合、肩が宙に浮いている(ボクセル値の低い位置にある)と考えられ、位置を補正して再探索する。補正方法は例えば、最も近い閾値以上のボクセル値を持つボクセルを選択することで行う。抽出した肘候補の重心を肘位置とする。図11に示すように、左肩を起点とした位置を左肘321、右肩を起点とした位置を右肘320とする。
制御部20は、肘の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、肘の検出に成功したかどうかを判断することができる。肘の検出に成功した場合は、Step8へ進み(Step6:Yes)、肘の検出に成功しない場合は、Step7へ進む(Step6:No)。
制御部20は、肘の部位が未検出の場合(肘が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を肩位置310、311、起点を肘位置320、321として、部位検出共通ロジックを用いて手首候補を抽出する。抽出した手首候補の重心を手首位置とする。図11に示すように、左肘を起点とした位置を左手首331、右肘を起点とした位置を右手首330とする。
制御部20は、手首の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、手首の検出に成功したかどうかを判断することができる。手首の検出に成功した場合は、Step11へ進み(Step9:Yes)、手首の検出に成功しない場合は、Step10へ進む(Step9:No)。
制御部20は、手首の部位が未検出の場合(手首が腕時計等で切れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、前部位起点を肘位置320、321、起点を手首位置330、331として、部位検出共通ロジックを用いて手候補を抽出する。抽出した手候補の重心を手位置とする。図11に示すように、左手首を起点とした位置を左手341、右手首を起点とした位置を右手340とする。
制御部20は、手の検出に成功したかどうかを判断する。制御部20は、上記説明した、(1)閾値処理、及び(2)連続性チェックにより、手の検出に成功したかどうかを判断することができる。手の検出に成功した場合は、Step14へ進み(Step12:Yes)、手の検出に成功しない場合は、Step13へ進む(Step12:No)。
制御部20は、手の部位が未検出の場合(手が隠れた時、等)、前フレームまでの検出結果を用いて補完処理を行う。例えば、1フレーム前の検出結果をそのまま再利用する方法や、KCF法等のトラッキング技術を活用する方法などがある。
制御部20は、部位検出結果として、図11に示すように、左右の肩、肘、手首、手の位置を出力することができる。なお、それぞれの位置は、車両座標系(w,l,h)で出力されるが、座標変換により、カメラ座標系(x,y,z)等の他の座標系での値としても出力可能である。
上記説明した、肩検出、肘検出、手首検出、手検出の後に、補正処理を実行する。この補正処理は、肩、肘、手首、手の検出結果を、図9に示すように、スケルトンモデル定義で規定される各部の比率で算出し直して検出位置のずれを補正するものである。具体的には、上記説明した(A)〜(C)の手順で補正処理を実行する。
制御部20は、補正処理にて補正された特徴点、又は、補完処理にて補完された特徴点の妥当性を検証する。図1(b)で示したスケルトンモデルを適合して、本来存在すべき位置に、各特徴点が存在するかを検証する。検証処理の対象となる特徴点は、補正処理にて補正された特徴点、補完処理にて補完された特徴点である。
コンピュータに、処理装置1で示した、車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、乗員5の特徴点を少なくとも1つ検出する特徴点検出処理、及び前記特徴点検出処理で検出された特徴点を、人体構造に基づく各関節の位置関係を示す関節モデルに従って補正する補正処理を実行する制御ステップとを、コンピュータに実行させるためのプログラムも、本発明の実施の形態の一つである。
本発明の実施の形態によれば、以下のような効果を有する。
(1)本発明の実施の形態に係る処理装置は、車両8の乗員5を含む撮像領域を撮像対象とした距離画像であって、撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部としてのTOFカメラ10と、車両8の車室内空間における座標系と距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、乗員5の特徴点を少なくとも1つ検出する特徴点検出処理、及び特徴点検出処理で検出された特徴点を、人体構造に基づく各関節の位置関係を示す関節モデルに従って補正する補正処理を実行する制御部20と、を有して構成されている。これにより、人体の特徴点を特定する技術において、その特徴点の特定精度を向上させることができる。
(2)スケルトンモデル情報を活用して検出結果を検証、補正することで、より精度の良い姿勢検出が可能となる。
(3)検出された部位の検出位置を補正することで、より精度の良い部位検出が可能となる。
(4)部位未検出時の補完処理を検証することで、検出結果の妥当性が判定可能となる。
Claims (10)
- 車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得部と、
前記車両の車室内空間における座標系と前記距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、前記乗員の特徴点を少なくとも1つ検出する特徴点検出処理、及び前記特徴点検出処理で検出された特徴点を、人体構造に基づく各関節の位置関係を示す関節モデルに従って補正する補正処理を実行する制御部と
を有する処理装置。 - 前記関節モデルは、前記関節間の距離、及び関節を結ぶ線分の為す角の少なくとも一方である、請求項1に記載の処理装置。
- 前記補正された特徴点の位置を、正規な特徴点の位置とする、請求項1又は2に記載の処理装置。
- 前記制御部は、前記補正処理にて補正された前記特徴点の妥当性を検証する検証処理を実行する、請求項1から請求項3までのいずれか1項に記載の処理装置。
- 前記制御部は、未検出である特徴点を補完する補完処理を実行し、更に、当該補完処理にて補完した特徴点について前記検証処理を実行する、請求項4に記載の処理装置。
- 車両の乗員を含む撮像領域を撮像対象とした距離画像であって、前記撮像対象までの距離情報を画素に割り当てた距離画像を取得する取得ステップと、
前記車両の車室内空間における座標系と前記距離画像における座標系との対応関係に従って、特定の座標系を有した検出画像へと変換し、その検出画像において、前記乗員の特徴点を少なくとも1つ検出する特徴点検出処理、及び前記特徴点検出処理で検出された特徴点を、人体構造に基づく各関節の位置関係を示す関節モデルに従って補正する補正処理を実行する制御ステップとを、コンピュータに実行させるためのプログラム。 - 前記制御ステップにおいて、前記関節モデルは、前記関節間の距離、及び関節を結ぶ線分の為す角の少なくとも一方である、請求項6に記載のプログラム。
- 前記制御ステップにおいて、前記補正された特徴点の位置を、正規な特徴点の位置とする、請求項6又は7に記載のプログラム。
- 前記制御ステップは、前記補正処理にて補正された前記特徴点の妥当性を検証する検証処理を実行する、請求項6から8までのいずれか1項に記載のプログラム。
- 前記制御ステップは、前未検出である特徴点を補完する補完処理を実行し、更に、当該補完処理にて補完した特徴点について前記検証処理を実行する、請求項9に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018066468A JP2019179289A (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018066468A JP2019179289A (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019179289A true JP2019179289A (ja) | 2019-10-17 |
Family
ID=68278669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018066468A Pending JP2019179289A (ja) | 2018-03-30 | 2018-03-30 | 処理装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019179289A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019096212A (ja) * | 2017-11-27 | 2019-06-20 | 富士通株式会社 | 手位置検出方法、手位置検出装置、及び手位置検出プログラム |
JP2021068059A (ja) * | 2019-10-18 | 2021-04-30 | アイシン精機株式会社 | 爪先位置推定装置および指先位置推定装置 |
JP2021163257A (ja) * | 2020-03-31 | 2021-10-11 | 株式会社デンソーテン | 情報処理装置および情報処理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012127811A (ja) * | 2010-12-15 | 2012-07-05 | Honda Motor Co Ltd | 乗員検知装置 |
JP2018048890A (ja) * | 2016-09-21 | 2018-03-29 | 株式会社日立製作所 | 姿勢推定システム、姿勢推定装置、及び距離画像カメラ |
-
2018
- 2018-03-30 JP JP2018066468A patent/JP2019179289A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012127811A (ja) * | 2010-12-15 | 2012-07-05 | Honda Motor Co Ltd | 乗員検知装置 |
JP2018048890A (ja) * | 2016-09-21 | 2018-03-29 | 株式会社日立製作所 | 姿勢推定システム、姿勢推定装置、及び距離画像カメラ |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019096212A (ja) * | 2017-11-27 | 2019-06-20 | 富士通株式会社 | 手位置検出方法、手位置検出装置、及び手位置検出プログラム |
JP2021068059A (ja) * | 2019-10-18 | 2021-04-30 | アイシン精機株式会社 | 爪先位置推定装置および指先位置推定装置 |
JP7375456B2 (ja) | 2019-10-18 | 2023-11-08 | 株式会社アイシン | 爪先位置推定装置および指先位置推定装置 |
JP2021163257A (ja) * | 2020-03-31 | 2021-10-11 | 株式会社デンソーテン | 情報処理装置および情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9811742B2 (en) | Vehicle-surroundings recognition device | |
JP6328327B2 (ja) | 画像処理装置及び画像処理方法 | |
JP5647155B2 (ja) | 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 | |
JP5877053B2 (ja) | 姿勢推定装置および姿勢推定方法 | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
JP5804185B2 (ja) | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 | |
US20190266425A1 (en) | Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program | |
JP6968342B2 (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
JP2016197287A (ja) | 情報処理装置、情報処理方法、プログラム | |
US20230162472A1 (en) | Method and system for keypoint detection based on neural networks | |
JP2019179289A (ja) | 処理装置、及びプログラム | |
JP2016001841A (ja) | 視差画像生成装置、視差画像生成方法及び画像 | |
JP5048609B2 (ja) | 対象物追跡装置及びプログラム | |
JP2006090957A (ja) | 移動体の周囲物体検出装置及び移動体の周囲物体検出方法 | |
JP2010079639A (ja) | 車両の歩行者検出装置 | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
JP2019012497A (ja) | 部位認識方法、装置、プログラム、及び撮像制御システム | |
JP2021051347A (ja) | 距離画像生成装置及び距離画像生成方法 | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
JP7117878B2 (ja) | 処理装置、及びプログラム | |
JP4742695B2 (ja) | 視線認識装置、及び視線認識方法 | |
JP7053342B2 (ja) | 処理装置、及びプログラム | |
JP7375806B2 (ja) | 画像処理装置、及び画像処理方法 | |
JPWO2018123640A1 (ja) | 撮像装置 | |
JP6603993B2 (ja) | 画像処理装置、画像処理方法、画像処理システム、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20180427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220308 |