JP2022155843A - 姿勢推定システム - Google Patents

姿勢推定システム Download PDF

Info

Publication number
JP2022155843A
JP2022155843A JP2021059267A JP2021059267A JP2022155843A JP 2022155843 A JP2022155843 A JP 2022155843A JP 2021059267 A JP2021059267 A JP 2021059267A JP 2021059267 A JP2021059267 A JP 2021059267A JP 2022155843 A JP2022155843 A JP 2022155843A
Authority
JP
Japan
Prior art keywords
rgb
dimensional
posture estimation
cameras
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021059267A
Other languages
English (en)
Inventor
孝三 森山
Kozo Moriyama
晋 亀山
Susumu Kameyama
翔 阮
Sho Gen
智博 中川
Tomohiro Nakagawa
太郎 綿末
Taro WATASUE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tiwaki
Tiwaki Co Ltd
Johnan Corp
Original Assignee
Tiwaki
Tiwaki Co Ltd
Johnan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tiwaki, Tiwaki Co Ltd, Johnan Corp filed Critical Tiwaki
Priority to JP2021059267A priority Critical patent/JP2022155843A/ja
Priority to PCT/JP2022/012495 priority patent/WO2022210005A1/ja
Priority to US18/026,352 priority patent/US20230360261A1/en
Publication of JP2022155843A publication Critical patent/JP2022155843A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】姿勢推定の精度向上を図ることが可能な姿勢推定システムを提供する。【解決手段】姿勢推定システムは、人物の姿勢を推定するものであり、人物を異なる角度から撮像する複数のRGB-Dカメラと、複数のRGB-Dカメラの撮像結果が入力される姿勢推定装置とを備える。姿勢推定装置は、複数のRGB-DカメラのそれぞれのRGB画像を用いて、各RGB画像上における人物の所定の部位の位置を推定する。姿勢推定装置は、推定された位置の深さ情報の経時変化に基づいて、その位置の深さ情報の信頼性を判定する。姿勢推定装置は、判定結果を考慮して対象物の所定の部位の位置を算出する。【選択図】図2

Description

本発明は、姿勢推定システムに関する。
従来、人物の姿勢を推定する姿勢推定装置が知られている(たとえば、特許文献1参照)。
特許文献1の姿勢推定装置は、人物の実空間での位置を計測可能な三次元センサを用いて、人物の各部位の位置を推定するように構成されている。
特開2017-68424号公報
ここで、上記のように、三次元センサを用いて人物の部位の位置を推定する場合において、人物の部位が障害物などによって隠れると、その部位の位置を推定することが困難になる。たとえば、RGB-Dカメラを用いて人物の撮像を行い、RGB画像上における人物の部位の位置(二次元位置)を推定するとともに、その推定された位置の深さ情報を用いて、人物の部位の位置(三次元位置)を算出する場合に、人物の部位が障害物などによって隠れると、RGB画像上で推定された人物の部位の位置の深さ情報が障害物の位置となるので、隠れた部位の位置を算出することが困難である。したがって、姿勢推定の精度向上を図ることについて改善の余地がある。
本発明は、上記の課題を解決するためになされたものであり、本発明の目的は、姿勢推定の精度向上を図ることが可能な姿勢推定システムを提供することである。
本発明による姿勢推定システムは、対象物の姿勢を推定するものであり、対象物を異なる角度から撮像する複数の三次元カメラと、複数の三次元カメラのそれぞれの二次元画像を用いて、各二次元画像上における対象物の所定の部位の位置を推定する推定部と、推定部により推定された位置の深さ情報の経時変化に基づいて、その位置の深さ情報の信頼性を判定する判定部と、判定部の判定結果を考慮して、対象物の所定の部位の位置を算出する算出部とを備える。
このように構成することによって、複数の三次元カメラの深さ情報の信頼性を考慮して、対象物の所定の部位の位置が算出されることにより、姿勢推定の精度向上を図ることができる。
上記姿勢推定システムにおいて、推定部は、二次元画像上における対象物の所定の部位の特徴を学習し、その所定の部位をトラッキングするように構成されていてもよい。
本発明による姿勢推定システムは、対象物の姿勢を推定するものであり、対象物を異なる角度から撮像する3台以上の三次元カメラと、3台以上の三次元カメラのそれぞれの三次元画像に基づいて、対象物の所定の部位の三次元位置を算出する三次元位置算出部と、三次元位置算出部により算出された3つ以上の三次元位置に基づいて、それら三次元位置の信頼性を評価する信頼性評価部とを備える。
上記姿勢推定システムにおいて、3台以上の三次元カメラのそれぞれの二次元画像を用いて、各二次元画像上における対象物の所定の部位の位置を推定する推定部をさらに備え、推定部は、二次元画像上における対象物の所定の部位の特徴を学習し、その所定の部位をトラッキングするように構成され、かつ、信頼性評価部により信頼性が低いと評価された三次元位置が得られた三次元カメラによる二次元画像上における所定の部位の特徴を再学習し、トラッキングをやり直すように構成されていてもよい。
本発明の姿勢推定システムによれば、姿勢推定の精度向上を図ることができる。
本実施形態による姿勢推定システムの概略構成を示したブロック図である。 本実施形態の姿勢推定システムの動作を説明するためのフローチャートである。
以下、本発明の一実施形態を説明する。
まず、図1を参照して、本発明の一実施形態による姿勢推定システム100の構成について説明する。
姿勢推定システム100は、たとえば人物の骨格の各部位の位置を算出して、その人物の姿勢を推定するように構成されている。人物の骨格の部位の一例として、肩、肘および手首などの関節を挙げることができるが、それに限定されるものではない。なお、人物は、本発明の「対象物」の一例である。姿勢推定システム100は、図1に示すように、姿勢推定装置1と、RGB-Dカメラ2および3とを備えている。
RGB-Dカメラ2および3は、所定の測定領域に位置する人物を撮像して、RGB-D画像を取得するように構成されている。RGB-D画像は、RGB画像(カラー画像)および深度画像を含んでおり、RGB画像における各ピクセルの深さ情報を有する。なお、RGB-Dカメラ2および3は本発明の「三次元カメラ」の一例であり、RGB画像は本発明の「二次元画像」の一例である。
RGB-Dカメラ2および3は、人物を異なる角度から撮像するように設けられている。このため、RGB-Dカメラ2および3の一方のRGB画像において人物の所定の部位が障害物などによって隠れている場合であっても、RGB-Dカメラ2および3の他方のRGB画像においてその所定の部位が現れやすくなっている。すなわち、所定の測定領域に位置する人物の各部位が死角となるのを抑制するために、2台のRGB-Dカメラ2および3が設けられている。
姿勢推定装置1は、RGB-Dカメラ2および3からRGB-D画像が入力され、そのRGB-D画像を用いて人物の姿勢を推定するように構成されている。この姿勢推定装置1では、RGB-Dカメラ2および3の位置および姿勢などに関する情報(外部パラメータ)が予め格納されており、RGB-Dカメラ2のRGB-D画像によるデータと、RGB-Dカメラ3のRGB-D画像によるデータとのうち、信頼性の高いものを採用するようにマージすることによって、姿勢推定の精度向上を図ることが可能である。
具体的には、姿勢推定装置1は、RGB-Dカメラ2によるRGB画像を用いて、そのRGB画像上における人物の各部位の位置を推定するように構成されている。また、姿勢推定装置1は、RGB-Dカメラ3によるRGB画像を用いて、そのRGB画像上における人物の各部位の位置を推定するように構成されている。すなわち、RGB-Dカメラ2による二次元のRGB画像上の各部位の位置が推定されるとともに、RGB-Dカメラ3による二次元のRGB画像上の各部位の位置が推定されるようになっている。
また、姿勢推定装置1は、RGB-Dカメラ2および3のそれぞれのRGB画像上における人物の各部位の特徴を学習し、その各部位をトラッキングするように構成されている。すなわち、画像処理により、人物の各部位を抽出して、その抽出された各部位(画像的特徴)が追跡されるようになっている。そして、姿勢推定装置1は、たとえば、障害物などによって人物の部位が隠れた場合に、公知のアルゴリズムを用いてその隠れた部位の位置(二次元位置)を推定するように構成されている。しかしながら、障害物によって隠されている部位の深さ情報は、その部位の深さを示すものではなく、障害物の深さを示すものである。このため、障害物によって隠されている部位の深さ情報を用いると、部位の位置(三次元位置)の推定精度が低下するおそれがある。そこで、本実施形態では、深さ情報の信頼性を判定するとともに、その信頼性を考慮して部位の位置を算出するように構成されている。
姿勢推定装置1は、RGB-Dカメラ2によるRGB画像上において推定された人物の各部位の位置についての深さ情報の経時変化に基づいて、RGB-Dカメラ2による各部位の深さ情報の信頼性を判定するように構成されている。また、姿勢推定装置1は、RGB-Dカメラ3によるRGB画像上において推定された人物の各部位の位置についての深さ情報の経時変化に基づいて、RGB-Dカメラ3による各部位の深さ情報の信頼性を判定するように構成されている。すなわち、RGB-Dカメラ2から入力されたRGB画像上における各部位それぞれについての深さ情報の信頼性が判定されるとともに、RGB-Dカメラ3から入力されたRGB画像上における各部位それぞれについての深さ情報の信頼性が判定されるようになっている。なお、深さ情報の経時変化は、たとえば、予め設定された所定時間前から現時点までの期間における深さ情報の変化である。
たとえば、人物の所定の部位に隠れが生じないときには、人物の移動(姿勢の変化)により、その所定の部位の深さ情報が連続的(線形的)に変化する。一方、人物の所定の部位に隠れが生じると、深さ情報が所定の部位によるものから障害物によるものとなるため、深さ情報が急変する(カメラからの距離が急に短くなる)。そこで、姿勢推定装置1は、たとえば、RGB画像上で推定された人物の部位の深さ情報の経時変化が小さいほど、その部位の深さ情報の信頼性が高いと判定するように構成されている。
そして、姿勢推定装置1は、RGB-Dカメラ2および3のRGB-D画像から、信頼性の高い深さ情報を用いて、人物の各部位の位置(三次元位置)を算出するように構成されている。つまり、人物の各部位それぞれについて、RGB-Dカメラ2および3からの入力のうち信頼性の高い方を用いて、部位の位置(三次元位置)が算出されるようになっている。たとえば、人物の左肩についてRGB-Dカメラ2の信頼性が高い場合には、RGB-Dカメラ2からのRGB-D画像を用いて左肩の位置が算出され、人物の右肩についてRGB-Dカメラ3の信頼性が高い場合には、RGB-Dカメラ3からのRGB-D画像を用いて右肩の位置が算出される。
また、姿勢推定装置1は、演算部11と、記憶部12と、入力部13とを含んでいる。演算部11は、記憶部12に記憶されたプログラムなどに基づいて演算処理を実行することにより、姿勢推定装置1を制御するように構成されている。記憶部12には、人物の姿勢を推定するためのプログラムや、RGB-Dカメラ2および3の位置および姿勢などが記憶されている。入力部13には、RGB-Dカメラ2および3が接続され、RGB-Dカメラ2および3の撮像結果(RGB-D画像)が入力されている。なお、演算部11が記憶部12に記憶されたプログラムを実行することにより、本発明の「推定部」、「判定部」および「算出部」が実現される。
-姿勢推定システムの動作-
次に、図2を参照して、本実施形態による姿勢推定システム100の動作(姿勢推定方法)について説明する。この姿勢推定動作の開始前において、測定領域に位置する人物の各部位(計測対象の全ての部位)がRGB-Dカメラ2および3に対して現れるようにして、各部位の初期位置(動作開始時点の位置)が正確に算出される。これにより、RGB-Dカメラ2および3のRGB画像上における人物の各部位の特徴が学習され、その各部位をトラッキングすることが可能になる。なお、以下のフローは、姿勢推定動作が開始されてから終了されるまで繰り返し行われる。
まず、図2のステップS1において、RGB-Dカメラ2および3により、測定領域に位置する人物が撮像される。そして、RGB-Dカメラ2および3により取得されたRGB-D画像が、RGB-Dカメラ2および3から姿勢推定装置1に出力される。
次に、ステップS2において、姿勢推定装置1により、RGB-Dカメラ2によるRGB画像上における人物の各部位の位置が推定されるとともに、RGB-Dカメラ3によるRGB画像上における人物の各部位の位置が推定される。たとえば、学習された人物の各部位がRGB画像上でトラッキングされることにより、人物の各部位の位置が推定される。
次に、ステップS3において、姿勢推定装置1により、RGB-Dカメラ2によるRGB画像上において推定された人物の部位の位置についての深さ情報の経時変化に基づいて、RGB-Dカメラ2によるその部位の深さ情報の信頼性が判定される。この信頼性の判定は、RGB-Dカメラ2によるRGB画像上において推定された人物の各部位について行われる。また、姿勢推定装置1により、RGB-Dカメラ3によるRGB画像上において推定された人物の部位の位置についての深さ情報の経時変化に基づいて、RGB-Dカメラ3によるその部位の深さ情報の信頼性が判定される。この信頼性の判定は、RGB-Dカメラ3によるRGB画像上において推定された人物の各部位について行われる。
次に、ステップS4において、姿勢推定装置1により、信頼性の高い深さ情報を用いて人物の部位の位置(三次元位置)が算出される。具体的には、信頼性の高い深さ情報が得られたカメラによるRGB-D画像に基づいて、人物の部位の位置が算出される。この位置の算出が人物の各部位について行われることにより、その人物の姿勢が推定される。
-効果-
本実施形態では、上記のように、RGB-Dカメラ2および3が設けられることによって、RGB-Dカメラ2および3の深さ情報の信頼性を考慮して、人物の各部位の位置が算出されることにより、姿勢推定の精度向上を図ることができる。つまり、人物の部位の隠れによる信頼性の低い深さ情報を用いないようにすることにより、姿勢推定の精度向上を図ることができる。
また、本実施形態では、RGB-Dカメラ2および3の一方の画角から人物の所定の部位が外れた場合に、その所定の部位がRGB-Dカメラ2および3の他方の画角内であれば、姿勢推定を適切に行うことができる。
また、本実施形態では、RGB画像上における人物の各部位の特徴を学習することによって、RGB画像上での各部位の位置の推定精度の向上を図ることができる。
-他の実施形態-
なお、今回開示した実施形態は、すべての点で例示であって、限定的な解釈の根拠となるものではない。したがって、本発明の技術的範囲は、上記した実施形態のみによって解釈されるものではなく、特許請求の範囲の記載に基づいて画定される。また、本発明の技術的範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
たとえば、上記実施形態では、人物の姿勢が推定される例を示したが、これに限らず、人物以外の対象物の姿勢が推定されるようにしてもよい。
また、上記実施形態では、2台のRGB-Dカメラ2および3が設けられる例を示したが、これに限らず、3台以上のRGB-Dカメラが設けられていてもよい。この場合において、姿勢推定装置は、3台以上のRGB-DカメラのそれぞれのRGB-D画像(三次元画像)に基づいて人物の所定の部位の三次元位置を算出するとともに、算出された3つ以上の三次元位置に基づいてそれら三次元位置の信頼性を評価するように構成されていてもよい。たとえば、3台のRGB-Dカメラが設けられている場合において、2台のRGB-DカメラによるRGB-D画像に基づく所定の部位の三次元位置が同じであり、残りの1台のRGB-DカメラによるRGB-D画像に基づく所定の部位の三次元位置が異なる場合には、2台のRGB-Dカメラによる三次元位置の信頼性が高いと評価され、残りの1台のRGB-Dカメラによる三次元位置の信頼性が低いと評価される。すなわち、3台のRGB-DカメラのRGB-D画像による三次元位置に基づいて、各RGB-Dカメラが所定の部位を適切に捕らえているかが評価される。つまり、2台のRGB-Dカメラでは所定の部位が適切に捕らえられているので、その2台のRGB-Dカメラによる三次元位置が同じになるのに対して、残りの1台のRGB-Dカメラでは所定の部位が適切に捕らえられていないので、その残りの1台のRGB-Dカメラによる三次元位置が異なるものになる。このため、人物の所定の部位の位置として、信頼性の高い2台のRGB-Dカメラによる三次元位置が採用される。このように構成しても、姿勢推定の精度向上を図ることができる。さらに、姿勢推定装置は、上記した深さ情報の経時変化に基づく信頼性の判定を併せて行うようにしてもよい。すなわち、姿勢推定装置は、各RGB-DカメラによるRGB画像を用いて、そのRGB画像上における人物の所定の部位の位置を推定するとともに、推定された所定の部位の位置についての深さ情報の経時変化に基づいて、そのRGB-Dカメラによる所定の部位の深さ情報の信頼性を判定するように構成されていてもよい。また、姿勢推定装置は、各RGB-DカメラのそれぞれのRGB画像上における人物の所定の部位の特徴を学習し、その所定の部位をトラッキングするように構成され、かつ、信頼性が低いと評価された三次元位置が得られたRGB-Dカメラ(上記した例示の場合、残りの1台のRGB-Dカメラ)による二次元画像上における所定の部位の特徴を再学習し、トラッキングをやり直すように構成されていてもよい。つまり、所定の部位を適切に捕らえることができていないRGB-Dカメラについて、所定の部位を再学習してトラッキングがやり直される。なお、姿勢推定装置において演算部が記憶部に記憶されたプログラムを実行することにより、本発明の「推定部」、「判定部」、「算出部」、「三次元位置算出部」および「信頼性評価部」が実現される。
また、上記実施形態では、深さ情報の経時変化が小さいほど信頼性が高いと判定される例を示したが、これに限らず、深さ情報の経時変化が所定範囲内である場合に信頼性が高いと判定され、深さ情報の経時変化が所定範囲外になった場合に信頼性が低いと判定されるようにしてもよい。
また、上記実施形態において、深さ情報の信頼性は、経時変化に加えてその他の要因を考慮して判定されるようにしてもよい。たとえば、所定の部位と、その所定の部位に最も近い部位との距離が大きいほど、信頼性が高いと判定されるようにしてもよい。また、RGB画像における所定の部位の周囲の画像品質が高い(ブレがなくコントラストがはっきりしている)ほど、信頼性が高いと判定されるようにしてもよい。また、カメラから所定の部位までの距離が近いほど、信頼性が高いと判定されるようにしてもよい。
また、上記実施形態において、RGB-Dカメラ2および3の両方の所定の部位の深さ情報の信頼性が低い場合には、所定の部位が計測不能であると出力されるようにしてもよい。
また、上記実施形態において、RGB-Dカメラ2および3は、RGB画像を取得するRGB画像取得部と、深度画像を取得する深度画像取得部とが、1つの筐体に一体的に設けられていてもよいし、それぞれ個別の筐体に設けられていてもよい。
本発明は、対象物の姿勢を推定する姿勢推定システムに利用可能である。
1 姿勢推定装置
2 RGB-Dカメラ(三次元カメラ)
3 RGB-Dカメラ(三次元カメラ)
100 姿勢推定システム

Claims (4)

  1. 対象物の姿勢を推定する姿勢推定システムであって、
    前記対象物を異なる角度から撮像する複数の三次元カメラと、
    前記複数の三次元カメラのそれぞれの二次元画像を用いて、各二次元画像上における前記対象物の所定の部位の位置を推定する推定部と、
    前記推定部により推定された位置の深さ情報の経時変化に基づいて、その位置の深さ情報の信頼性を判定する判定部と、
    前記判定部の判定結果を考慮して、前記対象物の所定の部位の位置を算出する算出部とを備えることを特徴とする姿勢推定システム。
  2. 請求項1に記載の姿勢推定システムにおいて、
    前記推定部は、二次元画像上における前記対象物の所定の部位の特徴を学習し、その所定の部位をトラッキングするように構成されていることを特徴とする姿勢推定システム。
  3. 対象物の姿勢を推定する姿勢推定システムであって、
    前記対象物を異なる角度から撮像する3台以上の三次元カメラと、
    前記3台以上の三次元カメラのそれぞれの三次元画像に基づいて、前記対象物の所定の部位の三次元位置を算出する三次元位置算出部と、
    前記三次元位置算出部により算出された3つ以上の三次元位置に基づいて、それら三次元位置の信頼性を評価する信頼性評価部とを備えることを特徴とする姿勢推定システム。
  4. 請求項3に記載の姿勢推定システムにおいて、
    前記3台以上の三次元カメラのそれぞれの二次元画像を用いて、各二次元画像上における前記対象物の所定の部位の位置を推定する推定部をさらに備え、
    前記推定部は、二次元画像上における前記対象物の所定の部位の特徴を学習し、その所定の部位をトラッキングするように構成され、かつ、前記信頼性評価部により信頼性が低いと評価された三次元位置が得られた三次元カメラによる二次元画像上における前記所定の部位の特徴を再学習し、トラッキングをやり直すように構成されていることを特徴とする姿勢推定システム。
JP2021059267A 2021-03-31 2021-03-31 姿勢推定システム Pending JP2022155843A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021059267A JP2022155843A (ja) 2021-03-31 2021-03-31 姿勢推定システム
PCT/JP2022/012495 WO2022210005A1 (ja) 2021-03-31 2022-03-18 姿勢推定システム
US18/026,352 US20230360261A1 (en) 2021-03-31 2022-03-18 Posture estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021059267A JP2022155843A (ja) 2021-03-31 2021-03-31 姿勢推定システム

Publications (1)

Publication Number Publication Date
JP2022155843A true JP2022155843A (ja) 2022-10-14

Family

ID=83456078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021059267A Pending JP2022155843A (ja) 2021-03-31 2021-03-31 姿勢推定システム

Country Status (3)

Country Link
US (1) US20230360261A1 (ja)
JP (1) JP2022155843A (ja)
WO (1) WO2022210005A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329448A (ja) * 2002-05-10 2003-11-19 Komatsu Ltd 現場の3次元情報生成システム
JP5818773B2 (ja) * 2012-11-22 2015-11-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017097577A (ja) * 2015-11-24 2017-06-01 キヤノン株式会社 姿勢推定方法及び姿勢推定装置
JP2020106283A (ja) * 2018-12-26 2020-07-09 株式会社ネクステッジテクノロジー 3次元計測装置、3次元計測装置の校正方法、3次元計測方法及びプログラム

Also Published As

Publication number Publication date
US20230360261A1 (en) 2023-11-09
WO2022210005A1 (ja) 2022-10-06

Similar Documents

Publication Publication Date Title
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
KR101964861B1 (ko) 카메라 장치 및 상기 카메라 장치에서의 물체 추적 방법
JP4809291B2 (ja) 計測装置及びプログラム
KR101284798B1 (ko) 단일 카메라 영상 기반의 객체 거리 및 위치 추정 장치 및 방법
JP4349367B2 (ja) 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム
US8587666B2 (en) Object detection from image profiles within sequences of acquired digital images
US8705894B2 (en) Image rotation from local motion estimates
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
KR101769177B1 (ko) 시선 추적 장치 및 방법
JP2010535385A (ja) オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
US8587665B2 (en) Fast rotation estimation of objects in sequences of acquired digital images
JP5001930B2 (ja) 動作認識装置及び方法
EP1857978A1 (en) Method, system and computer product for deriving three-dimensional information progressivly from a streaming video sequence
CN110751685B (zh) 深度信息确定方法、确定装置、电子装置和车辆
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP2006215743A (ja) 画像処理装置及び画像処理方法
WO2022210005A1 (ja) 姿勢推定システム
JP2006227739A (ja) 画像処理装置及び画像処理方法
AU2020480103B2 (en) Object three-dimensional localizations in images or videos
Ryu et al. Digital Image Stabilization for humanoid eyes inspired by human VOR system
JP4812099B2 (ja) カメラ位置検出方法
CN115546876B (zh) 一种瞳孔追踪方法及装置
JP2005309992A (ja) 画像処理装置および画像処理方法
JP2005267258A (ja) 顔情報計測システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521