JP6927937B2 - 三次元骨格表現を生成するためのシステム及び方法 - Google Patents

三次元骨格表現を生成するためのシステム及び方法 Download PDF

Info

Publication number
JP6927937B2
JP6927937B2 JP2018180654A JP2018180654A JP6927937B2 JP 6927937 B2 JP6927937 B2 JP 6927937B2 JP 2018180654 A JP2018180654 A JP 2018180654A JP 2018180654 A JP2018180654 A JP 2018180654A JP 6927937 B2 JP6927937 B2 JP 6927937B2
Authority
JP
Japan
Prior art keywords
person
dimensional
links
representation
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018180654A
Other languages
English (en)
Other versions
JP2019061679A5 (ja
JP2019061679A (ja
Inventor
ノースカット ブランドン
ノースカット ブランドン
ストーン ケビン
ストーン ケビン
ムシュガン コンスタンティン
ムシュガン コンスタンティン
ブーマ カタリーナ
ブーマ カタリーナ
ムラセ カズト
ムラセ カズト
オチアイ アキヨシ
オチアイ アキヨシ
Original Assignee
トヨタ リサーチ インスティテュート,インコーポレイティド
トヨタ リサーチ インスティテュート,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ リサーチ インスティテュート,インコーポレイティド, トヨタ リサーチ インスティテュート,インコーポレイティド filed Critical トヨタ リサーチ インスティテュート,インコーポレイティド
Publication of JP2019061679A publication Critical patent/JP2019061679A/ja
Publication of JP2019061679A5 publication Critical patent/JP2019061679A5/ja
Application granted granted Critical
Publication of JP6927937B2 publication Critical patent/JP6927937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

関連出願の相互参照
本出願は、その全内容を参照により本明細書に援用される「三次元骨格表現を生成するためのシステム、ロボット及び方法」と題された2017年9月26日出願の米国仮特許出願第62/563427号明細書に対する優先権を主張する。
本明細書に説明する実施形態は、概ね、物体の認識に関し、特に、ある環境における人の三次元骨格表現を生成するためのシステム、ロボット及び方法に関する。
コンピュータビジョンを用いて画像内の人物の存在を決定することができる。例えば、ロボットは、コンピュータビジョンを用いて、ある空間で人と共生できるようにある環境内の人物の存在を決定することができる。すなわち、ロボットはコンピュータビジョンに依拠して人間のポーズ、向き、又は同種のものを決定して人間と対話することができる。ただし、既存のシステム及び方法は、必ずしもコンピュータビジョンを活用してポーズ、向き、又は同種のものを適当に推定することができない。更に、既存のコンピュータビジョンシステムは該人間の顔が不明瞭なときには特定の人間を認証することができない場合がある。
一実施形態では、人物の三次元骨格表現を生成する方法は、二次元画像から該二次元画像内に存在する人物の二次元骨格表現を生成することを含み、該二次元骨格表現は複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える。この方法は、該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置することと、該二次元骨格の該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントを識別することとを更に含み、該深さクラウドの該複数のポイントは深さセンサによって生成され、各ポイントは深さ情報を提供する。またこの方法は、該複数のリンクの1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影し、それによって該人物の該三次元骨格表現を生成することを含む。
別の実施形態では、ロボットは、プロセッサと、該プロセッサによって実行されたときに、該プロセッサに二次元画像から該二次元画像内に存在する人物の二次元骨格表現を生成させる機械可読命令を記憶する非一時的記憶装置とを含み、該二次元骨格表現は複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える。該機械可読命令は更に、該プロセッサに該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置させ、該二次元骨格の該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントを識別させ、該深さクラウドの該複数のポイントは深さセンサによって生成され、各ポイントは深さ情報を提供する。該機械可読命令は更に、該プロセッサに、該複数のリンクの1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影させ、それによって該人物の該三次元骨格表現を生成させる。
別の実施形態では、システムはプロセッサと非一時的プロセッサ可読記憶装置とを含む。該非一時的プロセッサ可読記憶装置は、該プロセッサによって実行されたときに、該プロセッサに二次元画像から該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える二次元骨格表現を生成させる1つ又は複数の機械可読命令を含む。該非一時的プロセッサ可読記憶装置は更に、該プロセッサによって実行されたときに、該プロセッサに該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置させ、該二次元骨格の該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別させる1つ又は複数の機械可読命令を含む。該非一時的プロセッサ可読記憶装置はまた、該プロセッサによって実行されたときに、該プロセッサに該複数のリンクの1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影させ、それによって該人物の該三次元骨格表現を生成させる1つ又は複数の機械可読命令を含む。
本発明の実施形態によって提供される上記及び追加の特徴は以下の詳細な説明を図面と合わせて読むことでより深く理解できよう。
図面に示す実施形態は本質的に例示的で説明のためのものであり、本開示を限定するものではない。例示的な実施形態の以下の詳細な説明は、同様の構造が同様の参照番号で示される以下の図面と合わせて読むことで理解できる。
図1は、本明細書に説明し例示する1つ又は複数の実施形態による例示的なロボットの概略図である。 図2は、本明細書に説明し例示する1つ又は複数の実施形態による人間の三次元骨格表現を生成する例示的な工程のフローチャートを示す。 図3は、本明細書に説明し例示する1つ又は複数の実施形態によるセンサによって検知される人物の例示的な二次元画像の概略図である。 図4は、本明細書に説明し例示する1つ又は複数の実施形態による図3の該二次元画像内の該人物の例示的な二次元骨格表現の概略図である。 図5は、本明細書に説明し例示する1つ又は複数の実施形態による図4に示す該二次元骨格表現の例示的なアーム部分の概略図である。 図6は、本明細書に説明し例示する1つ又は複数の実施形態による深さクラウドの交差ポイントを備える図4に示す該二次元骨格表現の例示的なアーム部分の概略図である。 図7は、本明細書に説明し例示する1つ又は複数の実施形態による三次元空間内の図1に示す人物の三次元骨格表現の例示的な画像の概略図である。 図8Aは、本明細書に示し説明する1つ又は複数の実施形態によるディスプレイに表示される例示的な三次元骨格を示す。 図8Bは、本明細書に示し説明する1つ又は複数の実施形態によるディスプレイに表示される別の例示的な三次元骨格を示す。 図8Cは、本明細書に示し説明する1つ又は複数の実施形態によるディスプレイに表示される更に別の例示的な三次元骨格を示す。 図9は、本明細書に説明し例示する1つ又は複数の実施形態による例示的なロボットのコンポーネントの概略図である。
本明細書に開示された実施形態は深さ情報を含む人の三次元(3D)骨格表現を生成するためのシステム及び方法を対象とする。3D骨格表現を用いて人物が3D空間のどこに位置するかを決定できる。更に、実施形態を用いて3D空間内の人物の推定3Dポーズを検知することができる。特に、人物の二次元(2D)骨格表現が赤−緑−青(RGB)画像データから生成される。次いで、2D骨格表現は深さセンサから入手した深さ情報等の深さ情報と合成される。限定的にではなく一例として、RGB画像データ及び深さ情報は2D RGB画像と深さ情報の両方を単一データパッケージ内に作成する2D RGB−Dカメラから入手することができる。その結果、人物の3Dポーズに関する情報を提供する人物の3D骨格表現が得られる。限定的にではなく一例として、3D骨格はリアルタイムに動画を用いて生成できる。
本明細書に説明する3D骨格表現は様々な用途に利用できる。1つの非限定的な用途では、ロボットは人間を様々なタスクで支援するために3D骨格表現を用いて環境内の人物の場所とポーズとを決定できる。一例では、ロボットを家庭、特別養護施設、及び病院等の人間居住空間内に配備できる。それらのロボットは支援及び付き添い全般のために人間と同じ空間を共有できる。例えば、ロボットは老人、障がい者、又はけが人等の物理的支援が必要な人物の家庭に配備できる。ロボットは移動可能であってもよく、例えば、人物のために対象物を取ってくるのに使用できるアクチュエータを有していてもよい。そのようなロボットは、人物がロボットを活用して他人の支援への依存を軽減できるため、人物により独立した気分を与えることができる。したがって、本開示の実施形態は、ロボットが3D骨格表現を用いて人の場所とポーズとを決定することで環境内の人と対話することを支援できる。本明細書で環境は人間を支援するロボットの分野の文脈で記述されているが、実施形態はそれに限定されないことを理解されたい。
本明細書に記載された実施形態は、概ね、ある環境を映像化し人間が存在するか否か、また該人間の特定の特徴(すなわち、ポーズ)を決定するための様々な工程を実行するために特に採用された特殊な機械(すなわち、ロボット)上で使用することができる。ただし、本開示は特殊な機械に限定されない。すなわち、本明細書に記載されたある種の実施形態は1つ又は複数のセンサと通信可能に接続された汎用コンピューティング装置上で使用できる。そのような実施形態では、本明細書に記載されたシステム及び方法は、ある環境内に人間が存在するか否か、人間のポーズの様子、及び/又は同種のものをより正確に認識し、且つ、人間の顔がセンサによって正確に感知されない(すなわち、人間がセンサに正対していない、又は人間の顔が別の理由で不明瞭なために)場合においても人間の識別を正確に決定する能力を汎用コンピューティング装置に提供することで。汎用コンピューティング装置の機能性を改善することができる。
図1を参照すると、実施形態による概ね100で示される例示的なロボットを家庭等の人間居住空間内に配備できる。ロボット100は、環境内の隅々までロボットを移動させる電動式ホイール106(又はスキー、ウィング、ロータ、コンティニュアストラック、若しくは同種のもの等の他のモビリティコンポーネント)と、対象物を把持し且つ/又は操作できるエンドエフェクタ105(例えば、グリッパ、ロボットハンド、及び/又は同種のもの)を有する1つ又は複数のアーム104とを有する。更に、ロボット100は環境を感知して、その結果、ロボット100が対象物を検知し、対象物を操作し、環境をナビゲートする際に支援するセンサデータを生成できる複数のセンサ102を有する。複数のセンサ102は、これに限定されないが、カメラ(例えば、CCDカメラ)、赤外線センサ、深さセンサ、近接センサ、タクタイルセンサ、ライダーセンサ、レーダセンサ、タイムオブフライトセンサ、及び同種のものを含んでいてもよい。複数のセンサ102は2D RGB画像と深さ情報とを生成できてもよい。一例では、少なくともセンサの1つは1パッケージに収容されたRGB−Dセンサである。別の例では、2D RGB画像データ及び深さ情報は別々のセンサによって生成される。図1に示すロボット100は例示的な目的のためにのみ提供されていることと、ロボットの構成は本開示によって限定されないこととを理解されたい。
本明細書で上述したように、図1に示すロボット100は特に人物の3D骨格表現を作成するように構成されていてもよい。図1及び2を参照すると、人物の3D骨格表現を作成するための例示的な工程のフローチャート130が図示されている。図1に示すように、ロボット100(又は他のコンピューティング装置)は環境内の人物10を映像化できる。更に図1及び2を参照すると、センサ102は人物に関するデータを生成する。すなわち、RGBセンサ(例えば、CCDカメラ)はブロック131で人物10の2D画像10´(図3)を生成する。更に、深さセンサは環境(図示せず)内の複数のポイントの深さクラウドも生成する。深さセンサ及びRGBセンサは図1に示すように単一のセンサ102として提供してもよいし、又は別々のセンサとして提供してもよい。
図1〜5を概ね参照すると、その一例が図4及び5に示された人物10の2D骨格表現20が作成される(図2のブロック132)。図4は2D骨格表現20の全体図であり、一方、図5は図4に示す2D骨格表現20の腕22を示す部分図である。更に図1〜5を参照すると、2D骨格表現20は、例えば、肩関節24、肘関節23、及び手首26等の複数の関節を含んでいてもよい。本明細書に特に記載されない他の関節も2D骨格表現20の範囲内であると考えられる。肩関節24と肘関節23との間のリンク25(例えば、上腕骨を表す)及び肘関節23と手首26との間のリンク27(例えば、尺骨及び橈骨を表す)等のリンクが関節の間に提供される。2D骨格表現20を生成するための任意の周知の又は未考案の方法を使用することができる。例えば、2D骨格表現はマイクロソフトCOCO(Microsoft Corp.、Redmond WA)データセット、及び/又は同種のものと組み合わせたMATLAB(Mathworks、Natick MA)を用いて作成できる。
次いで、図2に示すフローチャート130のブロック133で、直径dを有するコーンCが図4及び5に示すように2D骨格表現20内のリンクの各々の周囲に位置する。コーンCは、各リンクがコーンCの中心を通過するようにリンクの周囲に配置された1つ又は複数のコンピュータ生成リング構造を含む。直径dは、概ね、リンクに対応する人間の部位の推定サイズに基づいて選択される。例えば、リンクが人間の腕に対応する場合、コーンCの直径dは人間の腕の推定径に対応するように選択できる。したがって、コーンCはそのサイズが概ねそれぞれの部位に対応していなければならない。したがって、直径dは本開示によって限定されない。限定的にではなく一例として、直径dは約3センチメートルから約5センチメートルであってもよい。以下に詳述するように、コーンCは検知された人物に関する深さクラウドを作成するために配置される。
図6を参照すると、コーンCを有する2D骨格表現20は深さセンサから受け取った深さ情報と合成される。例えば、深さセンサ(例えば、センサ102)はシーン内に複数のポイント30を有する深さクラウドを作成する。限定的にではなく一例として、ポイント30は、深さセンサによって投射され、人物10(図1)に投射される赤外線レーザビームによって生成されてもよい。すなわち、深さセンサは概ね人物10へ向かう方向に光(例えば、1つ又は複数のレーザビーム)を発することができる(図1)。少なくとも光の一部は人物10(図1)及び/又は人物10を取り囲む対象物/人によって反射される。反射した光は深さセンサからはポイント30として見える。
図2及び6を参照すると、コーンCと交差する深さポイントがブロック134で決定される。図6はコーンC及びリンク27を取り囲む他の領域へのポイント30の投影を示す。特に、ポイント30は交差ポイント30aと非交差ポイント30bとを含む。交差ポイント30aは概ねコーンCと交差するポイントであり、非交差ポイント30bは概ねコーンCと交差しない(すなわち、コーンCの外側に位置する)ポイントである。今回の分析ではコーンCと交差する交差ポイント30aのみを考慮する。例示のために、図6は人物10の腕22のコーンCと交差する交差ポイント30a及び周囲の少数の非交差ポイント30bのみを示す。ただし、それ以外にも2D骨格表現20の外側に多数の非交差ポイント30bがあることを理解されたい。更に、そのような非交差ポイント30bは特定のコーンCに対してのみ非交差であってもよい。すなわち、ある特定のポイントがリンク25(図5)の周囲のコーンCに対する非交差ポイント30bである一方でリンク27(図5)の周囲のコーンCに対する交差ポイント30aであってもよい。特定のポイントが非交差ポイント30bのとき、そのようなポイントは2D骨格表現を決定する目的では考慮されない。深さクラウドの各々の交差ポイント30aは2D骨格表現20に関する深さ情報を提供する。特に、各々の交差ポイント30aはそれが投影された対象物から深さセンサまでの距離を提供する。すなわち、深さセンサと各々の特定の1つの交差ポイント30aとの距離は、以下に記載するように決定できる。
交差ポイント30aからの深さ情報を用いて2D骨格表現20が深さセンサ(例えば、図1に示すセンサ102)からどの程度離れているかを決定できる。一例では、総平均深さが2D骨格表現20のコーンCと交差する全ての交差ポイント30aの深さ情報から決定される(図2のブロック135)。すなわち、深さは、角度計算、タイムオブフライト計算、及び/又は同種のものを含む距離センサからの距離を計算する任意の方法によって交差ポイント30aの各々について計算される。深さ計算値は全てまとめて平均されて総平均深さが得られる。図7は、2D骨格表現20のコーンCと交差する全ての交差ポイント30aの総平均に基づくセンサ102から深さDの位置にある3D骨格表現20´の概略図である。別の例では、深さは2D骨格表現20の特定の部分について個別に決定される。例えば、どの交差ポイント30aが人物の左腕と交差しているかについて決定し、左腕上のそれらの交差ポイント30aの各々について深さを決定し、左腕の全ての深さ情報を平均して左腕の平均深さを決定できる。同様に、右腕の全ての深さ情報を平均して右腕の平均深さを決定でき、右足の全ての深さ情報を平均して右足の平均深さを決定でき、同種のものについて上記の決定が可能である。更に、いくつかの実施形態では、2D骨格表現20の深さは、用途によっては2D骨格表現20の各リンクの小さい部分、又は交差ポイント30aのレベル等の更に細かい粒度で決定できる。2D骨格表現20のコーンCと交差する交差ポイント30aからの深さを決定する別の方法も使用できることを理解されたい。
このように、RGB−Dセンサを使用して3D空間内の骨格表現の場所を決定できる。更に、実施形態で3D骨格表現20´を用いて人物のポーズを決定できる(図2のブロック136)。例えば、推定ポーズを用いて人物がどの方向を向いているか、人物の姿勢、人物の両腕がどこに位置するか、人物の両腕の配置、人物又はその特定の部位が動いているか否か、及び同種のものを決定できる。非限定的な例では、人物のポーズは、概ね、ロボット100と人物との間の対象物の受け渡しを調整してロボット100が対象物に正確に接触し、受け渡しのために対象物を適当に配置し、人物が対象物を把持したら対象物を離す動作を確実にするためにロボット100を使用できる。本明細書に記載する3D骨格表現20´を用いて、3D空間内の人物の手の場所がロボット100が必要に応じてアクセスできる記憶域に記憶される。また、ロボット100は人物が保持している、又は人物の横にある特定の対象物を突き止められるように対象物認識能力を備えていてもよい。例えば、人物がロボット100に対してりんごを右手で差し出した場合、ロボットはユーザがりんごを保持していること、3D空間内のりんごの場所、りんごの向き、及び/又は同種のものを検知し、3D骨格表現20´を用いて人物の右手を突き止めることができる。次いで、ロボット100はこの情報を用いて人物の右手からりんごを自然な動きで掴み取る特定の移動コマンドを決定し実行することができる。
2D骨格表現20又は3D骨格表現20´(集合的に「骨格表現」と呼ぶ)のフィルタリングを実施してセンサ102から見た人物の正確な表現を提供できる。例えば、歴史的骨格表現を記憶域又は同種のものに記憶し、有効な骨格表現を表す規則を作成できる。例えば、同じ人物の両腕を表すリンクは概ね相互に一定の比率の範囲内であってもよく(例えば、一方の腕のリンクは他方の腕のリンクより大幅に大きくてはならない)、両足を表すリンクは両腕に釣り合った範囲内でなければならず、骨格表現のリンクは人間がとることができるポーズに対応していなければならない(例えば、人間の両腕を一定の方法で後ろに折り曲げることはできない)。
検知された骨格表現(深さ情報を含む2D骨格表現20又は3D骨格表現20´)が歴史的データに基づく規則の1つに違反した(例えば、両腕のサイズ又はそれぞれの場所が実際と対応しない)ときには、是正措置を講じることができる。例えば、別の測定値を採用して不正確な測定値を無視するか、又は違反した1つ又は複数の規則を満足するように1つ又は複数のリンクを変更できる。こうして、ある種の所定の規則を適用することによって骨格表現をフィルタリングすることができる。
いくつかの実施形態では、3D骨格表現20´を用いて特定の人物を識別することもできる。顔認識は特定の人物を識別するための技法である。ただし、人物の顔がカメラ等のセンサの明瞭な視界に入っているとは限らない。したがって、ロボット工学分野では、人物がロボットに正対していない、さもなければロボット100がアクセスできる画像センサに正対している場合でも人物が誰であるかを認識するようにロボット100をプログラミングすることはできない。いくつかの実施形態では、登録ユーザ及び各ユーザのそれぞれの3D骨格表現20´に関する情報を含むデータベースを作成できる。3D骨格表現20´のリンク及び関節は指紋に良く似た人物の一意的な識別子に対応できる。ユーザは様々なポーズのいくつかの3D骨格表現20´を登録することで登録ユーザになることができる。次いで、ロボット100(又は他のコンピューティング装置)は、例えば、関節間のリンクの長さ、関節の場所、別のリンクに対する1つのリンクの長さの比率、及び/又は同種のもの等の3D骨格表現20´の様々な属性を用いて識別を作成することができる。そのような属性は概ね登録ユーザに一意的である。別の例として、ロボット100(又は他のコンピューティング装置)は3D骨格表現20´によってユーザの歩行を記録できる。すなわち、歩行に関する情報を決定し記憶できるように人物の動画像(及びその3D骨格表現20´)を記録できる。人物の歩行は人物に関する識別情報を提供する。したがって、識別のために、人物の歩行もデータベース内に記憶することができる。
したがって、人物10の映像化に際して、ロボット100(又は他のコンピューティング装置)はデータベースにアクセスしてユーザを任意の数の方法で識別することができる。したがって、ユーザはその顔が見えなくても識別できる。更に、識別されたユーザの3D骨格表現20´の周知の属性をリアルタイムに適用して現在生成中の3D骨格表現20´でこれまでに発生する可能性があったあらゆるエラーを補正する(例えば、骨格表現の任意の1つのリンクの長さのエラーを補正する、歩行を補正する、又は同種のものを補正する)ことができる。
図8A〜8Cは、任意の数の用途にロボット又はコンピューティング装置によって表示でき、又は他の方法で使用できる3D骨格表現20´の例示的な画像を示す。特に、図8Aは、3D空間70内の特定のユーザの3D骨格表現20´を示す。図8B及び8Cは、3D空間70内の人物10´のD画像に重畳された3D骨格表現20´を示す。図8B及び8Cに示すように、3D骨格表現20´の形状、サイズ、及び配置は人物10´の形状、サイズ、及び配置に対応する。3D空間70内に存在する他の対象物80(家具、対象物、及び/又は同種のもの等)は人物10´の一部ではないと決定され、ロボット100(図1)によって無視される。
図9を参照すると、ロボット100のコンポーネントの概略が示されている。上記のように、本明細書に記載された3D骨格表現20´の機能性はロボット工学分野に限定されず、1つ又は複数のセンサ102及びコンピューティング装置を用いて実行できる。また、ロボット100は図9に示すコンポーネントより多くのコンポーネント及び/又は代替のコンポーネントを含んでいてもよく、図9は例示的な目的でのみ提供されることを理解されたい。ロボット100は、概ね、プロセッサ110と、通信経路111と、ネットワークインタフェースハードウェア112と、複数のセンサ102と、1つ又は複数の記憶モジュール114と、複数の入力及び出力115と、複数のアクチュエータ116と、ロケーションセンサ117とを含む。
通信経路111は、例えば、導電ワイヤ、導電トレース、光導波路、又は同種のもの等の信号伝送能力がある任意の媒体から形成できる。更に、通信経路111は信号伝送能力がある媒体の組み合わせから形成できる。一実施形態では、通信経路111は、プロセッサ、記憶域、センサ、入力装置、出力装置、及び通信装置等のコンポーネントへの電気的データ信号の送信を可能にするように協働する導電トレース、導電ワイヤ、コネクタ、及びバスの組み合わせを含む。したがって、通信経路111はバスであってもよい。更に、「信号」という用語は、媒体を通して進行可能なDC、AC、正弦波、三角波、方形波、振動、及び同種のもの等の波形(例えば、電気、光、磁気、機械又は電磁波形)を意味することに留意されたい。通信経路111はロボット100の様々なコンポーネントと通信可能に接続されている。本明細書で使用する「通信可能に接続されている」という用語は、接続されたコンポーネントが、例えば、導電媒体を介した電気信号、空気を介した電磁信号、光導波路を介した光信号、及び/又は同種のもの等のデータ信号を相互に送受信可能であるということを意味する。
本明細書に記載するように、ロボット100のプロセッサ110は、これに限定されないが、人の3D骨格表現20´を生成するための機械可読命令を含む機械可読命令を実行できる任意の装置であってもよい。したがって、プロセッサ110は、制御装置、集積回路、マイクロチップ、コンピュータ、又は他の任意のコンピューティング装置であってもよい。プロセッサ110は通信経路111によってロボット100の他のコンポーネントと通信可能に接続されている。したがって、通信経路111は任意の数のプロセッサと相互に通信可能に接続でき、通信経路111に接続されたコンポーネントが分散コンピューティング環境で動作できるようにする。特に、コンポーネントの各々はデータを送信及び/又は受信できるノードとして動作できる。図9に示す実施形態は単一のプロセッサ110を含むが、他の実施形態は各々が特定のタスク又はタスクのセットを完了するように構成された複数の専用プロセッサを含む複数のプロセッサを含んでいてもよい。
ネットワークインタフェースハードウェア112は通信経路111に接続され、プロセッサ110と通信可能に接続されている。ネットワークインタフェースハードウェア112はネットワークを介してデータを送信及び/又は受信できる任意の装置であってもよい。したがって、ネットワークインタフェースハードウェア112は任意の有線又は無線通信を送信及び/又は受信するための通信送受信機として構成された無線通信モジュールを含んでいてもよい。例えば、ネットワークインタフェースハードウェア112は、他のネットワーク及び/又は装置と通信するためのアンテナ、モデム、LANポート、Wi−Fiカード、WiMaxカード、LTEカード、モバイル通信ハードウェア、近距離通信ハードウェア、衛星通信ハードウェア、及び/又は任意の有線又は無線ハードウェアを含んでいてもよい。一実施形態では、ネットワークインタフェースハードウェア112は、例えば、Bluetooth、802.11規格、Zigbee、Z−wave、及び同種のもの等の無線通信プロトコルに従って動作するように構成されたハードウェアを含んでいてもよい。例えば、ネットワークインタフェースハードウェア112は、ポータブル電子装置との間でBluetooth通信を送受信するためのBluetooth送受信モジュールを含んでいてもよい。また、ネットワークインタフェースハードウェア112は、RFIDタグに問い合わせを行なって呼び出すように構成された無線周波数識別(「RFID」)リーダを含んでいてもよい。ネットワークインタフェースハードウェア112は、接続されたモバイル装置、3D骨格表現20´を表示するか又は他の方法で利用するディスプレイ及び他の装置等の他の電子装置へ3D骨格表現20´を送信するように構成されていてもよい。
複数のセンサ102はプロセッサ110と通信可能に接続されていてもよい。複数のセンサ102は、本明細書に記載するRGB及び深さセンサと、ロボット100に環境に関する情報を提供できる任意のタイプのセンサとを含んでいてもよい。複数のセンサは、これに限定されないが、カメラ(例えば、RGB CCDカメラ)、赤外線センサ、深さセンサ、近接センサ、タクタイルセンサ、ライダーセンサ、レーダセンサ、タイムオブフライトセンサ、慣性測定装置(例えば、1つ又は複数の加速度計及びジャイロスコープ)、及び同種のものを含んでいてもよい。本明細書に記載するように、センサ102から入手したデータを用いて3D骨格表現20´を作成できる。
ロボット100の記憶モジュール114は通信経路111に接続され、プロセッサ110と通信可能に接続されている。記憶モジュール114は、プロセッサ110による機械可読命令へのアクセスと実行とが可能なように機械可読命令を記憶できるRAM、ROM、フラッシュ記憶装置、ハードドライブ、又は任意の非一時的記憶装置を備えていてもよい。機械可読命令は、例えば、プロセッサによって直接実行できる機械語、又は機械可読命令にコンパイル又はアセンブルして記憶モジュール114に記憶できるアセンブリ言語、オブジェクト指向プログラミング(OOP)言語、スクリプト言語、マイクロコード、及び同種のもの等の任意の世代(例えば、1GL、2GL,3GL,4GL、又は5GL)の任意のプログラミング言語で記述された論理又はアルゴリズムを備えていてもよい。或いは、機械可読命令は、フィールドプログラマブルゲートアレイ(FPGA)構成若しくは特定用途向け集積回路(ASIC)、又はそれらの同等物によって実行される論理等のハードウェア記述言語(HDL)で書き込まれてもよい。したがって、本明細書に説明する機能性は、予めプログラミングされたハードウェア要素、又は、ハードウェアコンポーネントとソフトウェアコンポーネントとの組み合わせとして、任意の従来のコンピュータプログラミング言語で実行されてもよい。図9に示す実施形態は単一の記憶モジュール114を含むが、他の実施形態は複数の記憶モジュールを含んでいてもよい。また記憶モジュール114は、本明細書に記載するように、センサデータを記憶してもよい。
記憶モジュール114は、プロセッサによって実行されて本明細書に記載する様々な機能性を実行する能力がある機械可読命令を記憶する。また、記憶モジュール114は、本明細書に記載するように、ユーザ識別のために登録済み3D骨格表現20´のデータベースを記憶することができる。3D骨格表現20´を生成するための他のデータ及び本明細書に記載する他の機能性も記憶モジュール114内に記憶できる。更に、いくつかの実施形態では、3D骨格表現20´を生成し記憶するためのデータをリモートで、例えばリモートサーバ(図示せず)に記憶することができる。
入力及び出力装置115は任意の数の入力装置及び出力装置を含んでいてもよい。例示的な入力装置は、これに限定されないが、キーボード、ボタン、スイッチ、ノブ、タッチパッド、タッチスクリーン、マイクロフォン、赤外線ジェスチャセンサ、マウス装置、及び同種のものを含む。
複数のアクチュエータ116は、例えば、ロボットが空間をナビゲートし、且つ/又は対象物を操作することを可能にする機械的アクチュエータを含んでいてもよい。いくつかの実施形態では、アクチュエータ116は、ロボットに空間内を移動させる電動ホイールアセンブリ及び/又は他のモビリティ装置(ウィング、プロペラ、ロータ、スキー、コンティニュアストラック等)を含んでいてもよい。また、アクチュエータはロボット100のアーム104及びエンドエフェクタ105を動かすように制御可能なモータ又は同種のものを含んでいてもよい。
ロケーションセンサ117は通信経路111に接続され、プロセッサ110と通信可能に接続されている。ロケーションセンサ117は場所を示す出力を生成できる任意の装置であってもよい。いくつかの実施形態では、ロケーションセンサ117はグローバルポジショニングシステム(GPS)センサを含むが、実施形態はそれに限定されない。いくつかの実施形態では、ロケーションセンサ117は、場所がネットワークインタフェースハードウェアとの間で送受信される信号から少なくとも部分的に決定できる(例えば、WiFi信号強度を用いて距離を決定する)ように、ネットワークインタフェースハードウェア112内に統合してもよい。ロボット100がその場所を決定しない実施形態又は場所が他の方法で(例えば、他の装置から受信した情報に基づいて)決定される実施形態等のいくつかの実施形態はロケーションセンサ117を含んでいなくもよい。また、ロケーションセンサ117は、1つ又は複数の無線信号アンテナから受信した無線信号によってロボット100及びユーザの場所を三角測量できる無線信号センサとして構成してもよい。
ロボット100は図9に示していないコンポーネントを含んでいてもよいことを理解されたい。例えば、ロボット100はバッテリ駆動であってもよい。バッテリはロボット100が後程使用するための電気エネルギーを蓄積できる任意の装置であってもよい。いくつかの実施形態では、バッテリはリチウムイオンバッテリ又はニッケルカドミウムバッテリ等の充電式バッテリである。バッテリが充電式バッテリである実施形態では、ロボット100はバッテリを充電するための充電ポートを含んでいてもよい。
本開示の実施形態はある環境内の人の3D骨格表現20´を生成するように構成されていることを理解されたい。一実施形態では、ロボットは人物が3D空間内のどこに位置するかを理解し、経路の計画立案及びパターン作成の把握、人物識別、ユーザ認証、及びその他の機能性を支援するための人物の3D骨格表現20´を生成する1つ又は複数のセンサを含む。本明細書に記載する3D骨格表現20´は2D RGB画像から2D骨格表現20を生成することによって作成される。2D骨格表現20は深さセンサから入手した深さ情報を用いて3D空間内に投影される。RGBセンサ及び深さセンサは別々のセンサであってもよく、又は単一パッケージ内の1つのセンサであってもよい。
本開示の実施形態の結果として、本明細書に記載する工程を実行するためのシステムの機能性が向上する。これは本明細書に記載する実施形態によってそのようなシステムが空間内の人間の存在、その動き、ポーズ、及び同種のものをより正確に感知できることによる。更に、本明細書に記載するシステムは、そのようなシステムが人間の顔を見ることなく人間を認証できるため、機能性を向上させている。
本明細書において、特定の実施形態を示し説明してきたが、請求項に記載の主題の趣旨及び範囲から逸脱することなく、様々な他の変更及び修正ができることを理解されたい。更に、請求項に記載の主題の様々な態様を本明細書に説明してきたが、そのような態様は、組み合わせて利用される必要はない。したがって、添付の特許請求の範囲は、請求項に記載の主題の範囲内にある全てのそのような変更及び修正に及ぶものとする。
例1
人物の三次元骨格表現を生成する方法であって、
二次元画像から、該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える二次元骨格表現を生成することと、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置することと、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別することと、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影し、それによって該人物の該三次元骨格表現を生成することとを含む方法。
例2
該二次元骨格表現を三次元空間内に投影することが該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均することを含む例1に記載の方法。
例3
少なくとも部分的に該三次元骨格表現に基づいてユーザを認証することを更に含む例1に記載の方法。
例4
該ユーザを認証することが、
該三次元骨格表現から該ユーザのポーズ又は歩行を入手することと、
複数の登録ユーザの複数の記憶されたポーズ又は複数の記憶された歩行を備える記憶域にアクセスすることと、
該ユーザの該ポーズ又は該歩行を該複数の記憶されたポーズ又は該複数の記憶された歩行の1つと照合することとを含む例3に記載の方法。
例5
該三次元骨格表現から入手した歩行情報を記録することを更に含む例1に記載の方法。
例6
1つ又は複数のセンサから該二次元画像を備える画像データを入手することを更に含む例1に記載の方法。
例7
ロボットであって、
プロセッサと、機械可読命令を記憶する非一時的記憶装置とを備え、該機械可読命令が、該プロセッサによって実行されたときに、該プロセッサに、
二次元画像から該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間のリンクとを備える二次元骨格表現を生成させ、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影させ、それによって該人物の三次元骨格表現を生成させるロボット。
例8
該二次元骨格表現を三次元空間内に投影することが該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均することを含む例7に記載のロボット。
例9
該機械可読命令が更に該プロセッサに少なくとも部分的に該三次元骨格表現に基づいてユーザを認証させる例7に記載のロボット。
例10
該プロセッサにユーザを認証させる該機械可読命令が更に該プロセッサに
該三次元骨格表現から該ユーザのポーズ又は歩行を入手させ、
複数の登録ユーザの複数の記憶されたポーズ又は複数の記憶された歩行を備える記憶域にアクセスさせ、
該ユーザの該ポーズ又は該歩行を該複数の記憶されたポーズ又は該複数の記憶された歩行の1つと照合させる例9に記載のロボット。
例11
該機械可読命令が更に該プロセッサに該三次元骨格表現から入手した歩行情報を記録させる例7に記載のロボット。
例12
アームと、該アームの端部に配置されたエンドエフェクタとを更に備え、該機械可読命令が更に該プロセッサに
該人物の手に保持された対象物を決定させ、
該人物の該三次元骨格表現から三次空間内の該人物の該手の場所を決定させる例7に記載のロボット。
例13
該機械可読命令が更に該アーム及びエンドエフェクタを該人物の該手の方へ移動させ該対象物を把持させる例12に記載のロボット。
例14
該プロセッサと通信可能に接続された複数のセンサを更に備え、該複数のセンサが該二次元画像を提供する例12に記載のロボット。
例15
システムであって、
プロセッサと、
非一時的プロセッサ可読記憶装置とを備え、該非一時的プロセッサ可読記憶装置が1つ又は複数の機械可読命令を備え、該1つ又は複数の機械可読命令が、該プロセッサによって実行されたときに、該プロセッサに、
二次元画像から、該二次元画像内に存在する人物の二次元骨格表現であって、複数の関節と該複数の関節の個々の関節の間の複数のリンクとを備える二次元骨格表現を生成させ、
該複数のリンクの1つ又は複数のリンクの周囲にコーンを配置させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する深さクラウドの複数のポイントであって、深さセンサによって生成され、各ポイントが深さ情報を提供する深さクラウドの複数のポイントを識別させ、
該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの該複数のポイントの深さ情報を用いて該二次元骨格表現を三次元空間内に投影させ、それによって該人物の三次元骨格表現を生成させるシステム。
例16
該プロセッサに該二次元骨格表現を三次元空間内に投影させる該1つ又は複数の機械可読命令が、更に、該プロセッサに該複数のリンクの該1つ又は複数のリンクの周囲に配置された該コーンと交差する該深さクラウドの全ての該複数のポイントの深さ情報を平均させる例15に記載のシステム。
例17
該1つ又は複数の機械可読命令が更に該プロセッサに少なくとも部分的に該三次元骨格表現に基づいてユーザを認証させる例15に記載のシステム。
例18
該機械可読命令が更に該プロセッサに該三次元骨格表現から入手した歩行情報を記録させる例15に記載のシステム。
例19
該機械可読命令が更に該プロセッサに
該人物の手に保持された対象物を決定させ、
該人物の該三次元骨格表現から三次空間内の該人物の該手の場所を決定させる例15に記載のシステム。
例20
該プロセッサと通信可能に接続された複数のセンサを更に備え、該複数のセンサが該二次元画像を提供する例15に記載のシステム。

Claims (10)

  1. 人物の三次元骨格表現を生成する方法であって、
    二次元画像から、前記二次元画像内に存在する人物の二次元骨格表現を生成するステップであって、前記二次元骨格表現は複数の関節と前記複数の関節の個々の関節の間の複数のリンクとを備える、ステップと、
    1つ以上のリンクが1つ以上のリング構造の中心を通過するように、前記複数のリンクの前記1つ以上のリンクの周囲に前記1つ以上のリング構造を配置するステップと、
    前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記1つ以上のリング構造と交差する深さクラウドのポイントを識別するステップであって、前記深さクラウドのポイントは、深さセンサによって生成され、各ポイントが深さ情報を提供する、ステップと、
    前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記1つ以上のリング構造と交差する前記深さクラウドのポイントの深さ情報を用いて前記二次元骨格表現を三次元空間内に投影し、それによって前記人物の前記三次元骨格表現を生成するステップと、
    前記三次元骨格表現から歩行情報を記録するステップと、を含む、方法。
  2. 前記二次元骨格表現を三次元空間内に投影するステップは、前記複数のリンクの前記1つ以上のリンクの周囲に配置された前記1つ以上のリング構造と交差する前記深さクラウドの全てのポイントの深さ情報を平均するステップを含む、請求項1に記載の方法。
  3. 少なくとも部分的に前記三次元骨格表現に基づいてユーザを認証するステップを更に含む、請求項1または2に記載の方法。
  4. 前記ユーザを認証するステップは、
    前記三次元骨格表現から前記ユーザのポーズを入手するステップと、
    複数の登録ユーザに対する複数の記憶されたポーズを備える記憶域にアクセスするステップと、
    前記ユーザの前記ポーズを前記複数の記憶されたポーズの1つと照合するステップと、を含む、請求項3に記載の方法。
  5. 前記1つ以上のリング構造は、前記人物の1つ以上の部位に対応するように形成され、サイズとなる、請求項1から4の何れか一項に記載の方法。
  6. 1つ以上のセンサから画像データを入手するステップを更に含み、前記画像データは前記二次元画像を含む、請求項1から5の何れか一項に記載の方法。
  7. プロセッサと、前記プロセッサによって実行されたときに、前記プロセッサに、請求項1から6の何れか一項に記載の方法を完了させる機械可読命令を備えた非一時的記憶装置と、を備える、ロボット。
  8. アームと、前記アームの端部に配置されたエンドエフェクタと、を更に含み、
    前記機械可読命令が前記プロセッサに、更に、
    前記人物の手に保持された対象物を決定させ、
    前記人物の前記三次元骨格表現から三次空間内の前記人物の前記手の場所を決定させる、請求項7に記載のロボット。
  9. 前記機械可読命令が更にアーム及びエンドエフェクタを前記人物の手の方へ移動させ対象物を把持させる、請求項7または8に記載のロボット。
  10. 前記プロセッサと通信可能に接続された複数のセンサを更に備え、前記複数のセンサが前記二次元画像を提供する、請求項7から9の何れか一項に記載のロボット。
JP2018180654A 2017-09-26 2018-09-26 三次元骨格表現を生成するためのシステム及び方法 Active JP6927937B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762563427P 2017-09-26 2017-09-26
US62/563,427 2017-09-26
US15/868,374 2018-01-11
US15/868,374 US10607079B2 (en) 2017-09-26 2018-01-11 Systems and methods for generating three dimensional skeleton representations

Publications (3)

Publication Number Publication Date
JP2019061679A JP2019061679A (ja) 2019-04-18
JP2019061679A5 JP2019061679A5 (ja) 2020-08-06
JP6927937B2 true JP6927937B2 (ja) 2021-09-01

Family

ID=65807643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018180654A Active JP6927937B2 (ja) 2017-09-26 2018-09-26 三次元骨格表現を生成するためのシステム及び方法

Country Status (2)

Country Link
US (1) US10607079B2 (ja)
JP (1) JP6927937B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491820B (zh) * 2018-04-02 2022-04-12 京东方科技集团股份有限公司 图像中肢体表示信息的识别方法、装置及设备、存储介质
US11113526B2 (en) * 2019-07-23 2021-09-07 Toyota Research Institute, Inc. Training methods for deep networks
CN113510707A (zh) * 2021-07-23 2021-10-19 上海擎朗智能科技有限公司 一种机器人的控制方法、装置、电子设备及存储介质
CN117581278A (zh) * 2021-08-17 2024-02-20 创峰科技 移动平台上实时手持式无标记人体动作记录和虚拟形象渲染
US11553043B1 (en) * 2022-06-16 2023-01-10 Embark Trucks Inc. Low bandwidth protocol for streaming sensor data

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10037491A1 (de) * 2000-08-01 2002-02-14 Stryker Leibinger Gmbh & Co Kg Verfahren zum dreidimensionalen Visualisieren von Strukturen im Körperinneren
KR101424942B1 (ko) * 2004-07-30 2014-08-01 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US8976160B2 (en) * 2005-03-01 2015-03-10 Eyesmatch Ltd User interface and authentication for a virtual mirror
US9165199B2 (en) 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8922547B2 (en) 2010-12-22 2014-12-30 Electronics And Telecommunications Research Institute 3D model shape transformation method and apparatus
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
EP2674913B1 (en) * 2012-06-14 2014-07-23 Softkinetic Software Three-dimensional object modelling fitting & tracking.
US9275277B2 (en) 2013-02-22 2016-03-01 Kaiser Foundation Hospitals Using a combination of 2D and 3D image data to determine hand features information
US9340155B2 (en) * 2013-09-17 2016-05-17 Toyota Motor Sales, U.S.A., Inc. Interactive vehicle window display system with user identification
US9911219B2 (en) * 2015-05-13 2018-03-06 Intel Corporation Detection, tracking, and pose estimation of an articulated body
EP3425591B1 (en) * 2017-07-07 2021-01-13 Tata Consultancy Services Limited System and method for tracking body joints

Also Published As

Publication number Publication date
US20190095711A1 (en) 2019-03-28
US10607079B2 (en) 2020-03-31
JP2019061679A (ja) 2019-04-18

Similar Documents

Publication Publication Date Title
JP6927937B2 (ja) 三次元骨格表現を生成するためのシステム及び方法
Alatise et al. A review on challenges of autonomous mobile robot and sensor fusion methods
JP6927938B2 (ja) クラウドサービスシステムを組み込んだロボットシステム
Zhang et al. An indoor wayfinding system based on geometric features aided graph SLAM for the visually impaired
DK2952993T3 (en) PROCEDURE FOR MAKING A CARD OF LIKELIHOOD FOR ONE OF THE ABSENCE OR EXISTENCE OF BARRIERS FOR AN AUTONOMOUS ROBOT
US20190053858A1 (en) Method and Apparatus for Wide Area Multi-Body 6D Pose Tracking System
KR102096875B1 (ko) 자율 주행 기술을 응용한 3차원 실내 정밀 지도 자동 생성 로봇 및 로봇의 제어 방법
Ye et al. 6-DOF pose estimation of a robotic navigation aid by tracking visual and geometric features
US11847741B2 (en) System and method of scanning an environment and generating two dimensional images of the environment
Kandalan et al. Techniques for constructing indoor navigation systems for the visually impaired: A review
EP2933604A1 (en) A method for localizing a robot in a localization plane
EP3205127B1 (en) A method of setting up a tracking system
CN106708037A (zh) 自主移动式设备定位的方法、装置及自主移动式设备
JP7428436B2 (ja) 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ
CN105184268A (zh) 手势识别设备、手势识别方法及虚拟现实系统
Chikhalikar et al. An object-oriented navigation strategy for service robots leveraging semantic information
Fabian et al. One-point visual odometry using a RGB-depth camera pair
Fattah et al. Dynamic map generating rescuer offering surveillance robotic system with autonomous path feedback capability
Li et al. Development and demonstration of indoor three-dimensional localization using IR CMOS sensors for Mobile manipulators
Almer Casino et al. Autonomous medical robot
JP7454677B2 (ja) 質量中心位置決定方法、装置、足式ロボット及びコンピュータプログラム
Li A new efficient pose estimation and tracking method for personal devices: application to interaction in smart spaces
Shafii et al. Autonomous interactive object manipulation and navigation capabilities for an intelligent wheelchair
Patil Human context-awareness and its application in a service-oriented robotic system
Caldeira et al. Indoor Exploration Using a μ UAV and a Spherical Geometry Based Visual System

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6927937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350