JP2021531524A - 3次元仮想空間モデルを利用したユーザポーズ推定方法および装置 - Google Patents
3次元仮想空間モデルを利用したユーザポーズ推定方法および装置 Download PDFInfo
- Publication number
- JP2021531524A JP2021531524A JP2020548924A JP2020548924A JP2021531524A JP 2021531524 A JP2021531524 A JP 2021531524A JP 2020548924 A JP2020548924 A JP 2020548924A JP 2020548924 A JP2020548924 A JP 2020548924A JP 2021531524 A JP2021531524 A JP 2021531524A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- dimensional space
- dimensional
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012545 processing Methods 0.000 claims description 21
- 230000001172 regenerating effect Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 abstract description 10
- 230000008569 process Effects 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 239000002245 particle Substances 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
このとき、LiDAR(ライダー)あるいはこれと類似の動作原理をもつ深さ測定装置を活用して点群情報を取得したり、カメラあるいはこれと類似の動作原理をもつ映像測定装置を活用して映像情報を取得したり、Kinect(キネクト)あるいはこれと類似の動作原理をもつ深さ−映像測定装置を活用して色−点群情報を取得したり、またはこれらの組み合わせを利用して、現実空間を表現する空間地図を構成することができる。
ユーザポーズは、ユーザデバイスが現実空間で取得したユーザ情報を空間地図と比べることによって推定される。
ただ、従来技術における空間地図を利用したユーザポーズの推定は、次のような問題を抱えている。
第二に、不連続的な空間地図は、ユーザポーズ推定の精密度を低下させることがある。図1は、点群情報で構成された不連続的な空間地図の例を示した図である。
第三に、空間地図を構成するための空間情報が取得された時点とユーザ情報を取得する時点との差により、ユーザポーズ推定の精密度が下がることがある。
図2は、光または照明が時間の変化によって変化する例を示している。
より具体的に、図2の(a)、(b)、および(c)は、同じ空間において、照明や外部から流入する光の量が時間の流れによって変化する例を示している。
また、図3の(a)および(b)は、同じ空間において、時間の流れによって物体が変化した例を示している。
例えば、図2に示した空間に対し、空間地図を構成するための空間情報は(a)から取得され、ユーザ情報は(c)から取得されることがある。また、図3に示した空間に対し、空間地図を構成するための空間情報は(a)から取得され、ユーザ情報は(b)から取得されることがある。
現実空間は、時間の流れにより、光または照明の変化、人物などの動的な動きの変化、物体またはインテリアなどの変化が発生する。このような変化が更新されていない空間地図を使用する場合にはユーザ情報との類似性が低下するようになり、これはユーザポーズ推定の精密度を低下させることに繋がる。
したがって、空間地図に基づいてユーザポーズを推定するときに発生する従来の問題を解決する方法が必要となっている。
他の実施形態に係る3次元空間に対するユーザの位置(position)および方向(orientation)情報を含むユーザポーズを推定する方法は、前記3次元空間で取得された映像を含むユーザ情報を受信する段階、前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを確認する段階、前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する段階、前記対応情報と前記ユーザ情報との類似度を算出する段階、および前記類似度に基づいてユーザポーズを推定する段階を含む。
また、時間の流れるによる現実空間の変化にも強靭なユーザポーズ推定方法を提供することができる。
また、本発明の実施形態は、複合現実(Mixed Reality)でユーザポーズを推定するときに活用することができる。
さらに、精密なユーザポーズ推定によって現実空間と仮想空間との違和感を軽減することができ、複合現実におけるユーザの没入度を高めることができる。したがって、本発明の実施形態は、複合現実の関連技術の商用化および発展に寄与することができる。
また、「または」という用語は、排他的論理合「exclusive or」というよりは包含的論理合「inclusive or」を意味する。つまり、別途記載されない限りまたは文脈から明らかでない限り、「xがaまたはbを利用する」という表現は、自然な包含的順列(naturalinclusive permutations)のうちのいずれか1つを意味する。
図5は、一実施形態における、3次元仮想空間モデルを生成する例を説明するための図である。
図4を参照すると、通常の3次元仮想空間モデルは、obj、x3dなどのような深さ−映像連携情報を利用して構成された現実空間に対するモデルを指す。例えば、3次元仮想空間モデルは、韓国登録特許第10−1835434号公報(発明の名称:投映イメージ生成方法およびその装置、イメージピクセルと深さ値とのマッピング方法)により、obj、x3dなどが生成されたモデルまたは「TeeVRモデル」を含んでもよい。
図5において、(a)は空間情報に含まれた映像情報であり、(b)は非背景領域を除いた映像を、(c)は背景領域を確張して映像情報を生成した例を示している。
例えば、背景領域とは、3次元空間を形成する建築物自体の構造を意味するか、またはドアや窓のように建築物に付随した構造物であってよい。したがって、映像情報において、背景領域は、3次元空間の構造と関連する領域であると定義されてよい。
3次元仮想空間モデルは、室内空間と室外空間の両方を含む概念であって、独立的な室内空間、独立的な室外空間、または室内と室外とが連結した空間であってもよい。3次元仮想空間モデルにobj、x3dなどのようなモデル(人物、事物など)を追加してもよく、3次元仮想空間モデルは、モデルが追加された3次元仮想空間モデルを含む概念であってもよい。一方、空間地図は、3次元の代わりとして、次元を低めて2次元仮想空間モデルの使用も可能である。
図6を参照すると、3次元仮想空間モデルを利用したユーザポーズ推定システムは、ユーザデバイス610およびユーザポーズ推定装置620を備える。一実施形態に係るユーザポーズ推定装置620は、サーバ(図示せず)に備えられてもよいし、ユーザデバイス610に備えられてもよい。
ユーザポーズ推定装置620は、装置内部または外部のストレージシステム602に記録された3次元仮想空間モデル630およびユーザ情報611を利用してユーザポーズを推定してよい。
図7を参照すると、一実施形態に係る3次元空間に対するユーザポーズ推定装置620は、仮想空間モデル提供部730、制御部740、およびユーザ情報受信部750を備える。また、ユーザポーズ推定装置620は、空間情報取得部710および仮想空間モデル生成部720をさらに備えてよい。さらに、ユーザポーズ推定装置620は、ユーザ情報要請部760をさらに備えてよい。
空間情報取得部710は、3次元空間に関する深さ情報および映像情報を含む空間情報を取得する。例えば、空間情報は、深さ測定装置および映像測定装置を利用して取得されてよい。
仮想空間モデル生成部720は、室内空間イメージを構成するイメージのピクセル値に基づいて背景領域と非背景領域とを区分してよい。
仮想空間モデル提供部730は、ユーザポーズの推定が必要な場合、3次元空間に関する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを提供する。
ユーザ情報は、映像情報が含まれた情報であって、1つ以上の映像測定装置を含み、深さ測定装置または付加装置などを利用して取得してよい。測定装置の視野角が狭くて十分なユーザ情報が取得されない場合、測定装置の回転、移動、またはこれを組み合わせてユーザ情報を取得してよい。ユーザ情報は、単一または複数の映像センサ(カメラ)によって取得してよく、ピンホール(pin−hole)モデルや魚眼レンズ、またはパノラマ形式で取得されてもよい。単一の映像情報、複数の映像情報、または順列の映像情報が取得されてよい。取得したユーザ情報を利用して映像情報、深さ情報、または深さ−映像連携情報などを構成してよい。
例えば、複数の映像測定装置を使用すれば、各映像測定装置で取得された映像情報と映像測定装置との関係を活用して深さ情報を計算することができ、これにより深さ−映像連携情報を構成することができる。映像測定装置との関係は、映像測定装置間のキャリブレーション(Calibration)情報、または各映像測定装置で取得された映像情報間の変換情報(Homography matrix)であってよい。
図8を参照すると、ユーザデバイス610は、ユーザ情報生成部810、通信部820、および制御部830を備える。ユーザデバイス610は、ユーザとインタフェースするためのディスプレイ、入力手段、および出力手段を含むユーザインタフェース部840をさらに備えてよい。
このとき、ユーザポーズ推定サーバは、図7に示したユーザポーズ推定装置620であってよく、ユーザポーズ推定サービスを提供する別のサーバであってもよい。
図9は、一実施形態における、ポーズの概念を説明するための例示図である。
3次元仮想空間モデルを構築するために使用される空間情報は、現実空間の一部ポーズで取得された不連続情報として考慮されてよい。ここで、ポーズ(pose)とは、位置(position)と方向(orientation)の両方を含む概念である。一例として、2次元において、ポーズは、測定装置の位置であるx、yと、測定装置の角度aとで表現されてよい。
このとき、可能な全体ポーズの場合の数は、11×11×37、すなわち4,477種類となる。同じように、3次元において、ポーズは、センサの位置であるx、y、zと、測定装置の角度ロール(roll)、ピッチ(pitch)、ヨー(yaw)で表現されてよい。
図10に示した方法は、図7に示したユーザポーズ推定装置620によって実行されてよい。
段階S1010で、装置は、深さ測定装置および映像取得装置を利用して3次元空間に対する深さ情報および映像情報を含む空間情報を取得する。
段階S1020で、装置は、空間情報に基づいて深さ−映像連携情報を構成し、深さ−映像連携情報に基づいて3次元空間に対応する3次元仮想空間モデルを構築する。
段階S1030で、装置は、3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信する。このとき、ユーザ情報は、取得された映像に対応する空間の深さ情報をさらに含んでよい。
段階S1040で、装置は、3次元仮想空間モデル内でユーザ情報に対応する対応情報を生成する。
このとき、類似度を算出する段階は、類似度を高める方向に対応情報を再生成し、再生成された対応情報に基づいて類似度を再算出する段階を含んでよい。このとき、類似度を高める方向は、ユーザ情報を再取得したり、ユーザ情報に対応する対応情報を再生成したり、ユーザ情報の他に付加的な情報を使用したりすることを含む。
3次元仮想空間モデルで生成された対応情報とユーザが取得したユーザ情報との類似性を計算する方法は、対応情報の映像情報とユーザ情報の映像情報とを比較する方法、対応情報の深さ情報とユーザ情報の深さ情報とを比較する方法、または深さ−映像連携情報を比較する方法などであってよい。
一方、映像情報の比較は、各映像情報の形式に類似するようにするための映像情報の変換が必要となることがある。例えば、パノラマイメージ(Panorama Image)と補正イメージ(Rectified image)との変換があってよく、映像情報の大きさを正規化してよく、視野角の変換があってよい。
移動ロボットを利用する場合、移動ロボットの動作、運転、操縦、移動、データ取得、記録、および処理など関連アルゴリズムは、ロボットオペレーティングシステム(ROS:robot operating system)上で実行されてよい。
空間情報の取得と同時に深さ−映像連携情報が構成されて3次元仮想空間モデルが構築されてよく、ユーザ情報の取得と同時にユーザポーズをリアルタイムで推定してもよく、遅延(Latency)を発生させてもよく、ユーザポーズの取得が完了した後に処理されてもよい。
本発明は、センサシステムとコンピュータとが融合されたシステムで実行されてもよいし、独立的なセンサシステムとコンピュータで実行されてもよい。
図11に示した方法は、図7に示したユーザポーズ推定装置620によって実行されてよい。
段階1110で、装置は、3次元空間で取得された映像を含むユーザ情報を受信する。
段階1120で、装置は、3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを確認する。このとき、3次元仮想空間モデルは、図7の仮想空間モデル提供部730によって提供されてよい。
段階S1140で、装置は、対応情報と前記ユーザ情報との類似度を算出する。
段階S1150で、装置は、類似度に基づいてユーザポーズを推定する。このとき、ユーザポーズは、例えば、ユーザ情報との類似度が最も高い対応情報のポーズであってよい。
類似度を向上させるために追加のユーザ情報を取得してよく、3次元仮想空間モデルを活用して追加のユーザ情報取得ポーズをユーザに案内してよく、ユーザは、案内されたポーズで追加のユーザ情報を取得してよい。
このとき、案内情報は、3次元仮想空間モデル内の予め設定された特徴点に対するユーザ情報取得ポーズを含み、追加のユーザ情報を取得する段階は、類似度を高める方向に繰り返し実行されてよい。
図12で、追加のユーザ情報取得ポーズは、特徴点1、2、3に対して順に映像を取得するポーズであるか、特徴点1、2、3のうちのいずれか1つに対するポーズであってよい。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
Claims (25)
- 深さ測定装置および映像取得装置を利用して3次元空間に対する深さ情報および映像情報を含む空間情報を取得する段階、
前記空間情報に基づいて深さ−映像連携情報を構成し、前記深さ−映像連携情報に基づいて前記3次元空間に対応する3次元仮想空間モデルを構築する段階、
前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信する段階、
前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する段階、
前記対応情報と前記ユーザ情報との類似度を算出する段階、および
前記類似度に基づいてユーザポーズを推定する段階
を含む、3次元空間に対するユーザポーズ推定方法。 - 前記3次元仮想空間モデルを構築する段階は、
前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して前記3次元仮想空間モデルを構築することを特徴とする、
請求項1に記載の3次元空間に対するユーザポーズ推定方法。 - 前記対応情報を生成する段階は、
前記ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分する段階、
前記ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工する段階、および
前記3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成する段階
を含む、請求項1に記載の3次元空間に対するユーザポーズ推定方法。 - 前記類似度を算出する段階は、
前記類似度を高める方向に前記対応情報を再生成する段階、および
再生成された対応情報に基づいて類似度を再算出する段階
を含む、請求項1に記載の3次元空間に対するユーザポーズ推定方法。 - 前記類似度を算出する段階は、
前記ユーザ情報および前記対応情報を比較するための比較対象領域を抽出する段階、
前記ユーザ情報から抽出された比較対象領域と前記対応情報から抽出された比較対象領域で共通領域を決定する段階、および
前記共通領域に基づいて前記ユーザ情報および前記対応情報をそれぞれ再生成する段階
を含む、請求項1に記載の3次元空間に対するユーザポーズ推定方法。 - 前記類似度を算出する段階は、
前記ユーザデバイス周辺に対する追加のユーザ情報を取得する段階、および
前記ユーザ情報および追加のユーザ情報に基づいて類似度を算出する段階
を含む、請求項1に記載の3次元空間に対するユーザポーズ推定方法。 - 前記ユーザポーズを推定する段階は、
前記ユーザデバイスによって前記ユーザポーズの推定に利用される付加的な情報であるユーザ付加情報が取得される場合、前記ユーザ情報または前記追加のユーザ情報とともに、前記ユーザ付加情報を利用して前記ユーザポーズを推定することを含む、
請求項6に記載の3次元空間に対するユーザポーズ推定方法。 - 前記追加のユーザ情報を取得する段階は、
前記3次元仮想空間モデルに基づいて追加のユーザ情報取得のための案内情報を前記ユーザデバイスに送信することを含む、
請求項6に記載の3次元空間に対するユーザポーズ推定方法。 - 前記案内情報は、前記3次元仮想空間モデル内の予め設定された特徴点に対するユーザ情報取得ポーズを含み、
前記追加のユーザ情報を取得する段階は、前記類似度を高める方向に繰り返し実行されることを特徴とする、
請求項8に記載の3次元空間に対するユーザポーズ推定方法。 - 3次元空間に対するユーザの位置(position)および方向(orientation)情報を含むユーザポーズを推定する方法であって、
前記3次元空間で取得された映像を含むユーザ情報を受信する段階、
前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを確認する段階、
前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する段階、
前記対応情報と前記ユーザ情報との類似度を算出する段階、および
前記類似度に基づいてユーザポーズを推定する段階
を含む、3次元空間に対するユーザポーズ推定方法。 - 前記3次元仮想空間モデルは、前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して構築されたものであることを特徴とする、
請求項10に記載の3次元空間に対するユーザポーズ推定方法。 - 前記対応情報を生成する段階は、
前記ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分する段階、
前記ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工する段階、および
前記3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成する段階
を含む、請求項10に記載の3次元空間に対するユーザポーズ推定方法。 - 前記類似度を算出する段階は、
前記類似度を高める方向に前記対応情報を再生成する段階、および
再生成された対応情報に基づいて類似度を再算出する段階
を含む、請求項10に記載の3次元空間に対するユーザポーズ推定方法。 - 前記類似度を算出する段階は、
前記ユーザ情報および前記対応情報を比較するための比較対象領域を抽出する段階、
前記ユーザ情報から抽出された比較対象領域と前記対応情報から抽出された比較対象領域で共通領域を決定する段階、および
前記共通領域に基づいて前記ユーザ情報および前記対応情報をそれぞれ再生成する段階
を含む、請求項10に記載の3次元空間に対するユーザポーズ推定方法。 - 前記類似度を算出する段階は、
ユーザデバイス周辺に対する追加のユーザ情報を取得する段階、および
前記ユーザ情報および追加のユーザ情報に基づいて類似度を算出する段階
を含む、請求項10に記載の3次元空間に対するユーザポーズ推定方法。 - 前記ユーザポーズを推定する段階は、
前記ユーザデバイスによって前記ユーザポーズの推定に利用される付加的な情報であるユーザ付加情報が取得される場合、前記ユーザ情報または前記追加のユーザ情報とともに、前記ユーザ付加情報を利用して前記ユーザポーズを推定することを含む、
請求項15に記載の3次元空間に対するユーザポーズ推定方法。 - 前記追加のユーザ情報を取得する段階は、
前記3次元仮想空間モデルに基づいて追加のユーザ情報取得のための案内情報を前記ユーザデバイスに送信することを含む、
請求項15に記載の3次元空間に対するユーザポーズ推定方法。 - 前記案内情報は、前記3次元仮想空間モデル内の予め設定された特徴点に対するユーザ情報取得ポーズを含み、
前記追加のユーザ情報を取得する段階は、前記類似度を高める方向に繰り返し実行されることを特徴とする、
請求項17に記載の3次元空間に対するユーザポーズ推定方法。 - 3次元空間に対する深さ情報および映像情報を含む空間情報を取得する空間情報取得部、
前記空間情報に基づいて深さ−映像連携情報を構成し、前記深さ−映像連携情報に基づいて前記3次元空間に対応する3次元仮想空間モデルを生成する仮想空間モデル生成部、
前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信するユーザ情報受信部、および
前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成し、前記対応情報と前記ユーザ情報との類似度を算出し、前記類似度に基づいて前記ユーザポーズを推定するように構成された少なくとも1つのプロセッサを含む制御部
を備える、3次元空間に対するユーザポーズ推定装置。 - 前記仮想空間モデル生成部は、
前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して前記3次元仮想空間モデルを構築することを特徴とする、
請求項19に記載の3次元空間に対するユーザポーズ推定装置。 - 前記制御部は、
前記ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工し、前記3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成する、
請求項19に記載の3次元空間に対するユーザポーズ推定装置。 - 3次元空間に対するユーザの位置(position)および方向(orientation)情報を含むユーザポーズを推定する装置であって、
前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを提供する仮想空間モデル提供部、
前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信するユーザ情報受信部、および
前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成し、前記対応情報と前記ユーザ情報との類似度を算出し、前記類似度に基づいて前記ユーザポーズを推定するように構成された少なくとも1つのプロセッサを含む制御部
を備える、3次元空間に対するユーザポーズ推定装置。 - 前記3次元仮想空間モデルは、前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して構築されたものであることを特徴とする、
請求項22に記載の3次元空間に対するユーザポーズ推定装置。 - 3次元空間に対する映像を含むユーザ情報を生成するユーザ情報生成部、
前記ユーザ情報をユーザポーズ推定サーバに送信し、3次元仮想空間モデルで推定されたユーザポーズに関する情報を前記サーバから受信する通信部、および
前記ユーザ情報生成部および通信部の動作を制御し、前記ユーザポーズに関する情報を現在実行中のアプリケーションまたは駆動システムに伝達するように構成された少なくとも1つのプロセッサを含む制御部
を備える、3次元空間に対するユーザポーズ推定装置。 - 前記3次元仮想空間モデルは、前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて生成され、前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して構築されたものであることを特徴とする、
請求項24に記載の3次元空間に対するユーザポーズ推定装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2019-0070829 | 2019-06-14 | ||
KR20190070829 | 2019-06-14 | ||
KR10-2020-0039564 | 2020-04-01 | ||
KR1020200039564A KR102387797B1 (ko) | 2019-06-14 | 2020-04-01 | 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치 |
PCT/KR2020/004685 WO2020251151A1 (ko) | 2019-06-14 | 2020-04-07 | 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021531524A true JP2021531524A (ja) | 2021-11-18 |
JP7138361B2 JP7138361B2 (ja) | 2022-09-16 |
Family
ID=74088946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548924A Active JP7138361B2 (ja) | 2019-06-14 | 2020-04-07 | 3次元仮想空間モデルを利用したユーザポーズ推定方法および装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7138361B2 (ja) |
KR (1) | KR102387797B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114800504A (zh) * | 2022-04-26 | 2022-07-29 | 平安普惠企业管理有限公司 | 机器人位姿分析方法、装置、设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743237B (zh) * | 2021-08-11 | 2023-06-02 | 北京奇艺世纪科技有限公司 | 跟随动作的准确度判定方法、装置、电子设备及存储介质 |
KR102491025B1 (ko) * | 2022-02-25 | 2023-01-20 | (주)어나더리얼 | 학습용 데이터셋을 생성하기 위한 방법 |
KR102580181B1 (ko) * | 2022-10-18 | 2023-09-18 | 목포해양대학교 산학협력단 | 3d 시각화 정보 생성 장치 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014095553A (ja) * | 2012-11-07 | 2014-05-22 | Nippon Telegr & Teleph Corp <Ntt> | カメラポーズ推定装置、及びカメラポーズ推定プログラム |
JP2016194779A (ja) * | 2015-03-31 | 2016-11-17 | セコム株式会社 | 物体検出装置 |
KR20170008505A (ko) * | 2015-07-14 | 2017-01-24 | 서울대학교산학협력단 | 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템 |
KR20170012316A (ko) * | 2014-05-30 | 2017-02-02 | 옥스포드 유니버시티 이노베이션 리미티드 | 차량 위치결정 방법 |
JP2018504663A (ja) * | 2014-12-05 | 2018-02-15 | マイフィジーク リミテッド | ボディの画像化 |
KR101835434B1 (ko) * | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
WO2018235219A1 (ja) * | 2017-06-22 | 2018-12-27 | 日本電気株式会社 | 自己位置推定方法、自己位置推定装置および自己位置推定プログラム |
-
2020
- 2020-04-01 KR KR1020200039564A patent/KR102387797B1/ko active IP Right Grant
- 2020-04-07 JP JP2020548924A patent/JP7138361B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014095553A (ja) * | 2012-11-07 | 2014-05-22 | Nippon Telegr & Teleph Corp <Ntt> | カメラポーズ推定装置、及びカメラポーズ推定プログラム |
KR20170012316A (ko) * | 2014-05-30 | 2017-02-02 | 옥스포드 유니버시티 이노베이션 리미티드 | 차량 위치결정 방법 |
JP2018504663A (ja) * | 2014-12-05 | 2018-02-15 | マイフィジーク リミテッド | ボディの画像化 |
JP2016194779A (ja) * | 2015-03-31 | 2016-11-17 | セコム株式会社 | 物体検出装置 |
KR101835434B1 (ko) * | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
JP2018528509A (ja) * | 2015-07-08 | 2018-09-27 | コリア ユニバーシティ リサーチ アンド ビジネス ファウンデーションKorea University Research And Business Foundation | 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 |
KR20170008505A (ko) * | 2015-07-14 | 2017-01-24 | 서울대학교산학협력단 | 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템 |
WO2018235219A1 (ja) * | 2017-06-22 | 2018-12-27 | 日本電気株式会社 | 自己位置推定方法、自己位置推定装置および自己位置推定プログラム |
Non-Patent Citations (1)
Title |
---|
大江統子等: "幾何学的位置合わせのための自然特徴点ランドマークデータベースを用いたカメラ位置・姿勢推定", 日本バーチャルリアリティ学会論文誌, vol. 2005年10巻3号, JPN7021005290, JP, pages 285 - 294, ISSN: 0004657746 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114800504A (zh) * | 2022-04-26 | 2022-07-29 | 平安普惠企业管理有限公司 | 机器人位姿分析方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20200143228A (ko) | 2020-12-23 |
KR102387797B1 (ko) | 2022-04-19 |
JP7138361B2 (ja) | 2022-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220237885A1 (en) | Systems and methods for extracting information about objects from scene information | |
Lin et al. | Autonomous aerial navigation using monocular visual‐inertial fusion | |
KR102334641B1 (ko) | 자율 주행 차량을 위한 맵 파티셔닝 시스템 | |
US10991156B2 (en) | Multi-modal data fusion for enhanced 3D perception for platforms | |
JP7138361B2 (ja) | 3次元仮想空間モデルを利用したユーザポーズ推定方法および装置 | |
JP6896077B2 (ja) | 車両自動パーキングシステム及び方法 | |
US11313684B2 (en) | Collaborative navigation and mapping | |
EP3552147A1 (en) | System and method for semantic simultaneous localization and mapping of static and dynamic objects | |
Chen et al. | 3d point cloud processing and learning for autonomous driving | |
CN111094895A (zh) | 用于在预构建的视觉地图中进行鲁棒自重新定位的系统和方法 | |
KR20210022016A (ko) | 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템 | |
AU2019233778A1 (en) | Urban environment labelling | |
Ishihara et al. | Deep radio-visual localization | |
Sheikh et al. | Stereo vision-based optimal path planning with stochastic maps for mobile robot navigation | |
Al-Muteb et al. | An autonomous stereovision-based navigation system (ASNS) for mobile robots | |
US20210256245A1 (en) | Real-time multi-view detection of objects in multi-camera environments | |
US11328182B2 (en) | Three-dimensional map inconsistency detection using neural network | |
US11915449B2 (en) | Method and apparatus for estimating user pose using three-dimensional virtual space model | |
Abdulov et al. | Visual odometry approaches to autonomous navigation for multicopter model in virtual indoor environment | |
Liu et al. | Semi-dense visual-inertial odometry and mapping for computationally constrained platforms | |
Konomura et al. | Visual 3D self localization with 8 gram circuit board for very compact and fully autonomous unmanned aerial vehicles | |
US20230080638A1 (en) | Systems and methods for self-supervised learning of camera intrinsic parameters from a sequence of images | |
JP2021099384A (ja) | 情報処理装置、情報処理方法およびプログラム | |
Pal et al. | Evolution of Simultaneous Localization and Mapping Framework for Autonomous Robotics—A Comprehensive Review | |
KR102339472B1 (ko) | 3차원 공간 모델 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138361 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |