JP2021531524A - 3次元仮想空間モデルを利用したユーザポーズ推定方法および装置 - Google Patents

3次元仮想空間モデルを利用したユーザポーズ推定方法および装置 Download PDF

Info

Publication number
JP2021531524A
JP2021531524A JP2020548924A JP2020548924A JP2021531524A JP 2021531524 A JP2021531524 A JP 2021531524A JP 2020548924 A JP2020548924 A JP 2020548924A JP 2020548924 A JP2020548924 A JP 2020548924A JP 2021531524 A JP2021531524 A JP 2021531524A
Authority
JP
Japan
Prior art keywords
information
user
dimensional space
dimensional
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020548924A
Other languages
English (en)
Other versions
JP7138361B2 (ja
Inventor
ナジュ ト
ガヒョン イム
チャンフン ヒョン
ドンウ キム
ブンチョル チャン
ヒョンエー チェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea University Research and Business Foundation
Original Assignee
Korea University Research and Business Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea University Research and Business Foundation filed Critical Korea University Research and Business Foundation
Priority claimed from PCT/KR2020/004685 external-priority patent/WO2020251151A1/ko
Publication of JP2021531524A publication Critical patent/JP2021531524A/ja
Application granted granted Critical
Publication of JP7138361B2 publication Critical patent/JP7138361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

3次元仮想空間モデルを利用したユーザポーズ推定方法および装置を提供する。3次元空間に対するユーザの位置(position)および方向(orientation)情報を含むユーザポーズを推定する方法は、前記3次元空間で取得された映像を含むユーザ情報を受信する段階、前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを確認する段階、前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する段階、前記対応情報と前記ユーザ情報との類似度を算出する段階、および前記類似度に基づいてユーザポーズを推定する段階を含む。【選択図】図7

Description

技術分野は、空間地図の生成および活用に関し、より詳細には、3次元仮想空間モデルを利用して現実空間内のユーザポーズを推定する方法および装置に関する。
空間地図を活用してユーザポーズ(pose)を推定する方法は、地形値(geometry)を利用する方式、映像値を利用する方式、地形値と映像値との混合を利用する方式がある。
このとき、LiDAR(ライダー)あるいはこれと類似の動作原理をもつ深さ測定装置を活用して点群情報を取得したり、カメラあるいはこれと類似の動作原理をもつ映像測定装置を活用して映像情報を取得したり、Kinect(キネクト)あるいはこれと類似の動作原理をもつ深さ−映像測定装置を活用して色−点群情報を取得したり、またはこれらの組み合わせを利用して、現実空間を表現する空間地図を構成することができる。
現実空間に対する映像情報、深さ情報、および深さ−映像連携情報は、「空間情報」と称される。
ユーザポーズは、ユーザデバイスが現実空間で取得したユーザ情報を空間地図と比べることによって推定される。
ここで、「ユーザ情報」とは、ユーザデバイスが現実空間で取得した映像を含む情報である。また、「ポーズ」とは、位置(position)と方向(orientation)の両方を含む概念である。したがって、「ユーザポーズ」とは、現実空間に対して映像情報を取得した位置情報と、映像情報を取得した方向情報を含む情報であると言える。
ただ、従来技術における空間地図を利用したユーザポーズの推定は、次のような問題を抱えている。
第一に、空間地図は、空間情報を取得するポーズに敏感なことがある。したがって、空間地図が空間情報を取得するポーズに敏感な場合、ユーザポーズ推定の精密度は低下するようになる。例えば、理論的に可能なすべてのポーズで空間情報を取得して空間地図を構成する場合は、精密度の高いユーザポーズが推定可能となる。
ところが、現実空間に対してすべてのポーズで空間情報を取得することは事実上不可能である。空間地図を構成するために現実空間から均等な分布で多数のポーズの空間情報を取得した場合、空間情報を取得するポーズの分布によってユーザポーズ推定の敏感度は低下する。しかし、このような場合には、空間情報の取得時間、空間情報の容量、および処理時間などのようなシステム負荷問題が発生する恐れがある。
一方、システムの負荷問題を考慮しながら少数のポーズで空間情報を取得する場合には、空間地図が現実空間を十分に表現することができない。さらに、空間地図を取得する経路が変われば空間地図の信頼性が低下し、現実空間を強靭に表現することができなくなる。現実空間が強靭に表現されていない空間地図は、ユーザポーズ推定の精密度の低下に繋がる。
第二に、不連続的な空間地図は、ユーザポーズ推定の精密度を低下させることがある。図1は、点群情報で構成された不連続的な空間地図の例を示した図である。
図1に示すように、点群情報を活用して空間地図を構成する場合、空間情報の取得範囲や経路に応じて点群情報を稠密に取得できないことがある。点群情報を稠密に取得できない場合には連続性のない空間地図が生成されるようになり、これはユーザポーズ推定の精密度を低下させることに繋がる。
第三に、空間地図を構成するための空間情報が取得された時点とユーザ情報を取得する時点との差により、ユーザポーズ推定の精密度が下がることがある。
図2および図3は、時間の流れによる空間の変化を示した例示図である。
図2は、光または照明が時間の変化によって変化する例を示している。
より具体的に、図2の(a)、(b)、および(c)は、同じ空間において、照明や外部から流入する光の量が時間の流れによって変化する例を示している。
また、図3の(a)および(b)は、同じ空間において、時間の流れによって物体が変化した例を示している。
図3の(a)ではテーブル210の上に何も置かれていないが、図3の(b)ではテーブル220上に物体が置かれていることを示している。
例えば、図2に示した空間に対し、空間地図を構成するための空間情報は(a)から取得され、ユーザ情報は(c)から取得されることがある。また、図3に示した空間に対し、空間地図を構成するための空間情報は(a)から取得され、ユーザ情報は(b)から取得されることがある。
このように、同じ空間であっても、空間情報が取得された時点とユーザ情報を取得する時点(time)との差により映像情報が一致しないことがある。したがって、同じ空間であっても、空間情報が取得された時点とユーザ情報を取得する時点との差により、ユーザポーズ推定の精密度は低下するようになる。
現実空間は、時間の流れにより、光または照明の変化、人物などの動的な動きの変化、物体またはインテリアなどの変化が発生する。このような変化が更新されていない空間地図を使用する場合にはユーザ情報との類似性が低下するようになり、これはユーザポーズ推定の精密度を低下させることに繋がる。
したがって、空間地図に基づいてユーザポーズを推定するときに発生する従来の問題を解決する方法が必要となっている。
本発明は、上述した問題点を解決するために、現実空間で取得された空間情報に基づいて構成された3次元仮想空間モデルとユーザが取得したユーザ情報とを活用してユーザポーズを推定する方法及び装置を提供する。
一実施形態に係る3次元空間に対するユーザポーズ推定方法は、深さ測定装置および映像取得装置を利用して3次元空間に対する深さ情報および映像情報を含む空間情報を取得する段階、前記空間情報に基づいて深さ−映像連携情報を構成し、前記深さ−映像連携情報に基づいて前記3次元空間に対応する3次元仮想空間モデルを構築する段階、前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信する段階、前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する段階、前記対応情報と前記ユーザ情報との類似度を算出する段階、および前記類似度に基づいてユーザポーズを推定する段階を含む。
前記3次元仮想空間モデルを構築する段階は、前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して前記3次元仮想空間モデルを構築することを含んでよい。
前記対応情報を生成する段階は、前記ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分する段階、前記ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工する段階、および前記3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成する段階を含んでよい。
前記類似度を算出する段階は、前記類似度を高める方向に前記対応情報を再生成する段階、および再生成された対応情報に基づいて類似度を再算出する段階を含んでよい。
前記類似度を算出する段階は、前記ユーザ情報と前記対応情報とを比較するための比較対象領域を抽出する段階、前記ユーザ情報から抽出された比較対象領域と前記対応情報から抽出された比較対象領域で共通領域を決定する段階、前記共通領域に基づいて前記ユーザ情報および前記対応情報をそれぞれ再生成する段階を含んでよい。
前記類似度を算出する段階は、前記ユーザデバイス周辺に対する追加のユーザ情報を取得する段階、および前記ユーザ情報および追加のユーザ情報に基づいて類似度を算出する段階を含んでよい。
前記ユーザポーズを推定する段階は、前記ユーザデバイスによって前記ユーザポーズの推定に利用される付加的な情報であるユーザ付加情報が取得される場合、前記ユーザ情報または前記追加のユーザ情報とともに、前記ユーザ付加情報を利用して前記ユーザポーズを推定することを含んでよい。
前記追加のユーザ情報を取得する段階は、前記3次元仮想空間モデルに基づいて追加のユーザ情報を取得するための案内情報を前記ユーザデバイスに送信することを含んでよい。
前記案内情報は、前記3次元仮想空間モデル内の予め設定された特徴点に対するユーザ情報取得ポーズを含み、前記追加のユーザ情報を取得する段階は、前記類似度を高める方向に繰り返し実行されてよい。
他の実施形態に係る3次元空間に対するユーザの位置(position)および方向(orientation)情報を含むユーザポーズを推定する方法は、前記3次元空間で取得された映像を含むユーザ情報を受信する段階、前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを確認する段階、前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する段階、前記対応情報と前記ユーザ情報との類似度を算出する段階、および前記類似度に基づいてユーザポーズを推定する段階を含む。
一実施形態に係る3次元空間に対するユーザポーズ推定装置は、3次元空間に対する深さ情報および映像情報を含む空間情報を取得する空間情報取得部、前記空間情報に基づいて深さ−映像連携情報を構成し、前記深さ−映像連携情報に基づいて前記3次元空間に対応する3次元仮想空間モデルを生成する仮想空間モデル生成部、前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信するユーザ情報受信部、および前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成し、前記対応情報と前記ユーザ情報との類似度を算出し、前記類似度に基づいて前記ユーザポーズを推定するように構成された少なくとも1つのプロセッサを含む制御部を備える。
前記空間モデル生成部は、前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して前記3次元仮想空間モデルを構築してよい。
前記制御部は、前記ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工し、前記3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成してよい。
他の実施形態に係る3次元空間に対するユーザの位置(position)および方向(orientation)情報を含むユーザポーズを推定する装置は、前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを提供する仮想空間モデル提供部、前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信するユーザ情報受信部、前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成し、前記対応情報と前記ユーザ情報との類似度を算出し、前記類似度に基づいて前記ユーザポーズを推定するように構成された少なくとも1つのプロセッサを含む制御部を備える。
また他の実施形態に係る3次元空間に対するユーザポーズ推定装置は、3次元空間に対する映像を含むユーザ情報を生成するユーザ情報生成部、前記ユーザ情報をユーザポーズ推定サーバに送信し、3次元仮想空間モデルで推定されたユーザポーズに関する情報を前記サーバから受信する通信部、前記ユーザ情報生成部および通信部の動作を制御し、前記ユーザポーズに関する情報を現在実行中のアプリケーションまたは駆動システムに伝達するように構成された少なくとも1つのプロセッサを含む制御部を備える。
本発明の実施形態は、空間地図として3次元仮想空間モデルを使用することにより、空間情報の取得経路に強靭な3次元仮想空間モデルを構築することができ、空間情報取得ポーズによるユーザポーズ推定精密度の敏感度を減らすことができる。
また、本発明の実施形態に係る3次元仮想空間モデルは、現実空間と類似に構成可能である上に、空間情報の取得時間、空間情報の容量、データの処理時間などを減らすことができる。
また、時間の流れるによる現実空間の変化にも強靭なユーザポーズ推定方法を提供することができる。
また、本発明の実施形態は、複合現実(Mixed Reality)でユーザポーズを推定するときに活用することができる。
さらに、精密なユーザポーズ推定によって現実空間と仮想空間との違和感を軽減することができ、複合現実におけるユーザの没入度を高めることができる。したがって、本発明の実施形態は、複合現実の関連技術の商用化および発展に寄与することができる。
点群情報を活用して構成された不連続的な空間地図の例を示した図である。 時間の流れるによる空間の変化を示した例示図である。 時間に流れるによる空間の変化を示した他の例示図である。 本発明の一実施形態における、3次元仮想空間モデルの例を示した図である。 一実施形態における、3次元仮想空間モデルを生成する例を説明するための図である。 一実施形態における、3次元仮想空間モデルを利用したユーザポーズ推定システムを説明するための図である。 一実施形態における、3次元空間に対するユーザポーズ推定装置の構成を説明するための図である。 一実施形態における、ユーザデバイスの構成を説明するための図である。 一実施形態における、ポーズの概念を説明するための例示図である。 一実施形態における、3次元空間に対するユーザポーズ推定方法を説明するためのフローチャートである。 他の実施形態における、3次元空間に対するユーザポーズ推定方法を説明するためのフローチャートである。 一実施形態における、追加でユーザポーズを取得する方法の例を説明するための図である。
以下、添付の図面および添付の図面に記載された内容を参照しながら本発明の実施形態について詳細に説明するが、本発明が実施形態によって制限あるいは限定されることはない。
本明細書で使用される用語は、実施形態を説明するためのものに過ぎず、本発明を制限するためのものではない。本明細書に記載する単数形は、文面で特に明記されない限り複数形も含む。明細書で使用される「含む(comprises)」および/または「含む(comprising)」は、記載された構成要素、段階、動作、および/または素子において、1つ以上の他の構成要素、段階、動作、および/または素子の存在または追加を排除しない。
本明細書で使用される「実施例」、「例」、「側面」、「例示」などは、記載された任意の態様(aspect)または設計が、他の態様または設計よりも好ましいまたは有利であると解釈されてはならない。
また、「または」という用語は、排他的論理合「exclusive or」というよりは包含的論理合「inclusive or」を意味する。つまり、別途記載されない限りまたは文脈から明らかでない限り、「xがaまたはbを利用する」という表現は、自然な包含的順列(naturalinclusive permutations)のうちのいずれか1つを意味する。
また、本明細書および特許請求の範囲で使用される第1や第2などの用語は、多様な構成要素を説明するために使用されるものであるが、前記構成要素が前記用語によって限定されてはならない。前記用語は、1つの構成要素を他の構成要素と区別する目的としてのみ使用される。
別途の定義なければ、本明細書で使用されるすべての用語(技術および科学的用語を含む)は、本発明が属する技術分野において通常の知識を有する者が共通して理解することのできる意味として使用されるであろう。また、一般的に使用される事前に定義されている用語は、明らかに特に定義されていない限り、理想的または過度に解釈されてはならない。
なお、本発明を説明するにあたり、関連する公知機能または構成についての具体的な説明が本発明の要旨を不必要に不明瞭にし得ると判断される場合には、その詳細な説明は省略する。さらに、本明細書で使用される用語(terminology)は、本発明の実施形態を適切に表現するための用語であり、これは、ユーザ、運用者の意図、または本発明が属する分野の慣例などによって異なることもある。したがって、本明細書で使用される用語は、本明細書の全般にわたる内容に基づいて定義されなければならない。
図4は、本発明の一実施形態における、3次元仮想空間モデルの例を示した図である。
図5は、一実施形態における、3次元仮想空間モデルを生成する例を説明するための図である。
図4を参照すると、通常の3次元仮想空間モデルは、obj、x3dなどのような深さ−映像連携情報を利用して構成された現実空間に対するモデルを指す。例えば、3次元仮想空間モデルは、韓国登録特許第10−1835434号公報(発明の名称:投映イメージ生成方法およびその装置、イメージピクセルと深さ値とのマッピング方法)により、obj、x3dなどが生成されたモデルまたは「TeeVRモデル」を含んでもよい。
このとき、一実施形態に係る3次元仮想空間モデルは、図5に示すように、3次元仮想空間モデルを構成するために背景領域と非背景領域とを区分し、背景領域だけで構成されてよい。
図5において、(a)は空間情報に含まれた映像情報であり、(b)は非背景領域を除いた映像を、(c)は背景領域を確張して映像情報を生成した例を示している。
例えば、背景領域とは、3次元空間を形成する建築物自体の構造を意味するか、またはドアや窓のように建築物に付随した構造物であってよい。したがって、映像情報において、背景領域は、3次元空間の構造と関連する領域であると定義されてよい。
図5の(a)において、室内空間に位置する多様な物体(机、本棚、椅子など)に対応する領域は、非背景領域に該当する。図5の(b)は、室内空間に位置する多様な物体(白色で表示された領域)が取り除かれた非背景領域を示している。
3次元仮想空間モデルは、室内空間と室外空間の両方を含む概念であって、独立的な室内空間、独立的な室外空間、または室内と室外とが連結した空間であってもよい。3次元仮想空間モデルにobj、x3dなどのようなモデル(人物、事物など)を追加してもよく、3次元仮想空間モデルは、モデルが追加された3次元仮想空間モデルを含む概念であってもよい。一方、空間地図は、3次元の代わりとして、次元を低めて2次元仮想空間モデルの使用も可能である。
3次元空間モデルは、事前に構築されたobj、x3dのようなモデルを利用してもよいし、空間情報を新たに取得して構築してもよいし、事前に構築されたモデルを更新して利用してもよい。3次元空間モデルは、現実空間と類似するものと判断されてよい。
図6は、一実施形態における、3次元仮想空間モデルを利用したユーザポーズ推定システムを説明するための図である。
図6を参照すると、3次元仮想空間モデルを利用したユーザポーズ推定システムは、ユーザデバイス610およびユーザポーズ推定装置620を備える。一実施形態に係るユーザポーズ推定装置620は、サーバ(図示せず)に備えられてもよいし、ユーザデバイス610に備えられてもよい。
ユーザデバイス610は、現実空間601でユーザ情報611を取得し、ユーザデバイス610にユーザ情報611を送信してよい。
ユーザポーズ推定装置620は、装置内部または外部のストレージシステム602に記録された3次元仮想空間モデル630およびユーザ情報611を利用してユーザポーズを推定してよい。
ユーザポーズ推定装置620は、3次元仮想空間モデル630でユーザポーズに該当する確率が高い対応情報621をユーザ情報611と比較することで、正確なユーザポーズを推定することが可能となる。
図7は、一実施形態における、3次元空間に対するユーザポーズ推定装置の構成を説明するための図である。
図7を参照すると、一実施形態に係る3次元空間に対するユーザポーズ推定装置620は、仮想空間モデル提供部730、制御部740、およびユーザ情報受信部750を備える。また、ユーザポーズ推定装置620は、空間情報取得部710および仮想空間モデル生成部720をさらに備えてよい。さらに、ユーザポーズ推定装置620は、ユーザ情報要請部760をさらに備えてよい。
空間情報取得部710は、3次元空間に関する深さ情報および映像情報を含む空間情報を取得する。例えば、空間情報は、深さ測定装置および映像測定装置を利用して取得されてよい。
3次元仮想空間モデルを構成するための空間情報を取得する深さ測定装置または映像測定装置などで構成された測定装置の視野角(FoV:Field of View)が現実空間を確保することのできる経路で空間情報を取得すれば、3次元仮想空間モデルは現実空間と類似するように構成されるようになる上に、空間情報の取得時間、空間情報の容量、データの処理時間などを減らすことができて効率的である。
映像情報は、3次元空間に対する2次元イメージとして、2自由度の基底ベクトル(basis vector)で表現可能な形態であってよく、カメラのように3次元を2次元で表現する形態、またはカメラに赤外線フィルタを装着して3次元列情報を2次元で表現した形態であってよい。
深さ情報は、3自由度の基底ベクトルで表現可能な点形態であり、深さ測定装置を利用して取得されてもよく、互いに異なる場所で撮影された2つ以上のイメージを活用して推定されてもよい。前者の例としては、LiDAR(ライダー)、SONAR(ソナー)、赤外線(InfraRed)、TOF(Time Of Flight)距離探知機を利用して取得された深さ情報があり、後者の例としては、ステレオカメラ、マルチカメラ、全方向ステレオカメラなどを利用して取得された深さ情報がある。一方、Kinect、JUMP、PrimeSense、Project Beyondなどのデバイスを利用すれば、深さ情報および映像情報を同時に取得することも可能である。
例えば、本発明の一実施形態では、深さ測定装置を利用して取得した深さ情報だけでなく、内挿法(interpolation)によって深さ情報を新たに推定して使用してもよい。より具体的には、取得した複数の深さ情報のうちから3つ以上の深さ情報を選別して多角形(三角形を含む)メッシュ(Mesh)を構成した後、多角形メッシュの内部に内挿法によって新たな深さ情報を推定して追加するのである。
一方、本発明の一実施形態に係る取得深さ情報および映像情報は、統合センサシステムを利用して同時に取得されてもよい。複数の測定装置を使用する場合、センサ間の座標関係を求めるキャリブレーション過程が必要となることがある。
空間情報を取得する過程で慣性測定装置(IMU)などを追加で使用してもよく、タイヤ型移動ロボットにセンサを装着して測定する場合には距離情報(odometry)を活用してもよい。現実空間が測定装置の視野角よりも広い場合、センサの回転、移動、またはこれを組み合わせて空間情報を取得してよい。このとき、個別空間情報が取得された3次元ポーズ(pose)がそれぞれ異なる場合があり、個別空間情報が取得されたポーズを予測するために、スラム(SLAM:Simultaneous Localization And Mapping)、視覚慣性オドメトリ(VIO:Visual Inertial Odometry)、視覚オドメトリ(VO:Visual Odometry)などの手法が活用されてよい。
一方、空間情報の構成は、測定装置の種類に応じて異なってよい。一例として、測定装置が単一カメラだけで構成された場合、事前測定情報はカメラ映像情報で構成され、該当の映像情報を活用して単一カメラである場合にはピクセル間の相対的距離を、複数のカメラの場合にはピクセル間の絶対距離の予測が可能である。特に、特徴点を抽出せずに単一カメラの場合は、累積した映像情報を活用してピクセルの深さを予測することができ、複数のカメラの場合は、複数のカメラ映像やこの累積した映像情報を活用してピクセルの深さを予測することもできる。
さらに、追加の深さ情報、慣性情報などの情報がともに活用された場合、各測定装置の固有の特性に合うように空間情報処理が可能となる。一例として、慣性測定装置によって慣性情報が取得可能な場合は、これを活用してスラムの性能を向上させたり、映像情報処理時の映像取得ポーズに対する推定(prediction)情報として使用して映像取得ポーズに対する補正(correction)がより容易に行われるようにできる。また、慣性情報の加速度値あるいは角速度値を活用して実際の移動距離を予想することもでき、これを単一カメラあるいは複数のカメラから抽出された深さ情報の大きさ(scale)を補正するのに活用することもできる。
仮想空間モデル生成部720は、空間情報に基づいて深さ−映像連携情報を構成し、前記深さ−映像連携情報に基づいて前記3次元空間に対応する3次元仮想空間モデルを生成する。
例えば、室内空間の3次元仮想空間モデルを生成する場合、空間情報取得部710は、室内空間に対する空間情報である室内空間イメージを取得してよい。このとき、室内空間イメージは、室内空間内部の多様な位置で撮影されたイメージであってよい。
このとき、仮想空間モデル生成部720は、室内空間の構造に対応する領域である背景領域と、室内空間に位置する物体または移動中の人物に対応する領域である非背景領域とを区分してよい。
仮想空間モデル生成部720は、室内空間イメージを構成するイメージのピクセル値に基づいて背景領域と非背景領域とを区分してよい。
背景領域とは、他の要素によって一部が隠れているため完全なデータではないが、隠れていない部分と類似性があるものと推論され、隠れていない部分をホールフィリング(hole filling)やインペイティング(inpainting)手法によって再構成することのできる部分に該当してよい。さらに、背景領域とは、建物内部の大きな看板や案内デスクなどのような他の物体を隠すことがあるが、該当の物体のエッジ部分で映像と地形との整合度がすべてのデータ内で一致するか、別の整合過程によって一致させることのできる部分であってよい。
仮想空間モデル生成部720は、室内空間イメージで背景領域を非背景領域に確張して少なくとも1つの拡張室内空間イメージを生成してよい。例えば、図5の(b)において、非背景領域が取り除かれた白色で表現された部分を背景領域として確張してよい。
仮想空間モデル生成部720は、背景領域に含まれたエッジが非背景領域との境界線で断絶した場合にエッジの延長線が背景領域と非背景領域との境界線を越えて非背景領域に繋がるという推論に基づき、拡張されたイメージを生成してよい。
このとき、特定の室内空間イメージの他に1つ以上の室内空間イメージを背景の補完イメージとして指定し、特定の室内空間イメージの非背景領域に該当する領域を、背景の補完イメージの情報を利用して減らしてよい。
仮想空間モデル生成部720は、少なくとも1つの拡張された室内空間イメージと室内空間に関する深さ値の情報を含む地形情報に基づいて深さ−映像連携情報を生成してよい。深さ−映像連携情報は、少なくとも1つの拡張された室内空間イメージのピクセルに対応する室内空間の深さ値がマッチングされた情報であってよい。
仮想空間モデル生成部720は、少なくとも1つの拡張された室内空間イメージと地形情報の他にも、少なくとも1つの拡張された室内空間イメージと地形情報それぞれの取得位置、および取得角度に関する情報を含むイメージ取得ポーズと深さ取得ポーズをさらに利用して深さ−イメージ連携情報を生成してよい。
仮想空間モデル生成部720は、少なくとも1つの拡張された室内空間イメージ、地形情報、および深さ−映像連携情報を利用して現実の3次元空間に対する3次元仮想空間モデルを生成する。
仮想空間モデル提供部730は、ユーザポーズの推定が必要な場合、3次元空間に関する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを提供する。
このとき、ユーザポーズ推定は、ユーザデバイス610またはユーザポーズ推定装置620にインストールされたアプリケーションの実行後に行われてよい。仮想空間モデル提供部730は、ユーザデバイス610またはユーザポーズ推定装置620で実行中のアプリケーションまたは該当の装置の駆動システムに3次元仮想空間モデルを提供してよい。
制御部740は、少なくとも1つのプロセッサを含んでよい。このとき、制御部740は、命令語(instructions)またはプログラムが記録された少なくとも1つのコンピュータ読み取り可能なストレージ(one or more computer−readable storage media)と連結してよい。
したがって、制御部740は、3次元仮想空間モデル内でユーザ情報に対応する対応情報を生成し、対応情報とユーザ情報との類似度を算出し、類似度に基づいてユーザポーズを推定するように構成された少なくとも1つのプロセッサを含む。
一実施形態に係るユーザポーズ推定は、ディープラーニング(Deep Learning)またはニューラルネットワークを活用して3次元仮想空間モデルを学習することによって実行されてよい。
学習問題の形態に応じて強化学習(reinforcement learning)、教師あり学習(supervised learning)、教師なし学習(unsupervised learning)に分けられてよい。学習段階では膨大な量の訓練データ(training test)が必要となることがあり、訓練データは、映像情報が含まれたデータとそのデータが取得されたポーズが含まれたデータなどで構成されてよく、学習データの量を増加させるために前記2つの種類のデータにノイズ(noise)を追加して変形させて使用してもよい。畳み込みニューラルネットワーク(CNN)または多様なニューラルネットワークの全体または一部を使用してもよい。ディープラーニングの性能または速度向上のために、1つ以上のGPUを使用してもよく、並列演算を実行してもよい。ディープラーニングの結果はスカラー、ベクトル、確率などで表現されてよく、この結果を利用することにより、ユーザ情報が取得されたポーズとして予想されるユーザポーズを推定してよい。入力によってユーザ情報の映像情報を使用してよく、ユーザ付加情報をともに使用してよい。ユーザ付加情報をともに使用する場合、ニューラルネットワークにレイヤ(layer)を追加したり、関数を変化させたり、パラメータ数を調節したり、その値を変更したりしてよい。ニューラルネットワークを構成するために、パイソン、C言語、MATLAB(マトラボ)などや、これらの組み合わせからなるコンピュータ言語を使用してもよい。
ユーザ情報が順に取得される場合、3次元仮想空間モデルを基盤として粒子フィルタ(Particle Filter)、EKF.EIF、UKFなどの手法を活用してユーザポーズを推定してよい。ユーザ付加情報として慣性情報または距離情報が取得される場合、推定されたユーザポーズを補正してよい。順に取得されたユーザ情報によって粒子フィルタの値が特定のポーズとして収斂されてよく、このとき収斂された地点をユーザポーズとして推定してよい。ユーザポーズの推定時に加重値(Weight)を付加してよく、多数の収斂ポーズのうちからユーザポーズを決定してもよい。
ディープラーニングによって推定したポーズと粒子フィルタなどで推定されたポーズとを融合してユーザポーズを推定してよい。例えば、ディープラーニングで推定したポーズの周りで粒子フィルタを実行してユーザポーズを推定してよく、反対の方法として、粒子フィルタによって収斂されたポーズの周りでディープラーニングを利用してユーザポーズを推定してよい。ユーザポーズの推定時に加重値(Weight)を付加してよく、多数の収斂ポーズのうちからユーザポーズを決定してもよい。
類似度とは、3次元仮想空間モデルで生成した対応情報とユーザ情報との類似の程度を意味し、類似度が高いほど前記対応情報と前記ユーザ情報が類似すると見なしてよく、類似度が高い対応情報が生成された3次元仮想空間モデルのポーズをユーザ情報が取得されたユーザポーズとして推定してよい。類似度は、スカラー(scalar)、ベクトル(vector)、共分散行列(covariance matrix)などで表現されてよく、ユークリッド距離(euclidean distance)、マンハッタン距離(manhattan distance)、マハラノビス距離(mahalanobis distance)、構造的類似性(SSIM:structural similarity)、正規化情報距離(NID:normalized information distance)、最小平均2乗誤差推定(MMSE:Minimun Mean Square Error)、エントロピ(Entropy)などによって算出されてもよい。
類似度算出およびユーザポーズ推定について、図10を参照しながらより詳しく説明する。
このとき、3次元仮想空間モデルは、3次元空間に対する映像情報で3次元空間の構造と関連する背景領域と3次元空間に置かれた物体に該当する非背景領域とを区分し、背景領域で構築されたものであってよい。
ユーザ情報受信部750は、3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信する。
ユーザ情報は、映像情報が含まれた情報であって、1つ以上の映像測定装置を含み、深さ測定装置または付加装置などを利用して取得してよい。測定装置の視野角が狭くて十分なユーザ情報が取得されない場合、測定装置の回転、移動、またはこれを組み合わせてユーザ情報を取得してよい。ユーザ情報は、単一または複数の映像センサ(カメラ)によって取得してよく、ピンホール(pin−hole)モデルや魚眼レンズ、またはパノラマ形式で取得されてもよい。単一の映像情報、複数の映像情報、または順列の映像情報が取得されてよい。取得したユーザ情報を利用して映像情報、深さ情報、または深さ−映像連携情報などを構成してよい。
例えば、単一映像測定装置を使用すれば映像情報を取得することができ、順に取得された映像情報を使用すれば深さ情報を計算することができ、これにより深さ−映像連携情報を構成することができる。
例えば、複数の映像測定装置を使用すれば、各映像測定装置で取得された映像情報と映像測定装置との関係を活用して深さ情報を計算することができ、これにより深さ−映像連携情報を構成することができる。映像測定装置との関係は、映像測定装置間のキャリブレーション(Calibration)情報、または各映像測定装置で取得された映像情報間の変換情報(Homography matrix)であってよい。
例えば、少なくとも1つ以上の映像測定装置と少なくとも1つ以上の深さ測定装置を使用する場合、2つの装置間のキャリブレーション情報を利用して深さ−映像連携情報を構成してよい。ディープラーニング(Deep Learning)を活用して映像情報から深さ情報を抽出してもよい。ニューラルネットワークが構成されてよく、畳み込みニューラルネットワークが使用されてよい。学習および試験のために多数のデータが必要となることがあり、ニューラルネットワークは、線形関数、非線形関数、多数のレイヤなどで構成されてよく、ディープラーニングの結果は、確率、スカラー、ベクトルなどで表現されてよい。繰り返し学習が実行されてもよく、パラメータチューニングが必要となることもある。ディープラーニングによって抽出された深さ情報を活用して深さ−映像連携情報を構成してよい。映像情報を加工した、加工された映像情報を使用してもよく、例えば、イメージの明暗や彩度などを変化させたり、パノラマイメージを校正イメージ(Rectified Image)に変換させたりする作業が実行されてよい。
ユーザ情報要請部760は、追加のユーザ情報の取得が必要な場合、ユーザデバイス610に案内情報を送信してよい。案内情報については、図12を参照しながら詳しく説明する。
図8は、一実施形態における、ユーザデバイスの構成を説明するための図である。
図8を参照すると、ユーザデバイス610は、ユーザ情報生成部810、通信部820、および制御部830を備える。ユーザデバイス610は、ユーザとインタフェースするためのディスプレイ、入力手段、および出力手段を含むユーザインタフェース部840をさらに備えてよい。
ユーザ情報生成部810は、3次元空間に対する映像を含むユーザ情報を生成する。したがって、ユーザ情報生成部810は、映像測定装置および深さ測定装置のうちの少なくとも1つを含んでよい。
通信部820は、ユーザ情報をユーザポーズ推定サーバに送信し、3次元仮想空間モデルで推定されたユーザポーズに関する情報を前記サーバから受信する。
このとき、ユーザポーズ推定サーバは、図7に示したユーザポーズ推定装置620であってよく、ユーザポーズ推定サービスを提供する別のサーバであってもよい。
制御部830は、ユーザ情報生成部810および通信部820の動作を制御し、ユーザポーズに関する情報を現在実行中のアプリケーションまたは駆動システムに伝達するように構成された少なくとも1つのプロセッサを含む。
図9は、一実施形態における、ポーズの概念を説明するための例示図である。
3次元仮想空間モデルを構築するために使用される空間情報は、現実空間の一部ポーズで取得された不連続情報として考慮されてよい。ここで、ポーズ(pose)とは、位置(position)と方向(orientation)の両方を含む概念である。一例として、2次元において、ポーズは、測定装置の位置であるx、yと、測定装置の角度aとで表現されてよい。
図9に示した例は、横と縦が1mである正方形の平面で、測定装置がx軸、y軸に対して0〜1mの範囲で10cm間隔に移動し、回転角度は0〜360度の範囲で10度ずつ回転する例を示している。
このとき、可能な全体ポーズの場合の数は、11×11×37、すなわち4,477種類となる。同じように、3次元において、ポーズは、センサの位置であるx、y、zと、測定装置の角度ロール(roll)、ピッチ(pitch)、ヨー(yaw)で表現されてよい。
横、縦、高さが各1mである正六面体の空間で、センサがx軸、y軸、z軸に対して0〜1mの範囲で10cm間隔に動き、回転角度は0〜360度の範囲でそれぞれ10度ずつ回転すると仮定するとき、可能な全体ポーズの場合の数は11×11×11×37×37×19、すなわち、約3400万種類の場合の数が存在することになる。
測定装置の移動間隔と回転角度の間隔を減少させれば不連続情報を連続情報のように見せることはできるが、可能なポーズの数は幾何級数的に増加するはずであり、現実空間の体積は1mよりも極めて大きくなるため、可能なすべてのポーズで空間情報を取得することは現実的に不可能である。
このような理由により、空間情報を取得する段階では、現実空間を十分に含むことのできる一部のポーズでデータを取得し、前記取得された空間情報に基づいて深さ−映像連携情報を構成して3次元仮想空間モデルを構築することにより、一部のポーズで取得した空間情報を拡張させることができる。
3次元仮想空間モデルは、一部のポーズで取得された空間情報に基づいて構成されてよいが、空間情報から構成された深さ−映像連携情報を活用するため、3次元仮想空間モデル内のいかなるポーズでも、同一の現実空間内のポーズで取得された空間情報または構成された深さ−映像連携情報と類似する対応情報を生成することができる。
すなわち、空間情報が取得されないポーズであっても、3次元仮想空間モデルを使用すれば、該当のポーズでの深さ−映像連携情報または空間情報と類似の対応情報を生成することができ、前記生成された対応情報は、現実空間の同じポーズで取得した空間情報から構成された深さ−映像連携情報と類似すると考慮されてよい。3次元仮想空間モデルは、不連続情報である空間情報を連続情報である対応情報に変換させることができる。
図10は、一実施形態における、3次元空間に対するユーザポーズ推定方法を説明するためのフローチャートである。
図10に示した方法は、図7に示したユーザポーズ推定装置620によって実行されてよい。
段階S1010で、装置は、深さ測定装置および映像取得装置を利用して3次元空間に対する深さ情報および映像情報を含む空間情報を取得する。
段階S1020で、装置は、空間情報に基づいて深さ−映像連携情報を構成し、深さ−映像連携情報に基づいて3次元空間に対応する3次元仮想空間モデルを構築する。
段階S1030で、装置は、3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信する。このとき、ユーザ情報は、取得された映像に対応する空間の深さ情報をさらに含んでよい。
段階S1040で、装置は、3次元仮想空間モデル内でユーザ情報に対応する対応情報を生成する。
3次元仮想空間モデルを利用すれば、空間情報が取得されないポーズであっても、該当のポーズで取得された空間情報または深さ−映像連携情報と類似する対応情報を生成することができる。
対応情報は、深さ情報、映像情報、または深さ−映像連携情報で表現されてよい。3次元仮想空間モデル内で3自由度の基底ベクトルとして表現されるポーズで対応情報を生成してよい。
例えば、ユーザ情報取得ポーズの高さが変わらないのであれば、3次元仮想空間モデル内で2自由度の基底ベクトルによって表現されるポーズで対応情報を生成してよい。対応情報は、視野角、映像情報変換、深さ情報変換などの過程を経て生成されてもよい。
このとき、対応情報を生成する段階S1040は、ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分する段階、ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工する段階、および3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成する段階を含んでよい。
ユーザが3次元仮想空間モデルの背景となった現実空間でユーザ情報を取得するときの現実空間は、3次元仮想空間モデルを構成するために空間情報を取得した時点と等しくないことがあり、人物、事物、インテリアなどのような空間の様子が変わることがある。
したがって、ユーザ情報で背景部分と非背景部分とを区分してユーザ情報から非背景部分を取り除いてもよく、背景部分を使用してユーザ情報を変換させてよい。照明や光などによる効果を取り除くためにユーザ情報を加工して使用してよい。ユーザ情報を3次元空間モデルで生成した対応情報と比較する過程において、ユーザ情報または対応情報の形態を変換して比較してよい。
段階S1050で、装置は、対応情報とユーザ情報との類似度を算出する。
このとき、類似度を算出する段階は、類似度を高める方向に対応情報を再生成し、再生成された対応情報に基づいて類似度を再算出する段階を含んでよい。このとき、類似度を高める方向は、ユーザ情報を再取得したり、ユーザ情報に対応する対応情報を再生成したり、ユーザ情報の他に付加的な情報を使用したりすることを含む。
類似度を高めるために、類似度を算出する段階S1050は、ユーザ情報および対応情報を比較するための比較対象領域を抽出する段階、ユーザ情報から抽出された比較対象領域と対応情報から抽出された比較対象領域で共通領域を決定する段階、および共通領域に基づいてユーザ情報および対応情報をそれぞれ再生成する段階を含んでよい。
例えば、対応情報から構造の単純化によって歪曲した領域などのような所定の基準による一定の領域を取り除き、ユーザ情報の非背景部分に対応する領域を取り除くことにより、比較過程に使用される対応情報を再生成してよい。また、ユーザ情報で、非背景部分とともに、対応情報の歪曲した領域などに該当する領域を取り除くことにより、比較過程に使用されるユーザ情報を再生成してよい。
3次元仮想空間モデルで生成された対応情報とユーザが取得したユーザ情報との類似性を計算する方法は、対応情報の映像情報とユーザ情報の映像情報とを比較する方法、対応情報の深さ情報とユーザ情報の深さ情報とを比較する方法、または深さ−映像連携情報を比較する方法などであってよい。
このとき、対応情報とユーザ情報の大きさ(scale)が異なることがあるため、正規化(Normalization)が要求されたり、相対的な比較が必要となることもある。
一方、映像情報の比較は、各映像情報の形式に類似するようにするための映像情報の変換が必要となることがある。例えば、パノラマイメージ(Panorama Image)と補正イメージ(Rectified image)との変換があってよく、映像情報の大きさを正規化してよく、視野角の変換があってよい。
これとは反対に、停留するイメージをパノラマ形式に変形させて使用することも可能である。2つの映像情報から、RANSAC、SIFT、FAST、SURFなどの手法、あるいはこれらの組み合わせを利用して映像情報の特徴点(Feature)を見つけ出し、類似する特徴点のペアを連結してよい。特徴点は、エッジ(Edge)、直線、線分、コーナー(Corner)、円、楕円など、またはこれらの組み合わせであってよく、大きさ(scale)、回転(rotation)などが異なってよい。特徴点マッチング(Feature Matching)、SSIM(Structural Similarity)、NID(Normalized Information Distance)、ホモグラフィ行列(Homography Matrix)などの手法によって映像情報の類似度を計算してよい。
特徴点マッチングによって結ばれた多数のピクセル座標を使用してホモグラフィ行列を計算してよく、これを利用して2つのイメージ情報の差(誤差、error)を計算してよい。SSIMは2つのイメージの類似度を計算する方法であり、NIDは確率的な計算法である。
ユーザ情報から深さ情報を抽出することができる場合、対応情報の深さ情報との類似度を比較してよい。深さ情報は、3次元点群情報(PCD:Point Cloud Data)、深さ地図(Depth Map)、メッシュ(Mesh)などで表現されてよく、2つの深さ情報の形式を統一する過程を必要としてもよい。深さ情報は、ピクセル間(ポイントあたり)が比較されてよく、周辺領域を考慮して比較してもよい。内挿法(interpolation)によって深さ情報を新たに推定し比較してもよく、加重値を付加して算出してもよい。
ユーザ情報で深さ−映像連携情報が構成可能な場合、対応情報の深さ−映像連携情報と比較してよい。深さ情報と映像情報をそれぞれ比較して各類似度を算出し、全体類似度を算出してよく、各類似度に加重値を与えて算出してよい。また、深さ−映像連携情報を複合的に比較してよく、深さ情報と映像情報の類似度を算出する方法を組み合わせて実行されてよい。
3次元仮想空間モデルを構築するための空間情報が取得された時点とユーザ情報が取得された時点とが異なることがあるため、同一のポーズであっても、対応情報とユーザ情報が異なることがある。したがって、対応情報とユーザ情報で強靭な特徴点を比較してよい。例えば、対応情報とユーザ情報で背景部分と非背景部分とを区分し、背景部分を使用して類似度を算出してよく、背景部分を利用して構築された3次元仮想空間モデルで対応情報を生成してユーザ情報の背景部分との類似度を算出してよい。対応情報とユーザ情報から照明または光に対する光源効果を取り除いて類似度を算出してよく、光源効果に強靭な特徴を比較して類似度を算出してよい。
このとき、類似度を算出する段階S1050は、ユーザデバイス周辺に対する追加のユーザ情報を取得する段階、およびユーザ情報および追加のユーザ情報に基づいて類似度を算出する段階を含んでよい。追加のユーザ情報を取得するために、図12に示すように案内情報を利用してよい。
段階S1060で、装置は、類似度が予め設定された値以上である候補対応情報を確認し、前記候補対応情報にマッチングされるポーズをユーザポーズとして推定する。
類似度が高いほど、対応情報が生成された3次元仮想空間モデルのポーズとユーザ情報が取得されたポーズが同じであると考慮されてよい。または、類似度が基準値(threshold)よりも高ければ、2つのデータが取得されて再構成されたポーズはほぼ同じであると見なしてよく、基準値は現実空間の環境によって異なってよい。または、多数の候補ポーズで生成された対応情報のうち、ユーザポーズと類似度が最も高いかいずれかの判断方式によって選択されたポーズが、ユーザポーズとして考慮されてもよい。
対応情報生成、類似度計算段階を1度だけ実行してユーザポーズを推定してもよく、繰り返し実行してもよい。繰り返し実行は、選ばれたポーズの周りで精密に再推定してもよく、全体領域に対して無作為(random)に再推定してもよく、加重値を付加して再推定する新たなポーズを選択してもよい。このような段階は、定められた回数だけが繰り返されてもよく、類似度が基準値以上であるか、繰り返されて推定されたポーズが収斂されるまで繰り返してもよい。類似度が高まるように最適化技法(Optimization)が利用されてもよい。
類似度が高まるように対応情報を再生成してもよく、再生成された対応情報は、既存の対応情報が生成されたポーズと類似度との関係によってユーザポーズとして予想されるポーズで再生成されてよい。対応情報の再生成後に類似度を算出し、必要な場合には対応情報再生成および類似度算出過程を繰り返してよい。
慣性情報および距離情報などのユーザ付加情報を使用することで類似度が高まるようになるため、期待されるポーズで対応情報を生成および再生成してよい。以後、対応情報とユーザ情報との類似度を算出し、必要な場合にはユーザ付加情報を活用して対応情報を再生成して類似度算出過程を繰り返してよい。
このとき、ユーザ付加情報は、ユーザが取得した映像情報の他に、ユーザポーズの推定をサポートする情報であって、慣性情報(IMU)、距離情報(odometry)などで構成されてよい。一例として、慣性測定装置によって慣性情報の取得が可能な場合に、映像情報の処理時に映像取得ポーズに対する推定(prediction)情報として使用することにより、映像取得ポーズに対する補正(correction)をより容易に行うことができる。
したがって、類似度を算出する段階S1050またはユーザポーズを推定する段階S1060は、ユーザデバイスによって前記ユーザポーズの推定に利用される付加的な情報であるユーザ付加情報が取得される場合、前記ユーザ情報または前記追加のユーザ情報とともに、前記ユーザ付加情報を利用して前記ユーザポーズを推定することを含んでよい。
このとき、慣性情報の加速度値あるいは角速度値を活用して実際の移動距離を予想してよく、これを単一あるいは複数の映像測定装置から抽出された深さ情報の大きさ(scale)を補正するのに活用してもよい。
距離情報は、ユーザが取得した映像情報に基づいて構成されたVO(Visual Odometry)、VIO(Visual Inertial Odometry)を活用して予測した距離情報であってよく、タイヤ型移動ロボットに測定装置を装着してユーザ情報を取得する場合、距離情報は、移動ロボットの距離情報となってよい。これにより、慣性情報を活用すれば、前記方法によって抽出された距離情報を補正するのに活用することが可能となる。
ユーザの代わりにタイヤ型移動ロボットにセンサを装着してユーザ情報を取得する場合、ユーザが移動ロボットを操縦してもよく、移動ロボットが自律走行してもよく、この2つの組み合わせによってユーザ情報を取得してよい。移動ロボットポーズをユーザポーズとして考慮してよく、移動ロボットとユーザ視野との座標変換関係が認知されていたり、座標変換が可能であれば、移動ロボットポーズをユーザポーズに変換させることが可能となる。
移動ロボットは、映像が含まれたユーザ情報だけでなく、モバイルロボットの距離情報(odometry)をユーザ付加情報として取得してよい。距離情報を活用してユーザポーズを補正してよい。順に取得した距離情報を活用して移動ロボットの相対予想ポーズを予測してよく、EKF、EIF、UKFなどの手法または類似の方法を活用して共分散行列(Covariance matrix)などの情報を計算してよく、この情報を更新してユーザポーズを補正してよい。
移動ロボットを利用する場合、移動ロボットの動作、運転、操縦、移動、データ取得、記録、および処理など関連アルゴリズムは、ロボットオペレーティングシステム(ROS:robot operating system)上で実行されてよい。
空間情報、深さ−映像連携情報、3次元仮想空間モデル、ユーザ情報、ユーザ付加情報などは、外部のサーバ(Server)に記録されて処理されてよい。
空間情報の取得と同時に深さ−映像連携情報が構成されて3次元仮想空間モデルが構築されてよく、ユーザ情報の取得と同時にユーザポーズをリアルタイムで推定してもよく、遅延(Latency)を発生させてもよく、ユーザポーズの取得が完了した後に処理されてもよい。
3次元仮想空間モデルが構築されていれば、追加空間情報を取得しなくてもよく、一部の空間に対して追加空間情報が取得されてよい。追加空間情報が取得されなかった場合には構築された3次元仮想空間モデルを使用してよく、追加空間情報が取得された場合には、構築された3次元仮想空間モデルの部分または全体を更新して再構築して使用してよい。
ユーザ情報を先に取得した後に空間情報を取得して3次元仮想空間モデルを構築してユーザポーズを推定してもよく、3次元仮想空間モデルを構築するための空間情報を先に取得した後にユーザ情報を取得してユーザポーズを推定してよい。
本発明は、センサシステムとコンピュータとが融合されたシステムで実行されてもよいし、独立的なセンサシステムとコンピュータで実行されてもよい。
ユーザ情報の取得時に、各測定装置のポーズとユーザセンサシステム全体のポーズとが異なることがあるが、各測定装置およびセンサシステムの座標変換関係を利用して変換が可能である。例えば、ユーザセンサシステムの中心または適切な位置をユーザポーズとして仮定したり、ユーザセンサシステムを基準にユーザポーズとして仮定したりしてよい。この場合、必要なキャリブレーション情報またはユーザセンサシステムからユーザポーズまでの相対ポーズを認知しているか、いずれかの値で仮定してよい。
図11は、他の実施形態における、3次元空間に対するユーザポーズ推定方法を説明するためのフローチャートである。
図11に示した方法は、図7に示したユーザポーズ推定装置620によって実行されてよい。
段階1110で、装置は、3次元空間で取得された映像を含むユーザ情報を受信する。
段階1120で、装置は、3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを確認する。このとき、3次元仮想空間モデルは、図7の仮想空間モデル提供部730によって提供されてよい。
段階1130で、装置は、3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する。
段階S1140で、装置は、対応情報と前記ユーザ情報との類似度を算出する。
段階S1150で、装置は、類似度に基づいてユーザポーズを推定する。このとき、ユーザポーズは、例えば、ユーザ情報との類似度が最も高い対応情報のポーズであってよい。
図12は、一実施形態における、追加のユーザポーズ取得方法の例を説明するための図である。
類似度を向上させるために追加のユーザ情報を取得してよく、3次元仮想空間モデルを活用して追加のユーザ情報取得ポーズをユーザに案内してよく、ユーザは、案内されたポーズで追加のユーザ情報を取得してよい。
したがって、図10の説明において、追加のユーザ情報を取得する段階は、3次元仮想空間モデルに基づいて追加のユーザ情報取得のための案内情報をユーザデバイス610に送信することを含んでよい。
このとき、案内情報は、3次元仮想空間モデル内の予め設定された特徴点に対するユーザ情報取得ポーズを含み、追加のユーザ情報を取得する段階は、類似度を高める方向に繰り返し実行されてよい。
例えば、図12に示すように、類似の環境が多い長い廊下の場合、3次元仮想空間モデルで特徴点を考慮して追加のユーザ情報取得ポーズを案内してよい。
図12で、追加のユーザ情報取得ポーズは、特徴点1、2、3に対して順に映像を取得するポーズであるか、特徴点1、2、3のうちのいずれか1つに対するポーズであってよい。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)および前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでもよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ格納媒体または装置、または伝送される信号波に永久的または一時的に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。前記コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであっても、コンピュータソフトウェアの当業者に公知な使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピーディスク、および磁気テープのような磁気媒体、CD−ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。上述したハードウェア装置は、実施形態の動作を実行するために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同じである。
以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (25)

  1. 深さ測定装置および映像取得装置を利用して3次元空間に対する深さ情報および映像情報を含む空間情報を取得する段階、
    前記空間情報に基づいて深さ−映像連携情報を構成し、前記深さ−映像連携情報に基づいて前記3次元空間に対応する3次元仮想空間モデルを構築する段階、
    前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信する段階、
    前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する段階、
    前記対応情報と前記ユーザ情報との類似度を算出する段階、および
    前記類似度に基づいてユーザポーズを推定する段階
    を含む、3次元空間に対するユーザポーズ推定方法。
  2. 前記3次元仮想空間モデルを構築する段階は、
    前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して前記3次元仮想空間モデルを構築することを特徴とする、
    請求項1に記載の3次元空間に対するユーザポーズ推定方法。
  3. 前記対応情報を生成する段階は、
    前記ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分する段階、
    前記ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工する段階、および
    前記3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成する段階
    を含む、請求項1に記載の3次元空間に対するユーザポーズ推定方法。
  4. 前記類似度を算出する段階は、
    前記類似度を高める方向に前記対応情報を再生成する段階、および
    再生成された対応情報に基づいて類似度を再算出する段階
    を含む、請求項1に記載の3次元空間に対するユーザポーズ推定方法。
  5. 前記類似度を算出する段階は、
    前記ユーザ情報および前記対応情報を比較するための比較対象領域を抽出する段階、
    前記ユーザ情報から抽出された比較対象領域と前記対応情報から抽出された比較対象領域で共通領域を決定する段階、および
    前記共通領域に基づいて前記ユーザ情報および前記対応情報をそれぞれ再生成する段階
    を含む、請求項1に記載の3次元空間に対するユーザポーズ推定方法。
  6. 前記類似度を算出する段階は、
    前記ユーザデバイス周辺に対する追加のユーザ情報を取得する段階、および
    前記ユーザ情報および追加のユーザ情報に基づいて類似度を算出する段階
    を含む、請求項1に記載の3次元空間に対するユーザポーズ推定方法。
  7. 前記ユーザポーズを推定する段階は、
    前記ユーザデバイスによって前記ユーザポーズの推定に利用される付加的な情報であるユーザ付加情報が取得される場合、前記ユーザ情報または前記追加のユーザ情報とともに、前記ユーザ付加情報を利用して前記ユーザポーズを推定することを含む、
    請求項6に記載の3次元空間に対するユーザポーズ推定方法。
  8. 前記追加のユーザ情報を取得する段階は、
    前記3次元仮想空間モデルに基づいて追加のユーザ情報取得のための案内情報を前記ユーザデバイスに送信することを含む、
    請求項6に記載の3次元空間に対するユーザポーズ推定方法。
  9. 前記案内情報は、前記3次元仮想空間モデル内の予め設定された特徴点に対するユーザ情報取得ポーズを含み、
    前記追加のユーザ情報を取得する段階は、前記類似度を高める方向に繰り返し実行されることを特徴とする、
    請求項8に記載の3次元空間に対するユーザポーズ推定方法。
  10. 3次元空間に対するユーザの位置(position)および方向(orientation)情報を含むユーザポーズを推定する方法であって、
    前記3次元空間で取得された映像を含むユーザ情報を受信する段階、
    前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを確認する段階、
    前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成する段階、
    前記対応情報と前記ユーザ情報との類似度を算出する段階、および
    前記類似度に基づいてユーザポーズを推定する段階
    を含む、3次元空間に対するユーザポーズ推定方法。
  11. 前記3次元仮想空間モデルは、前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して構築されたものであることを特徴とする、
    請求項10に記載の3次元空間に対するユーザポーズ推定方法。
  12. 前記対応情報を生成する段階は、
    前記ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分する段階、
    前記ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工する段階、および
    前記3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成する段階
    を含む、請求項10に記載の3次元空間に対するユーザポーズ推定方法。
  13. 前記類似度を算出する段階は、
    前記類似度を高める方向に前記対応情報を再生成する段階、および
    再生成された対応情報に基づいて類似度を再算出する段階
    を含む、請求項10に記載の3次元空間に対するユーザポーズ推定方法。
  14. 前記類似度を算出する段階は、
    前記ユーザ情報および前記対応情報を比較するための比較対象領域を抽出する段階、
    前記ユーザ情報から抽出された比較対象領域と前記対応情報から抽出された比較対象領域で共通領域を決定する段階、および
    前記共通領域に基づいて前記ユーザ情報および前記対応情報をそれぞれ再生成する段階
    を含む、請求項10に記載の3次元空間に対するユーザポーズ推定方法。
  15. 前記類似度を算出する段階は、
    ユーザデバイス周辺に対する追加のユーザ情報を取得する段階、および
    前記ユーザ情報および追加のユーザ情報に基づいて類似度を算出する段階
    を含む、請求項10に記載の3次元空間に対するユーザポーズ推定方法。
  16. 前記ユーザポーズを推定する段階は、
    前記ユーザデバイスによって前記ユーザポーズの推定に利用される付加的な情報であるユーザ付加情報が取得される場合、前記ユーザ情報または前記追加のユーザ情報とともに、前記ユーザ付加情報を利用して前記ユーザポーズを推定することを含む、
    請求項15に記載の3次元空間に対するユーザポーズ推定方法。
  17. 前記追加のユーザ情報を取得する段階は、
    前記3次元仮想空間モデルに基づいて追加のユーザ情報取得のための案内情報を前記ユーザデバイスに送信することを含む、
    請求項15に記載の3次元空間に対するユーザポーズ推定方法。
  18. 前記案内情報は、前記3次元仮想空間モデル内の予め設定された特徴点に対するユーザ情報取得ポーズを含み、
    前記追加のユーザ情報を取得する段階は、前記類似度を高める方向に繰り返し実行されることを特徴とする、
    請求項17に記載の3次元空間に対するユーザポーズ推定方法。
  19. 3次元空間に対する深さ情報および映像情報を含む空間情報を取得する空間情報取得部、
    前記空間情報に基づいて深さ−映像連携情報を構成し、前記深さ−映像連携情報に基づいて前記3次元空間に対応する3次元仮想空間モデルを生成する仮想空間モデル生成部、
    前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信するユーザ情報受信部、および
    前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成し、前記対応情報と前記ユーザ情報との類似度を算出し、前記類似度に基づいて前記ユーザポーズを推定するように構成された少なくとも1つのプロセッサを含む制御部
    を備える、3次元空間に対するユーザポーズ推定装置。
  20. 前記仮想空間モデル生成部は、
    前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して前記3次元仮想空間モデルを構築することを特徴とする、
    請求項19に記載の3次元空間に対するユーザポーズ推定装置。
  21. 前記制御部は、
    前記ユーザ情報に含まれた映像で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記ユーザ情報に含まれた映像の背景領域を利用して前記ユーザ情報を加工し、前記3次元仮想空間モデル内で加工されたユーザ情報に対応する対応情報を生成する、
    請求項19に記載の3次元空間に対するユーザポーズ推定装置。
  22. 3次元空間に対するユーザの位置(position)および方向(orientation)情報を含むユーザポーズを推定する装置であって、
    前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて構築された3次元仮想空間モデルを提供する仮想空間モデル提供部、
    前記3次元空間でユーザデバイスによって取得された映像を含むユーザ情報を受信するユーザ情報受信部、および
    前記3次元仮想空間モデル内で前記ユーザ情報に対応する対応情報を生成し、前記対応情報と前記ユーザ情報との類似度を算出し、前記類似度に基づいて前記ユーザポーズを推定するように構成された少なくとも1つのプロセッサを含む制御部
    を備える、3次元空間に対するユーザポーズ推定装置。
  23. 前記3次元仮想空間モデルは、前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して構築されたものであることを特徴とする、
    請求項22に記載の3次元空間に対するユーザポーズ推定装置。
  24. 3次元空間に対する映像を含むユーザ情報を生成するユーザ情報生成部、
    前記ユーザ情報をユーザポーズ推定サーバに送信し、3次元仮想空間モデルで推定されたユーザポーズに関する情報を前記サーバから受信する通信部、および
    前記ユーザ情報生成部および通信部の動作を制御し、前記ユーザポーズに関する情報を現在実行中のアプリケーションまたは駆動システムに伝達するように構成された少なくとも1つのプロセッサを含む制御部
    を備える、3次元空間に対するユーザポーズ推定装置。
  25. 前記3次元仮想空間モデルは、前記3次元空間に対する深さ情報および映像情報を含む空間情報に基づいて生成され、前記3次元空間に対する映像情報で前記3次元空間の構造と関連する背景領域と前記3次元空間に置かれた物体に該当する非背景領域とを区分し、前記背景領域を利用して構築されたものであることを特徴とする、
    請求項24に記載の3次元空間に対するユーザポーズ推定装置。
JP2020548924A 2019-06-14 2020-04-07 3次元仮想空間モデルを利用したユーザポーズ推定方法および装置 Active JP7138361B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2019-0070829 2019-06-14
KR20190070829 2019-06-14
KR10-2020-0039564 2020-04-01
KR1020200039564A KR102387797B1 (ko) 2019-06-14 2020-04-01 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
PCT/KR2020/004685 WO2020251151A1 (ko) 2019-06-14 2020-04-07 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2021531524A true JP2021531524A (ja) 2021-11-18
JP7138361B2 JP7138361B2 (ja) 2022-09-16

Family

ID=74088946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020548924A Active JP7138361B2 (ja) 2019-06-14 2020-04-07 3次元仮想空間モデルを利用したユーザポーズ推定方法および装置

Country Status (2)

Country Link
JP (1) JP7138361B2 (ja)
KR (1) KR102387797B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114800504A (zh) * 2022-04-26 2022-07-29 平安普惠企业管理有限公司 机器人位姿分析方法、装置、设备及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743237B (zh) * 2021-08-11 2023-06-02 北京奇艺世纪科技有限公司 跟随动作的准确度判定方法、装置、电子设备及存储介质
KR102491025B1 (ko) * 2022-02-25 2023-01-20 (주)어나더리얼 학습용 데이터셋을 생성하기 위한 방법
KR102580181B1 (ko) * 2022-10-18 2023-09-18 목포해양대학교 산학협력단 3d 시각화 정보 생성 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095553A (ja) * 2012-11-07 2014-05-22 Nippon Telegr & Teleph Corp <Ntt> カメラポーズ推定装置、及びカメラポーズ推定プログラム
JP2016194779A (ja) * 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
KR20170008505A (ko) * 2015-07-14 2017-01-24 서울대학교산학협력단 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템
KR20170012316A (ko) * 2014-05-30 2017-02-02 옥스포드 유니버시티 이노베이션 리미티드 차량 위치결정 방법
JP2018504663A (ja) * 2014-12-05 2018-02-15 マイフィジーク リミテッド ボディの画像化
KR101835434B1 (ko) * 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
WO2018235219A1 (ja) * 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095553A (ja) * 2012-11-07 2014-05-22 Nippon Telegr & Teleph Corp <Ntt> カメラポーズ推定装置、及びカメラポーズ推定プログラム
KR20170012316A (ko) * 2014-05-30 2017-02-02 옥스포드 유니버시티 이노베이션 리미티드 차량 위치결정 방법
JP2018504663A (ja) * 2014-12-05 2018-02-15 マイフィジーク リミテッド ボディの画像化
JP2016194779A (ja) * 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
KR101835434B1 (ko) * 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
JP2018528509A (ja) * 2015-07-08 2018-09-27 コリア ユニバーシティ リサーチ アンド ビジネス ファウンデーションKorea University Research And Business Foundation 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
KR20170008505A (ko) * 2015-07-14 2017-01-24 서울대학교산학협력단 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템
WO2018235219A1 (ja) * 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大江統子等: "幾何学的位置合わせのための自然特徴点ランドマークデータベースを用いたカメラ位置・姿勢推定", 日本バーチャルリアリティ学会論文誌, vol. 2005年10巻3号, JPN7021005290, JP, pages 285 - 294, ISSN: 0004657746 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114800504A (zh) * 2022-04-26 2022-07-29 平安普惠企业管理有限公司 机器人位姿分析方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR20200143228A (ko) 2020-12-23
KR102387797B1 (ko) 2022-04-19
JP7138361B2 (ja) 2022-09-16

Similar Documents

Publication Publication Date Title
US20220237885A1 (en) Systems and methods for extracting information about objects from scene information
Lin et al. Autonomous aerial navigation using monocular visual‐inertial fusion
KR102334641B1 (ko) 자율 주행 차량을 위한 맵 파티셔닝 시스템
US10991156B2 (en) Multi-modal data fusion for enhanced 3D perception for platforms
JP7138361B2 (ja) 3次元仮想空間モデルを利用したユーザポーズ推定方法および装置
JP6896077B2 (ja) 車両自動パーキングシステム及び方法
US11313684B2 (en) Collaborative navigation and mapping
EP3552147A1 (en) System and method for semantic simultaneous localization and mapping of static and dynamic objects
Chen et al. 3d point cloud processing and learning for autonomous driving
CN111094895A (zh) 用于在预构建的视觉地图中进行鲁棒自重新定位的系统和方法
KR20210022016A (ko) 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템
AU2019233778A1 (en) Urban environment labelling
Ishihara et al. Deep radio-visual localization
Sheikh et al. Stereo vision-based optimal path planning with stochastic maps for mobile robot navigation
Al-Muteb et al. An autonomous stereovision-based navigation system (ASNS) for mobile robots
US20210256245A1 (en) Real-time multi-view detection of objects in multi-camera environments
US11328182B2 (en) Three-dimensional map inconsistency detection using neural network
US11915449B2 (en) Method and apparatus for estimating user pose using three-dimensional virtual space model
Abdulov et al. Visual odometry approaches to autonomous navigation for multicopter model in virtual indoor environment
Liu et al. Semi-dense visual-inertial odometry and mapping for computationally constrained platforms
Konomura et al. Visual 3D self localization with 8 gram circuit board for very compact and fully autonomous unmanned aerial vehicles
US20230080638A1 (en) Systems and methods for self-supervised learning of camera intrinsic parameters from a sequence of images
JP2021099384A (ja) 情報処理装置、情報処理方法およびプログラム
Pal et al. Evolution of Simultaneous Localization and Mapping Framework for Autonomous Robotics—A Comprehensive Review
KR102339472B1 (ko) 3차원 공간 모델 생성 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220830

R150 Certificate of patent or registration of utility model

Ref document number: 7138361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150