JP7161550B2 - 関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 - Google Patents

関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Download PDF

Info

Publication number
JP7161550B2
JP7161550B2 JP2020564363A JP2020564363A JP7161550B2 JP 7161550 B2 JP7161550 B2 JP 7161550B2 JP 2020564363 A JP2020564363 A JP 2020564363A JP 2020564363 A JP2020564363 A JP 2020564363A JP 7161550 B2 JP7161550 B2 JP 7161550B2
Authority
JP
Japan
Prior art keywords
interest
image
candidate
module
image module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020564363A
Other languages
English (en)
Other versions
JP2021523488A (ja
Inventor
ジョン キム ソク
ハン ジュン ジク
Original Assignee
ブイタッチ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブイタッチ・カンパニー・リミテッド filed Critical ブイタッチ・カンパニー・リミテッド
Publication of JP2021523488A publication Critical patent/JP2021523488A/ja
Application granted granted Critical
Publication of JP7161550B2 publication Critical patent/JP7161550B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体に関する。
最近、拡張現実(AR:Augmented Reality)や仮想現実(VR:Virtual Reality)に関する関心が高まり関連技術分野の研究開発が活発に進行されるにつれて、客体の空間座標を獲得する多様な技術が紹介されている。
これに関する従来技術の一例として、時間遅延測定法(TOF;Time of Flight)を利用して使用者の身体の3次元座標を測定する3次元座標測定装置が紹介されたことがある。
しかし、前記のような従来技術をはじめとしてこれまで紹介された技術によると、客体の空間座標を獲得するために、(1)一つの3次元カメラを利用する場合、客体が存在する位置や方向によっては該当カメラによって見えない領域が発生し得、(2)二以上の3次元カメラを利用する場合、望む領域の空間座標を算出するために望む領域の座標だけを伝送してもらうのではなく、それぞれのカメラから望む領域とその周辺領域を含む全体イメージ(またはそれに該当する全体座標)を伝送してもらい、その伝送してもらったイメージを統合してすべての領域の空間座標を算出した後でないと望む領域の空間座標を算出することができなかったため、過度なリソースおよび多くの時間が要求される問題があった。
そこで、本発明者は、複数の映像モジュールによって撮影されたイメージに含まれた関心領域のイメージ内座標に関する情報を伝送してもらい、その伝送してもらった情報を利用して該当関心領域の空間座標だけを選別的に算出できる技術を提案するところである。
本発明は、前述した従来技術の問題点をすべて解決することをその目的とする。
また、本発明は、複数の映像モジュールによって撮影されたイメージそのものを獲得するのではなく、そのイメージに含まれた関心領域のイメージ内座標に関する情報のみを獲得して該当関心領域の基準空間での座標を算出することをさらに他の目的とする。
また、本発明は、複数の映像モジュールによって撮影されたイメージそのものを獲得するのではなく、そのイメージに含まれた関心領域のイメージ内座標に関する情報のみを選別的に収集することによって、ハッキングなどによるプライバシー(privacy)侵害問題の発生を遮断することをさらに他の目的とする。
また、本発明は、少ないリソースを利用して関心領域の基準空間での座標を算出することをさらに他の目的とする。
前記目的を達成するための本発明の代表的な構成は次の通りである。
本発明の一態様によると、関心領域の空間座標を算出する方法であって、複数の映像モジュールによってそれぞれ撮影される複数のイメージ内に含まれる関心領域のイメージ内座標に関する情報をそれぞれ獲得する段階、前記複数の映像モジュールのうち少なくとも一つの映像モジュールが設置された位置に関する情報および前記少なくとも一つの映像モジュールによって撮影されるイメージ内に含まれるターゲット関心領域のイメージ内座標に関する情報を参照して、基準空間上で前記ターゲット関心領域が存在する位置を含む候補図形を特定する段階、および第1映像モジュールに対応する前記ターゲット関心領域の第1候補図形および第2映像モジュールに対応する前記ターゲット関心領域の第2候補図形の間の位置関係を参照して、前記基準空間上で前記ターゲット関心領域が存在する位置を特定する段階を含む方法が提供される。
本発明の他の態様によると、関心領域の空間座標を算出するシステムであって、複数の映像モジュールによってそれぞれ撮影される複数のイメージ内に含まれる関心領域のイメージ内座標に関する情報をそれぞれ獲得する情報獲得部、および前記複数の映像モジュールのうち少なくとも一つの映像モジュールが設置された位置に関する情報および前記少なくとも一つの映像モジュールによって撮影されるイメージ内に含まれるターゲット関心領域のイメージ内座標に関する情報を参照して、基準空間上で前記ターゲット関心領域が存在する位置を含む候補図形を特定し、第1映像モジュールに対応する前記ターゲット関心領域の第1候補図形および第2映像モジュールに対応する前記ターゲット関心領域の第2候補図形の間の位置関係を参照して、前記基準空間上で前記ターゲット関心領域が存在する位置を特定する空間座標算出部を含むシステムが提供される。
この他にも、本発明を具現するための他の方法、他のシステムおよび前記方法を実行するためのコンピュータプログラムを記録する非一過性のコンピュータ読み取り可能な記録媒体がさらに提供される。
本発明によると、複数の映像モジュールによって撮影されたイメージそのものを獲得するのではなく、そのイメージに含まれた関心領域のイメージ内座標に関する情報のみを獲得して該当関心領域の基準空間での座標を算出できる。
本発明によると、複数の映像モジュールによって撮影されたイメージそのものを獲得するのではなく、そのイメージに含まれた関心領域のイメージ内座標に関する情報のみを選別的に収集することによって、ハッキングなどによるプライバシー(privacy)侵害問題の発生を遮断できる。
また、本発明によると、少ないリソースを利用して関心領域の基準空間での座標を算出することができる。
本発明の一実施例に係る関心領域の空間座標を算出するための全体システムの概略的な構成を示す図面である。 本発明の一実施例に係る位置算出システムの内部構成を詳細に図示する図面である。 本発明の一実施例に係る基準空間でターゲット関心領域が存在する位置が特定される過程を例示的に示す図面である。 本発明の一実施例により映像モジュールの解像度を考慮して基準空間でターゲット関心領域が存在する位置が特定される過程を例示的に示す図面である。 本発明の一実施例により候補図形間のマッチング関係を特定する過程を例示的に示す図面である。 本発明の一実施例により候補図形間のマッチング関係を特定する過程を例示的に示す図面である。 本発明の一実施例により候補図形間のマッチング関係を特定する過程を例示的に示す図面である。 本発明の一実施例により候補図形間のマッチング関係を特定する過程を例示的に示す図面である。 本発明の一実施例により候補図形間のマッチング関係を特定する過程を例示的に示す図面である。 本発明の一実施例により複数の映像モジュール間の位置関係を特定する過程を例示的に示す図面である。 本発明の一実施例に係る位置算出システムによって関心領域の空間座標が算出される過程を例示的に示す図面である。 本発明の一実施例により客体の物理的な数値に関する情報を利用して複数の映像モジュールの位置を特定する過程を例示的に示す図面である。
後述する本発明についての詳細な説明は、本発明が実施され得る特定の実施例を例示として図示する添付図面を参照する。このような実施例は当業者が本発明を十分に実施できるように詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、本明細書に記載されている特定の形状、構造および特性は本発明の精神と範囲を逸脱することなく一実施例から他の実施例に変更されて具現され得る。また、それぞれの実施例内の個別構成要素の位置または配置も本発明の精神と範囲を逸脱することなく変更され得ることが理解されるべきである。したがって、後述する詳細な説明は限定的な意味で行われるものではなく、本発明の範囲は特許請求の範囲の請求項が請求する範囲およびそれと均等なすべての範囲を包括するものと理解されるべきである。図面で類似する参照符号は多様な側面にわたって同一または類似する構成要素を示す。
以下では、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の多様な好ましい実施例に関して添付された図面を参照して詳細に説明する。
全体システムの構成
図1は、本発明の一実施例に係る関心領域の空間座標を算出するための全体システムの概略的な構成を示す図面である。
図1に図示された通り、本発明の一実施例に係る全体システムは通信網100、位置算出システム200および複数の映像モジュール300を含んで構成され得る。
まず、本発明の一実施例に係る通信網100は有線通信や無線通信のような通信様態にかかわらず構成され得、近距離通信網(LAN;Local Area Network)、都市圏通信網(MAN;Metropolitan Area Network)、広域通信網(WAN;Wide Area Network)などの多様な通信網で構成され得る。好ましくは、本明細書で言う通信網100は公知のインターネットまたはワールドワイドウェブ(WWW;World Wide Web)であり得る。しかし、通信網100は、これに限定されず、公知の有無線データ通信網、公知の電話網または公知の有無線テレビ通信網をその少なくとも一部において含んでもよい。
例えば、通信網100は無線データ通信網であって、無線周波数(RF;Radio Frequency)通信、Wi-Fi(WiFi)通信、セルラー(LTEなど)通信、ブルートゥース通信(さらに具体的には、低電力ブルートゥース(登録商標)(BLE;BLUETOOTH(登録商標) Low Energy))、赤外線通信、超音波通信などのような従来の通信方法を少なくともその一部分において具現してもよい。
次に、本発明の一実施例に係る位置算出システム200はメモリ手段を具備しマイクロ・プロセッサを搭載して演算能力を備えたデジタルデバイスであり得る。このような位置算出システム200はサーバーシステムであり得る。
本発明の一実施例によると、位置算出システム200は、後述する複数の映像モジュール300によってそれぞれ撮影される複数のイメージ内に含まれる関心領域のイメージ内座標に関する情報をそれぞれ獲得し、前記複数の映像モジュール300のうち少なくとも一つの映像モジュールが設置された位置に関する情報および少なくとも一つの映像モジュールによって撮影されるイメージ内に含まれるターゲット関心領域のイメージ内座標に関する情報を参照して、基準空間上でターゲット関心領域が存在する位置を含む候補図形を特定し、第1映像モジュール310に対応するターゲット関心領域の第1候補図形および第2映像モジュール320に対応するターゲット関心領域の第2候補図形の間の位置関係を参照して、基準空間上でターゲット関心領域が存在する位置を特定する機能を遂行することができる。
本発明の一実施例に係る基準空間は、関心領域の空間座標を算出するために本発明に係る位置算出システム200で基準とする所定の座標系で定義される空間を含む概念であり得る。
本発明に係る位置算出システム200の構成と機能については以下で詳述する。一方、位置算出システム200について前記のように説明されたが、このような説明は例示的なものであり、位置算出システム200に要求される機能や構成要素の少なくとも一部が必要に応じて外部システム(図示されず)内で具現されたり、外部システム内に含まれたりしてもよいことは当業者に自明である。
次に、本発明の一実施例に係る複数の映像モジュール300は位置算出システム200と通信網100を通じて連結され得、複数の映像モジュール300によってそれぞれ撮影される複数のイメージ内に含まれる少なくとも一つの関心領域を特定し、その特定される関心領域のイメージ内座標に関する情報を抽出する機能を遂行することができる。
例えば、本発明の一実施例に係る前述した複数の映像モジュール300には、カメラ(2次元、3次元など含む)モジュール、イメージまたは映像センサなどが含まれ得る。
位置算出システムの構成
以下では、本発明の具現のために重要な機能を遂行する位置算出システム200の内部構成および各構成要素の機能について詳察する。
図2は、本発明の一実施例に係る位置算出システム200の内部構成を詳細に図示する図面である。
図2に図示された通り、位置算出システム200は、情報獲得部210、空間座標算出部220、通信部230および制御部240を含んで構成され得る。本発明の一実施例によると、情報獲得部210、空間座標算出部220、通信部230および制御部240は、そのうち少なくとも一部が外部のシステムと通信するプログラムモジュールであり得る。このようなプログラムモジュールは運営システム、アプリケーションモジュールまたはその他のプログラムモジュールの形態で位置算出システム200に含まれ得、物理的には多様な公知の記憶装置に保存され得る。また、このようなプログラムモジュールは位置算出システム200と通信可能な遠隔記憶装置に保存されてもよい。一方、このようなプログラムモジュールは本発明により後述する特定の業務を遂行したり、特定の抽象データの類型を実行するルーチン、サブルーチン、プログラム、客体、コンポーネント、データ構造などを包括したりするが、これに制限されはしない。
まず、本発明の一実施例に係る情報獲得部210は、複数の映像モジュール300によってそれぞれ撮影される複数のイメージ内に含まれる関心領域のイメージ内座標に関する情報をそれぞれ獲得する機能を遂行することができる。
具体的には、本発明の一実施例に係る複数の映像モジュール300それぞれは複数のイメージ内で関心領域に該当するイメージを特定することができ、その特定される関心領域のイメージ内座標に関する情報を抽出することができ、情報獲得部210は前記抽出される関心領域のイメージ内座標に関する情報を前記複数の映像モジュール300それぞれから獲得することができる。
例えば、本発明の一実施例によると、複数のカメラ300によってそれぞれ撮影される使用者の複数の身体イメージのうち、該当使用者の所定の身体部位(例えば、手、手先、目など)に関するイメージが関心領域のイメージとして特定され得る。また、本発明の一実施例によると、前記複数のカメラ300それぞれは前記特定される関心領域のイメージ内2次元または3次元座標に関する情報を抽出することができ、情報獲得部210は前記抽出される2次元または3次元座標に関する情報を前記複数のカメラ300それぞれから獲得することができる。本発明の一実施例によると、前記関心領域のイメージ内2次元および3次元座標に関する情報は、前記関心領域のイメージ内ピクセル(pixel)およびボクセル(voxel)に関する情報からそれぞれ獲得される情報であり得る。
次に、本発明の一実施例に係る空間座標算出部220は、複数の映像モジュール300のうち少なくとも一つの映像モジュールが設置された位置に関する情報および少なくとも一つの映像モジュールによって撮影されるイメージ内に含まれるターゲット関心領域のイメージ内座標に関する情報を参照して、基準空間上でターゲット関心領域が存在する位置を含む候補図形を特定する機能を遂行することができる。本発明の一実施例に係るターゲット関心領域は、それぞれの映像モジュールで特定される複数の関心領域のうち少なくとも一つの関心領域を意味するか、複数の映像モジュール300によって特定される複数の関心領域のうち少なくとも一部の映像モジュールによって特定される関心領域を含む概念であり得る。また、本発明の一実施例に係る候補図形は点、線(ベクターを含むことができる)、面、立体またはこれらの集合を意味する概念であり得る。
具体的には、本発明の一実施例に係る空間座標算出部220は、基準空間上での少なくとも一つの映像モジュールが設置された位置を基準としてターゲット関心領域が該当基準空間上で存在する位置を含む候補図形を特定することができる。
より具体的には、本発明の一実施例に係る空間座標算出部220は、複数の映像モジュール300のうち第1映像モジュール310および第2映像モジュール320が2次元映像モジュールである場合に、前記第1映像モジュール310および第2映像モジュール320それぞれに対応するターゲット関心領域が基準空間上で存在する位置を含む候補図形をベクター(vector)で特定することができる。この場合に、本発明の一実施例によると、このようなベクターは映像モジュールが設置された位置の基準空間上での座標を始点(または終点)とし、該当映像モジュールが設置された位置の基準空間上での座標を基準として該当映像モジュールに対応するターゲット関心領域のイメージ内座標を基準空間上での座標に変換させた座標を終点(または始点)として設定され得る。また、本発明の一実施例に係る空間座標算出部220は、複数の映像モジュール300のうち第1映像モジュール310および第2映像モジュール320が3次元映像モジュールである場合に、前記第1映像モジュール310および第2映像モジュール320に対応するターゲット関心領域が基準空間上で存在する位置を含む候補図形をそれぞれ空間図形(例えば、正六面体、直六面体、球体など)で特定することができる。また、本発明の一実施例に係る空間座標算出部220は、複数の映像モジュール300のうち第1映像モジュール310および第2映像モジュール320がそれぞれ3次元映像モジュールおよび2次元映像モジュールである場合に、前記第1映像モジュール310および第2映像モジュール320に対応するターゲット関心領域が基準空間上で存在する位置を含む候補図形をそれぞれ空間図形およびベクターで特定することができる。
また、本発明の一実施例に係る空間座標算出部220は複数の映像モジュール300のうち、少なくとも一つの映像モジュールの属性に関する情報をさらに参照して前記候補図形を特定することができる。本発明の一実施例によると、このような映像モジュールの属性に関する情報には、映像モジュールの解像度、画角、焦点距離、3次元(3D)支援の有無などに関する情報が含まれ得る。
例えば、本発明の一実施例に係る空間座標算出部220は、複数の映像モジュール300のうち少なくとも一つの映像モジュールの画角、焦点距離などに関する情報を参照して、前記少なくとも一つの映像モジュールが設置された位置の基準空間上の座標を基準として、前記少なくとも一つの映像モジュールに対応するターゲット関心領域のイメージ内座標を基準空間上の座標にそれぞれ変換するための変換角度(例えば、回転角)、変換位置および変換形態(例えば、映像モジュール300が3次元映像モジュールである場合に空間図形、映像モジュール300が2次元映像モジュールである場合にベクター)のうち少なくとも一つに関する情報を決定することによって、前記少なくとも一つの映像モジュールに対応するターゲット関心領域が基準空間上で存在する位置およびその存在する位置を含む候補図形を特定することができる。
一方、本発明の一実施例に係る空間座標算出部220は、複数の映像モジュール300のうち一部の映像モジュール(例えば、第3映像モジュール)でターゲット関心領域のイメージ内座標に関する情報を獲得することが難しいと判断されると(例えば、使用者によって関心領域が遮られて見えない場合)、複数の映像モジュール300のうち前記第3映像モジュールを除いた他の映像モジュールが設置された位置に関する情報および複数の映像モジュール300のうち前記第3映像モジュールを除いた他の映像モジュールによって撮影されるイメージ内に含まれるターゲット関心領域のイメージ内座標に関する情報を参照することができる。
また、本発明の一実施例に係る空間座標算出部220は第1映像モジュール310に対応するターゲット関心領域の第1候補図形および第2映像モジュール320に対応するターゲット関心領域の第2候補図形の間の位置関係を参照して、基準空間上でターゲット関心領域が存在する位置を特定する機能を遂行することができる。
例えば、本発明の一実施例に係る第1映像モジュール310および第2映像モジュール320が2次元映像モジュールである場合に、第1映像モジュール310および第2映像モジュール320の候補図形はベクターで特定され得、空間座標算出部220は前記第1映像モジュール310に対応するターゲット関心領域の第1ベクターおよび前記第2映像モジュール320に対応するターゲット関心領域の第2ベクターの間の交差地点を基準空間上でターゲット関心領域が存在する位置として特定することができる。一方、本発明の一実施例によると、前記第1ベクターおよび第2ベクターが交差しない場合には、前記第1ベクターおよび第2ベクターの間の最短距離の連結線の中点が基準空間上でターゲット関心領域が存在する位置として特定され得る。
他の例として、本発明の一実施例に係る第1映像モジュール310および第2映像モジュール320が3次元映像モジュールである場合に、候補図形は空間図形で特定され得、空間座標算出部220は前記第1映像モジュール310に対応するターゲット関心領域の第1空間図形および前記第2映像モジュール320に対応するターゲット関心領域の第2空間図形の間の交差領域を基準空間上でターゲット関心領域が存在する位置として特定することができる。より具体的には、本発明の一実施例によると、前記第1空間図形および前記第2空間図形が互いに完全に交差する(すなわち、重なる)場合に、第1空間図形または第2空間図形の平均座標が基準空間上でターゲット関心領域が存在する位置として特定され得、前記第1空間図形および前記第2空間図形の一部領域だけが互いに交差する場合には、第1空間図形の平均座標および第2空間図形の平均座標を連結する連結線の中点が基準空間上でターゲット関心領域が存在する位置として特定され得る。
さらに他の例として、図3を参照すると、本発明の一実施例に係る第1映像モジュール310および第2映像モジュール320がそれぞれ3次元映像モジュールおよび2次元映像モジュールである場合に、候補図形はそれぞれ空間図形331、332、333およびベクター341、342、343で特定され得、空間座標算出部220は前記第1映像モジュール310に対応するターゲット関心領域の第3空間図形331、332、333および前記第2映像モジュール320に対応するターゲット関心領域の第3ベクター341、342、343の間の交差地点を基準空間上でターゲット関心領域が存在する位置として特定することができる。より具体的には、本発明の一実施例によると、前記第3ベクター341および前記第3空間図形331の平均座標の間の最短距離の連結線の中点が基準空間上でターゲット関心領域が存在する位置として特定され得る。
一方、本発明の一実施例に係る空間座標算出部220は、映像モジュールの属性に関する情報のうち解像度に関する情報をさらに参照して、基準空間上でターゲット関心領域が存在する位置を特定することができる。
具体的には、本発明の一実施例に係る空間座標算出部220は、映像モジュールの解像度によりターゲット関心領域が基準空間上で存在する位置を示す候補図形の面積または体積を適応的に設定することができる。
例えば、図4を参照すると、本発明の一実施例に係る空間座標算出部220は、3次元映像モジュールである第1映像モジュール310の解像度に関する情報を参照して、第1映像モジュール310の複数のターゲット関心領域のイメージ内座標に対応して基準空間上でそれぞれ第1正六面体401、第2正六面体402および第3正六面体403で設定することができ、第1映像モジュール310の解像度が低いほど前記正六面体(すなわち、第1正六面体401、第2正六面体402および第3正六面体403)の体積が大きくなるようにすることができる。
他の例として、本発明の一実施例に係る空間座標算出部220は、2次元映像モジュールである第2映像モジュール320の解像度に関する情報を参照して、第2映像モジュール320の複数のターゲット関心領域のイメージ内座標に対応して基準空間上でそれぞれ第1四角形411、第2四角形421および第3四角形431で設定することができ、第2映像モジュール320の解像度が低いほど前記四角形の面積が大きくなるようにすることができる。また、この場合に、本発明の一実施例によると、空間座標算出部220は、前述した第2映像モジュール320に対応するターゲット関心領域のベクターに代わって、基準空間上で第2映像モジュール320が設置された位置と基準空間上でターゲット関心領域のイメージ内座標に対応する四角形を連結する四角錐(すなわち、第1四角錐、第2四角錐および第3四角錐)を利用することによって、基準空間上でターゲット関心領域が存在する位置を特定することができる。
一方、本発明に係るターゲット関心領域のイメージ内座標に対応して基準空間上で設定され得る面の形態は前述した四角形に限定されず、本発明の目的を達成できる範囲内で円、三角形、五角形などに多様に変更され得、本発明に係るターゲット関心領域のイメージ内座標に対応して基準空間上で設定され得る体積の形態は前述した正六面体に限定されず、直六面体、球体、楕円体などに多様に変更され得る。
また、本発明の一実施例に係る空間座標算出部220は、第2映像モジュール(320、または第1映像モジュール310)の少なくとも一つの候補図形のうち、第1映像モジュール(310、または第2映像モジュール320)の第1候補図形と前述した位置関係がマッチングされる候補図形を特定することができる。
例えば、図5を参照すると、本発明の一実施例に係る複数の映像モジュール300のうち少なくとも一つの映像モジュールはフレーム単位で互いに同期化され得、空間座標算出部220は第1映像モジュール310および第2映像モジュール320の間に同期化されるフレーム単位に基づいて、第2映像モジュール(320、または第1映像モジュール310)の少なくとも一つの候補図形521、522、523のうち、第1映像モジュール(310、または第2映像モジュール320)の第1候補図形511と位置関係がマッチングされる候補図形521を特定することができる。
他の例として、図6を参照すると、本発明の一実施例に係る情報獲得部210により獲得される関心領域のイメージ内座標に関する情報には、映像モジュールの間またはターゲット関心領域の間に互いに区別され得る識別情報601、602、603、604、605、611、612、613、614、615が含まれ得、空間座標算出部220は前記識別情報601、602、603、604、605、611、612、613、614、615を参照して第2映像モジュール(320、または第1映像モジュール310)の少なくとも一つの候補図形611、612、613、614、615のうち、第1映像モジュール(310、または第2映像モジュール320)の第1候補図形601と位置関係がマッチングされる候補図形611を特定することができる。また、本発明の一実施例に係る識別情報は関心領域のイメージ内で特定される形状、色相、温度、パターンおよびマーカー(例えば、絵文字(emoji)、QRコード(登録商標)など)のうち少なくとも一つに関する情報を含むことができる。
さらに他の例として、本発明の一実施例によると、第1映像モジュール310の候補図形および第2映像モジュール320の候補図形が互いに一対一マッチングされない場合に(例えば、第1映像モジュール310の候補図形の数と第2映像モジュール320の候補図形の数が互いに異なる場合、または多対多の関係である場合など)、空間座標算出部220は第1映像モジュール310の候補図形および第2映像モジュール320の候補図形の中で相互にグルーピングされ得る候補図形を特定することによって、第2映像モジュール(320、または第1映像モジュール310)の少なくとも一つの候補図形のうち第1映像モジュール(310、または第2映像モジュール320)の第1候補図形と位置関係がマッチングされる候補図形を特定することができる。
例えば、図7~図9を参照すると、本発明の一実施例に係る空間座標算出部220は、第1映像モジュール310および第2映像モジュール320の候補図形(すなわち、この場合に、ベクターまたは空間図形)の間の相互間のマッチング関係が一対一の関係にならない場合に、その一対一の関係にマッチングされないベクターまたは空間図形と所定距離以内にあるベクターまたは空間図形をグルーピングして相互にマッチングされるようにすることができる。
また、本発明の一実施例に係る空間座標算出部220は、少なくとも三以上のターゲット関心領域に対応する座標を参照して複数の映像モジュール300の位置関係に関する情報を特定することができる。本発明の一実施例によると、このような位置関係に関する情報は複数の映像モジュール300間になす角度、複数の映像モジュール300が基準空間上で傾いた角度、複数の映像モジュール300の撮像方向などに関する情報を含むことができる。
具体的には、本発明の一実施例に係る空間座標算出部220は複数の映像モジュール300それぞれで少なくとも三以上のターゲット関心領域のイメージ内座標に関する情報が獲得されると、複数の映像モジュール300に対応するターゲット関心領域の候補図形の間の少なくとも三以上の交差地点(または交差領域)を参照して複数の映像モジュール300の位置関係に関する情報を特定することができる。
例えば、図10を参照すると、本発明の一実施例に係る第1映像モジュール310と第2映像モジュール320それぞれで3個のターゲット関心領域のイメージ内座標がそれぞれ第1~第3座標1001、1002、1003と第4~第6座標1004、1005、1006であり、第1映像モジュール310および第2映像モジュール320が2次元映像モジュールである場合に、基準空間上で第1映像モジュール310に対応するターゲット関心領域の第1ベクター1011、第2ベクター1012および第3ベクター1013と第2映像モジュール320に対応するターゲット関心領域の第4ベクター1021、第5ベクター1022および第6ベクター1023が交差する三地点を特定することができ、その三地点に基づいて、第1映像モジュール310と第2映像モジュール320の間の位置関係を特定することができる。
他の例として、本発明の一実施例によると、第1映像モジュール310と第2映像モジュール320それぞれで3個のターゲット関心領域のイメージ内座標がそれぞれ第7~第9座標と第10~第12座標であり、第1映像モジュール310および第2映像モジュール320が3次元映像モジュールである場合に、基準空間上で第1映像モジュール310に対応するターゲット関心領域の第1空間図形、第2空間図形および第3空間図形と第2映像モジュール320に対応するターゲット関心領域の第4空間図形、第5空間図形および第6空間図形が交差する三領域を特定することができ、その三領域に基づいて、第1映像モジュール310と第2映像モジュール320の間の位置関係を特定することができる。
さらに他の例として、本発明の一実施例によると、第1映像モジュール310と第2映像モジュール320それぞれで3個のターゲット関心領域のイメージ内座標がそれぞれ第13~第15座標と第16~第18座標であり、第1映像モジュール310および第2映像モジュール320がそれぞれ2次元映像モジュールおよび3次元映像モジュールである場合に、基準空間上で第1映像モジュール310に対応するターゲット関心領域の第7ベクター、第8ベクターおよび第9ベクターと第2映像モジュール320に対応するターゲット関心領域の第7空間図形、第8空間図形および第9空間図形が交差する三地点を特定することができ、その三地点に基づいて、第1映像モジュール310と第2映像モジュール320の間の位置関係を特定することができる。
次に、本発明の一実施例に係る通信部230は情報獲得部210および空間座標算出部220からの/へのデータの送受信を可能とする機能を遂行することができる。
最後に、本発明の一実施例に係る制御部240は情報獲得部210、空間座標算出部220および通信部230間のデータの流れを制御する機能を遂行することができる。すなわち、本発明に係る制御部240は位置算出システム200の外部からの/へのデータの流れまたは位置算出システム200の各構成要素間のデータの流れを制御することによって、情報獲得部210、空間座標算出部220および通信部230でそれぞれ固有機能を遂行するように制御することができる。
図11は、本発明の一実施例に係る位置算出システム200により関心領域の空間座標が算出される過程を例示的に示す図面である。
本発明の一実施例によると、2次元映像モジュールである第1映像モジュール310および第2映像モジュール320によって関心領域の空間座標が算出される場合を仮定することができる。また、この場合に、本発明の一実施例に係る関心領域は使用者の銃口1130であり得る。
まず、本発明の一実施例によると、第1映像モジュール310および第2映像モジュール320によってそれぞれ撮影される複数のイメージ内に含まれる関心領域1130のイメージ内座標1110、1120に関する情報がそれぞれ獲得され得る。すなわち、本発明の一実施例によると、位置算出システム200は第1映像モジュール310および第2映像モジュール320によって撮影されるイメージそのものを獲得するのではなく、そのイメージに含まれた関心領域のイメージ内座標に関する情報を獲得することになる。
その後、本発明の一実施例によると、第1映像モジュール310と第2映像モジュール320が設置された位置に関する情報および第1映像モジュール310と第2映像モジュール320によって撮影されるイメージ内に含まれるターゲット関心領域1130のイメージ内座標1110、1120に関する情報に基づいて、基準空間上でターゲット関心領域1130が存在する位置を含むベクター1140、1150が特定され得る。すなわち、本発明の一実施例によると、基準空間上での第1映像モジュール310に対応するターゲット関心領域1130の第1ベクター1140と基準空間上での第2映像モジュール320に対応するターゲット関心領域1130の第2ベクター1150がそれぞれ特定され得る。
その後、本発明の一実施例によると、前記第1ベクター1140および前記第2ベクター1150の間の交差地点1160が基準空間上でのターゲット関心領域1130が存在する位置として特定され得る。
その後、本発明の一実施例によると、位置算出システム200は基準空間上で前記特定される位置に対応する座標1160を本発明に係る関心領域1130の空間座標として算出することができる。
図12は、本発明の一実施例により客体の物理的な数値に関する情報を利用して複数の映像モジュール300の位置を特定する過程を例示的に示す図面である。
本発明の一実施例に係る位置算出システム200は、客体の実世界での物理的な数値に関する情報(例えば、客体の長さ、大きさ、面積および体積)を参照して、基準空間上での複数の映像モジュール300が設置された位置の座標を特定することができる。
例えば、図12を参照すると、本発明の一実施例に係る位置算出システム200は客体1250が四角形の形態である場合に、前記客体1250のコーナー地点それぞれをターゲット関心領域に設定してそのターゲット関心領域のイメージ内座標1201、1202、1203、1204、1205、1206、1207、1208に関する情報を獲得し、その獲得した座標1201、1202、1203、1204、1205、1206、1207、1208に関する情報と前記客体1250の実世界での物理的な数値に関する情報(例えば、横、縦、高さおよび角度)と比較して分析することによって、基準空間での第1映像モジュール310および第2映像モジュール320が設置された位置の座標を特定することができる。一方、本発明の一実施例によると、位置算出システム200は基準空間での第1映像モジュール310および第2映像モジュール320が設置された位置の座標を特定するために、客体1250の各コーナー地点の基準空間での座標に関する情報をさらに参照することができる。
以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて実行され得るプログラム命令語の形態で具現されてコンピュータ読み取り可能な記録媒体に記録され得る。前記コンピュータ読み取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記コンピュータ読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知となっている使用可能なものであり得る。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CD-ROMおよびDVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical medium)、およびROM、RAM、フラッシュメモリなどのような、プログラム命令語を保存し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるような機械語コードだけでなくインタープリタなどを使ってコンピュータによって実行され得る高級言語コードも含まれる。ハードウェア装置は本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールに変更され得、その逆も同じである。
以上、本発明が具体的な構成要素などのような特定の事項と限定された実施例および図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施例に限定されるものではなく、本発明が属する技術分野で通常の知識を有する者であればこのような記載から多様な修正と変更が可能である。
したがって、本発明の思想は前記説明された実施例に限定されて定められてはならず、後述する特許請求の範囲だけでなくこの特許請求の範囲と均等なまたはこれから等価的に変更されたすべての範囲は本発明の思想の範疇に属するものと言える。
100 通信網
200 位置算出システム
210 情報獲得部
220 空間座標算出部
230 通信部
240 制御部
300 複数の映像モジュール

Claims (13)

  1. 関心領域の空間座標を算出する方法であって、
    複数の映像モジュールによってそれぞれ撮影される複数のイメージ内に含まれる関心領域のイメージ内座標に関する情報をそれぞれ獲得する段階と、
    前記複数の映像モジュールのうち少なくとも一つの映像モジュールが設置された位置の基準空間上の座標点に関する情報および前記少なくとも一つの映像モジュールによって撮影されるイメージ内に含まれるターゲット関心領域のイメージ内座標から変換された前記基準空間上の前記座標点に関する情報を参照して、前記基準空間上の前記少なくとも一つの映像モジュールが設置された位置の前記座標点を基準として、候補図形が前記基準空間上で前記ターゲット関心領域が存在する位置を含む、前記基準空間上の前記候補図形を特定する段階と、
    第1映像モジュールに対応する前記ターゲット関心領域の第1候補図形および第2映像モジュールに対応する前記ターゲット関心領域の第2候補図形の間の位置関係を参照して、前記基準空間上で前記ターゲット関心領域が存在する位置を特定する段階と、を含み、
    前記候補図形を特定する段階で、前記少なくとも一つの映像モジュールによって撮影されるイメージ内に含まれる前記ターゲット関心領域の前記イメージ内座標の前記基準空間上の座標点への変換は、前記少なくとも一つの映像モジュールの属性を参照して前記ターゲット関心領域の前記イメージ内座標を前記基準空間上の座標に変換するための変換角度、変換位置および変換形態のうち少なくとも一つに関する情報を決定することによって行われ、
    前記基準空間上で前記ターゲット関心領域が存在する位置を特定する段階は、
    前記第1候補図形及び前記第2候補図形が互いに交差しているかどうかを判定する段階と、
    前記第1候補図形及び前記第2候補図形が互いに交差していると判定された場合に、前記第1候補図形及び前記第2候補図形の交差地点または交差領域に基づいて、前記基準空間上で前記ターゲット関心領域が存在する位置を特定する段階と、
    前記第1候補図形及び前記第2候補図形が互いに交差していないと判定された場合に、前記第1候補図形と前記第2候補図形とを結ぶ最短距離の連結線に基づいて、前記基準空間上で前記ターゲット関心領域が存在する位置を特定する段階と、を含み、
    前記第1映像モジュール及び前記第2映像モジュールの解像度により前記第1候補図形及び前記第2候補図形の面積または体積を適応的に決定する、
    方法。
  2. 前記第1映像モジュールおよび前記第2映像モジュールが2次元映像モジュールである場合に、前記候補図形はベクターで特定される、請求項1に記載の方法。
  3. 前記ターゲット関心領域が存在する位置は、前記第1映像モジュールに対応する前記ターゲット関心領域の第1ベクターおよび前記第2映像モジュールに対応する前記ターゲット関心領域の第2ベクターの間の交差地点で特定される、請求項に記載の方法。
  4. 前記第1映像モジュールおよび前記第2映像モジュールが3次元映像モジュールである場合に、前記候補図形は空間図形で特定される、請求項1に記載の方法。
  5. 前記ターゲット関心領域が存在する位置は、前記第1映像モジュールに対応する前記ターゲット関心領域の第1空間図形および前記第2映像モジュールに対応する前記ターゲット関心領域の第2空間図形の間の交差領域で特定される、請求項に記載の方法。
  6. 前記第1映像モジュールおよび前記第2映像モジュールがそれぞれ3次元映像モジュールおよび2次元映像モジュールである場合に、前記候補図形はそれぞれ空間図形およびベクターで特定される、請求項1に記載の方法。
  7. 前記ターゲット関心領域が存在する位置は、前記第1映像モジュールに対応する前記ターゲット関心領域の空間図形および前記第2映像モジュールに対応する前記ターゲット関心領域のベクターの間の交差地点で特定される、請求項に記載の方法。
  8. 少なくとも三以上のターゲット関心領域のイメージ内座標に関する情報を参照して、前記複数の映像モジュール間の位置関係に関する情報が特定される、請求項1に記載の方法。
  9. 前記第1映像モジュールの第1候補図形および前記第2映像モジュールの第2候補図形は、前記第1映像モジュールおよび前記第2映像モジュールの間に同期化されるフレーム単位に基づいて互いにマッチングされる、請求項1に記載の方法。
  10. 前記ターゲット関心領域のイメージ内座標に関する情報には複数の前記ターゲット関心領域の間に区別され得る識別情報が含まれ、前記第1映像モジュールの第1候補図形および前記第2映像モジュールの第2候補図形は、前記識別情報に基づいて互いにマッチングされる、請求項1に記載の方法。
  11. 前記第1映像モジュールの第1候補図形および前記第2映像モジュールの第2候補図形が一対一マッチングされない場合に、前記第1映像モジュールの第1候補図形および前記第2映像モジュールの第2候補図形のうちグルーピングされ得る候補図形を特定して互いにマッチングされる、請求項1に記載の方法。
  12. 請求項1に記載された方法を実行するためのコンピュータプログラムを記録する、非一過性のコンピュータ読み取り可能記録媒体。
  13. 関心領域の空間座標を算出するシステムであって、
    複数の映像モジュールによってそれぞれ撮影される複数のイメージ内に含まれる関心領域のイメージ内座標に関する情報をそれぞれ獲得する情報獲得部と、
    前記複数の映像モジュールのうち少なくとも一つの映像モジュールが設置された位置の基準空間上の座標点に関する情報および前記少なくとも一つの映像モジュールによって撮影されるイメージ内に含まれるターゲット関心領域のイメージ内座標から変換された前記基準空間上の前記座標点に関する情報を参照して、前記基準空間上の前記少なくとも一つの映像モジュールが設置された位置の前記座標点を基準として、候補図形が前記基準空間上で前記ターゲット関心領域が存在する位置を含む、前記基準空間上の前記候補図形を特定し、第1映像モジュールに対応する前記ターゲット関心領域の第1候補図形および第2映像モジュールに対応する前記ターゲット関心領域の第2候補図形の間の位置関係を参照して、前記基準空間上で前記ターゲット関心領域が存在する位置を特定する空間座標算出部と、を含み、
    前記空間座標算出部で、前記少なくとも一つの映像モジュールによって撮影されるイメージ内に含まれる前記ターゲット関心領域の前記イメージ内座標の前記基準空間上の座標点への変換は、前記少なくとも一つの映像モジュールの属性を参照して前記ターゲット関心領域の前記イメージ内座標を前記基準空間上の座標に変換するための変換角度、変換位置および変換形態のうち少なくとも一つに関する情報を決定することによって行われ、
    前記空間座標算出部は、
    前記第1候補図形及び前記第2候補図形が互いに交差しているかどうかを判定し、
    前記第1候補図形及び前記第2候補図形が互いに交差していると判定された場合に、前記第1候補図形及び前記第2候補図形の交差地点または交差領域に基づいて、前記基準空間上で前記ターゲット関心領域が存在する位置を特定し、
    前記第1候補図形及び前記第2候補図形が互いに交差していないと判定された場合に、前記第1候補図形と前記第2候補図形とを結ぶ最短距離の連結線に基づいて、前記基準空間上で前記ターゲット関心領域が存在する位置を特定し、
    前記第1映像モジュール及び前記第2映像モジュールの解像度により前記第1候補図形及び前記第2候補図形の面積または体積を適応的に決定する、
    システム。
JP2020564363A 2018-05-16 2018-09-12 関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Active JP7161550B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2018-0056039 2018-05-16
KR1020180056039A KR102072796B1 (ko) 2018-05-16 2018-05-16 관심 영역의 공간 좌표를 산출하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
PCT/KR2018/010711 WO2019221340A1 (ko) 2018-05-16 2018-09-12 관심 영역의 공간 좌표를 산출하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Publications (2)

Publication Number Publication Date
JP2021523488A JP2021523488A (ja) 2021-09-02
JP7161550B2 true JP7161550B2 (ja) 2022-10-26

Family

ID=68540534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564363A Active JP7161550B2 (ja) 2018-05-16 2018-09-12 関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体

Country Status (6)

Country Link
US (1) US11321867B2 (ja)
EP (1) EP3796258A4 (ja)
JP (1) JP7161550B2 (ja)
KR (1) KR102072796B1 (ja)
CN (1) CN112313706A (ja)
WO (1) WO2019221340A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102409398B1 (ko) 2020-09-15 2022-06-15 김학민 입체도형을 이용한 삼차원 공간 위치 좌표화 방법
CN113591852B (zh) * 2021-08-09 2022-08-23 数坤(北京)网络科技股份有限公司 感兴趣区域标记的方法和装置
CN113947758B (zh) * 2021-12-16 2022-04-29 北京凯泰铭科技文化发展有限公司 一种基于景区棋盘划分的海绵体系的大数据方法和系统
CN114677429B (zh) * 2022-05-27 2022-08-30 深圳广成创新技术有限公司 一种机械手的定位方法、装置、计算机设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520351A (ja) 2011-07-08 2014-08-21 レストレーション ロボティクス,インク. カメラシステムの座標系の較正および変換

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100836740B1 (ko) * 2006-08-28 2008-06-10 계명대학교 산학협력단 영상 데이터 처리 방법 및 그에 따른 시스템
KR101285360B1 (ko) * 2007-01-25 2013-07-11 삼성전자주식회사 증강현실을 이용한 관심 지점 표시 장치 및 방법
KR101681538B1 (ko) * 2010-10-20 2016-12-01 삼성전자주식회사 영상 처리 장치 및 방법
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
KR101712925B1 (ko) * 2015-04-09 2017-03-07 한국항공대학교산학협력단 영상과 위치정보를 연계한 데이터베이스를 구축하는 방법, 상기 데이터베이스를 활용하여 측위하는 방법, 및 상기 방법들을 수행하는 전자 장치
KR20180016889A (ko) * 2016-08-08 2018-02-20 한화테크윈 주식회사 영상 처리 장치 및 영상 처리 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520351A (ja) 2011-07-08 2014-08-21 レストレーション ロボティクス,インク. カメラシステムの座標系の較正および変換

Also Published As

Publication number Publication date
EP3796258A4 (en) 2022-02-23
KR102072796B1 (ko) 2020-02-03
US20210065397A1 (en) 2021-03-04
WO2019221340A1 (ko) 2019-11-21
CN112313706A (zh) 2021-02-02
EP3796258A1 (en) 2021-03-24
JP2021523488A (ja) 2021-09-02
KR20190131320A (ko) 2019-11-26
KR102072796B9 (ko) 2021-10-27
US11321867B2 (en) 2022-05-03

Similar Documents

Publication Publication Date Title
JP7161550B2 (ja) 関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
JP7173772B2 (ja) 深度値推定を用いた映像処理方法及び装置
CN108986161B (zh) 一种三维空间坐标估计方法、装置、终端和存储介质
WO2019161813A1 (zh) 动态场景的三维重建方法以及装置和系统、服务器、介质
CN111325796B (zh) 用于确定视觉设备的位姿的方法和装置
WO2018107910A1 (zh) 一种全景视频融合方法及装置
WO2017041731A1 (en) Markerless multi-user multi-object augmented reality on mobile devices
WO2021043213A1 (zh) 标定方法、装置、航拍设备和存储介质
KR102354299B1 (ko) 단일 영상을 이용한 카메라 캘리브레이션 방법 및 이를 위한 장치
KR102398478B1 (ko) 전자 디바이스 상에서의 환경 맵핑을 위한 피쳐 데이터 관리
JP2019536162A (ja) シーンのポイントクラウドを表現するシステム及び方法
KR20220160066A (ko) 이미지 처리 방법 및 장치
CN110544278B (zh) 刚体运动捕捉方法及装置、agv位姿捕捉系统
TWI599987B (zh) 點雲拼接系統及方法
Yeh et al. 3D reconstruction and visual SLAM of indoor scenes for augmented reality application
CN110807798B (zh) 图像识别方法、系统、相关设备以及计算机可读存储介质
CN108234932B (zh) 视频监控图像中的人员形态提取方法及装置
JP2018519733A (ja) 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法
JPH0814860A (ja) モデル作成装置
KR102310958B1 (ko) 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
KR102398404B1 (ko) 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR102483388B1 (ko) 전방위 이미지 처리 방법 및 이를 수행하는 서버
Hsieh et al. A study on indoor navigation by augmented reality and down-looking omni-vision techniques using mobile devices
JP2021042978A (ja) 計測装置および計測方法
KR20230044821A (ko) 탄착 위치 산출 방법, 탄착 위치 산출 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220728

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220809

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220912

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221014

R150 Certificate of patent or registration of utility model

Ref document number: 7161550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150