JP2020182201A - ポーズ変化通知方法及び関連する対話型画像処理システム - Google Patents

ポーズ変化通知方法及び関連する対話型画像処理システム Download PDF

Info

Publication number
JP2020182201A
JP2020182201A JP2019092538A JP2019092538A JP2020182201A JP 2020182201 A JP2020182201 A JP 2020182201A JP 2019092538 A JP2019092538 A JP 2019092538A JP 2019092538 A JP2019092538 A JP 2019092538A JP 2020182201 A JP2020182201 A JP 2020182201A
Authority
JP
Japan
Prior art keywords
image
pose
previous
current
pose change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019092538A
Other languages
English (en)
Inventor
孟豪 ▲呉▼
孟豪 ▲呉▼
Meng-Hau Wu
仲智 蔡
Chung-Chih Tsai
仲智 蔡
上欽 蘇
Shang-Chin Su
上欽 蘇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Publication of JP2020182201A publication Critical patent/JP2020182201A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/542Event management; Broadcasting; Multicasting; Notifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】対話型画像処理システムにおいて、特に、臨界点において画像を収集するためにユーザーに対する通知を生成することが可能なポーズ変化通知方法及び関連する対話型画像処理システムを提供する。【解決手段】空間走査プロセスを実行する対話型画像処理システムに対するポーズ変化通知プロセス2は、対話型画像処理システムのカメラから現在の画像と以前の画像とを受信するステップ、現在の画像と以前の画像とに従って、対話型画像処理システムのカメラのポーズ変化を計算するステップ及びカメラのポーズ変化が少なくとも1つの閾値を満たした場合に、対話型画像処理システムのユーザーに対する通知を生成するステップを含む。【選択図】図2

Description

1.発明の技術分野
本開示は、ポーズ変化通知方法及び関連する対話型画像処理システムに関し、特に、臨界点において画像を収集するためにユーザーに対する通知を生成することが可能なポーズ変化通知方法及び関連する対話型画像処理システムに関する。
2.従来技術の説明
ポーズ推定は、画像センサーのポーズを、それ自体によりキャプチャーされた画像に基づいて推定するために使用されることが可能である。画像センサーの視野角及び位置が変化し、キャプチャーした画像の内容が変化する場合、異なるポーズとともに2つの画像の内容を分析することにより、画像センサーのポーズ変化を推定することができる。
空間走査は、3次元(3D)環境を仮想現実環境に投影する技術であり、ポーズ推定は、空間走査を実行するための補助ツールであり得る。画像センサーを備えた3Dヘルメットにより、ユーザーが仮想現実環境を構築することを許容するために、画像センサーは、ユーザーが実際の3D環境を移動する際に画像をキャプチャーし続ける。しかしながら、ユーザーが過剰に速く動いたり或いは規則的な速度でなかったりすると、画質品質は悪くなる可能性があり、その結果、ポーズ推定の精度の低下、及び空間走査の低品質化を招く。例えば、推定されるポーズは、ぼけた画像からの対応がないために不正確であり、仮想現実環境は、微細な細部なしにぼけた画像によって構築される。
従って、構築される仮想現実環境に微細な細部を提供するためにポーズ推定の精度を如何にして向上させるかが、業界の話題となっている。
従って、本開示の目的は、臨界点において画像を収集するためにユーザーに対する通知を生成することが可能なポーズ変化通知方法及び関連する対話型画像処理システムを提供することである。
本開示は、空間走査プロセスを実行する対話型画像処理システムに対するポーズ変化通知方法を開示する。本方法は、現在の画像及び以前の画像を対話型画像処理システムのカメラから受信するステップ;現在の画像及び以前の画像に従って対話型画像処理システムのカメラのポーズ変化を計算するステップ;及びカメラのポーズ変化が少なくとも1つの閾値を満たした場合に、対話型画像処理システムのユーザーに対する通知を生成するステップを含む。
本開示は更に空間走査プロセスを実行する対話型画像処理システムも開示する。対話型画像処理システムは、現在の画像と以前の画像とを生成するように構成されるカメラ;カメラに結合され、前記現在の画像と前記以前の画像とに従って制御信号を生成するように構成される処理デバイス;前記処理デバイスに結合され、前記制御信号に従って前記対話型画像処理システムのユーザーに対する通知を生成するように構成される通知デバイス;及び前記処理デバイスに結合され、プログラム・コードを記憶するように構成されるメモリ・デバイスであって、前記プログラム・コードは、ポーズ変化通知処理を実行するように前記処理装置に指示する、メモリ・デバイスを含む。前記ポーズ変化通知プロセスは、前記現在の画像と前記以前の画像とを前記カメラから受信するステップ;前記現在の画像と前記以前の画像とに従って前記カメラのポーズ変化を計算するステップ;及び前記カメラのポーズ変化が少なくとも1つの閾値を満たした場合に、前記ユーザーに対する通知を生成するステップを含む。
本開示の対話型画像処理システムは、ポーズ推定及びポーズ変化通知に基づいてユーザーに対する通知を生成することができ、対話型画像処理システムは、臨界点において画像を収集することができる。その結果、本開示の対話型画像処理システムは、ユーザーの体感を改善するように、シャープで繊細な細部を有する仮想現実環境を構築することができる。
本発明のこれら及び他の目的は、種々の図及び図面に示される好ましい実施形態についての以下の詳細な説明を読んだ後、当業者にとって疑いもなく明らかになるであろう。
図1は、本開示の実施形態による対話型画像処理システムの機能ブロック図である。
図2は、本開示の実施形態によるポーズ変化通知プロセスのフローチャートである。
図3は、本開示の実施形態によるポーズ計算サブ・プロセスのフローチャートである。
図4は、本開示の実施形態による対話型画像処理システムの機能ブロック図である。
図1は、本開示の実施形態による対話型画像処理システム1の機能ブロック図である。対話型画像処理システム1は、カメラ10、処理デバイス12、メモリ・デバイス14、及び通知デバイス16を含む。
対話型画像処理システム1は、仮想現実(VR)、拡張現実(AR)、混合現実(MR)又は拡張現実(ER)で利用されるヘルメットであってもよいが、これらに限定されない。対話型画像処理システム1は、3次元(3D)環境を仮想現実環境に投影するために空間走査を実行してもよい。
カメラ10は、処理装置12に結合され、処理装置12への複数の画像を生成するように構成される。一実施形態では、カメラ10は、RGB(赤−緑−青)画像又は奥行き画像を生成するために、実際の環境からの画像をキャプチャーする。RGB画像の場合は、仮想現実環境における絶対長の単位はない一方;奥行き画像の場合は、画像の深度に基づく仮想現実環境における絶対長の単位がある。
処理デバイス12は、カメラ10、メモリ・デバイス14及び通知デバイス16に結合され、複数の画像に従って、通知デバイス16に制御信号を生成するように構成される。
通知デバイス16は、処理デバイス12に結合され、制御信号に従ってユーザーに対する通知を生成するように構成される。一実施形態では、通知デバイス16は、カメラ10がシャープな画像をキャプチャーできるようにユーザーにフリーズ(Freeze)を指示するディスプレイ、スピーカ、又は発光ダイオード(LED)であり、これにより、インタラクティブ画像処理システム1が、ユーザーの体感を向上させるために、シャープで繊細な詳細を有する仮想現実環境を構築することを支援する。例えば、通知デバイス16は、「静止!」(Freeze!)のメッセージを表示する表示デバイスであってもよいが、これに限定されない。
具体的には、360度の全視界の仮想空間が構築されるように想定され、処理デバイス12は24枚の画像を要求し、この場合において各画像の視野角は隣接する画像から15度離れている。ユーザーが0、15、30、...、330、および345度を含む回転角度にカメラ10を動かす場合、通知デバイス16は、カメラ10がその回転角度で鮮明な画像を捕捉できるように、ユーザーがフリーズしなければならないことを示す通知をユーザーに与える。なお、回転角度は、実際の条件に応じて変化し得る。代替的に、通知デバイス16は、ユーザーが以前の回転角度を見逃した場合に、ユーザーが彼又は彼女の3Dヘルメット(すなわち、カメラ10)を以前の回転角度に戻す旨を示す通知をユーザーに与え、例えば通知デバイス16は「後戻り!」(Turn back!)のメッセージを表示してもよい。
一実施形態では、ユーザーは、カメラ10を左、右、上、下、前及び後の方向に向けて動かすことができ、通知デバイス16は、カメラ10が或る並進距離で鮮明な画像を捕捉できるように、ユーザーがフリーズしなければならないことを示す通知をユーザーに与え、並進距離は、2つの画像の内容が同じシーンの3分の1だけ変わる場所である。なお、並進距離は、実際の条件に応じて変化し得ることに留意されたい。代替的に、通知デバイス16は、ユーザーが以前の場所を見落とした場合に、ユーザーが以前の場所に戻らなければならないことを示す通知をユーザーに与え、例えば通知デバイス16は「後退!」(Move back!)のメッセージを表示してもよい。
一実施形態では、シーンが変化する場合(例えば、物体がシーンの中で動かされる場合)に、通知デバイス16は、カメラ10が周期的にシャープな画像を捕捉できるように、ユーザーがフリーズしなければならないことを示す通知をユーザーに与える。画像キャプチャーのための周期又は経過時間は、実際の条件に従って変化し得ることに留意されたい。
メモリ・デバイス14は、処理デバイス12及びカメラ10に結合され、図2に示されるように、ポーズ変化通知プロセス2を実行するように処理デバイス12に指示するプログラム・コードを格納するように構成されており、ポーズ変化通知プロセス2は、以下のステップを含む。
ステップ20:現在の画像と以前の画像とをカメラから受信する。
ステップ21:現在の画像と以前の画像とに従ってカメラのポーズ変化を計算する。
ステップ22:ポーズ変化の回転のうちの少なくとも1つが第1閾値を満たし、ポーズ変化の並進が第2閾値を満たし、ポーズ変化の経過時間が第3閾値を満たす場合に、ユーザーに対する通知を生成する。
ステップ20において、処理デバイス12は、現在の画像と以前の画像とをカメラから受信する。
ステップ21において、処理デバイス12は、以前の画像に対応する以前のポーズを計算し、現在の画像に対応する現在のポーズを計算し、そして現在のポーズから以前のポーズを減算してポーズ変化を計算する。
ステップ22において、処理デバイス12は、ポーズ変化が少なくとも1つの閾値を満たした場合に、画像キャプチャーの通知を生成する。具体的には、ポーズ変化は、回転角度、並進距離、及び経過時間を含む複数のパラメータに関連付けられてもよく、処理デバイス12は、回転角度、並進距離、経過時間のうちの少なくとも1つが一定量だけ変化した場合に通知を生成することができる。なお、処理デバイス12はまた、回転角度、並進距離、経過時間のいずれか1つのみが一定量だけ変化した場合に、通知を生成することも可能である。
例えば、ポーズ変化の回転が、所定の角度を示す第1閾値を満たす場合(例えば、カメラ10の回転角が15度変化した場合)に、処理デバイス12は、ユーザーに通知(例えば、「フリーズ!」のメッセージ)を生成する。一実施形態では、ポーズ変化の並進が、以前の画像の内容と現在の画像の内容とが同じシーンの或る量だけ変化することを引き起こす第2の閾値を満たす場合(例えば、カメラ10の変換距離は、以前の画像の内容と現在の画像の内容とが同じシーンの3分の1だけ変化することを引き起こし)、処理デバイス12は、ユーザーに対する通知を生成する。一実施形態では、ポーズ変化の経過時間が、所定の時間を示す第3閾値を満たす場合(例えば、カメラ10の経過時間が5秒経過した場合)、処理デバイス12はユーザーに対する通知を生成する。
このため、ポーズ変化通知プロセス2によって、処理デバイス12は、回転角度、並進距離、及び経過時間に関する臨界点における画像を収集することができ、それにより、対話型画像処理システム1は、ユーザーの体感を向上させるように、シャープで繊細な細部を有する仮想現実環境を構築することができる。
なお、ステップ21において、処理デバイス12は、以前の画像に対応する以前のポーズと現在の画像に対応する現在のポーズとをそれぞれ算出するために、ポーズ計算サブ・プロセス3をさらに実行する。図3に示されるように、ポーズ計算サブ・プロセス3は、以下のステップを含む。
ステップ31:画像の特徴を抽出する。
ステップ32:特徴から対応(correspondences)を見出す。
ステップ33:対応に基づいてポーズを推定する。
ステップ31において、処理デバイス12は、画像の赤、緑、および青の画素に応じて画像から特徴を抽出し、この場合において、特徴は、特定のパターン(例えば、四角、三角、円、直角、等々)が処理デバイス12によって検出される画像の領域に対応する。
ステップ32において、処理デバイス12は、特徴から対応を見出す。具体的には、処理デバイス12は、特徴に応じて対応する点を決定し、2次元(2D)画像における対応する点は、仮想現実環境を構築するために使用される。
ステップ33において、処理デバイス12は、対応に基づいてカメラ10のポーズを推定する。カメラ10のポーズは、三次元空間座標(X、Y、Z)で記述される並進と、三次元軸及び座標の間の三次元角度(θX、θY、θZ)で記述される回転とを含む6自由度(6 Dof)で規定される。
一実施形態では、メモリ装置14は、ポーズ推定のためのフィーチャーの3次元座標を記憶し、処理デバイス12は、フィーチャーの格納済みの3次元座標に基づいて、ポーズをさらに洗練する。このステップにより、処理デバイス12は、ポーズ推定から推定誤差を低減することができる。
図4は、本開示の一実施形態による対話型画像処理システム4の機能ブロック図である。対話型画像処理システム4は、カメラ10と、処理デバイス42と、メモリ・デバイス44と、通知デバイス16と、慣性測定部48とを含む。
対話型画像処理システム1及び4は類似しており、同一の要素は同一シンボルで示される。慣性測定部48は、処理デバイス42に結合され、処理デバイス42に対するユーザーが着用した3Dヘルメット(又はカメラ10)の3次元角度(θX、θY、θZ)によって記述される回転を生成するように構成される。さらに、処理デバイス42は、慣性測定部48によって生成された回転を考慮して、ポーズ推定及びポーズ変化通知を実行し、ポーズ推定及びポーズ変化通知の精度向上を支援する。
要約すると、本開示の対話型画像処理システムは、ポーズ推定及びポーズ変化通知に基づいてユーザーに対する通知を生成することができ、対話型画像処理システムは、臨界点において画像を収集することができる。その結果、本開示の対話型画像処理システムは、ユーザーの体感を改善するために、シャープで繊細な細部を有する仮想現実環境を構築することができる。
当業者は、本発明の教示を保持しながらデバイス及び方法の多くの変形及び代替が為されてよいことを容易に理解するであろう。従って、上記の開示は添付の特許請求の範囲によってのみ限定されるように解釈されるべきである。
(付記1)
空間走査プロセスを実行する対話型画像処理システムに対するポーズ変化通知方法であって:
前記対話型画像処理システムのカメラから現在の画像と以前の画像とを受信するステップ;
前記現在の画像と前記以前の画像とに従って、前記対話型画像処理システムの前記カメラのポーズ変化を計算するステップ;及び
前記対話型画像処理システムの前記カメラの前記ポーズ変化が少なくとも1つの閾値を満たした場合に、前記対話型画像処理システムのユーザーに対する通知を生成するステップ;
を含むポーズ変化通知方法。
(付記2)
前記少なくとも1つの閾値は、前記ポーズ変化の回転に関連する第1閾値、前記ポーズ変化の並進に関連する第2閾値、及び前記ポーズ変化の経過時間に関連する第3閾値を含む、付記1に記載のポーズ変化通知方法。
(付記3)
前記通知が生成されるのは:前記ポーズ変化の回転が、所定の角度を示す前記第1閾値を満たす場合と、前記ポーズ変化の並進が、前記以前の画像の内容と前記現在の画像の内容とが同一シーンの3分の1だけ変化することを引き起こす前記第2閾値を満たす場合と、前記ポーズ変化の経過時間が、所定の時間を示す前記第3閾値を満たす場合とである、付記2に記載のポーズ変化通知方法。
(付記4)
前記現在の画像と前記以前の画像とに従って、前記対話型画像処理システムの前記カメラのポーズ変化を計算するステップが:
前記以前の画像に対応する以前のポーズを計算するステップ;
前記現在の画像に対応する現在のポーズを計算するステップ;及び
前記ポーズ変化を計算するために、前記現在のポーズから前記以前のポーズを減算するステップ;
を含む、付記1に記載のポーズ変化通知方法。
(付記5)
前記以前の画像に対応する以前のポーズを計算するステップ、又は前記現在の画像に対応する現在のポーズの計算するステップが:
前記以前の画像又は前記現在の画像の特徴を抽出するステップ;
前記以前の画像又は前記現在の画像の特徴から対応を見出すステップ;及び
前記以前の画像又は前記現在の画像の前記対応に基づいて、前記以前の画像に対応する以前のポーズ又は前記現在の画像に対応する現在のポーズを推定するステップ;
を含む、付記1に記載のポーズ変化通知方法。
(付記6)
前記以前の画像に対応する以前のポーズを計算するステップ、又は前記現在の画像に対応する現在のポーズの計算するステップが:
前記以前の画像又は前記現在の画像の前記特徴の座標を保存するステップ;及び
前記以前の画像又は前記現在の画像の前記特徴の前記座標に基づいて、前記以前の画像に対応する以前のポーズ又は前記現在の画像に対応する現在のポーズを洗練するステップ;
を更に有する、付記5に記載のポーズ変化通知方法。
(付記7)
空間走査プロセスを実行する対話型画像処理システムであって:
現在の画像と以前の画像とを生成するように構成されるカメラ;
前記カメラに結合され、前記現在の画像と前記以前の画像とに従って制御信号を生成するように構成される処理デバイス;
前記処理デバイスに結合され、前記制御信号に従ってユーザーに対する通知を生成するように構成される通知デバイス;及び
前記処理デバイスに結合され、プログラム・コードを記憶するように構成されるメモリ・デバイス;
を含み、前記プログラム・コードは、前記空間走査プロセスにおける下記ステップを前記処理デバイスに実行させ、前記下記ステップは:
現在の画像と以前の画像とを前記カメラから受信するステップ;
前記現在の画像と前記以前の画像とに従って、前記カメラのポーズ変化を計算するステップ;
前記カメラの前記ポーズ変化を少なくとも1つの閾値と比較するステップ;及び
前記カメラの前記ポーズ変化が前記少なくとも1つの閾値を満たした場合に、前記通知デバイスに対する前記制御信号を生成するステップ;
を含む、対話型画像処理システム。
(付記8)
前記少なくとも1つの閾値は、前記ポーズ変化の回転に関連する第1閾値、前記ポーズ変化の並進に関連する第2閾値、及び前記ポーズ変化の経過時間に関連する第3閾値を含む、付記7に記載の対話型画像処理システム。
(付記9)
前記通知が生成されるのは:前記ポーズ変化の回転が、所定の角度を示す前記第1閾値を満たす場合と、前記ポーズ変化の並進が、前記以前の画像の内容と前記現在の画像の内容とが同一シーンの3分の1だけ変化することを引き起こす前記第2閾値を満たす場合と、前記ポーズ変化の経過時間が、所定の時間を示す前記第3閾値を満たす場合とである、付記8に記載の対話型画像処理システム。
(付記10)
前記現在の画像と前記以前の画像とに従って、前記カメラのポーズ変化を計算するステップが:
前記以前の画像に対応する以前のポーズを計算するステップ;
前記現在の画像に対応する現在のポーズを計算するステップ;及び
前記ポーズ変化を計算するために、前記現在のポーズから前記以前のポーズを減算するステップ;
を含む、付記7に記載の対話型画像処理システム。
(付記11)
前記以前の画像に対応する以前のポーズを計算するステップ、又は前記現在の画像に対応する現在のポーズの計算するステップが:
前記以前の画像又は前記現在の画像の特徴を抽出するステップ;
前記以前の画像又は前記現在の画像の特徴から対応を見出すステップ;及び
前記以前の画像又は前記現在の画像の前記対応に基づいて、前記以前の画像に対応する以前のポーズ又は前記現在の画像に対応する現在のポーズを推定するステップ;
を含む、付記7に記載の対話型画像処理システム。
(付記12)
前記以前の画像に対応する以前のポーズを計算するステップ、又は前記現在の画像に対応する現在のポーズの計算するステップが:
前記以前の画像又は前記現在の画像の前記特徴の座標を保存するステップ;及び
前記以前の画像又は前記現在の画像の前記特徴の前記座標に基づいて、前記以前の画像に対応する以前のポーズ又は前記現在の画像に対応する現在のポーズを洗練するステップ;
を更に有する、付記11に記載の対話型画像処理システム。

Claims (10)

  1. 空間走査プロセスを実行する対話型画像処理システムに対するポーズ変化通知方法であって:
    前記対話型画像処理システムのカメラから現在の画像と以前の画像とを受信するステップ;
    前記現在の画像と前記以前の画像とに従って、前記対話型画像処理システムの前記カメラのポーズ変化を計算するステップ;及び
    前記対話型画像処理システムの前記カメラの前記ポーズ変化が少なくとも1つの閾値を満たした場合に、前記対話型画像処理システムのユーザーに対する通知を生成するステップ;
    を含むポーズ変化通知方法。
  2. 前記少なくとも1つの閾値は、前記ポーズ変化の回転に関連する第1閾値、前記ポーズ変化の並進に関連する第2閾値、及び前記ポーズ変化の経過時間に関連する第3閾値を含む、請求項1に記載のポーズ変化通知方法。
  3. 前記通知が生成されるのは:前記ポーズ変化の回転が、所定の角度を示す前記第1閾値を満たす場合と、前記ポーズ変化の並進が、前記以前の画像の内容と前記現在の画像の内容とが同一シーンの3分の1だけ変化することを引き起こす前記第2閾値を満たす場合と、前記ポーズ変化の経過時間が、所定の時間を示す前記第3閾値を満たす場合とである、請求項2に記載のポーズ変化通知方法。
  4. 前記現在の画像と前記以前の画像とに従って、前記対話型画像処理システムの前記カメラのポーズ変化を計算するステップが:
    前記以前の画像に対応する以前のポーズを計算するステップ;
    前記現在の画像に対応する現在のポーズを計算するステップ;及び
    前記ポーズ変化を計算するために、前記現在のポーズから前記以前のポーズを減算するステップ;
    を含む、請求項1に記載のポーズ変化通知方法。
  5. 前記以前の画像に対応する以前のポーズを計算するステップ、又は前記現在の画像に対応する現在のポーズの計算するステップが:
    前記以前の画像又は前記現在の画像の特徴を抽出するステップ;
    前記以前の画像又は前記現在の画像の特徴から対応を見出すステップ;及び
    前記以前の画像又は前記現在の画像の前記対応に基づいて、前記以前の画像に対応する以前のポーズ又は前記現在の画像に対応する現在のポーズを推定するステップ;
    を含む、請求項1に記載のポーズ変化通知方法。
  6. 空間走査プロセスを実行する対話型画像処理システムであって:
    現在の画像と以前の画像とを生成するように構成されるカメラ;
    前記カメラに結合され、前記現在の画像と前記以前の画像とに従って制御信号を生成するように構成される処理デバイス;
    前記処理デバイスに結合され、前記制御信号に従ってユーザーに対する通知を生成するように構成される通知デバイス;及び
    前記処理デバイスに結合され、プログラム・コードを記憶するように構成されるメモリ・デバイス;
    を含み、前記プログラム・コードは、前記空間走査プロセスにおける下記ステップを前記処理デバイスに実行させ、前記下記ステップは:
    現在の画像と以前の画像とを前記カメラから受信するステップ;
    前記現在の画像と前記以前の画像とに従って、前記カメラのポーズ変化を計算するステップ;
    前記カメラの前記ポーズ変化を少なくとも1つの閾値と比較するステップ;及び
    前記カメラの前記ポーズ変化が前記少なくとも1つの閾値を満たした場合に、前記通知デバイスに対する前記制御信号を生成するステップ;
    を含む、対話型画像処理システム。
  7. 前記少なくとも1つの閾値は、前記ポーズ変化の回転に関連する第1閾値、前記ポーズ変化の並進に関連する第2閾値、及び前記ポーズ変化の経過時間に関連する第3閾値を含む、請求項6に記載の対話型画像処理システム。
  8. 前記通知が生成されるのは:前記ポーズ変化の回転が、所定の角度を示す前記第1閾値を満たす場合と、前記ポーズ変化の並進が、前記以前の画像の内容と前記現在の画像の内容とが同一シーンの3分の1だけ変化することを引き起こす前記第2閾値を満たす場合と、前記ポーズ変化の経過時間が、所定の時間を示す前記第3閾値を満たす場合とである、請求項7に記載の対話型画像処理システム。
  9. 前記現在の画像と前記以前の画像とに従って、前記カメラのポーズ変化を計算するステップが:
    前記以前の画像に対応する以前のポーズを計算するステップ;
    前記現在の画像に対応する現在のポーズを計算するステップ;及び
    前記ポーズ変化を計算するために、前記現在のポーズから前記以前のポーズを減算するステップ;
    を含む、請求項6に記載の対話型画像処理システム。
  10. 前記以前の画像に対応する以前のポーズを計算するステップ、又は前記現在の画像に対応する現在のポーズの計算するステップが:
    前記以前の画像又は前記現在の画像の特徴を抽出するステップ;
    前記以前の画像又は前記現在の画像の特徴から対応を見出すステップ;及び
    前記以前の画像又は前記現在の画像の前記対応に基づいて、前記以前の画像に対応する以前のポーズ又は前記現在の画像に対応する現在のポーズを推定するステップ;
    を含む、請求項6に記載の対話型画像処理システム。
JP2019092538A 2019-04-24 2019-05-16 ポーズ変化通知方法及び関連する対話型画像処理システム Pending JP2020182201A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/392,650 2019-04-24
US16/392,650 US20200342610A1 (en) 2019-04-24 2019-04-24 Method of Pose Change Notification and Related Interactive Image Processing System

Publications (1)

Publication Number Publication Date
JP2020182201A true JP2020182201A (ja) 2020-11-05

Family

ID=66625065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019092538A Pending JP2020182201A (ja) 2019-04-24 2019-05-16 ポーズ変化通知方法及び関連する対話型画像処理システム

Country Status (5)

Country Link
US (1) US20200342610A1 (ja)
EP (1) EP3731186A1 (ja)
JP (1) JP2020182201A (ja)
CN (1) CN111862336A (ja)
TW (1) TW202040425A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7289746B2 (ja) * 2019-07-11 2023-06-12 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016527583A (ja) * 2013-05-02 2016-09-08 クアルコム,インコーポレイテッド コンピュータビジョンアプリケーション初期化を容易にするための方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0512824A (pt) * 2004-07-02 2008-04-22 Sony Ericsson Mobile Comm Ab método para capturar uma seqüência de imagens por um dispositivo de geração de imagem e armazenar as imagens em um formato digital, e, dispositivo de geração de imagem para capturar uma seqüência de imagens
US10681304B2 (en) * 2012-06-08 2020-06-09 Apple, Inc. Capturing a panoramic image using a graphical user interface having a scan guidance indicator
US9503634B2 (en) * 2013-03-14 2016-11-22 Futurewei Technologies, Inc. Camera augmented reality based activity history tracking

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016527583A (ja) * 2013-05-02 2016-09-08 クアルコム,インコーポレイテッド コンピュータビジョンアプリケーション初期化を容易にするための方法

Also Published As

Publication number Publication date
TW202040425A (zh) 2020-11-01
EP3731186A1 (en) 2020-10-28
CN111862336A (zh) 2020-10-30
US20200342610A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
US10339714B2 (en) Markerless image analysis for augmented reality
CN104380338B (zh) 信息处理器以及信息处理方法
JP6228320B2 (ja) 制約なしslam用のセンサベースのカメラ運動検出
US9646384B2 (en) 3D feature descriptors with camera pose information
EP3527935B1 (en) Context-based depth sensor control
JP2020535536A5 (ja)
Alhwarin et al. IR stereo kinect: improving depth images by combining structured light with IR stereo
KR102397343B1 (ko) 비디오에서 가상 오브젝트를 블러링하기 위한 방법 및 디바이스
KR101410273B1 (ko) 증강현실 응용을 위한 환경 모델링 방법 및 장치
JP6609640B2 (ja) 電子デバイス上における環境マッピング用のフィーチャ・データの管理
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
WO2014133689A1 (en) Electronic device with multiview image capture and depth sensing
JP2015079444A5 (ja)
TWI821220B (zh) 影像擷取之設備及方法
JP2018513416A (ja) 床の処理方法
KR20120046973A (ko) 움직임 정보 생성 방법 및 장치
JP2019197279A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2015114905A (ja) 情報処理装置、情報処理方法およびプログラム
JP6196562B2 (ja) 被写体情報重畳装置、被写体情報重畳方法及びプログラム
CN110119189A (zh) Slam系统的初始化、ar控制方法、装置和系统
JP2020182201A (ja) ポーズ変化通知方法及び関連する対話型画像処理システム
WO2021051126A1 (en) Portable projection mapping device and projection mapping system
WO2017163648A1 (ja) 頭部装着装置
JP6168597B2 (ja) 情報端末装置
CN113228117A (zh) 创作装置、创作方法和创作程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201104