JP2014215755A - 画像処理システム、画像処理装置及び画像処理方法 - Google Patents

画像処理システム、画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2014215755A
JP2014215755A JP2013091520A JP2013091520A JP2014215755A JP 2014215755 A JP2014215755 A JP 2014215755A JP 2013091520 A JP2013091520 A JP 2013091520A JP 2013091520 A JP2013091520 A JP 2013091520A JP 2014215755 A JP2014215755 A JP 2014215755A
Authority
JP
Japan
Prior art keywords
image
feature point
unit
orientation
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013091520A
Other languages
English (en)
Other versions
JP2014215755A5 (ja
JP5769755B2 (ja
Inventor
雄一 山川
Yuichi Yamakawa
雄一 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013091520A priority Critical patent/JP5769755B2/ja
Priority to US14/258,952 priority patent/US9355497B2/en
Publication of JP2014215755A publication Critical patent/JP2014215755A/ja
Publication of JP2014215755A5 publication Critical patent/JP2014215755A5/ja
Application granted granted Critical
Publication of JP5769755B2 publication Critical patent/JP5769755B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】処理負荷が多くならないようにして、より臨場感を高めた複合現実空間を使用者に提供できるようにする。【解決手段】位置推定部112において、HMD1の位置及び姿勢を追従し、位置・姿勢計測部122の計測結果に基づいて追従結果を補正する。そして、この補正結果に基づいて特徴点の位置及び大きさを推定する。このとき、特徴点の大きい順に優先度を高くし、優先度の高い特徴点を含むように特徴検出用画像を切出すようにする。このように特徴点の推定結果によって特徴検出用画像の切出し位置が随時変更されるため、精度良くHMD1の位置及び姿勢を計測することができる。【選択図】図1

Description

本発明は、特に、MR技術においてCG画像を撮像画像に重畳するために用いて好適な画像処理システム、画像処理装置、画像処理方法及びプログラムに関する。
近年、現実世界と仮想世界とをリアルタイムにシームレスに融合させる技術として、複合現実技術、いわゆるMR(Mixed Reality)技術が知られている。このMR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用して、複合現実画像を使用者に提示する技術がある。ビデオシースルーHMDが内蔵するビデオカメラは、使用者の瞳位置から観測される被写体と略一致する被写体を撮像する。この撮像画像にCG(Computer Graphics)画像を重畳した画像をビデオシースルーHMDの表示パネルに表示することによって、複合現実空間が使用者に提供される。
ここで、CG画像を重畳する位置を決定する技術として、撮像画像から特徴点を検出し、ビデオシースルーHMDの位置・姿勢を計測した結果を利用する方法が知られている。また、高精度な位置合わせを行うためには、より多くかつより高精細な特徴点を撮像することが必要である。そのため、より広画角で高解像度な撮像画像を得ることが望ましい。MR技術においても、臨場感を高めるために広画角で高解像度な撮像画像と表示画像とを持つことが望ましい。一般的にビデオシースルーHMDの撮像画角及び表示画角は同じであるが、特許文献1には、より広い範囲の特徴点を撮像するために撮像画角を表示画角より広くし、撮像画像の一部領域を切り出して表示画像を生成する方法が提示されている。
特開2010−92436号公報
しかしながら特許文献1に記載の方法では、撮像画角を広画角化することにより、より多くの特徴点を撮像することが可能となるが、広画角化することによって1画素あたりの分解能が悪くなってしまう。このため、位置・姿勢を精度よく計測するためには広画角化するとともに撮像画像を高解像度化する必要がある。一般的に撮像画像から特徴点を検出する処理は処理負荷が大きいため、高解像度な撮像画像を使用することによってシステムの負荷が増加してしまう課題があった。
本発明は前述の問題点に鑑み、処理負荷が多くならないようにして、より臨場感を高めた複合現実空間を使用者に提供できるようにすることを目的としている。
本発明の画像処理システムは、外界を撮像して撮像画像を生成する撮像手段と、前記撮像手段の位置及び姿勢を追従する追従手段と、前記追従手段によって追従された前記撮像手段の位置及び姿勢に基づいて前記撮像画像における特徴点の位置を推定する推定手段と、前記撮像手段によって生成された撮像画像から、合成用画像を切出すとともに、前記推定手段によって推定された特徴点の位置に基づいて特徴検出用画像を切出す切出し手段と、前記切出し手段によって切出された特徴検出用画像から特徴点を検出して前記撮像手段の位置及び姿勢を計測する計測手段と、前記計測手段によって計測された位置及び姿勢に基づいてCG画像を生成する生成手段と、前記切出し手段によって切出された合成用画像と、前記生成手段によって生成されたCG画像とを合成する合成手段と、前記合成手段によって合成された画像を表示部に表示する表示制御手段とを有することを特徴とする。
本発明によれば、撮像画角を広画角化せずに処理負荷が多くならないようにして、より臨場感を高めた複合現実空間を使用者に提供することができる。
本発明の実施形態に係る画像処理システムの内部構成例を示すブロック図である。 撮像と表示との光学的な関係を示す概略図である。 撮像部で得られる画像と表示部で表示される画像の関係を示した図である。 撮像画像と特徴検出用画像との関係を示した図である。 本発明の実施形態に係る位置推定部及び初期データ部の詳細な構成例を示すブロック図である。 特徴点の位置を推定する方法の概念を説明するための図である。 HMDの位置・姿勢情報及び特徴点情報の一例を示す図である。 本発明の実施形態に係る位置推定部による処理手順の一例を示すフローチャートである。 撮像画像における特徴点及び余裕領域を説明するための図である。 本発明の第1の実施形態における図8のS804の詳細な処理手順の一例を示すフローチャートである。 特徴検出用画像を中心方向に広げる例を示す概念図である。 特徴点を多く含むように特徴検出用画像を切出す例を説明するための図である。 余裕領域の座標及び大きさの一覧の例を示す図である。 余裕領域を特徴検出用画像として切出す例を説明するための図である。 本発明の第2の実施形態における図8のS804の詳細な処理手順の一例を示すフローチャートである。 図15のS1503の詳細の処理手順の一例を示すフローチャートである。 特徴点と余裕領域のサイズとから優先度順に並び変えた一覧の例を示す図である。 画素データを入力する順序を説明するための図である。 PCへ送信するデータの構造例を示す図である。 1ラインごとにPCにデータを送付する手順を説明するための図である。 PCへ送付するデータを送付順に並べた例を示す図である。 最も優先度の高い特徴点から遠い特徴点の優先度を高くする手順を説明するための図である。
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係る画像処理システムの内部構成例を示すブロック図である。本実施形態に係るシステムは、ユーザに対して複合現実感(MR)を提供する複合現実システムであり、ビデオシースルーHMD(以下、HMD)1と情報処理装置であるパーソナルコンピュータ(PC)2とで構成されている。
図1において、HMD1は、撮像部101により外界を撮像する。撮像部101で生成された撮像画像は、特徴検出用切出し部102によって撮像画像の一部が切出される。
位置推定部112は、初期データ部110及びセンサ部111が保持するデータからHMD1の位置・姿勢を追従する。なお、特徴検出用切出し部102は、この位置推定部112から撮像画像の切出し位置が指示される。また、撮像部101で生成された撮像画像は、画像合成用切出し部103にも送られ、後述する画像合成用の画像として撮像画像の一部が切出される。
特徴検出用切出し部102で切出された撮像画像(以下、特徴検出用画像と記す)と位置推定部112で指示された画像の切出し位置に関する情報は、インターフェース106を通してPC2の特徴検出部121に送信される。特徴検出部121は、切り出された撮像画像から特徴点を検出し、検出結果及び切出し位置の情報を位置・姿勢計測部122に送信する。
位置・姿勢計測部122は、切出し位置と特徴検出部121で検出された特徴点の位置とに基づいて、HMD1の位置・姿勢を計測し、計測結果をComputer Graphics(以下、CG)描写部123に送信する。CG描写部123は、CGデータ124と位置・姿勢の計測結果とからCG画像を描写する。描写されたCG画像はインターフェース125を通じてPC2からHMD1に送信される。
画像合成部104は、画像合成用切出し部103で切り出された撮像画像(以下、画像合成用画像と記す)と、CG描写部123で描写されたCG画像とを合成する。さらに、合成された画像を表示部105に表示する表示制御も行う。これにより複合現実感をユーザに提供することができる。
次に、画像合成用切出し部103の処理について、図2及び図3を参照しながら説明する。図2は、撮像と表示との光学的な関係を示す概略図である。図2において、光線200は撮像プリズム201を通り、撮像部202(図1の撮像部101に対応)によって撮像される。表示部210(図1の表示部105に対応)に表示される光線213は、表示プリズム212を経て目214に入射される。ここで、点203は撮像部101の中心で撮像された光であり、この光は表示部210の中心点211で再現される。本実施形態に係るHMD1では、光線200の光軸と光線213の光軸とが略一致している。
図3は、撮像部101で得られる画像と表示部105で表示される画像の関係を示した図である。図3の枠300は撮像部101で得られた画像の枠であり、枠301は画像合成用切出し部103によって撮像画像から切り出されて表示部105に表示される画像の枠である。また、点310は、図2の点203、211に相当する画素を示す。撮像画像の光軸と表示画像の光軸とを一致させるため、撮像画像から表示画像を切り出す位置は動かすことができず、常に同じでなければならない。
次に、特徴検出用切出し部102の処理について説明する。特徴検出用切出し部102によって切出される特徴検出用画像は、特徴点を検出するためだけに使用される画像であり、HMD1の表示部105の表示には使用されない。より多くの特徴点を含んだ領域で切出すことが重要であるため、特徴検出用切出し部102が切出すための切出し位置は常に固定されるものではない。
図4は、撮像画像と特徴検出用画像との関係を示した図である。図4において、枠401は特徴検出用切出し部102で切出された特徴検出用画像の枠を示している。なお、特徴検出用切出し部102では、位置推定部112から切出し位置が指定される。また、特徴検出用切出し部102は、指定された切出し位置をもとに切出される対象範囲の画像のみをインターフェース106へ送信するため、フレームバッファを不要とする。
ここで、図5を参照しながら特徴検出用切出し部102へ切出し位置を指定する具体的な処理について説明する。図5は、位置推定部112及び初期データ部110の詳細な構成例を示すブロック図である。本実施形態では、切出し位置の指定をするために、初期データ部110、センサ部111、及び位置推定部112が使用される。
図5において、初期データ部110は、特徴点の3次元配置位置を記録する特徴点位置記録部500と、HMD1を起動する時のHMD1の位置・姿勢情報を記録するHMD初期位置・姿勢記録部501とで構成されている。特徴点の3次元配置位置は、システム起動時にPC2の位置・姿勢計測部122で事前に計測した特徴点の3次元配置位置であり、インターフェース106を通して取得される。HMD1を起動する時のHMD1の位置・姿勢情報は、PC2の位置・姿勢計測部122でシステム起動時にHMD1の位置・姿勢を計測することによってインターフェース106を通して取得される。
位置推定部112は、位置・姿勢追従部510、位置・姿勢推定部511、データ受信部512、比較・補正部513、及び切出し位置決定部514で構成されている。位置・姿勢追従部510は、センサ部111から送信されるHMD1の位置・姿勢変化を追従し、HMD1の初期位置からの変位を測定し、測定結果を位置・姿勢推定部511に送信する。なお、センサ部111は位置・姿勢変化を検出するセンサ、例えばジャイロセンサや加速度センサなどである。
位置・姿勢追従部510で行うようなジャイロセンサや加速度センサで位置・姿勢を追従する方法は、追従時間が長くなるにつれて誤差を蓄積してしまうことがある。一方、PC2で計測するHMD1の位置・姿勢は、特徴点検出を行った結果を利用しているため、時間経過による誤差の蓄積が起こらない。そのため、後述する比較・補正部513は、センサ部111から追従したHMD1の位置・姿勢情報を、PC2で得られた位置・姿勢情報を用いて定期的に補正する。
位置・姿勢推定部511は、位置・姿勢追従部510で決定された初期位置からの変位と、HMD初期位置・姿勢記録部501に記録された初期の位置・姿勢情報から、HMD1の位置・姿勢を逐次推定する。そして、位置・姿勢の推定結果を比較・補正部513へ送信する。データ受信部512は、PC2の位置・姿勢計測部122で計測されたHMD1の位置・姿勢の計測結果を毎フレーム、あるいは数フレームに一回定期的に受信し、比較・補正部513へ送信する。
比較・補正部513は、位置・姿勢推定部511で推定されたHMD1の位置・姿勢とデータ受信部512で受信されたHMD1の位置・姿勢の計測結果とを比較し、その比較結果に基づいて位置・姿勢推定部511の推定結果を補正する。なお、比較・補正部513は内部にメモリを備えており、数フレーム分の位置・姿勢推定部511の推定結果を記録している。
また、データ受信部512から受け取るデータは、位置・姿勢推定部511の推定結果に比べて数フレーム遅延している。これは、位置推定部112の推定結果に基づいて特徴検出用切出し部102が切出した特徴検出用画像からPC2の位置・姿勢計測部122で位置・姿勢計測を行っているためである。そのため、比較・補正部513は、データ受信部512から受信した位置・姿勢情報を、位置・姿勢推定部511の同時刻の位置・姿勢情報と比較して補正情報を求め、最新の位置・姿勢推定部511の位置・姿勢情報を補正する。
さらに比較・補正部513は、位置・姿勢情報の補正結果と位置・姿勢の推定精度の情報とを、切出し位置決定部514へ送信する。ここで、推定精度とは後述する特徴点を含んだ余裕領域の大きさを決定するパラメータであり、各フレーム、特徴点ごとに値を持つ。この推定精度は比較・補正部513によって、比較・補正部513がデータを比較した時に決定される。推定精度の値は、比較した時刻と現時刻との差が大きいほど大きな値にする等の方法が考えられる。
切出し位置決定部514は、比較・補正部513から送られるHMD1の位置・姿勢情報及び推定精度の情報、並びに特徴点位置記録部500から送られる特徴点の3次元配置情報から、撮像画像上の特徴点の位置と大きさとを推定する。
図6は、特徴点の位置を推定する方法の概念を説明するための図である。なお、図6において、水平・垂直方向共に60°の撮像画角を持つものとする。
図6には、HMD1の位置・姿勢と特徴点との位置関係を、後述する特徴点の位置ベクトルと姿勢方向ベクトルとを含む平面で示している。図6の点600はHMD1の位置を示しており、ベクトル601はHMD1の姿勢方向ベクトルの向きを示し、ベクトル602はHMD1の位置を原点とした特徴点の位置ベクトルを示す。また、ベクトル603、604のなす角度が画角である60°に相当し、HMD1に撮像される範囲は、ベクトル603、604の間の領域となる。
特徴点が撮像画像に含まれるか否かは、ベクトル601、602のなす角度θが30°以下であるか否かによって決まる。また、ベクトルの内積と大きさとの関係からこのなす角度の余弦(cosθ)は容易に求めることができる。図6に示す例の場合、cos30°≒0.87<cosθであれば、HMD1は特徴点を撮像することができる。そして、特徴点が撮像されると判明した場合、撮像画面に表示される大きさの計算を行う。撮像画面上の大きさは、HMD1から離れると小さくなると仮定することができる。そのため、撮像画面上の大きさ判定を「実寸/距離」で行う。具体的な方法については、以下、図7を参照しながら説明する。
図7に示す位置は、世界座標系での位置を示し、姿勢は正面の向きを大きさ1のベクトルで表し、大きさは特徴点の実寸大を示す。正面の向きとは、HMD1であれば撮像部101の撮像方向、特徴点であれば、特徴点の表を向く向きである。2つの姿勢方向が真逆である時に正面を向きあった関係となる。
図7(a)は、比較・補正部513から得られたHMD1の位置・姿勢情報を示し、図7(b)は、特徴点位置記録部500から読み出す1つ分の特徴点情報を示している。まず、HMD1から水平・垂直方向の画角60°の画面内に特徴点が撮像されるかどうかを計算する。なお、図7(c)は、HMD1から見た特徴点の位置ベクトル及びHMD1の姿勢方向ベクトルを示す。この2つのベクトルの大きさと内積とからcosθ≒0.95と計算でき、cos30°より大きいため、この特徴点の中心は撮像されることがわかる。同様にして特徴点を囲む領域で上記判定を行う。特徴点が撮像されることが判明し、撮像画面上の大きさを計算すると、撮像画面上の一辺の長さは2cm/(10√10)cmで相対値は約0.063である。なお、特徴点自体も姿勢情報を持っているため、この姿勢情報も用いて大きさ等を求めてもよい。
切出し位置決定部514は、上記方法で求めた撮像画像上の特徴点の位置と、比較・補正部513の推定精度とから撮像画像の切出し位置を決定し、特徴検出用切出し部102に切出し位置を指示する。特徴検出用切出し部102で切出された特徴検出用画像の特徴点からHMD1の位置・姿勢計測を行うため、基本的により多くの特徴点が撮像されている場所を切出すことが好ましい。しかし、撮像画像上の小さな特徴点に比べて大きな特徴点からの方が精度よく位置・姿勢計測を行うことができるため、本実施形態では、複数の特徴点のうち、より大きいものの優先度が高いものとし、大きい特徴点を含むように切出す。
図8は、位置推定部112による処理手順の一例を示すフローチャートである。
まず、S800において、位置・姿勢追従部510がセンサ部111から位置・姿勢の変化の情報を取得する。そして、S801において、位置・姿勢追従部510初期位置からの変位を測定することによって位置・姿勢情報を追従する。
次に、S802において、位置・姿勢推定部511は、S801の追従結果とHMD初期位置・姿勢記録部501に記録されている初期データとから現在の位置・姿勢を推定する。そして、S803において、比較・補正部513は、データ受信部512から得られた位置・姿勢情報とS802の推定結果とを比較し、推定精度を算出するとともに最新のS802の推定結果を補正する。次に、S804において、切出し位置決定部514は、S803の推定精度と補正結果と特徴点位置記録部500のデータとから撮像画面上の特徴点の位置を推定し、特徴検出用切出し部102に切出し位置及びサイズを指示する。
ここで、図8のS804における切出し位置決定部514の処理の詳細について、図9及び図10を参照しながら説明する。図9の枠901が示す余裕領域は、撮像画面上の特徴点の推定位置に対し、特徴点の大きさと比較・補正部513から送られた推定精度に応じた大きさとで特徴点の推定位置の周りを囲んだ領域である。
図10は、図8のS804の詳細な処理手順の一例を示すフローチャートである。
まず、S1000において、切出し位置決定部514は、前述した方法で、S803の推定精度と補正結果と特徴点位置記録部500のデータとから撮像画面上の特徴点の位置を推定する。次に、S1001において、推定した特徴点の中で優先度を決定する。図9に示す例の場合は、左側の特徴点は右側の特徴点よりも大きいと推定されるため、左側の特徴点の優先度を高くする(S151)。
次に、S1002において、各特徴点に対して特徴点の大きさと推定精度とから余裕領域を決定する。図9に示す例では、枠901に囲まれた余裕領域を決定する。そして、S1003において、特徴検出用画像の切出し位置を、S1001で決定した最も優先度の高い特徴点を含む余裕領域を含むように決定する。本実施形態では、図9の枠401に示すように特徴検出用画像を切出す数は常に1つであり、同じサイズとする。そのため、余裕領域の外側の切出し領域に関しては、特徴点の位置に対して撮像画像の中心方向に広げた領域に決定される。
図11は、特徴検出用画像を中心方向に広げる例を示す概念図である。図11(a)に示す例では、優先度の高い特徴点が撮像画像に対して左下にあるため、余裕領域から右上に広げた領域に決定する。図11(b)に示す例では、優先度の高い特徴点が撮像画像に対して左側にあるため、余裕領域から右に広げた領域に決定する。図11(c)に示す例では、図11(b)に示した例と同様に余裕領域から右に広げた領域に決定するが、撮像画像からはみ出ないように領域に決定する。このように撮像画像の中心に対して対角線側に特徴検出用画像を切出すことにより、遠くに複数存在する特徴点を使用することも可能になる。遠くに複数存在する特徴点を使用すると、位置・姿勢の計測精度が良好になるため、MRシステムにおいて有効である。
また、上記方法では、優先度が一番高い特徴点から中心方向に広げた領域を切出したが、できるだけ多くの特徴点を使用できるように切出す方法も考えられる。以下、この方法について説明する。
図12(a)に示す例は、前述した方法で切出し位置を決定した例を示している。この方法では、切出し位置を一番優先度の高い特徴点のみで決定したため、特徴点C、Dを特徴検出用画像に含まれない。これに対して図12(b)に示す例では、一番優先度の高い特徴点を必ず含み、かつできるだけ他の特徴点の余裕領域も含んで切出している。この方法で切出す例について図13を参照しながら説明する。
図13は、図12に示した各特徴点の座標の一覧の例を示す図である。切出し位置決定部514は、撮像画像に含まれる各特徴点の余裕領域を推定し、撮像画像の左上を原点とした座標から、余裕領域の大きさと優先度とを計算する。ここで、座標Xmin、Xmax、Ymin、Ymaxはそれぞれ各特徴点の座標の最大値及び最小値を示す。また、切出す領域のサイズはX方向に500ピクセルとし、Y方向に300ピクセルとする。
まず、優先度が1である特徴点Aを必ず含み、優先度が2である特徴点Bも含む切出し方法があるか否かを確認する。図13に示す例では、特徴点Aの座標Xminが最も小さく100ピクセルで、特徴点Bの座標Xmaxが最も大きく590ピクセルであり、切出し枠が500ピクセルである。このため、X方向は切出す領域の枠内に入り、10ピクセルだけX方向に移動可能である。同様に特徴点Aの座標Yminが最も小さく100ピクセルで、特徴点Aの座標Ymaxが最も大きく300ピクセルで、さらに特徴点Bの座標Ymaxが250ピクセルであり、切出し枠が300ピクセルである。このため、Y方向も切出す領域の枠内に入り、Y方向も100ピクセルだけ移動可能である。
次に、優先度が3である特徴点Cが枠内に入るか否かを確認する。図13に示す例では、最も小さい特徴点Aの座標Xminが100ピクセルで、最も大きい特徴点Bの座標Xmaxが590ピクセルで、さらに特徴点Cの座標Xmaxが520ピクセルである。このため、X方向は切出す領域の枠内に入る。また、特徴点Cの座標Yminが最も小さく50ピクセルで、最も大きい特徴点Aの座標Ymaxが300ピクセルであり、この間の幅は250ピクセル以下であるため、Y方向も特徴点A、B、Cは同じ枠で切出すことができる。
次に、優先度が4である特徴点Dが枠内に入るか否かを確認する。図13に示す例では、最も小さい特徴点Aの座標Xminが100ピクセルで、最も大きい特徴点Bの座標Xmaxが590ピクセルであり、さらに特徴点Dの座標Xmaxが500ピクセルである。その間の幅が500ピクセル以下であるためX方向は切出す領域の枠内に入る。一方、最も小さい特徴点Cの座標Yminが50ピクセルで、特徴点Dの座標Ymaxが最も大きく470ピクセルであり、その間の幅が300ピクセルを超える。このため、特徴点Dは同じ切出し枠には入らない。
すべての特徴点に対して確認が終わったため、特徴点Aの座標Xmin、特徴点Cの座標Ymin(この場合、100、50)から、切出し枠のサイズに合わせた領域で画面を切出す。この時、特徴点Aの座標Xmin、特徴点Cの座標Yminに必ずしも切出し枠を合わせる必要はなく、座標Xmin、座標Xmaxや座標Ymin、座標Ymaxの中心が切出し枠の中心に合うように切出してもよい。このように優先度の高い特徴点から順に処理を行うことにより切出し位置を決定する。なお、ある優先度の特徴点が切出し枠に入らなくても、それより低い優先度の特徴点がある場合は、その特徴点についても同様の処理を行う。
なお、本実施形態では、撮像画像上の特徴点の大きさが大きいものを優先度の高い特徴点とした。しかし、実際は特徴点を正面から見るのではなく斜めから見ることがある。このような場合、大きさだけで判断を行うのではなく角度による補正を行って優先度を設定してもよい。また、撮像画面上の特徴点の大きさで優先度を決定する以外にも、特定の特徴点を常に優先度を高くしたり、ある一定以上の大きさを持つ特徴点の優先度を同じにしたりする方法も考えられる。この場合でも、同様の処理により切出し枠を決定することができる。
以上のように本実施形態によれば、特徴点を検出するために必要な領域を推定して撮像画像を抽出するため、システムの負荷を増やさないようにして高精度に位置・姿勢を計測することができる。
(第2の実施形態)
本実施形態では、撮像画像から優先度の高い複数の特徴点の近辺のみをそれぞれ切出して位置・姿勢を計測する方法について説明する。この手法を用いることにより第1の実施形態と比べてより伝送負荷を抑えつつ高精度に位置・姿勢を計測することができる。なお、本実施形態に係る画像処理システムの内部構成例については第1の実施形態と同様であるため、説明は省略する。本実施形態では、第1の実施形態と異なる点についてのみ説明する。
第1の実施形態では、大きい特徴点の優先度を高くし、優先度の高い特徴点を含むように1つの特徴検出用画像を切出していたが、本実施形態では特徴点を検出するために必要なデータ量が一定以下になるように複数の特徴検出用画像を切出す。図14に示すように、本実施形態では、優先度の高い順に余裕領域を計算し、各特徴点の余裕領域1401を特徴検出用画像として切出す。ただし、すべての特徴点の余裕領域を切出すのではなく、余裕領域の合計が事前に設定した一定サイズ以下のデータ量で収まるように切出す。
図15は、本実施形態における切出し位置決定部514による図8のS804の詳細な処理手順の一例を示すフローチャートである。
まず、S1500において、切出し位置決定部514は図10のS1000と同様の方法で撮像画像上の特徴点の位置を推定する。次に、S1501において、複数の特徴点の優先度を図10のS1001と同様、あるいは後述する方法により決定する。そして、S1502において、図10のS1002と同様の手順で余裕領域を決定する。次に、S1503において、優先度の高い特徴点の余裕領域を優先的に切出す。
図16は、図15のS1503の詳細の処理手順の一例を示すフローチャートである。また、図17は、特徴点と余裕領域のサイズとから優先度順に並び変えた一覧の例を示す図である。以下、図17に示す特徴点を例に余裕領域を切出す例について説明する。
まず、S1600において、切出し位置決定部514は、図17(a)に示す特徴点と余裕領域とが対応したデータを、図17(b)に示すように優先度順に並び変える。そして、S1601において、余裕領域の合計サイズを計算するためにデータ量の合計値を0にセットし、優先度の一番高いデータを演算対象データとしてセットする。
次に、S1602において、セットされた演算対象データが有効であるか否かを判定する。ここで、演算対象データが無効である場合とは、すべての特徴点に対して演算を終えた場合である。この判定の結果、演算対象データが有効である場合は、S1603において、余裕領域の合計サイズに演算対象データの余裕領域のサイズを足す。
次に、S1604において、足された余裕領域の合計サイズが一定値(図17に示す例では一定値を10000とする。)以下であるか否かを確認する。この確認の結果、合計サイズが一定値以下である場合は、S1605において、演算対象データの余裕領域の切出し位置及び大きさを決定する。そして、S1606において、演算対象データを次に優先度の高いデータに切り替え、S1602に戻る。
一方、S1602の判定の結果、演算対象データが無効な場合、あるいはS1604の確認の結果、合計サイズが一定値より大きくなった場合は、S1607に進む。そして、S1607において、S1605で決定した切出し位置及び大きさを特徴検出用切出し部102に指示する。図17に示す例の場合、図17(c)に示すように優先度の高い3つの特徴点までが余裕領域の合計サイズである10000以下に収まる。よって、切出し位置決定部514は、特徴検出用切出し部102に3つの特徴点A、C、Bの余裕領域の切出し位置を指示する。
このように本実施形態では、第1の実施形態とは異なり、複数個所の特徴検出用画像をPC2に送ることになる。以下、特徴検出用画像の送信方法について説明する。
撮像部101から送られてくる撮像画像は、例えば図18に示すように撮像画像上の左上の画素データから右下の画素データの順に入力される。これに伴い、1ラインごとにPC2にデータを送付する方法について図19〜図21を参照しながら説明する。
図19は、PC2へ送付する特徴検出用画像のデータ構造の一例を示す図である。特徴検出用切出し部102は、特徴検出用画像を送る前に、各切出し領域の切出し位置及びサイズの情報をフレームヘッダとして先にPC2へ送る。
次に、図20のライン2001上の特徴点Aの領域のデータをPC2へ送付する際には、図19に示すように画素データに領域の識別子を付加したデータ1901をPC2へ送る。そして、図20のライン2002上の特徴点A、Bの領域のデータをPC2へ送付する際には、図19に示すように画素データに領域の識別子を付加したデータ1902、1903をPC2に送る。さらに図20のライン2003上の特徴点Aの領域のデータをPC2へ送る際には、図19に示すように画素データに領域の識別子を付加したデータ1904をPC2に送る。
図21は、PC2へ送付するデータを送付順に並べた例を示す図である。図21(a)には、図20のライン2001上の特徴点Aの余裕領域の画素データ群を示しており、図21(b)には、図20のライン2002上の特徴点A、Bの余裕領域の画素データ群を示している。さらに、図21(c)には、図20のライン2003上の特徴点Aの余裕領域の画素データ群を示している。前述したように、最初にフレームヘッダとして、各切出し領域の識別子、切出し位置、行数及び列数のデータをPC2へ送る。その後、各識別子の画素データを順次送る。
必要以上の精度で位置・姿勢を計測するため、ある一定以上の大きさを持つ特徴点についてはすべての情報を送る必要がない。そのため、PC2へ画素データを送付する際に、ある一定以上の大きさを持つ特徴点に対しては、データを1行ずつ、1列ずつなど間引いてデータをPC2へ送り、より多くの特徴点を送信するようにしてもよい。
次に、優先度を決定する方法について説明する。第1の実施形態では、撮像画像上の特徴点の大きさ順に優先度を決定する方法、及び特定の特徴点の優先度を常に高くする方法について説明した。前者は近づいた場所の精度を重視した場合の使用を想定しており、後者は特定の場所の精度を重視した場合の使用を想定している。本実施形態でも第1の実施形態と同様の手順で優先度を決定してもよい。
また、撮像画像中のある領域周辺のみの特徴点を用いた場合と、撮像画像の様々な場所の特徴点を用いた場合とでは、後者の方が空間全体において高精度にHMD1の位置・姿勢を計測できる場合が多い。そこで、空間全体において高精度にHMD1の位置・姿勢を計測する場合を想定し、撮像画像の様々な場所の特徴点を使用する方法について、図22を参照しながら説明する。
図22に示す例では、特徴点の大きさから最も優先度の高い特徴点Aを決定した後、特徴点Aから一番遠い特徴点Bを2番目に高い優先度に決定する。以下、切出し位置決定部514は、余裕領域の合計データ量が一定値を超えないように制御し、特徴点Dを3番目の優先度に決定し、特徴点Cを4番目の優先度に決定する。図15のS1501では、この方法により優先度を決定してもよい。最も優先度の高い特徴点から遠い特徴点の優先度を高くする方法は、HMD1で複数の撮像画像を取得できる場合にも、同様に適応することができる。また、本実施形態では、撮像画像及び合成用画像(表示用画像)の解像度や画角によらずに適応することができる。
以上のように本実施形態によれば、優先度が決定された複数の特徴点の余裕領域を特徴検出用画像として切出すことにより、特徴点の含有率が高いデータを抽出することができる。これにより、伝送負荷を一定以下に抑えるとともに高精度に位置・姿勢を計測することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 撮像部
102 特徴検出用切出し部
103 画像合成用切出し部
104 画像合成部
105 表示部
112 位置推定部
122 位置・姿勢計測部
123 CG描写部

Claims (11)

  1. 外界を撮像して撮像画像を生成する撮像手段と、
    前記撮像手段の位置及び姿勢を追従する追従手段と、
    前記追従手段によって追従された前記撮像手段の位置及び姿勢に基づいて前記撮像画像における特徴点の位置を推定する推定手段と、
    前記撮像手段によって生成された撮像画像から、合成用画像を切出すとともに、前記推定手段によって推定された特徴点の位置に基づいて特徴検出用画像を切出す切出し手段と、
    前記切出し手段によって切出された特徴検出用画像から特徴点を検出して前記撮像手段の位置及び姿勢を計測する計測手段と、
    前記計測手段によって計測された位置及び姿勢に基づいてCG画像を生成する生成手段と、
    前記切出し手段によって切出された合成用画像と、前記生成手段によって生成されたCG画像とを合成する合成手段と、
    前記合成手段によって合成された画像を表示部に表示する表示制御手段とを有することを特徴とする画像処理システム。
  2. 前記計測手段によって計測された位置及び姿勢と、前記追従手段によって追従された位置及び姿勢とを比較する比較手段と、
    前記比較手段による比較結果に基づいて前記追従手段によって追従された位置及び姿勢を補正する補正手段とをさらに有し、
    前記推定手段は、前記補正手段によって補正された位置及び姿勢に基づいて前記撮像画像における特徴点を推定することを特徴とする請求項1に記載の画像処理システム。
  3. 前記推定手段は、前記撮像画像における優先度に応じた特徴点の位置を推定し、
    前記切出し手段は、前記推定手段によって位置が推定された特徴点のうち、前記優先度に応じて特徴点を含むように前記特徴検出用画像を切出すことを特徴とする請求項1又は2に記載の画像処理システム。
  4. 前記推定手段は、前記特徴点の大きさを推定し、該大きさに応じて前記優先度を決定することを特徴とする請求項3に記載の画像処理システム。
  5. 前記推定手段は、特定の特徴点については同じ優先度に決定することを特徴とする請求項3に記載の画像処理システム。
  6. 前記推定手段は、優先度の最も高い特徴点から最も離れた特徴点を次に優先度の高い特徴点として決定することを特徴とする請求項3に記載の画像処理システム。
  7. 前記切出し手段は、複数の特徴検出用画像を切出し、前記複数の特徴検出用画像の合計のデータ量が一定値を超えないようにすることを特徴とする請求項1〜6の何れか1項に記載の画像処理システム。
  8. 外界を撮像して撮像画像を生成する撮像手段と、
    前記撮像手段の位置及び姿勢を追従する追従手段と、
    前記追従手段によって追従された前記撮像手段の位置及び姿勢に基づいて前記撮像画像における特徴点の位置を推定する推定手段と、
    前記撮像手段によって生成された撮像画像から、合成用画像を切出すとともに、前記推定手段によって推定された特徴点の位置に基づいて特徴検出用画像を切出す切出し手段と、
    前記切出し手段によって切出された特徴検出用画像を、前記特徴検出用画像から計測する前記撮像手段の位置及び姿勢に応じたCG画像を生成する情報処理装置に送信する送信手段と、
    前記情報処理装置から前記CG画像を受信する受信手段と、
    前記切出し手段によって切出された合成用画像と、前記受信手段によって受信されたCG画像とを合成する合成手段と、
    前記合成手段によって合成された画像を表示部に表示する表示制御手段とを有することを特徴とする画像処理装置。
  9. 外界を撮像して撮像画像を生成する撮像手段の位置及び姿勢を追従する追従工程と、
    前記追従工程において追従された前記撮像手段の位置及び姿勢に基づいて前記撮像画像における特徴点の位置を推定する推定工程と、
    前記撮像手段によって生成された撮像画像から、合成用画像を切出すとともに、前記推定工程において推定された特徴点の位置に基づいて特徴検出用画像を切出す切出し工程と、
    前記切出し工程において切出された特徴検出用画像から特徴点を検出して前記撮像手段の位置及び姿勢を計測する計測工程と、
    前記計測工程において計測された位置及び姿勢に基づいてCG画像を生成する生成工程と、
    前記切出し工程において切出された合成用画像と、前記生成工程において生成されたCG画像とを合成する合成工程と、
    前記合成工程において合成された画像を表示部に表示する表示制御工程とを有することを特徴とする画像処理方法。
  10. 外界を撮像して撮像画像を生成する撮像手段の位置及び姿勢を追従する追従工程と、
    前記追従工程において追従された前記撮像手段の位置及び姿勢に基づいて前記撮像画像における特徴点の位置を推定する推定工程と、
    前記撮像手段によって生成された撮像画像から、合成用画像を切出すとともに、前記推定工程において推定された特徴点の位置に基づいて特徴検出用画像を切出す切出し工程と、
    前記切出し工程において切出された特徴検出用画像を、前記特徴検出用画像から計測する前記撮像手段の位置及び姿勢に応じたCG画像を生成する情報処理装置に送信する送信工程と、
    前記情報処理装置から前記CG画像を受信する受信工程と、
    前記切出し工程において切出された合成用画像と、前記受信工程において受信されたCG画像とを合成する合成工程と、
    前記合成工程において合成された画像を表示部に表示する表示制御工程とを有することを特徴とする画像処理方法。
  11. 外界を撮像して撮像画像を生成する撮像手段の位置及び姿勢を追従する追従工程と、
    前記追従工程において追従された前記撮像手段の位置及び姿勢に基づいて前記撮像画像における特徴点の位置を推定する推定工程と、
    前記撮像手段によって生成された撮像画像から、合成用画像を切出すとともに、前記推定工程において推定された特徴点の位置に基づいて特徴検出用画像を切出す切出し工程と、
    前記切出し工程において切出された特徴検出用画像を、前記特徴検出用画像から計測する前記撮像手段の位置及び姿勢に応じたCG画像を生成する情報処理装置に送信する送信工程と、
    前記情報処理装置から前記CG画像を受信する受信工程と、
    前記切出し工程において切出された合成用画像と、前記受信工程において受信されたCG画像とを合成する合成工程と、
    前記合成工程において合成された画像を表示部に表示する表示制御工程とをコンピュータに実行させることを特徴とするプログラム。
JP2013091520A 2013-04-24 2013-04-24 画像処理システム、画像処理装置及び画像処理方法 Expired - Fee Related JP5769755B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013091520A JP5769755B2 (ja) 2013-04-24 2013-04-24 画像処理システム、画像処理装置及び画像処理方法
US14/258,952 US9355497B2 (en) 2013-04-24 2014-04-22 Image processing system, image processing apparatus, and image processing method for combining CG image with captured image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013091520A JP5769755B2 (ja) 2013-04-24 2013-04-24 画像処理システム、画像処理装置及び画像処理方法

Publications (3)

Publication Number Publication Date
JP2014215755A true JP2014215755A (ja) 2014-11-17
JP2014215755A5 JP2014215755A5 (ja) 2014-12-25
JP5769755B2 JP5769755B2 (ja) 2015-08-26

Family

ID=51788881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013091520A Expired - Fee Related JP5769755B2 (ja) 2013-04-24 2013-04-24 画像処理システム、画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US9355497B2 (ja)
JP (1) JP5769755B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018073366A (ja) * 2016-11-04 2018-05-10 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
WO2021130860A1 (ja) * 2019-12-24 2021-07-01 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
JP7494862B2 (ja) 2019-12-24 2024-06-04 日本電気株式会社 情報処理装置、制御方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9607235B2 (en) * 2013-03-14 2017-03-28 Facebook, Inc. Image cropping according to points of interest
EP3255870A4 (en) * 2015-02-02 2018-09-12 OCR Systems Inc. Optical terminal device and scan program
JP6494439B2 (ja) * 2015-06-05 2019-04-03 キヤノン株式会社 通信装置およびその制御方法
US10242491B2 (en) * 2016-07-22 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus for determining image clip position, method thereof, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259992A (ja) * 2001-03-06 2002-09-13 Mixed Reality Systems Laboratory Inc 画像処理装置およびその方法並びにプログラムコード、記憶媒体
JP2007219082A (ja) * 2006-02-15 2007-08-30 Canon Inc 複合現実感表示システム
JP2010092436A (ja) * 2008-10-10 2010-04-22 Canon Inc 画像処理装置、画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259992A (ja) * 2001-03-06 2002-09-13 Mixed Reality Systems Laboratory Inc 画像処理装置およびその方法並びにプログラムコード、記憶媒体
JP2007219082A (ja) * 2006-02-15 2007-08-30 Canon Inc 複合現実感表示システム
JP2010092436A (ja) * 2008-10-10 2010-04-22 Canon Inc 画像処理装置、画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018073366A (ja) * 2016-11-04 2018-05-10 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
WO2021130860A1 (ja) * 2019-12-24 2021-07-01 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
JP7494862B2 (ja) 2019-12-24 2024-06-04 日本電気株式会社 情報処理装置、制御方法及びプログラム

Also Published As

Publication number Publication date
US20140320526A1 (en) 2014-10-30
JP5769755B2 (ja) 2015-08-26
US9355497B2 (en) 2016-05-31

Similar Documents

Publication Publication Date Title
US10499002B2 (en) Information processing apparatus and information processing method
US9781341B2 (en) Image processing system, information processing device, information storage device, and image processing method
JP5769755B2 (ja) 画像処理システム、画像処理装置及び画像処理方法
US8768043B2 (en) Image display apparatus, image display method, and program
US11086395B2 (en) Image processing apparatus, image processing method, and storage medium
US10783654B2 (en) Information processing apparatus, information processing method, and recording medium
US9361731B2 (en) Method and apparatus for displaying video on 3D map
JP6176541B2 (ja) 情報表示装置、情報表示方法及びプログラム
US20160210785A1 (en) Augmented reality system and method for positioning and mapping
US9781340B2 (en) Image processing system, information processing device, information storage device, and image processing method
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
US20170374256A1 (en) Method and apparatus for rolling shutter compensation
CN112655202B (zh) 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正
US20200242335A1 (en) Information processing apparatus, information processing method, and recording medium
CN113454685A (zh) 基于云的相机标定
WO2015072091A1 (ja) 画像処理装置、画像処理方法及びプログラム記憶媒体
CN110650284A (zh) 图像拍摄控制方法、装置、设备及存储介质
JP2012146305A (ja) ウィンドウ状の拡張現実を提供する装置および方法
JP2013038454A (ja) 画像処理装置および方法、並びにプログラム
JPWO2018189880A1 (ja) 情報処理装置、情報処理システム、および画像処理方法
US11694409B1 (en) Augmented reality using a split architecture
US20210037230A1 (en) Multiview interactive digital media representation inventory verification
CN111949114A (zh) 图像处理方法、装置及终端
US20230127539A1 (en) Information processing apparatus, information processing method, and information processing program
JP2013197803A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150623

R151 Written notification of patent or utility model registration

Ref document number: 5769755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees