JPWO2014069247A1 - 画像処理装置および画像処理方法、並びにプログラム - Google Patents

画像処理装置および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JPWO2014069247A1
JPWO2014069247A1 JP2014544425A JP2014544425A JPWO2014069247A1 JP WO2014069247 A1 JPWO2014069247 A1 JP WO2014069247A1 JP 2014544425 A JP2014544425 A JP 2014544425A JP 2014544425 A JP2014544425 A JP 2014544425A JP WO2014069247 A1 JPWO2014069247 A1 JP WO2014069247A1
Authority
JP
Japan
Prior art keywords
marker
image
detection
markers
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014544425A
Other languages
English (en)
Other versions
JP6418449B2 (ja
Inventor
秀敏 永野
秀敏 永野
健宏 濱田
健宏 濱田
博憲 服部
博憲 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014069247A1 publication Critical patent/JPWO2014069247A1/ja
Application granted granted Critical
Publication of JP6418449B2 publication Critical patent/JP6418449B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/275Generation of keying signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本開示は、画像処理における演算負荷を抑制することができるようにする画像処理装置および画像処理方法、並びにプログラムに関する。粗検出用成分検出部は、画像に映されている複数のマーカーを検出する。マーカー選択部は、粗検出用成分検出部により検出された複数のマーカーの中から、所定数のマーカーを選択する。詳細検出用成分検出部は、マーカー選択部により選択された所定数のマーカーを、粗検出用成分検出部よりも詳細に検出する。推定処理部は、詳細検出用成分検出部による検出結果に基づいて、マーカーの位置および姿勢を推定する。本技術は、例えば、カメラで撮影した人物の背景に、別の背景画像を合成する画像処理装置に適用できる。

Description

本開示は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、画像処理における演算負荷を抑制することができるようにした画像処理装置および画像処理方法、並びにプログラムに関する。
従来、既知のマーカーをカメラで撮影した画像を解析して、画像上のマーカーの位置および姿勢を推定するとともに、マーカーとカメラとの相対的な位置および姿勢を求める技術が開発されている。
ところで、カメラとマーカーとの距離が遠いために画像に映されるマーカーが小さくなったり、カメラを移動または回転させたときにマーカーが画角から外れてしまったりすることがある。このため、複数のマーカーを配置し、カメラの画角内でマーカーが比較的に大きめに撮影されるような工夫が施される。
例えば、特許文献1には、単一のマーカー内に幾何学的な特徴を配することにより、単一のマーカーのみでマーカーとカメラとの相対的な位置および姿勢を推定可能とし、複数のマーカーの画像上の位置によるマーカーとカメラとの相対的な位置および姿勢の推定結果と、単一のマーカーによるマーカーとカメラとの相対的な位置および姿勢の推定結果とを、画像内に映るマーカーの状況に応じて切り替える技術が開示されている。
特開2002−90118号公報
ところで、固定カメラを設置する場合のキャリブレーションなど、カメラの位置や姿勢の変化が少ない場合には、マーカーを適切な位置に配置することでマーカー数の増大をある程度抑えることが可能である。しかしながら、カメラを自由に動かすような場合には、撮影範囲内に比較的密にマーカーを配置する必要がある。特に、推定されたマーカーとカメラの相対的な位置および姿勢を用いて、コンピュータグラフィックなどを違和感なく実写映像に重畳する場合には高精度な推定結果が必要となる。このように複数のマーカーに対する推定処理の高精度化に伴って演算負荷が上昇してしまうことになり、推定処理装置の演算資源を考慮すると、演算負荷を抑制することが必要である。
本開示は、このような状況に鑑みてなされたものであり、画像処理における演算負荷を抑制することができるようにするものである。
本開示の一側面の画像処理装置は、画像に映されている複数のマーカーを検出する第1の検出部と、前記第1の検出部により検出された複数の前記マーカーの中から、所定数の前記マーカーを選択する選択部と、前記選択部により選択された所定数の前記マーカーを、前記第1の検出部より詳細に検出する第2の検出部と、前記第2の検出部による検出結果に基づいて、前記マーカーの位置および姿勢を推定する推定部とを備える。
本開示の一側面の画像処理方法またはプログラムは、画像に映されている複数のマーカーを検出し、検出された複数の前記マーカーの中から、所定数の前記マーカーを選択し、選択された所定数の前記マーカーを、より詳細に検出し、その検出結果に基づいて、前記マーカーの位置および姿勢を推定するステップを含む。
本開示の一側面においては、画像に映されている複数のマーカーが検出され、それらの複数のマーカーの中から、所定数のマーカーが選択され、所定数のマーカーが、より詳細に検出されて、その検出結果に基づいて、マーカーの位置および姿勢が推定される。
本開示の一側面によれば、画像処理における演算負荷を抑制することができる。
カメラで撮影した人物の背景に、別の背景画像を合成する画像処理について説明する図である。 本技術を適用した画像処理システムの第1の実施の形態の構成例を示すブロック図である。 画像処理システムにおいて使用されるマーカーの一例を示す図である。 マーカーの概略補正およびマッチングについて説明する図である。 マーカーの変形例を示す図である。 マーカー位置推定処理を説明するフローチャートである。 詳細検出の対象として選択する所定数のマーカーについて説明する図である。 手持ちボードのためのクロマキー撮影状況について説明する図である。 本技術を適用した画像処理システムの第2の実施の形態の構成例を示すブロック図である。 マーカー位置推定処理を説明するフローチャートである。 詳細検出の対象として選択する所定数のマーカーについて説明する図である。 実空間に仮想オブジェクトを配置するためのマーカー配置について説明する図である。 マーカーの変形例を示す図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
まず、図1を参照して、カメラで撮影した人物の背景に、別の背景画像を合成する画像処理について説明する。
一般的に、カメラが固定されている場合には、いわゆるブルーバックの背景で人物の撮影を行い、クロマキー処理を行うことによって、カメラで撮影された映像のブルーバック部分を背景画像に置き換える画像処理が行われる。一方、カメラが移動または回転する場合には、カメラの移動または回転に応じて背景画像を変化させる必要がある。このため、カメラの移動および方向の変化を取得して、その変化に合わせて映像のブルーバック部分を背景画像に置き換える画像処理が行われる。しかしながら、カメラの移動および方向の変化量を検出可能なセンサーをカメラに取り付け、そのセンサーの出力に従って背景画像を置き換えるようなシステムは、高価なものになると想定される。
そこで、図1に示すように、ブルーバックの背景にマーカーと呼ばれる標を配置して撮影することで、画像処理によってカメラの移動および方向の変化量を推定し、その変化に合わせて映像のブルーバック部分を背景画像に置き換える画像処理が提案されている。
図1のAには、カメラによる被写体の撮影風景が示されており、図1のBには、クロマキー処理を施して、背景画像を張り付けることにより得られる合成結果が示されている。
図1のAに示すように、カメラ11が人物12を被写体として撮影する場合、人物12の背後に青い壁面13が配置され、壁面13には、複数のマーカー14が張り付けられる。また、図1のAには、カメラ11の画角に従って撮影される範囲が実線の矩形により示されており、この矩形内の領域が、カメラ11により撮影される撮影画像15となる。このとき、撮影画像15に所定数以上のマーカー14が入るように複数のマーカー14が壁面13に配置され、一部のマーカー14が撮影画像15の枠外に移動(フレームアウト)しても、他のマーカー14が撮影画像15の枠内に入るようになっている。
このような複数のマーカー14を利用して、壁面13の一面にぴったりと背景画像を張り付ける画像処理を行うことで、カメラ11が移動または回転しても違和感の少ない合成画像を作成することができる。
このような画像処理を施すことにより、図1のBに示すように、人物12の背後に背景画像16が張り付けられる。図1のBでは、破線の矩形により示される領域が、カメラ11により撮影される撮影画像15に対して画像処理が行われて出力される出力画像17を表している。背景画像16は、出力画像17よりも広い領域に張り付けられ、カメラ11が移動または回転すると、この出力画像17が移動する形になって、人物12とともに出力画像17に写り込む背景画像16が変化するため、自然な出力画像を得ることができる。
このような出力画像17を出力するためには、カメラ11により撮影された撮影画像15における複数のマーカー14の位置を正確に取得し、マーカー14の位置に合わせて壁面13に背景画像16を張り付ける画像処理を行う必要がある。なお、以下の説明では、カメラ11のレンズの歪曲収差などは予め把握されており、歪曲収差を除去して扱うものとする。
例えば、人物12の背景の壁面13における平面上の点(ui,vi)と、背景画像16における平面上の点(xi,yi)との関係は、同次座標系表現を用いると、次の式(1)に示すような3×3行列のホモグラフィ(homography)行列Hによって表現される。但し、式(1)において、(wii,wii,wi)は、(ui,vi)の同次座標である。
Figure 2014069247
・・・(1)
ここで、ホモグラフィ行列Hの要素であるh00〜h22については、定数倍の自由度があるので、例えば、h22=1とおき、wiを消去してh00〜h21について整理すると、式(1)は、次の式(2)となる。
Figure 2014069247
・・・(2)
そして、式(2)より、壁面13における平面上の点(ui,vi)と、背景画像16における平面上の点(xi,yi)との関係が4点以上あれば、ホモグラフィ行列Hを算出することができる。従って、壁面13に4個のマーカー14(i=0,1,2,3)を張り付け、それらのマーカー14の位置に対応する背景画像16における座標(xi,yi)と、撮影画像15におけるマーカー14の位置(ui,vi)とを検出することでホモグラフィ行列Hを算出することができる。ここで、上述の式(1)を変形すると、次の式(3)となる。
Figure 2014069247
・・・(3)
この式(3)を用いて、出力画像17における背景部分に、背景画像16を張り付ける画像処理を行うことができる。即ち、出力画像17において背景画像16を貼るべきピクセルの座標(u,v)に、背景画像16におけるピクセル座標(x,y)のピクセル値で着色すればよい。なお、縮小拡大や量子化誤差を考慮して、通常、処理の対象となるピクセルの近傍のピクセル値を用いてフィルタリングした画素値が多く用いられる。
このような画像処理が従来より行われているが、上述したように、演算負荷を抑制することが必要とされていた。
即ち、単純なマーカー14の検出位置はピクセル単位である上、撮影画像15にはノイズが含まれており、検出位置に検出誤差が含まれることが想定されるため、式(3)によって得られる背景画像の貼り付け精度が低下することになる。特に、ノイズによる検出位置の誤差が時間的に変化するため、出力画像17において背景が微細に振動するような結果となり、出力画像17の品質が低下する原因となる。
このような出力画像17の品質の低下に対しは、ノイズの影響や量子化誤差の影響を受けないようなマーカー位置検出方法を用いる必要がある。一般的には、マーカー14の位置を検出するための検出点(例えば、コーナーなどの特徴点やブロックマッチングのブロックの中心点など)を増加して、多数の検出点から最小二乗法などに基づいて、確度の高いホモグラフィ行列Hを求めることで、ノイズのキャンセルと、量子化誤差の減少とを図ることができると想定される。
また、カメラ11の移動または回転によりマーカー14が画角内から外れて、撮影画像15に写り込まなくなる場合がある。例えば、カメラ11のパンを考慮して、画面中央のみにマーカー14を配置した場合には、マーカー14から離れるに従ってマーカー14の検出位置の誤差の影響が大きくなるため、出力画像17の端部において背景の揺れが大きくなってしまう。
これに対しては、マーカー14の個数を増大させ、図1のAに示したように、壁面13の一面にある程度密にマーカー14を貼り付けて必要数以上のマーカー14が常に映るように撮影すればよい。しかしながら、マーカー14の個数を単純に増大した場合には、マーカー14の個数に伴って検出処理負荷が増大するため、その負荷の増大を抑制することが求められている。
そこで、本技術では、マーカー14の位置を検出する検出精度の向上、並びに、カメラ11の位置および方向の変化による演算負荷の増大を抑制することを目的としている。
図2は、本技術を適用した画像処理システムの第1の実施の形態の構成例を示すブロック図である。
図2において、画像処理システム21は、撮影装置22、映像再生装置23、画像合成処理装置24、およびマーカー位置推定部25を備えて構成される。
撮影装置22は、図1のカメラ11に相当し、合成処理に用いるマーカー14が映し込まれた撮影画像15を、画像合成処理装置24およびマーカー位置推定部25に供給する。また、画像処理システム21では、撮影装置22により撮影される撮影画像15に対してリアルタイムに画像処理を施す他、既に撮影済みの撮影画像15を、映像再生装置23が再生して画像合成処理装置24およびマーカー位置推定部25に供給し、画像処理を施すようにすることができる。
画像合成処理装置24は、マーカー位置推定部25により推定されたマーカー14の位置および姿勢に基づいて、撮影装置22または映像再生装置23から供給される撮影画像15に写されている人物12の背景に背景画像16を貼り付ける画像合成処理を行う。
マーカー位置推定部25は、粗検出用成分検出部31、マーカー選択部32、詳細検出用成分検出部33、および推定処理部34を有し、撮影装置22または映像再生装置23から供給される撮影画像15に写されているマーカー14の位置を推定する。
粗検出用成分検出部31は、マーカー14の粗検出用成分を利用して、演算負荷が軽い検出処理であるマーカー14の粗検出を行う。また、粗検出用成分検出部31は、マーカー14の粗検出用成分を利用して、個々のマーカー14を区別するための情報であるマーカーID(Identification)を、マーカー14から検出する。
マーカー選択部32は、粗検出用成分検出部31が撮影画像15の全体から検出した複数のマーカー14の中から、詳細検出用成分検出部33による詳細検出の対象とする所定数のマーカー14を選択する。例えば、マーカー選択部32は、詳細検出用成分検出部33の処理負荷や、演算能力、処理速度などから決められる所定数のマーカー14を選択する。また、マーカー選択部32は、撮影画像15に映されているマーカー14の種類や画面内での位置を考慮して所定数のマーカー14を選択する。
詳細検出用成分検出部33は、マーカー14の詳細検出用成分を利用して、演算負荷は重いが高い位置精度で検出することができる検出処理であるマーカー14の詳細検出を行う。
推定処理部34は、詳細検出用成分検出部33によるマーカー14の詳細な検出結果から、上述したようなホモグラフィ行列Hを算出することにより、マーカー14の位置および姿勢を推定する。そして、推定処理部34により推定されたマーカー14の位置および姿勢に基づいて、画像合成処理装置24による画像合成が行われる。
ここで、画像処理システム21において使用されるマーカー14は、粗検出用成分および詳細検出用成分を有するものが用いられる。
図3には、画像処理システム21において使用されるマーカー14の一例が示されている。
図3のAに示すように、マーカー14は、粗検出用成分である2次元コードが4隅に配置された粗検出用画像41と、詳細検出用画像42である自然画像とが重ね合わされて、空間的に両方の成分が混在する構成となっている。図3のBには、マーカー14を斜め方向から撮影した画像から、マーカー14の部分だけを切り出したものが示されている。
粗検出用画像41は、2次元コードのように微細な模様を有さない画像であるので、カメラ11から離れて撮影されて小さく映された場合においても、比較的に安定して検出することができる。また、粗検出用画像41は、図3のBに示すように、マーカー14を斜め方向から撮影した場合にも、つまり、カメラ11がマーカー14に対して正対していないために射影変換が掛かった画像になった場合にも、射影変換による歪の影響を軽減することができる。
さらに、粗検出用画像41は、検出処理の負荷を軽減することができるので、粗検出用成分に適した検出指標である。なお、粗検出用画像41は、大きく写されたときや、正面から写されたときにも粗検出用成分として適したものである。
また、粗検出用画像41の2次元コードには、マーカー14を識別するためのマーカーIDが埋め込まれており、粗検出用成分検出部31は、マーカー14の2次元コードからマーカーIDを検出して出力する。マーカーIDは、例えば、人物12の背後にある壁面13のどの位置に貼られたマーカー14であるかを判別するために使用される。
また、斜め方向から写された粗検出用画像41に対して、2次元コードそれぞれの中心4点を用いた画像変換が行われ、マーカー14が正面から写されたような画像に変形する概略補正が施される。
即ち、図4のAの左側に示されているような粗検出用画像41が、概略補正により、図4のAの右側に示すような粗検出用画像41’に変形される。なお、この変形は、粗検出用画像41の2次元コードそれぞれの中心4点を用いて行うのに限られることはなく、位置をどこにとってもよい。
図4のAに示すような変形は、上述の式(2)を演算することによって、ホモグラフィ行列H’を求めることで、補正後の粗検出用画像41’における座標(ui’,vi’)に対して、次の式(4)に示すように(ui,vi)を算出して、補正前の粗検出用画像41のピクセル値を得ることによって可能となる。
Figure 2014069247
・・・(4)
実際に、粗検出用画像41を利用してマーカー14を補正すると、図4のBの左側に示すマーカー14が、図4のBの中央に示すマーカー14’のように補正される。ここでは、粗検出用画像41を用いた補正であるので、若干の射影成分が残っていることより、図4のBの右側に示すマーカー元画像43(マーカー14の元となる画像)とは若干異なるものとなっている。
そこで、マーカー位置推定部25では、詳細検出用成分検出部33により、詳細成分を用いた検出処理が行われる。
詳細検出用成分検出部33は、マーカー元画像43における解像度で、自然画像内の特定点のブロックマッチングを行う。自然画像は、細部でのマッチングが多くの点で行える図柄であり、マッチング処理を安定的に行うことができる。なお、詳細検出用成分検出部33による検出処理は、自然画像やブロックマッチングなどに限定されるものではない。
ここで、マーカー元画像43に対して、画像内の特定点(フロックマッチングを行う上で周辺と間違い難い多数の点)を、マーカー14またはマーカー14’から検索することを考えると、射影変換の多く掛かったマーカー14に比較して、マーカー14’の方が、ブロックの整合性は高く、格段に高精度な検索結果を得ることができる。
従って、詳細検出用成分検出部33は、粗検出用成分検出部31による検出結果を用いて撮影されたマーカー14を補正し、マーカー14’とマーカー元画像43とのマッチングを行うことで、詳細検出用成分の検出精度を向上させることができる。
また、図5には、マーカー14の変形例が示されている。
図5には、粗検出用画像41Aと詳細検出用画像42とを変調により混在させたマーカー14Aが示されている。
即ち、図5のAの左側には、粗検出用成分である2次元コードが、マーカー14Aの全体に亘って存在している粗検出用画像41Aが示されている。この粗検出用画像41Aで、図5のAの中央に示されている詳細検出用画像42を変調することによりマーカー14Aを得ることができる。マーカー14Aは、粗検出用成分検出部31がマーカー14Aの粗検出を行う際の縮小においてもつぶれ難くなる性質をもつ。
例えば、図5のBには、粗検出用画像41Aおよび詳細検出用画像42の変調(一次元表現)が示されており、マーカー14A上のあるx軸に平行なラインに対して、粗検出用成分の2次元コードに対する詳細成分の変調を行う様子が示されている。粗検出用画像41Aの2次元コードに対して、詳細検出用画像42の詳細検出用成分(自然画像)で変調すると、大局的には2次元コードでありながら、詳細には詳細検出用成分が含まれるように変調されたマーカー14Aを作成することができる。
なお、詳細検出用画像42の詳細検出用成分の階調は半分以下に制限されるが、粗検出用成分検出部31による粗検出処理での基準輝度判定には影響なく詳細検出用成分を重畳することができる。そして、粗検出結果により2次元コードが判別されれば、2次元コード成分を減算することにより、詳細検出用成分は復元できるため、詳細検出用画像42は、これを用いて詳細検出処理を行うことが可能になる。また、図4を参照して説明した概略補正では、粗検出された2次元コードの4頂点や2次元コード上のコーナー点などを用いることができる。
次に、図6のフローチャートを参照して、マーカー位置推定部25によるマーカー位置推定処理について説明する。また、マーカー位置推定部25は、撮影装置22または映像再生装置23から撮影画像15が供給されるとマーカー位置推定処理を開始し、撮影画像15の1フレームごとにマーカー位置推定処理を行う。
ステップS11において、粗検出用成分検出部31は、マーカー14の粗検出用成分を利用して、演算負荷の増大が比較的に抑制された方法を用いて撮影画像15からマーカー14を粗く検出する、マーカー14の粗検出を行う。例えば、粗検出用成分検出部31は、撮影画像15を二値化して、2次元コードの白枠を全スキャンすることで粗検出用画像41を検出することにより、マーカー14を粗検出する。また、例えば、粗検出用成分検出部31は、撮影画像15の解像度を低下させた状態で処理を行うことにより、位置精度としては粗いが、比較的に歪には強く、かつ、演算負荷の小さい処理を行うことができる。
ステップS12において、粗検出用成分検出部31は、マーカー14の粗検出が完了したか否かを判定し、マーカー14の粗検出が完了していないと判定した場合、処理はステップS11に戻る。例えば、粗検出用成分検出部31は、撮影画像15に映されている全てのマーカー14を検出すると、マーカー14の粗検出が完了と判定する。即ち、撮影画像15に映されている全てのマーカー14を検出するまで、ステップS11の処理が繰り返して行われる。
ステップS12において、粗検出用成分検出部31が、マーカー14の粗検出が完了したと判定した場合、処理はステップS13に進む。
ステップS13において、マーカー選択部32は、ステップS11で粗検出用成分検出部31が検出した複数のマーカー14の中から、詳細検出用成分検出部33による詳細検出の対象とする所定数のマーカー14を選択する。なお、マーカー選択部32がマーカー14を選択する処理については、図7を参照して後述する。
ステップS14において、詳細検出用成分検出部33は、マーカー14の詳細検出が完了したか否かを判定する。例えば、詳細検出用成分検出部33は、ステップS13でマーカー選択部32が詳細検出の対象として選択した所定数のマーカー14の全てについて詳細検出を行うと、マーカー14の詳細検出が完了したと判定する。
ステップS14において、詳細検出用成分検出部33がマーカー14の詳細検出が完了していないと判定した場合、処理はステップS15に進む。
ステップS15において、詳細検出用成分検出部33は、マーカー14の詳細検出用成分を利用して撮影画像15からマーカー14を詳細に検出する、マーカー14の詳細検出を行う。
例えば、詳細検出用成分検出部33は、図4のBを参照して説明したように、マーカー14を概略補正したマーカー14’とマーカー元画像43とのマッチング結果から得られた多数の特定点に対して、マーカー元画像43での座標(xi,yi)と、マーカー14の座標(ui,vi)との関係を求める。これは、マーカー元画像43の特定点(xi,yi)に対するマーカー14’の特定点の座標(ui’,vi’)に対して、上述の式(4)の変換を用いてマーカー14の座標(ui,vi)を算出することにより求められる。これにより、詳細検出用成分検出部33は、マーカー14を詳細検出した検出結果として、マーカー14上の詳細成分である多数の特定点について、撮影画像15上の座標(ui,vi)と、マーカー元画像43上の座標(xi,yi)との対応関係を出力とする。
ステップS15の処理後、処理はステップS14に戻り、ステップS14においてマーカー14の詳細検出が完了したと判定されるまでステップS15の処理が繰り返される。そして、ステップS14においてマーカー14の詳細検出が完了したと判定された場合、処理はステップS16に進む。
ステップS16において、推定処理部34は、ホモグラフィ行列Hを算出することにより、マーカー14の位置および姿勢を推定する。
例えば、上述したように、詳細検出用成分検出部33が、マーカー14上の詳細成分である多数の特定点について、撮影画像15上の座標(ui,vi)と、マーカー元画像43上の座標(xi,yi)との対応関係を出力した場合について説明する。
推定処理部34は、粗検出用成分検出部31により検出されたマーカー14のマーカーIDによって、詳細検出用成分検出部33により検出されたマーカー14の背景画像16上での座標を算出し、マーカー元画像43上の座標(xi,yi)を変換して座標(Xi,Yi)とする。推定処理部34は、このような変換処理を、詳細検出用成分検出部33により検出された全てのマーカー14に対して施すことで、背景画像16上での座標(Xi,Yi)と撮影画像15上での座標(ui,vi)の対応関係を多数取得する。
そして、この対応関係の数をNとし、最終的に出力するホモグラフィ行列をHとすると、(2N)×8の行列A、ホモグラフィ行列Hの要素の8個を要素とするベクトルh、および、撮影画像15上の座標(ui’,vi’)を順に並べた2N個の要素を持つベクトルbの関係は、次の式(5)で表される。
Figure 2014069247
・・・(5)
ここで、上述の式(4)と同様に、式(5)は、未知数hの要素よりも方程式数が多い過剰方程式となっており、次の式(6)の二乗誤差を最小にするベクトルhは、次の式(7)のように、行列Aの置換行列Atを用いて求めることができる。
Figure 2014069247
・・・(6)
Figure 2014069247
・・・(7)
推定処理部34は、ステップS16において、最終出力としてのホモグラフィ行列Hを算出して出力する。
以上のように、マーカー位置推定部25によるマーカー位置推定処理が行われる。このとき、ステップS15において、ステップS11での粗検出用成分による検出結果を用いて撮影画像15に映されているマーカー14を概略補正するため、詳細検出用成分の検出精度を向上させることができる。
なお、ステップS15の処理において、詳細検出用成分検出部33は、マーカー元画像43と、撮影画像15の座標変換を示すホモグラフィ行列Hを、検出結果として出力してもよい。
つまり、図4を参照して上述したように、撮影画像15に映されているマーカー14を補正したマーカー14’とマーカー元画像43とからは、多数の特定点に対するマッチング結果が得られる。このことより、詳細検出用成分検出部33は、最小二乗法を用いて、マーカー14’とマーカー元画像43との間のホモグラフィ行列H’’を求めて、検出結果とする。
例えば、マッチング結果が得られた特定点の数をNとすると、上述の式(2)は、(2N)×8の行列A、ホモグラフィ行列H’’の要素の8個を要素とするベクトルh’’、および、マーカー14’上のN個の特定点の座標(ui’,vi’)を順に並べた2N個の要素を持つベクトルbにより、次の式(8)で表される。
Figure 2014069247
・・・(8)
ここで、式(8)は、未知数h’’の要素数よりも方程式数が多い過剰方程式になっており、次の式(9)の二乗誤差を最小にするベクトルh’’は、次の式(10)のように、行列Aの置換行列Atを用いて求めることができる。
Figure 2014069247
・・・(9)
Figure 2014069247
・・・(10)
これにより得られたホモグラフィ行列H’’を用いると、上述の式(1)と同様に、マーカー14’上のN個の特定点の座標(ui’,vi’)と、マーカー元画像43上のN個の特定点の座標(xi,yi)の関係は、次の式(11)のように表される。
Figure 2014069247
・・・(11)
そして、上述の式(4)に、wi’’を掛けて式(11)に代入すると、次の式(12)を得ることができる。
Figure 2014069247
・・・(12)
このようにして求められたホモグラフィ行列Hの積H’H’’を、詳細検出用成分検出部33は、マーカー14のホモグラフィ行列Hとして出力する。
このように、図6のステップS15において詳細検出用成分検出部33がホモグラフィ行列Hを検出結果として出力した場合における、ステップS16での処理について説明する。
ステップS15で出力されるホモグラフィ行列Hと、ステップS11で粗検出用成分検出部31により判別されたマーカー14のマーカーIDによって、各マーカー14のマーカー元画像43の座標(xi,yi)と、背景画像16上での座標(Xi,Yi)とは、次の式(13)のように示される。
Figure 2014069247
・・・(13)
ここで、式(13)において、多くの場合、g20=g21=0となり、g22=1となって、w0 i=1である。また、式(13)では、行列Gは、マーカー14ごとに異なっているため、それぞれのマーカー14に対してステップS15で求めたホモグラフィ行列Hを用いた式(14)を得ることができる。
Figure 2014069247
・・・(14)
そして、マーカー14ごとに得られる式(14)の行列Hと行列Gとの積が、定数倍の差を除いて一定していれば、その積が、ステップS16で出力すべき最終的なホモグラフィ行列Hである。しかしながら、通常は不一致となるために、整合処理が必要となる。
整合処理としては、例えば、それぞれのマーカー14に対するステップS15での詳細検出処理結果が同様に信頼できるとするならば、それぞれのマーカー14の代表点位置(xi,yi)を複数用意し、式(14)によって得られた(ui,vi)との関係から、上述の式(5)に相当する過剰方程式を立てて最小二乗法を行うことにより、最終的なホモグラフィ行列Hを算出することができる。
一方、マーカー14ごとに信頼度が異なるのであれば、信頼度に応じて代表点数を増減して、上述の式(5)を立てて最小二乗法を行うことにより、最終的なホモグラフィ行列Hを算出することができる。
次に、図7を参照して、マーカー選択部32が、詳細検出の対象として選択する所定数のマーカー14について説明する。
例えば、図1に示したように、カメラ11の画角に従った撮影画像15に6個のマーカー14が映されている場合、それらのマーカー14を全て詳細検出の対象とすると、演算負荷が増大することになる。そのため、マーカー選択部32は、演算負荷の増大を抑制するために、6個のマーカー14の中から、所定数のマーカー14を詳細検出の対象として選択する。なお、図1では、撮影画像15の左下に7個目のマーカー14が中途半端な状態で半分入っている。
このような状況で、所定数のマーカー14を詳細検出の対象として選択し、撮影画像15と背景画像16との関係を示すホモグラフィ行列Hを算出するのに、何個のマーカー14を用いるのかについて図7を参照して説明する。
まず、マーカー位置の検出精度向上で既に示したように、本実施の形態で示したマーカー14を用いると、1枚のマーカー14でも背景画像16と撮影画像15との関係を示すホモグラフィ行列Hを算出することができる。しかしながら、1枚のマーカー14では、マーカー14から遠ざかるに従って算出誤差の影響が大きくなるため、マーカー14の設置を考慮すると、マーカー14のサイズは比較的小さめとすることが望ましい。また、マーカー14の設置時にマーカー14の相対関係を計測することを前提とすると、マーカー14を多少大きくするよりも、離れた位置にマーカー14を設置する方が高精度に算出することができるようになる。
これらの点を考慮して、マーカー14を2枚使用する場合には、図7のAに示すように、最も距離の遠いマーカー141およびマーカー142を選択することが望ましい。なお、マーカー14の大きさを考慮に入れると、マーカー14を囲む多角形の面積が最大になるように選択することになる。
また、マーカー14を3枚使用する場合には、図7のBに示すように、多角形の頂点となる3つのマーカー141、マーカー142、およびマーカー143を、それらが囲む多角形の面積が最大になるように選択することが好適である。
さらに、マーカー14を4枚使用する場合には、図7のBに示すように、多角形の頂点となる4つのマーカー141、マーカー142、マーカー143、およびマーカー144を選択すればよく、それ以上のマーカー14を選択しても、演算負荷増加の割に演算精度の向上を図ることは期待されない。
もちろん、演算資源に余裕がある場合には、撮影画像15内に映ったすべてのマーカー14について詳細検出用成分の処理を行えば良いが、カメラ11のズームなども考えるとより小さなマーカー14を人物12(例えば、主演俳優)の背景付近に置くことなどが考えられ、広角時のマーカー数を削減することは非常に有効である。
このように、マーカー位置推定部25では、マーカー選択部32により、マーカー検出処理を粗検出用成分の検出と、詳細検出用成分の検出の2段階に分離して、その間に必要マーカーを選択する構成とすることで、処理負荷を軽減することができる。
次に、図8を参照して、本技術を適用した画像処理システムの第2の実施の形態について説明する。
図8には、マーカー14を三次元的に配置し、三次元空間位置合わせと、三次元空間内の手持ちボード(Virtual card)のためのクロマキー撮影状況が示されている。
図1を参照して説明した第1の実施の形態と同様に、第2の実施の形態においても、カメラ11が移動または回転する場合には、合成する三次元画像を移動しなければならない。このため、カメラ11の移動および方向の変化を取得して、その変化に合わせて画像合成を行う必要がある。そこで、三次元空間の位置合わせ用に、予め三次元位置を測定したマーカー14を人物12とともに撮影し、マーカー14をもとに撮影しているカメラ11と三次元空間との関係を示す射影変換行列を算出する必要がある。
図8のBには、カメラ11と三次元空間との関係を示す射影変換行列を用いて、三次元空間に配置された部屋や家具をクロマキー処理により合成した画像が示されている。
図8のBに示されている部屋や家具などは、図8のAのマーカー14を基に推定された射影変換行列に応じて移動するので、カメラ11の位置および方向の変化に対応して違和感のない合成画像を得ることができる。
さらに、図8のAでは、人物12は、フローティングマーカー52が貼りつけられた解説ボード51を持っている。フローティングマーカー52は、壁面13に固定されたマーカー14(アンカーマーカー)とは異なり、射影変換行列算出のために用いられるのではなく、人物12が説明に使用する手持ちボードのような三次元空間からは浮いた状態となっている。図8のAに示されているフローティングマーカー52は、図8のBでは、人物12が説明を行うためのグラフが描かれた置換画像53に置き換えられている。
即ち、フローティングマーカー52については、固定されたマーカー14によって位置合わせされた三次元空間に対して、どのような位置および姿勢になっているかを算出することで、出力画像17上で違和感なく表示するとともに、三次元空間に配置された他のオブジェクトとのインタラクションなどをスムーズに行うことができるようになる。
以下では、このような画像処理を実行する画像処理システムについて説明する。
図9は、本技術を適用した画像処理システムの第2の実施の形態の構成例を示すブロック図である。
図9に示すように、画像処理システム21’は、撮影装置22、映像再生装置23、および画像合成処理装置24を備え、マーカー位置推定部25’が、粗検出用成分検出部31、マーカー選択部32、および詳細検出用成分検出部33を有する点で、図2の画像処理システム21と共通する。一方、画像処理システム21’は、マーカー位置推定部25’が、射影変換行列算出部35および姿勢推定処理部36を有する点で、画像処理システム21と異なる構成となっている。
射影変換行列算出部35は、詳細検出用成分検出部33が詳細検出を行った固定されたマーカー14全ての検出結果を用いて、射影変換行列を算出する。
姿勢推定処理部36は、詳細検出用成分検出部33が詳細検出を行ったフローティングマーカー52を用いて、フローティングマーカー52の姿勢を推定する処理を行う。
次に、図10のフローチャートを参照して、マーカー位置推定部25’によるマーカー位置推定処理について説明する。
ステップS21およびS22の処理は、図6のステップS11およびS12と同様の処理が行われ、その説明は省略する。
ステップS23において、マーカー選択部32は、ステップS11で粗検出用成分検出部31が検出した複数のマーカー14の中から、詳細検出用成分検出部33による詳細検出の対象とする所定数のマーカー14を選択する。ここで、詳細検出の対象とするかどうかについては、フローティングマーカー52に対しては必ず詳細検出を行うと判断する。また、固定されたマーカー14に対しては、詳細検出用成分検出部33の処理負荷や、演算能力、処理速度などから選択する所定数を決定し、どのマーカー14を選択するかについては図11を参照して後述する。
ステップS24において、詳細検出用成分検出部33は、マーカー14の詳細検出が完了したか否かを判定する。例えば、詳細検出用成分検出部33は、ステップS23でマーカー選択部32が詳細検出の対象として選択した所定数のマーカー14の全てについて詳細検出を行うと、マーカー14の詳細検出が完了したと判定する。
ステップS24において、詳細検出用成分検出部33がマーカー14の詳細検出が完了していないと判定した場合、処理はステップS25に進む。
ステップS25において、詳細検出用成分検出部33は、図6のステップS15と同様に、マーカー14の詳細検出用成分を利用して撮影画像15からマーカー14を詳細に検出する、マーカー14の詳細検出を行う。
ステップS25の処理後、処理はステップS24に戻り、ステップS24においてマーカー14の詳細検出が完了したと判定されるまでステップS25の処理が繰り返される。そして、ステップS24においてマーカー14の詳細検出が完了したと判定された場合、処理はステップS26に進む。
ステップS26において、射影変換行列算出部35は、ステップS25で詳細検出用成分検出部33が詳細検出を行った固定されたマーカー14全ての検出結果を用いて、射影変換行列を算出する。
なお、上述したように、詳細検出用成分検出部33による検出結果としては、詳細検出用成分の対応関係そのものと、撮影画像15の座標変換を示すホモグラフィ行列Hとが用いられる。ここでは、ステップS25において、詳細検出用成分検出部33による検出結果として、詳細検出用成分の対応関係そのものが出力される場合について説明する。
射影変換行列算出部35には、複数の固定されたマーカー14内の多数の特定点について、マーカー元画像43上の座標(xi,i)と撮影画像15上の座標(ui,i)の対応関係が、詳細検出用成分検出部33から入力される。また、それぞれの固定されたマーカー14のマーカーIDによって、対応するマーカー元画像43上の座標(xi,i)と、固定されたマーカー14が規定する三次元空間内の座標(Xi,i,i)とが紐づけられている。これにより、射影変換行列算出部35は、撮影画像15上の座標(ui,i)と、固定されたマーカー14が規定する三次元空間内の座標(Xi,i,i)の対応関係を求めることができる。
即ち、三次元空間内の座標(Xi,i,i)を、撮影画像15上の座標(ui,i)に座標変換する変換式は、次の式(15)で示される。
Figure 2014069247
・・・(15)
但し、式(15)において、p00乃至p23は、ステップS26において求めるべき射影変換行列Pである。また、式(15)では定数倍の自由度があるので、例えば、p23=1として式(15)を変形すると、次の式(16)となる。
Figure 2014069247
・・・(16)
撮影画像15上の多数の座標(ui,i)と、三次元空間上の多数の座標(Xi,i,i)との対応関係が存在するので、ステップS26において、射影変換行列算出部35は、最小二乗法によって、射影変換行列Pの要素p00乃至p23を求め、射影変換行列Pを出力する。
そして、ステップS27において、姿勢推定処理部36は、ステップS26で射影変換行列算出部35が算出した射影変換行列Pを用いて、姿勢行列を算出する。
即ち、姿勢推定処理部36には、フローティングマーカー52ごとに、フローティングマーカー52内の多数の特定点についての、フローティングマーカー52の元画像上の座標(xi,i)と、撮影画像15上の座標(ui,i)の対応関係が、詳細検出用成分検出部33から入力される。また、姿勢推定処理部36には、ステップS26で射影変換行列算出部35が固定されたマーカー14を用いて算出した射影変換行列Pが入力される。さらに、姿勢推定処理部36には、固定されたマーカー14およびフローティングマーカー52のマーカーIDが入力される。
ここで、フローティングマーカー52の元画像上の座標を三次元的に(xi,i,0)と考え、この座標に回転行列Rおよび併進ベクタtを用いて、固定されたマーカー14で規定された三次元空間に配置したとする。これにより、次の式(17)で示すような座標変換により、フローティングマーカー52の元画像上の座標(xi,i,0)は、固定されたマーカー14で規定された三次元空間座標(Xi,i,i)に変換される。
Figure 2014069247
・・・(17)
そして、ステップS26で求めた、三次元空間座標(Xi,i,i)から撮影画像15上の座標(ui,vi)へ射影変換を行う射影変換行列Pを用いると、式(15)の変換式で座標変換することができる。従って、式(15)および式(17)を用いると、フローティングマーカー52の元画像上の座標(xi,i)から撮影画像15上の座標(ui,vi)への変換式は、次の式(18)と表すことができる。
Figure 2014069247
・・・(18)
この式(18)において、wiを消去して、r00乃至r22およびt03乃至t23について整理すると、フローティングマーカー52の元画像のz座標は0であるので、r02乃至r22を含めることはできないが、次の式(19)の形に整理することができる。
Figure 2014069247
・・・(19)
式(19)の形は、上述した式(2)および式(16)と同じ形となっている。従って、フローティングマーカー52の元画像上の座標(xi,i)と、撮影画像15上の座標(ui,vi)との対応関係が5点以上あれば、最小二乗法によって、r02乃至r22を除くr00乃至r22およびt03乃至t23の要素を算出することができる。
ここで、回転行列の性質である、次の式(20)の関係を用いると、r02乃至r22を算出することができる。
Figure 2014069247
・・・(20)
このように、ステップS27において、姿勢推定処理部36は、式(19)および式(20)を用いて、マーカーIDで特定されるフローティングマーカー52の元画像を、固定されたマーカー14で規定される三次元空間への配置を行う回転行列Rおよび並進ベクタtを算出することができる。
また、ステップS25において、詳細検出用成分検出部33による検出結果として、撮影画像15の座標変換を示すホモグラフィ行列Hが出力される場合について説明する。
この場合、ステップS26において、射影変換行列算出部35には、それぞれの固定されたマーカー14のホモグラフィ行列Hが、詳細検出用成分検出部33から入力される。ステップS21で判別されたマーカーIDによって、それぞれの固定されたマーカー14座標(xi,i)と、固定されたマーカー14が規定する三次元空間内の座標(Xi,i,i)は、次の式(21)のように表される。
Figure 2014069247
・・・(21)
ここで、式(21)において、多くの場合、g20=g21=0となり、g22=1となって、w0 i=1である。また、式(21)では、行列Gは、マーカー14ごとに異なっているため、それぞれのマーカー14に対してステップS25で求めたホモグラフィ行列Hを用いた式(22)を得ることができる。
Figure 2014069247
・・・(22)
そして、マーカー14ごとに得られる式(22)の行列Hと行列Gとの積が、定数倍の差を除いて一定していれば、その積が、ステップS26で出力すべき最終的な射影変換行列Pである。しかしながら、通常は不一致となるために、整合処理が必要となる。
整合処理としては、例えば、それぞれのマーカー14に対するステップS25での詳細検出処理結果が同様に信頼できるとするならば、それぞれのマーカー14の代表点位置(Xi,i,i)を複数用意し、式(22)によって得られた(ui,vi)との関係から、上述の式(16)に相当する過剰方程式を立てて最小二乗法を行うことにより、最終的な射影変換行列Pを算出することができる。
一方、マーカー14ごとに信頼度が異なるのであれば、信頼度に応じて代表点数を増減して、上述の式(16)を立てて最小二乗法を行うことにより、最終的な射影変換行列Pを算出することができる。
次に、ステップS27において、姿勢推定処理部36には、フローティングマーカー52ごとのホモグラフィ行列H、ステップS26で射影変換行列算出部35が求めた射影変換行列P、および、固定されたマーカー14およびフローティングマーカー52のマーカーIDが入力される。また、フローティングマーカー52の元画像上の座標(xi,i)から、撮影画像15上の座標(ui,i)への変換式である式(18)は、フローティングマーカー52の元画像のz座標は0であるので、次の式(23)のように表される。
Figure 2014069247
・・・(23)
ここで、式(23)は、上述した式(1)と同じ形であるため、定数倍の自由度kを考えて、次の式(24)となる。
Figure 2014069247
・・・(24)
そして、式(24)は、次の式(25)のように変形することができ、式(26)のようになる。
Figure 2014069247
・・・(25)
Figure 2014069247
・・・(26)
但し、式(26)において、q03乃至q23は、次の式(27)により算出される値である。
Figure 2014069247
・・・(27)
ここで、回転行列の性質から、次の式(28)が成立するので、式(25)の右辺を算出することで、左辺のkを算出することができる。
Figure 2014069247
・・・(28)
これにより、r02乃至r22を除くr00乃至r22およびt03乃至t23の要素を算出することができる。さらに、回転行列の性質である、上述した式(20)の関係を用いると、r02乃至r22を算出することができる。
これにより、ステップS27において、姿勢推定処理部36は、式(19)および式(20)を用いて、マーカーIDで特定されるフローティングマーカー52の元画像を、固定されたマーカー14で規定される三次元空間への配置を行う回転行列Rおよび並進ベクタtを算出することができる。
次に、図11を参照して、マーカー選択部32が、詳細検出の対象として選択する所定数のマーカー14について説明する。
画像処理システム21’においても、全てのマーカーを処理する場合には、処理数が増大すると演算負荷が増加する。但し、フローティングマーカー52については、説明用の手持ちボードなどマーカーIDごとに特定用途に用いられるため、処理数が増大しても省くことはできない。これに対し、固定されたマーカー14に関しては、固定されたマーカー14が規定する三次元空間と撮影画像15との関係が正しく求められれば処理の対象とするマーカー14の数は少なくても構わない。
図7を参照して説明したように、画像処理システム21では、背景画像16とマーカー14との関係であったため、平面と平面の関係から面積が最大となるように、処理可能マーカー数に応じたマーカー14が選択された。一方、画像処理システム21’では、より安定に三次元空間を推定するために、固定されたマーカー14が作る立体の体積がなるべく大きくなるようにマーカー14の選択を行う。
例えば、固定されたマーカー14に対する処理可能枚数が1枚の場合には、撮影画像15の中央のマーカー14、または、一番大きく撮影されているマーカー14が選択される。
また、固定されたマーカー14に対する処理可能枚数が2枚の場合には、その2枚が空間的に最も離れ、かつ前後方向にもずれているマーカー14を選択することが最適である。即ち、図11のAに示すような配置の場合には、互いに空間的に最も離れ、かつ前後方向にもずれているマーカー141およびマーカー142が選択される。
また、固定されたマーカー14に対する処理可能枚数が3枚の場合においても、それらのマーカー14が作る図形の体積が最大になるようにマーカー14を選択することが最適である。図11のBに示すような配置の場合には、マーカー141、マーカー142、およびマーカー143が選択される。
このように、マーカー選択部32は、多数のマーカー14から最適なマーカー14を選択することで、三次元空間と撮影画像15の関係を高精度に推定しつつ、演算負荷を抑制することができる。なお、フローティングマーカー52に関して、図8に示すようにマーカー14が三次元的に配置された場合のみに使用が限定されるのではなく、例えば、図1を参照して説明したように、マーカー14が平面的に配置された場合にも使用することができる。
次に、図12を参照して、マーカー54を三次元的に配置することで、三次元空間位置合わせを行って、仮想オブジェクト55を配置するとともに、位置合わせした三次元空間内に、フローティングマーカー52によって提示される置換画像53を配置するための撮影状況について説明する。
図12のAに示されている撮影状況のように、壁面13にはマーカー54−1乃至54−4が配置されている。そして、図12のBに示すように、マーカー54−1乃至54−4を切り抜いたり隠したりするように、それぞれ対応する仮想オブジェクト55−1乃至55−4が配置され、仮想オブジェクト55−1乃至55−4以外はそのまま出力される。
このように、マーカー54−1乃至54−4に従って仮想オブジェクト55−1乃至55−4を合成する場合にも、カメラ11の動きに合わせて仮想オブジェクト55−1乃至55−4を移動させないと出力画像17に違和感が出る。また、図12のBに示すように、仮想オブジェクト55−1乃至55−4として、実空間の中にクローゼットやテレビ、絵画などをコンピュータグラフィックにより合成することで、表現力の高い映像を制作することが可能となる。
このような画像処理は、図9に示した画像処理システム21’により、即ち、粗検出用成分検出部31、マーカー選択部32、詳細検出用成分検出部33、射影変換行列算出部35、および姿勢推定処理部36を用いることにより実現することができる。
但し、このような画像処理では、マーカー54がクロマキー処理の制限を受けなくなる点で、図8を参照して説明した画像処理と異なるものである。このため、色を効果的に用いたマーカーを考慮することができる。
図13を参照して、マーカー14の変形例について説明する。
図13のAには、多色の詳細検出用成分をもつマーカー14Bが示されている。マーカー14Bは、図3のAに示したような、粗検出用成分と詳細検出用成分を空間的配置して混在させたマーカー14において、詳細検出用成分(詳細検出用画像42A)を多色化したものである。詳細検出用成分では高精度な対応関係を推定することが望まれており、多色化することによって単色で対応点検索を行うよりも、誤対応を減らして精度向上を図ることが可能となる。
図13のBには、図5のAに示したような、変調による粗検出用成分と詳細検出用成分の混在マーカーに対して、詳細検出用成分(詳細検出用画像42A)を多色にしたマーカー14Cが示されている。マーカー14Cによっても、対応点検索における誤対応を減らして精度向上を図ることができる。
図13のCには、粗検出用成分と詳細検出用成分とを色空間で分けて混在させたマーカー14Dが示されている。マーカー14Dでは、高周波成分を含む輝度信号に詳細検出用成分(詳細検出用画像42B)を割り当て、高周波域が減衰する可能性のある色差成分に粗検出用成分(粗検出用画像41B)を割り当てている。これにより、マーカー14Dでは、粗検出用成分と詳細検出用成分の分離の容易さ、詳細検出用成分の画像詳細さを必要とする性質を考慮して、両成分の混在が可能とされている。
以上のように、本技術を適用した画像処理システム21および21’では、粗検出用成分と詳細検出用成分を混在させたマーカー14を用いることで、マーカー検出処理を、マーカー粗検出用成分検出処理と、マーカー詳細検出用成分検出処理に分けることができる。そして、粗検出用成分検出時に、マーカー14の種別および配置状況を判断して、詳細検出用成分検出処理が必要なマーカー14のみを選択するマーカー選択処理を行うことができる。これにより、詳細検出用成分の検出処理を行うべきマーカー14のみに対して、詳細検出用成分の検出処理を行うことになるため、精度を落とさない形で演算負荷の軽減を行うことができる。
即ち、マーカー14の検出処理を、演算負荷が軽いが位置精度が高くない粗検出と、演算負荷が重いが位置精度を高くできる詳細検出に分けることが可能となる。これにより、空間中に密に存在するマーカーが撮影されていても、粗検出によって必要なマーカー14のみを選出して高精度な詳細検出を行うことで、マーカー14とカメラ11の相対的な位置および姿勢の推定を高精度かつ低演算負荷で行うことができる。
なお、上述した各実施の形態では、マーカー14の粗検出用成分として、二次元コードを使用して説明したが、マーカー14の粗検出用成分はコード化されている必要はない。例えば、検出処理負荷が高くない単純なパターンマッチングを用い、パターンによってマーカーIDを判別するようにしてもよい。また、マーカー14の形は長方形である必要もなく、多角形であっても円形であっても良い。その場合には例えば多角形内もしくは円形内に図形の傾きがわかるような特徴を持たせるなどして、マーカー14の姿勢が推定できるようにすることが好適である。
また、上述した各実施の形態では、マーカー14の詳細検出用成分の検出方法として、ブロックマッチングを用いている。これに対し、詳細検出用成分である特定点の、撮影画像15とマーカー元画像43の対応関係が得られる方法であれば、ブロックマッチング以外の方法を採用することができる。たとえば、予め元画像を学習しておき、学習結果を用いて撮影画像15上の特定点とマーカー元画像43の対応関係を算出する方法などを採用してもよい。
さらに、上述した各実施の形態では、マーカー選択処理において面積最大、体積最大をもとにマーカー14を選択する方法を説明した。これ以外にも、例えば、マーカー14の配置と推定精度の関係を計算機シミュレーションすることで、予め算出したマーカー最適配置データーベースを用いて最適なマーカー14を選択するなど、別のマーカー選択方法を採用してもよい。
なお、マーカー14は、通常は青色ベースで作成されており、図1のAを参照して説明したようなクロマキー処理を考慮して、ブルーバックの背景でカメラ11による撮影を行うことを想定している。また、図1のBに示した合成結果の映像には、クロマキー処理でマーカー14を除去することが考慮されており、マーカー14は、単色であることや青色であることに限定されるものではない。
なお、上述のフローチャートを参照して説明した各処理は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
また、上述した一連の処理(情報処理方法)は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラムが記録されたプログラム記録媒体からインストールされる。
図14は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、本技術は以下のような構成も取ることができる。
(1)
画像に映されている複数のマーカーを検出する第1の検出部と、
前記第1の検出部により検出された複数の前記マーカーの中から、所定数の前記マーカーを選択する選択部と、
前記選択部により選択された所定数の前記マーカーを、前記第1の検出部より詳細に検出する第2の検出部と、
前記第2の検出部による検出結果に基づいて、前記マーカーの位置および姿勢を推定する推定部と
を備える画像処理装置。
(2)
前記推定部により推定された前記マーカーの位置および姿勢に基づいて、前記画像に映されている被写体の背景となる背景画像を合成する画像合成部
をさらに備える上記(1)に記載の画像処理装置。
(3)
前記マーカーが、前記第1の検出部による検出に利用される第1の検出成分と、前記第2の検出部による検出に利用される第2の検出成分との両方を有する
上記(1)または(2)に記載の画像処理装置。
(4)
前記第2の検出部の処理負荷と前記画像処理装置自身の演算能力および処理速度に基づいて前記第2の検出部による検出処理の対象とする前記マーカーの所定数が予め決定されており、
前記選択部は、前記画像における前記マーカーの配置に基づいて、前記第2の検出部による検出処理の対象とする所定数の前記マーカーを選択する
上記(1)から(3)までのいずれかに記載の画像処理装置。
(5)
前記選択部は、
前記第2の検出部による検出処理の対象とする前記マーカーの所定数が2つである場合、最も距離の遠くなる前記マーカーを選択し、
前記第2の検出部による検出処理の対象とする前記マーカーの所定数が3つ以上である場合、選択した前記マーカーを頂点とする多角形の面積が最大となるように前記マーカーを選択する
上記(1)から(4)までのいずれかに記載の画像処理装置。
(6)
前記第2の検出部は、前記マーカーを検出した検出結果として、前記マーカーが有する前記第2の検出成分における複数の特定点についての前記画像上の座標と前記マーカーの元となる画像であるマーカー元画像上の座標との対応関係を算出し、
前記推定部は、前記第2の検出部による検出結果に基づいて、前記背景画像上の各点と、前記画像内の前記マーカーが配置された平面上の各点との関係を表現する行列を、前記マーカーの位置および姿勢を推定した推定結果として算出する
上記(1)から(5)までのいずれかに記載の画像処理装置。
(7)
前記第2の検出部は、前記マーカーを検出した検出結果として、前記画像に映されている前記マーカーを正面から映されたように補正した画像と、前記マーカーの元となる画像であるマーカー元画像上の座標との関係を表現する第1の行列を算出し、
前記推定部は、前記第2の検出部による検出結果に基づいて、前記背景画像上の各点と、前記画像内の前記マーカーが配置された平面上の各点との関係を表現する行列を、前記マーカーの位置および姿勢を推定した推定結果として算出する
上記(1)から(6)までのいずれかに記載の画像処理装置。
(8)
前記第1の検出成分には、個々の前記マーカーを識別するための識別情報が埋め込まれている
上記(1)から(7)までのいずれかに記載の画像処理装置。
(9)
複数の前記マーカーには、前記画像内の空間に対して固定されている前記マーカーと前記画像内の空間に対して固定されていない前記マーカーとがあり、前記識別情報により、前記マーカーの種別が識別可能である
上記(1)から(8)までのいずれかに記載の画像処理装置。
(10)
前記選択部は、前記識別情報により識別される前記マーカーの種別に基づいて、前記第2の検出部による検出処理の対象とする所定数の前記マーカーを選択する
上記(1)から(9)までのいずれかに記載の画像処理装置。
(11)
前記画像内の空間に対して固定されている前記マーカーに対する前記第2の検出部による検出結果に基づいて、前記画像上の座標と、前記画像内の空間に対して固定されている前記マーカーが規定する前記空間内の座標との対応関係を算出する算出部をさらに備え、
前記推定部は、前記第2の検出部による検出結果、および、前記算出部により算出された対応関係に基づいて、前記画像内の空間に対して固定されていない前記マーカーの姿勢を推定する
上記(1)から(10)までのいずれかに記載の画像処理装置。
(12)
前記マーカーは、前記第2の検出成分である自然画像の四隅に前記第1の検出成分である2次元コードが配置されることにより構成される
上記(1)から(11)までのいずれかに記載の画像処理装置。
(13)
前記マーカーは、前記第2の検出成分である自然画像が前記第1の検出成分である2次元コードにより変調されることにより構成される
上記(1)から(12)までのいずれかに記載の画像処理装置。
(14)
前記マーカーは、前記第2の検出成分が前記被写体の背景と同色を基本とした色で形成される
上記(1)から(13)までのいずれかに記載の画像処理装置。
(15)
前記マーカーに従って仮想オブジェクトを合成する場合、前記マーカーは、前記第2の検出成分が多色で形成される
上記(1)から(14)までのいずれかに記載の画像処理装置。
(16)
前記マーカーは、前記第1の検出成分に色差成分が割り当てられ、前記第2の検出成分に輝度成分が割り当てられて形成される
上記(1)から(15)までのいずれかに記載の画像処理装置。
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
11 カメラ, 12 人物, 13 壁面, 14 マーカー, 15 撮影画像, 16 背景画像, 17 出力画像, 21 画像処理システム, 22 撮影装置, 23 映像再生装置, 24 画像合成処理装置, 25 マーカー位置推定部, 31 粗検出用成分検出部, 32 マーカー選択部, 33 詳細検出用成分検出部, 34 推定処理部, 41 粗検出用画像, 42 詳細検出用画像, 43 マーカー元画像, 51 解説ボード, 52 フローティングマーカー, 53 置換画像, 54 マーカー, 55 仮想オブジェクト

Claims (18)

  1. 画像に映されている複数のマーカーを検出する第1の検出部と、
    前記第1の検出部により検出された複数の前記マーカーの中から、所定数の前記マーカーを選択する選択部と、
    前記選択部により選択された所定数の前記マーカーを、前記第1の検出部より詳細に検出する第2の検出部と、
    前記第2の検出部による検出結果に基づいて、前記マーカーの位置および姿勢を推定する推定部と
    を備える画像処理装置。
  2. 前記推定部により推定された前記マーカーの位置および姿勢に基づいて、前記画像に映されている被写体の背景となる背景画像を合成する画像合成部
    をさらに備える請求項1に記載の画像処理装置。
  3. 前記マーカーが、前記第1の検出部による検出に利用される第1の検出成分と、前記第2の検出部による検出に利用される第2の検出成分との両方を有する
    請求項2に記載の画像処理装置。
  4. 前記第2の検出部の処理負荷と前記画像処理装置自身の演算能力および処理速度に基づいて前記第2の検出部による検出処理の対象とする前記マーカーの所定数が予め決定されており、
    前記選択部は、前記画像における前記マーカーの配置に基づいて、前記第2の検出部による検出処理の対象とする所定数の前記マーカーを選択する
    請求項3に記載の画像処理装置。
  5. 前記選択部は、
    前記第2の検出部による検出処理の対象とする前記マーカーの所定数が2つである場合、最も距離の遠くなる前記マーカーを選択し、
    前記第2の検出部による検出処理の対象とする前記マーカーの所定数が3つ以上である場合、選択した前記マーカーを頂点とする多角形の面積が最大となるように前記マーカーを選択する
    請求項4に記載の画像処理装置。
  6. 前記第2の検出部は、前記マーカーを検出した検出結果として、前記マーカーが有する前記第2の検出成分における複数の特定点についての前記画像上の座標と前記マーカーの元となる画像であるマーカー元画像上の座標との対応関係を算出し、
    前記推定部は、前記第2の検出部による検出結果に基づいて、前記背景画像上の各点と、前記画像内の前記マーカーが配置された平面上の各点との関係を表現する行列を、前記マーカーの位置および姿勢を推定した推定結果として算出する
    請求項4に記載の画像処理装置。
  7. 前記第2の検出部は、前記マーカーを検出した検出結果として、前記画像に映されている前記マーカーを正面から映されたように補正した画像と、前記マーカーの元となる画像であるマーカー元画像上の座標との関係を表現する第1の行列を算出し、
    前記推定部は、前記第2の検出部による検出結果に基づいて、前記背景画像上の各点と、前記画像内の前記マーカーが配置された平面上の各点との関係を表現する行列を、前記マーカーの位置および姿勢を推定した推定結果として算出する
    請求項4に記載の画像処理装置。
  8. 前記第1の検出成分には、個々の前記マーカーを識別するための識別情報が埋め込まれている
    請求項3に記載の画像処理装置。
  9. 複数の前記マーカーには、前記画像内の空間に対して固定されている前記マーカーと前記画像内の空間に対して固定されていない前記マーカーとがあり、前記識別情報により、前記マーカーの種別が識別可能である
    請求項8に記載の画像処理装置。
  10. 前記選択部は、前記識別情報により識別される前記マーカーの種別に基づいて、前記第2の検出部による検出処理の対象とする所定数の前記マーカーを選択する
    請求項9に記載の画像処理装置。
  11. 前記画像内の空間に対して固定されている前記マーカーに対する前記第2の検出部による検出結果に基づいて、前記画像上の座標と、前記画像内の空間に対して固定されている前記マーカーが規定する前記空間内の座標との対応関係を算出する算出部をさらに備え、
    前記推定部は、前記第2の検出部による検出結果、および、前記算出部により算出された対応関係に基づいて、前記画像内の空間に対して固定されていない前記マーカーの姿勢を推定する
    請求項10に記載の画像処理装置。
  12. 前記マーカーは、前記第2の検出成分である自然画像の四隅に前記第1の検出成分である2次元コードが配置されることにより構成される
    請求項3に記載の画像処理装置。
  13. 前記マーカーは、前記第2の検出成分である自然画像が前記第1の検出成分である2次元コードにより変調されることにより構成される
    請求項3に記載の画像処理装置。
  14. 前記マーカーは、前記第2の検出成分が前記被写体の背景と同色を基本とした色で形成される
    請求項3に記載の画像処理装置。
  15. 前記マーカーに従って仮想オブジェクトを合成する場合、前記マーカーは、前記第2の検出成分が多色で形成される
    請求項3に記載の画像処理装置。
  16. 前記マーカーは、前記第1の検出成分に色差成分が割り当てられ、前記第2の検出成分に輝度成分が割り当てられて形成される
    請求項3に記載の画像処理装置。
  17. 画像に映されている複数のマーカーを検出し、
    検出された複数の前記マーカーの中から、所定数の前記マーカーを選択し、
    選択された所定数の前記マーカーを、より詳細に検出し、
    その検出結果に基づいて、前記マーカーの位置および姿勢を推定する
    ステップを含む画像処理方法。
  18. 画像に映されている複数のマーカーを検出し、
    検出された複数の前記マーカーの中から、所定数の前記マーカーを選択し、
    選択された所定数の前記マーカーを、より詳細に検出し、
    その検出結果に基づいて、前記マーカーの位置および姿勢を推定する
    ステップを含む画像処理をコンピュータに実行させるプログラム。
JP2014544425A 2012-11-02 2013-10-18 画像処理装置および画像処理方法、並びにプログラム Active JP6418449B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012242409 2012-11-02
JP2012242409 2012-11-02
PCT/JP2013/078273 WO2014069247A1 (ja) 2012-11-02 2013-10-18 画像処理装置および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2014069247A1 true JPWO2014069247A1 (ja) 2016-09-08
JP6418449B2 JP6418449B2 (ja) 2018-11-07

Family

ID=50627160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014544425A Active JP6418449B2 (ja) 2012-11-02 2013-10-18 画像処理装置および画像処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US10378877B2 (ja)
EP (1) EP2916535B1 (ja)
JP (1) JP6418449B2 (ja)
WO (1) WO2014069247A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI592020B (zh) * 2016-08-23 2017-07-11 國立臺灣科技大學 投影機的影像校正方法及影像校正系統
KR102034548B1 (ko) * 2016-10-10 2019-10-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR20180041890A (ko) * 2016-10-17 2018-04-25 삼성전자주식회사 가상 객체를 표시하는 방법 및 장치
KR102581802B1 (ko) * 2016-11-21 2023-09-25 삼성전자주식회사 디스플레이장치, 시스템 및 기록매체
US10635373B2 (en) 2016-12-14 2020-04-28 Samsung Electronics Co., Ltd. Display apparatus and method of controlling the same
KR20180083144A (ko) 2017-01-12 2018-07-20 삼성전자주식회사 마커를 검출하기 위한 방법 및 그 전자 장치
US10998211B2 (en) * 2017-05-31 2021-05-04 Fujikin Inc. Management system, method, and computer program for semiconductor fabrication apparatus
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
JP2021016015A (ja) * 2017-10-20 2021-02-12 emmmR株式会社 広告システム
KR102471073B1 (ko) * 2017-12-18 2022-11-25 삼성전자주식회사 전자 장치 및 그 동작방법
JP6784944B2 (ja) * 2018-03-26 2020-11-18 カシオ計算機株式会社 投影制御装置、マーカ検出方法及びプログラム
KR102558290B1 (ko) 2018-08-30 2023-07-24 삼성전자주식회사 전자 장치 및 그 제어 방법
US10762622B2 (en) * 2018-09-19 2020-09-01 Kyocera Document Solutions Inc. Fabric inspection device and ink-jet printing device therewith
US11245889B1 (en) * 2018-11-08 2022-02-08 Tanzle, Inc. Perspective based green screening
JP7292883B2 (ja) * 2019-01-16 2023-06-19 住友重機械工業株式会社 情報処理装置、プログラム、被画像認識用マーカセット
JP7136328B2 (ja) * 2019-03-27 2022-09-13 日本電気株式会社 カメラ調整装置、カメラ位置調整方法及びプログラム
JP7198149B2 (ja) * 2019-04-24 2022-12-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびデバイス情報導出方法
WO2022113582A1 (ja) * 2020-11-30 2022-06-02 日本電気株式会社 キャリブレーション方法、キャリブレーション装置、キャリブレーションシステム、及び記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002090118A (ja) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd 3次元位置姿勢センシング装置
JP2005227929A (ja) * 2004-02-12 2005-08-25 Nippon Telegr & Teleph Corp <Ntt> 対象物の撮影画像の処理方法、画像表示システム、プログラム、および、記録媒体
JP2008249407A (ja) * 2007-03-29 2008-10-16 Canon Inc 画像処理装置、画像処理方法
JP2011096227A (ja) * 2010-06-11 2011-05-12 Nintendo Co Ltd 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697761B2 (en) 2000-09-19 2004-02-24 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
US7769236B2 (en) * 2005-10-31 2010-08-03 National Research Council Of Canada Marker and method for detecting said marker
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
JP2010025759A (ja) * 2008-07-18 2010-02-04 Fuji Xerox Co Ltd 位置計測システム
US7973602B2 (en) 2009-05-06 2011-07-05 Mindspeed Technologies, Inc. Variable gain amplifier
EP2395474A3 (en) * 2010-06-11 2014-03-26 Nintendo Co., Ltd. Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002090118A (ja) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd 3次元位置姿勢センシング装置
JP2005227929A (ja) * 2004-02-12 2005-08-25 Nippon Telegr & Teleph Corp <Ntt> 対象物の撮影画像の処理方法、画像表示システム、プログラム、および、記録媒体
JP2008249407A (ja) * 2007-03-29 2008-10-16 Canon Inc 画像処理装置、画像処理方法
JP2011096227A (ja) * 2010-06-11 2011-05-12 Nintendo Co Ltd 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法

Also Published As

Publication number Publication date
US10378877B2 (en) 2019-08-13
WO2014069247A1 (ja) 2014-05-08
EP2916535B1 (en) 2017-09-27
US20150260505A1 (en) 2015-09-17
EP2916535A1 (en) 2015-09-09
EP2916535A4 (en) 2016-09-14
JP6418449B2 (ja) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6418449B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP6330987B2 (ja) 画像処理装置、画像処理方法、及び記憶媒体
US8154616B2 (en) Data processing apparatus and method, and recording medium
JP5961249B2 (ja) カラー・チャネルおよび光マーカー
WO2016181687A1 (ja) 画像処理装置と画像処理方法およびプログラム
US20170078637A1 (en) Image processing apparatus and method
WO2019225547A1 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
JP5781682B2 (ja) 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法
US20100245544A1 (en) Imaging apparatus, imaging control method, and recording medium
JP2013042411A (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
KR20160030224A (ko) 화상 처리 장치, 화상 처리 시스템, 화상 처리 방법, 및 컴퓨터 프로그램
JP2010122934A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5620343B2 (ja) 物体座標系変換装置、物体座標系変換方法、及び物体座標系変換プログラム
WO2014069248A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2011155412A (ja) 投影システムおよび投影システムにおける歪み修正方法
KR20200096426A (ko) 동체 검출 장치, 동체 검출 방법, 동체 검출 프로그램
JP2018173882A (ja) 情報処理装置、方法、及びプログラム
JP2012164188A (ja) 画像処理装置、画像処理方法およびプログラム
US11770551B2 (en) Object pose estimation and tracking using machine learning
JP5151922B2 (ja) 画素位置対応関係特定システム、画素位置対応関係特定方法および画素位置対応関係特定プログラム
JP6153318B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2005141655A (ja) 3次元モデリング装置及び3次元モデリング方法
JP2017184136A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2008203991A (ja) 画像処理装置
JP5590680B2 (ja) 映像合成装置、映像合成方法、および映像合成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180926

R151 Written notification of patent or utility model registration

Ref document number: 6418449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151