JP2007286715A - 画像合成装置及び画像合成プログラム - Google Patents

画像合成装置及び画像合成プログラム Download PDF

Info

Publication number
JP2007286715A
JP2007286715A JP2006110629A JP2006110629A JP2007286715A JP 2007286715 A JP2007286715 A JP 2007286715A JP 2006110629 A JP2006110629 A JP 2006110629A JP 2006110629 A JP2006110629 A JP 2006110629A JP 2007286715 A JP2007286715 A JP 2007286715A
Authority
JP
Japan
Prior art keywords
dimensional
image
feature point
display medium
point display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006110629A
Other languages
English (en)
Other versions
JP4835243B2 (ja
Inventor
Hirokazu Sato
弘和 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2006110629A priority Critical patent/JP4835243B2/ja
Publication of JP2007286715A publication Critical patent/JP2007286715A/ja
Application granted granted Critical
Publication of JP4835243B2 publication Critical patent/JP4835243B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】マーカーにマーカー自体に関する情報である特徴点表示媒体情報を記録しておき、画像認識でそれを特定することによりマーカーの使用できる条件を自由に変更出来る画像合成装置および画像合成プログラムを提供することを目的とする。
【解決手段】マーカーに表示された4つの特徴点以外に前記マーカー自身に関する情報であって特徴点表示媒体情報を表示させておく。画像合成装置は、前記特徴点表示媒体情報に基づいて、仮想的な3次元のカメラ座標系における3次元オブジェクトの位置と前記カメラ座標系における前記3次元オブジェクトの向きとを算出して、その算出された前記位置と前記向きとに基づいて前記2次元画像に前記3次元オブジェクトを合成する。
【選択図】 図3

Description

本発明は、画像合成装置及び画像合成プログラムに関するものである。
従来、シート状の記録媒体に4点の特徴点が印刷されたマーカーを、撮影する対象物に配置して、対象物を撮影し、撮影した2次元画像に含まれるマーカーの特徴点が示す位置に3次元オブジェクトを合成する画像合成装置が知られている。この場合、2次元画像に含まれるマーカーの特徴点を画像認識により認識して、3次元オブジェクトを配置する位置と向きとを算出し、2次元画像のマーカーに印刷された特徴点の付近に3次元オブジェクトを合成する。これにより3次元オブジェクトの仮想的な物体が、あたかもマーカーが実際に配置された面に乗っているような合成画像を得ることができる。
また、合成させたい3次元オブジェクトが複数存在する場合は、マーカーに所定の2次元配列のパターンを印刷しておき、そのパターンに対応した3次元オブジェクトを合成する。
このように3次元オブジェクトを2次元画像に合成する技術については、例えば特許文献1に記載されている。
特開2000−322602号公報
しかしながら、このような画像合成装置は、3次元オブジェクトを合成する位置や向きに関する情報として、上述の4点の特徴点のみしか印刷されておらず、予め定められた形状のマーカーしか使用することができなかった。例えば、画像合成装置では、各特徴点同士の距離に基づいて3次元オブジェクトを合成する位置が決定されるため、従来のマーカーでは予め特徴点同士の距離がある一定の値に定められたものを用い、画像合成装置にはその定められた一定の値が予め記憶されていて、画像合成装置はその値を用いて3次元オブジェクトの合成位置を決定していた。そのため、画像認識での誤認識を避ける為にサイズを拡大して印刷したマーカーを利用した場合、3次元オブジェクトを2次元画像に適切なサイズで合成できなかった。また、画像認識しやすいようにマーカーをカメラの方向に向けるように壁などに立てかけるように設置した場合、画像認識のみからマーカーが立てかけられたものかどうかを判断することができなかった。
本発明は、上述した問題点を解決するためになされたものであり、マーカーにマーカー自体に関する情報である特徴点表示媒体情報を記録しておき、画像認識でそれを特定することによりマーカーの使用できる条件を自由に変更出来る画像合成装置および画像合成プログラムを提供することを目的とする。
この目的を達成するために、請求項1記載の画像合成装置は、撮影装置により撮影された2次元画像から画像認識により、特徴点表示媒体に表示された4つの特徴点の各々の2次元座標を抽出する2次元座標抽出手段と、前記撮影装置により撮影された前記2次元画像から前記特徴点表示媒体自身に関する情報であって前記特徴点表示媒体に表示された特徴点表示媒体情報を抽出する特徴点表示媒体情報抽出手段と、前記2次元画像から抽出した前記4つの特徴点の各々の前記2次元座標と、前記特徴点表示媒体情報とに基づいて、仮想的な3次元のカメラ座標系における3次元オブジェクトの位置と前記カメラ座標系における前記3次元オブジェクトの向きとを算出する合成パラメータ算出手段と、前記合成パラメータ算出手段により算出された前記位置と前記向きとに基づいて前記2次元画像に前記3次元オブジェクトを合成する合成手段とを備える。
また、請求項2記載の画像合成装置は、請求項1記載の画像合成装置であって、前記合成パラメータ算出手段が、前記撮影装置の焦点距離と、前記撮影装置の撮像素子のサイズと、前記特徴点表示媒体における特徴点間の距離と、前記4つの特徴点の各々の前記2次元座標とに基づいて、前記4つの特徴点の各々の前記カメラ座標系における3次元座標を算出し、その算出された3次元座標に基づいて、前記3次元オブジェクトの前記位置と前記向きとを算出することを特徴とする。
また、請求項3記載の画像合成装置は、請求項2記載の画像合成装置であって、前記特徴点表示媒体情報は前記特徴点表示媒体における前記特徴点間の距離を示す特徴点表示媒体サイズ情報であって、前記合成パラメータ算出手段は、前記特徴点表示媒体サイズ情報が示す特徴点間の距離に基づいて、前記4つの特徴点の3次元座標を算出することを特徴とする。
また、請求項4記載の画像合成装置は、請求項2または請求項3記載の画像合成装置であって、前記特徴点表示媒体情報は、前記特徴点と前記特徴点表示媒体情報とが表示された表示面と、前記特徴点表示媒体を配置した面である配置面と、の傾きを示す傾斜情報であって、前記合成パラメータ算出手段は、前記傾斜情報に基づいて前記4つの特徴点が前記配置面上にあるように補正した前記3次元座標を算出することを特徴とする。
また、請求項5記載の画像合成装置は、請求項2から請求項4のいずれかに記載の画像合成装置であって、前記合成パラメータ算出手段が、前記特徴点の各々の前記3次元座標に基づき、前記特徴点を頂点とする平面図形の特定位置の3次元座標を算出し、その特定位置に前記3次元オブジェクトの底面の中心を一致させ、且つ前記3次元オブジェクトの上方向が前記平面図形と垂直な方向になるように、前記位置及び前記向きを算出することを特徴とする。
また、請求項6記載の画像合成装置は、請求項5記載の画像合成装置であって、前記合成パラメータ算出手段が、前記特徴点の各々の前記3次元座標を頂点とする図形の重心の位置の3次元座標を算出し、その特定位置に前記3次元オブジェクトの底面の中心を一致させ、且つ前記3次元オブジェクトの上方向が前記平面図形と垂直な方向になるように、前記位置及び前記向きを算出することを特徴とする。
また、請求項7記載の画像合成プログラムは、画像合成装置のコンピュータを、前記撮影装置により撮影された2次元画像から画像認識により特徴点表示媒体に表示された4つの特徴点の各々の2次元座標を抽出する2次元座標抽出手段と、前記撮影装置により撮影された前記2次元画像から前記特徴点表示媒体自身に関する情報であって前記特徴点表示媒体に表示された特徴点表示媒体情報を抽出する特徴点表示媒体情報抽出手段と、前記2次元画像から抽出した前記4つの特徴点の各々の前記2次元座標と、前記特徴点表示媒体情報とに基づいて、仮想的な3次元のカメラ座標系における3次元オブジェクトの位置と前記カメラ座標系における前記3次元オブジェクトの向きとを算出する合成パラメータ算出手段と、前記合成パラメータ算出手段により算出された前記位置と前記向きとに基づいて前記2次元画像に前記3次元オブジェクトを合成する合成手段として機能させる。
請求項1記載の画像合成装置によれば、特徴点表示媒体に特徴点表示媒体自身に関する情報である特徴点表示媒体情報が表示されているので、その特徴点表示媒体情報に基づいて、仮想的な3次元のカメラ座標系における3次元オブジェクトの位置と前記カメラ座標系における3次元オブジェクトの向きとが算出されるので、特徴点表示媒体の使用できる条件を自由に変更することができる。よってユーザは使用状況に適した特徴点表示媒体を利用することが可能となる。
請求項2記載の画像合成装置によれば、請求項1記載の画像合成装置が奏する効果に加え、合成パラメータ算出手段が、撮影装置の焦点距離と、撮影装置の撮像素子のサイズと、特徴点表示媒体における特徴点間の距離と、4つの特徴点の各々の2次元座標とに基づいて、4つの特徴点の各々のカメラ座標系における3次元座標を算出することができる。
請求項3記載の画像合成装置によれば、請求項2記載の画像合成装置が奏する効果に加え、特徴点表示媒体サイズ情報が示す特徴点間の距離に基づいて、4つの特徴点の3次元座標を算出するので、異なるサイズの特徴点表示媒体を使用することができる。このため、例えば、特徴点表示媒体を遠くに配置する場合は画像認識をしやすい大きいサイズの特徴点表示媒体を使用することができるので、ユーザは遠方に3次元オブジェクトを合成した2次元画像を得ることができる。
請求項4記載の画像合成装置によれば、特徴点表示媒体情報は、傾斜情報に基づいて4つの特徴点が配置面上にあるように補正した前記3次元座標を算出するので、特徴点表示媒体の表示面を配置面に対して傾けて使用することができる。このため、特徴点表示媒体の表示面を配置面に対して傾けて配置することができるので、単に配置しただけでは撮影装置に対して特徴点表示媒体の表示面が傾きすぎて画像認識が行なえない場合にも、使用することができる。よって、ユーザは画像認識しやすいように特徴点表示媒体を配置面から傾けて設置した場合でも、3次元オブジェクトが配置面に対して合成されている2次元合成画像を得ることができる。
請求項5記載の画像合成装置によれば、請求項2から請求項4のいずれかに記載の画像合成装置が奏する効果に加え、特徴点の各々の3次元座標を頂点とする図形の特定位置の3次元座標と、3次元オブジェクトの底面の中心の3次元座標とが重なり、且つ3次元オブジェクトの上方向が前記平面図形と垂直な方向になるように、3次元オブジェクトを合成することができる。
請求項6記載の画像合成装置によれば、特徴点の各々の3次元座標を頂点とする図形の重心の位置の3次元座標と、3次元オブジェクトの底面の中心の3次元座標とが重なり、且つ3次元オブジェクトの上方向が前記平面図形と垂直な方向になるように、3次元オブジェクトを合成することができる。
請求項7記載の画像合成プログラムによれば、特徴点表示媒体に特徴点表示媒体自身に関する情報である特徴点表示媒体情報が表示されているので、その特徴点表示媒体情報に基づいて、仮想的な3次元のカメラ座標系における3次元オブジェクトの位置と前記カメラ座標系における3次元オブジェクトの向きとを算出されるので、特徴点表示媒体の使用できる条件を自由に変更することができる。
以下、本発明の第一実施形態について図面を参照して説明する。図1は本発明の第一実施形態である携帯型の画像合成装置1の斜視図である。画像合成装置1は画像を表示するためのディスプレイ10を備えたディスプレイ部2と各種の操作ボタン400が備えられた操作部3とからなる。操作ボタン400としては、後述する電源ボタン41、シャッターボタン42、閲覧ボタン44が存在する(図6参照)。
図2はディスプレイ部2の裏面を模式的に示した模式図である。ディスプレイ部2の裏面の中央には画像を撮影するためのカメラ70が設けられている。
画像合成装置1は、カメラ70で撮影した2次元画像に映し出されたマーカー200(後述)の特徴点を画像認識して、3次元オブジェクトの合成を行なう。しかし、カメラからマーカー200までの距離が遠くなるほど、撮影された2次元画像中におけるマーカー200の特徴点の認識が難しくなる。そこで、第一実施形態の画像合成装置では、大きさの異なるマーカー200を使い分けて使用することにより、その問題を解決する。即ち、カメラからの距離が遠くなるほど、大きいサイズのマーカー200を使用することにより、その問題を解決する。
ここで、第一実施形態において使用するマーカーについて説明する。第一実施形態では、小サイズのマーカー201、中サイズのマーカー202、大サイズのマーカー203とを使い分けて使用する。尚、マーカー201〜203をまとめてマーカー200と称す。尚、第一実施形態では、シート状の記録媒体(例えば、紙)に特徴点101〜104が印刷されたものであるマーカー200を用いるが、本願発明の特徴点表示媒体としては、書換え可能な表示媒体(例えば、電子ペーパー)に特徴点101〜104が表示されている状態のものを使用してもよい。
図3に小サイズのマーカー201を示す。図4に中サイズのマーカー202を示す。図5に大サイズのマーカー203を示す。図3〜図5に示すように、背景色が白色であるマーカー200には4つの特徴点101から104が表示されている。尚、ここで、表示とは紙のようなシート状の記録媒体に特徴点101〜104が印刷されている状態や、電子ペーパのような書換え可能な表示媒体に特徴点101〜104が表示されている状態を含む。
この4つの特徴点101〜104は、それぞれ所定の半径を有する円状をしている。また、この4つの特徴点101〜104の中心は、一辺の長さを所定の長さとする正方形の4つの頂点の位置に配置されている。
例えば、小サイズのマーカー201の場合は、特徴点101〜104として半径が5mmの円状のマークが4つ表示されている。そして、一辺の長さLを7cmとする正方形の4つ頂点の位置に、4つの特徴点101〜104が表示されている。そして、それぞれの特徴点101〜104の中心の位置と頂点の位置とが一致するように、4つの特徴点101〜104が配置されている。
また、中サイズのマーカー202の場合は、特徴点101〜104として半径が10mmの円状のマークが4つ表示されている。そして、一辺の長さLを14cmとする正方形の4つ頂点の位置に、4つの特徴点101〜104が表示されている。そして、それぞれの特徴点101〜104の中心の位置と頂点の位置とが一致するように、4つの特徴点101〜104が配置されている。
また、大サイズのマーカー203の場合は、特徴点101〜104として半径が15mmの円状のマークが4つ表示されている。そして、一辺の長さLを21cmとする正方形の4つ頂点の位置に、4つの特徴点101〜104が表示されている。そして、それぞれの特徴点101〜104の中心の位置と頂点の位置とが一致するように、4つの特徴点101〜104が配置されている。
これらマーカー201に表示されている4つの特徴点101〜104のうち、特徴点101は赤色で表示されており、特徴点102〜104は黒色で表示されている。特徴点101〜104は、特徴点101から反時計回りに特徴点102、特徴点103、特徴点104の順番に表示されている。
尚、特徴点104から特徴点101への方向を、マーカー200の正面方向とし、後述する3次元オブジェクトは、このマーカー200の正面方向と2次元オブジェクトの正面方向とをあわせるようにして画像が合成される。
マーカー200の中心付近には2次元配列のパターン105及びパターン106が表示されている。パターン105は3×3の9個のセルに、白と黒との色が所定の配列で表示されている。このパターン105はマーカー200のサイズの情報であるマーカーサイズ情報を特徴点表示媒体情報として記録している。即ち、マーカー201のパターン105と、マーカー202のパターン105と、マーカー203のパターン105とはそれぞれ異なる配列をしている。マーカー201のパターン105は小サイズであることを示し、マーカー202のパターン105は中サイズであることを示し、マーカー203のパターン105は大サイズであることを示す。具体的には本実施形態において、パターン105に上述の特徴点101〜104を結ぶ正方形の一辺の長さLが記録されているものとする。尚、この長さLは後述の合成パラメータ算出処理において、カメラ座標系における特徴点101〜104の3次元座標を算出する際に用いられる。
このパターン105の隣には合成する3次元オブジェクトを指定するパターン106が表示されている。パターン105同様、パターン106は3×3の9個のセルに、白と黒との色が所定の配列で表示されている。画像合成装置1の後述する3次元オブジェクト記憶領域に記憶された複数の3次元オブジェクトの中からいずれの3次元オブジェクトを合成するかを指定する3次元オブジェクト指定情報を、パターン106は記録している。図3〜図5に示したパターン106は全て同じ配列であるので、全て同じ3次元オブジェクトを指定している。
尚、マーカー201におけるパターン105及びパターン106の一つのセルの大きさは10mm×10mmとし、マーカー202におけるパターン105及びパターン106の一つのセルの大きさは20mm×20mmとし、マーカー203におけるパターン105及びパターン106の一つのセルの大きさは30mm×30mmとする。
第一実施形態の画像合成装置1により撮影した2次元画像の一例として、机の上にマーカー200を配置して撮影した2次元画像を図7及び図9に示す。また、図7のように撮影された2次元画像に3次元オブジェクトを合成して得られた合成画像を図8に示し、図9のように撮影された2次元画像に3次元オブジェクトを合成して得られた合成画像を図10に示す。
図7はカメラ70から距離の近い机の上に、小サイズのマーカー201を配置して撮影したときの2次元画像である。また、図9はカメラ70から距離の遠い机の上に、大サイズのマーカー203を配置して撮影したときの2次元画像である。尚、図7の机と図9の机とは同じサイズの机であるが、図7中では距離が近いので、図9中での机よりも大きく写されている。
これに対してマーカー201とマーカー203とはサイズが異なり、マーカー203はマーカー201よりもサイズが大きい。従って、図7に示した2次元画像中のマーカー201と図9に示した2次元画像中のマーカー203とは略同じ大きさに移っている。
従って、後述の処理でマーカー200の特徴点101〜104を画像認識する際に、図7に示した2次元画像と図9に示した2次元画像との両方について略同じ精度で画像認識を行なうことができる。
なお、従来の画像合成装置では、マーカーにパターン105が表示されているものはなく、予め長さLが定められたマーカーを用いられていた。このため、マーカーをカメラ70から遠くに配置した場合、画像認識が正確に行なえないという問題があった。
これに対して、マーカー200には上述したようにマーカーサイズ情報がパターン105として記録されているので、後述の処理でパターン105を認識することにより、マーカーサイズ情報を考慮して合成する3次元オブジェクトの大きさを補正することが可能である。
したがって、図7のマーカー201よりもマーカー203の配置された位置がカメラ70から遠いので、図8及び図10に示したように、図10の2次元画像に合成された3次元オブジェクトは図8の2次元画像に合成された3次元オブジェクトよりも小さく合成されている。
図6に画像合成装置1の電気的構成を示すブロック図を示す。画像合成装置1には、画像合成装置1の動作を制御するマイコン30が内臓されている。マイコン30はCPU31と各種プログラムを記憶したROM32と各種情報を記憶するRAM33とから構成されており、CPU31とRAM32及びRAM33とはバス34を介して接続されている。
また、外部インターフェース50は外部装置とのデータの入出力を行なうためのインターフェースであり、バス24を解してCPU31に接続されている。
画像処理回路20を介してディスプレイ10がマイコン30と接続されている。画像処理回路20はマイコン30からの指示に従い、ディスプレイ10に画像を表示させる。
操作ボタン400(電源ボタン41、シャッターボタン42、閲覧ボタン44等)は、外部入力インターフェース40を介してマイコン30と接続されており、各操作ボタン400の押下に応じて信号をマイコン30に送信する。
カメラ70はカメラインタフェース60を介してマイコン30と接続されており、カメラ70により撮影した画像の信号をマイコン30に送信する。
図11にRAM33の各記憶領域を模式的に示す構成図を示す。図11に示すように、RAM33には2次元画像サイズ記憶領域301、焦点距離記憶領域302、撮像素子サイズ記憶領域303撮像素子サイズ記憶領域303、3次元オブジェクト記憶領域304、2次元画像記憶領域307、合成パラメータ記憶領域308、合成画像記憶領域309、作業領域311とを備えている。
2次元画像サイズ記憶領域301には、カメラ70で撮影される2次元画像の縦横サイズが記憶されている。焦点距離記憶領域302には、カメラ70の焦点距離が記憶されている。撮像素子サイズ記憶領域303にはカメラ70の撮像素子のサイズ情報が記憶されている。3次元オブジェクト記憶領域304には、カメラ70で撮影した2次元画像と合成するための3次元オブジェクトが記憶されている。尚、3次元オブジェクト記憶領域には、複数の3次元オブジェクトが記憶されており、それぞれの3次元オブジェクトに対して、それぞれ異なる配列のパターン105が対応付けられて記憶されている。2次元画像記憶領域307は、カメラ70により撮影した2次元画像が記憶される領域である。合成パラメータ記憶領域308は、後述する合成パラメータ算出処理で算出される合成パラメータが記憶される領域である。合成画像記憶領域309は、後述する合成処理で作成される合成画像が記憶される領域である。作業領域311は、後述する各処理をCPU31が実行する際に使用される領域である。
立体図形である3次元オブジェクトの透視図を、カメラ70で撮影した2次元画像に合成してコンピューマーカーラフィックスで表す処理には、種々の座標変換が行われる。公知の技術であるが、この変換に関係する座標系であるワールド座標系とカメラ座標系について簡単に説明する。
ワールド座標系とは、現実の空間をモデル化して、擬似的な3次元の空間を考えたときに、そこに考える座標系をワールド座標系いう。
カメラ座標系とは、ワールド座標系の中に存在する仮想的なカメラを考えたときに、その仮想的なカメラの中心を原点とした座標系である。この仮想的なカメラのスクリーンの向きを定義するものである。尚、スクリーンとは、後述の処理で3次元オブジェクトを透視射影するための平面であり、カメラ座標系のz軸と垂直に交わるように設定される。
上述の仮想的なカメラはワールド座標系の任意の位置に設置することができるが、カメラ座標系の原点であるカメラ原点の位置をワールド座標系の原点の位置と一致させて、更にx軸、y軸、z軸をそれぞれ一致させて考えることで、座標変換の処理を簡単に説明することができる。
本実施形態での仮想的なカメラの向きをz軸方向とし、カメラからみてz軸方向にスクリーンを設置する。図15に本実施形態におけるカメラ座標系におけるスクリーンを示す模式図を示す。
後述する処理では、スクリーンにカメラ70で撮影された2次元画像とを重ね合わせて考えることで、カメラ座標系(ワールド座標系)における特徴点101〜104の3次元座標を算出する。
次に画像合成装置1の動作について説明する。図12は画像合成装置1のCPU31が実行するメイン処理のフローチャートである。
電源ボタン41が押下されるとメイン処理が開始され、先ず初期化処理を実行する(ステップ101、以下ステップをSと称す)。ここで初期化処理とはカメラ70及びディスプレイ10を起動し、光源90から対象物に特徴点101〜103を投影することである。
次にカメラ70からの入力画像にディスプレイ10の表示を切換える(S102)。そして、電源ボタン41が押下されたか否かを判断する(S104)。電源ボタン41が押下された場合(S104:Yes)、終了処理を実行し(S105)、メイン処理が終了され画像処理装置1の電源がオフ状態になる。ここで終了処理とはカメラ70及びディスプレイ10を停止することである。
電源ボタン41が押下されていないと判断した場合は(S104:No)、シャッターボタン42が押下されたか否かを判断する(S106)。
シャッターボタン42が押下されたと判断した場合は(S106:Yes)、後述する認識合成処理を実行し(S107)、S102に戻る。
シャッターボタン42が押下されていないと判断した場合は(S106:No)、閲覧ボタン44が押下されたか否かを判断する(S110)。
閲覧ボタン44が押下されたと判断した場合は(S110:Yes)、後述する閲覧処理を実行し(S111)、S102に戻る。閲覧ボタン44が押下されていないと判断した場合は(S110:No)、そのままS104に戻る。
次に認識合成処理について説明する。図13はCPU31が実行する認識合成処理のフローチャートである。認識合成処理は上述したように、メイン処理のS106においてシャッターボタン105が押下されたと判断された場合に開始される。
CPU31は認識合成処理を開始すると先ず、カメラ70で2次元画像を撮影し、2次元画像をRAM33に記憶する(S201)。
次に2次元画像の画像認識を行い、2次元画像におけるマーカー200の特徴点101〜104の2次元座標を求め、更にマーカー200に記憶されているパターン105とパターン106とを認識する(S202)。
画像認識について以下に簡単に説明する。2次元画像に対して平滑化処理、赤と黒と白に多値化処理を行った後、連結成分に対しラベリング処理を行い、各連結成分に対して形状特徴として面積と周囲長を求める。この面積と周囲長から、周囲長を2乗したものに4πを掛けて面積で割ったものを円形度とする。円形度は連結成分が円に近いほど1に近づき、複雑な図形であるほど大きな値となる。円形度が予め設定した閾値以下となる連結成分のうち、円形度が最も小さいものから順に4つ特徴点として認識をする。赤と黒と白に多値化する処理における閾値は、事前の実験により得られたヒューリスティックな値が予め設定されているものとする。尚、S202では赤色の特徴点の座標を特徴点101の座標として認識し、そのほかの特徴点の座標を、特徴点101から反時計回りの順番に特徴点102、特徴点103、特徴点104の座標として認識する。
パターン105の画像認識により、特徴点101〜104を結ぶ上述の正方形の一辺の長さLがマーカーサイズ情報として取得され、パターン106からいずれの3次元オブジェクトを合成するかを示す情報が取得される。
画像認識については公知の技術であるが、例えば「コンピュータ画像処理、田村秀行 編著、オーム社」に記載されている。
次に、カメラ70で撮影された2次元画像に基づいて画像認識が成功したか否かを判断する(S203)。即ち、S203では、4つの特徴点101〜104の2次元座標とパターン105とパターン106の認識が成功したか否かを判断する。判断方法としては、特徴点認識において、予め設定した閾値以下の連結成分が必要数(ここでは4つ)存在するか否かと、特徴点として認識された4つの連結成分の内訳が赤色の連結成分が1つで黒色の連結成分が3つであるか否かとする。どちらの条件も満たしたとき、画像認識は成功したと判断する。
画像認識に失敗した場合は(S203:No)、認識失敗を通知する画像をディスプレイ10に一定時間表示させ(S204)、メイン処理に戻る
画像認識が成功した場合は(S203:Yes)、後述する合成パラメータ算出処理を実行する(S205)。合成パラメータ算出処理では、合成パラメータとして、カメラ座標系における3次元オブジェクトの位置と向きとを示す情報を算出する。合成パラメータ算出処理の詳細については後述する。
次に算出された合成パラメータに基づいて、合成処理を実行する(S206)。合成処理では、合成パラメータに基づいて、3次元オブジェクトとカメラ70で撮影した2次元画像とを合成して合成画像を生成する。合成処理の詳細については後述する。
次に、S206で作成した合成画像の表示にディスプレイ2の表示を切換える(S207)。
そして、ディスプレイ2に表示中の合成画像の保存が選択されるか否かを判断する(S208)。合成画像の保存が選択された場合(S208:Yes)、合成画像をRAM33の合成画像記憶領域309に記憶して(S210)メイン処理に戻る。
合成画像の保存が選択されなかった場合(S208:No)、合成画像の破棄が選択されるか否かを判断する(S209)。合成画像の破棄が選択されなかった場合(S209:No)、S208へ戻り、合成画像の保存か破棄のいずれかが選択されるまでS208とS209を繰り返す。
合成画像の破棄が選択された場合(S209:Yes)、RAM33の作業領域に作成された合成画像を消去して(S211)、メイン処理に戻る。
ここで合成パラメータ算出処理について説明する。図14に合成パラメータ算出処理のフローチャートを示す。
合成パラメータ算出処理を開始すると先ず、カメラ原点から上述のスクリーン上での特徴点101〜104までのベクトルであるベクトルE、ベクトルF、ベクトルG、ベクトルHを算出する(S301)。尚、スクリーン上での特徴点とは、カメラ70で撮影した2次元画像とスクリーンを一致させたときに、スクリーン上に現れる特徴点101〜104のことである。図16にスクリーン上の特徴点101〜104と、カメラ原点からスクリーン上での特徴点101までのベクトルEとを模式的に示した模式図を示す。
ベクトルE、ベクトルF、ベクトルG、ベクトルHについては、2次元画像の縦横のサイズ(例えば300×400pixel)と、上述のS202で算出した2次元座標(例えば左上から縦25pixel目,横320pixel目)と、スクリーンの縦横のサイズ(カメラの撮像素子の縦横のサイズ)と、カメラ70の焦点距離に基づいて、求めることができる。カメラ70の焦点距離は、カメラ原点からスクリーンに下ろした垂線の距離に対応する。ここで、2次元画像の高さと幅をそれぞれhp、wp(pixel数)とし、S202で算出された2次元座標をap、bp(2次元画像の左上からの縦apピクセル目、横bpピクセル目)とする。また、スクリーンまでの距離をdとし、スクリーンの高さと幅をそれぞれws、hsとする。
ベクトルEについて算出例を簡単に説明する。ここで、求めたいベクトルEのx,y,z座標をそれぞれ、Xe,Ye,Zeとする。Xe,Ye,Zeはそれぞれ以下の式で算出される。
Figure 2007286715
このとき、hp、wpには2次元画像の縦横のサイズが、wp、wsにはカメラの撮像素子の縦横のサイズが、ap,bpにはS202で算出された2次元座標が、dにはカメラ70の焦点距離が代入される。Z軸は長方形のスクリーンの中央を垂直に通っており、スクリーンの各辺はx軸またはy軸と平行である。他のベクトルF、ベクトルG、ベクトルHについても同様に算出する。
ここで、2次元画像の縦横サイズは、RAM33の撮影画像サイズ記憶領域301に予め定められた設定値が記憶されているものとする。また、カメラ70の焦点距離については、RAM33の焦点距離記憶領域302に予め定められた設定値が記憶されているものとする。
次に、S301で算出されたベクトルE、ベクトルF、ベクトルG、ベクトルHに基づいて、カメラ座標系における特徴点101〜104の3次元座標を算出する(S302)。
図17にスクリーン上での特徴点101〜104とカメラ座標系における特徴点101〜104における特徴点101〜104との位置関係を示す模式図を示す。カメラ座標系における特徴点101〜104は、ベクトルE、ベクトルF、ベクトルG、ベクトルHそれぞれ延長線上にある。従って、カメラ原点から特徴点101までのベクトルをeE、カメラ原点から特徴点102までのベクトルをfF、カメラ原点から特徴点103までのベクトルをgG、カメラ原点から特徴点104までのベクトルをhHとすると、ベクトルE、ベクトルF、ベクトルG、ベクトルHはすでに算出されているので、スカラー値であるe、f、g、hをそれぞれ求めれば、特徴点101〜104の3次元座標が求まる。
マーカー200の特徴点101〜104はそれぞれ正方形の頂点であることから、下記の式が成立する。
Figure 2007286715
数2より、以下の式を得る。
Figure 2007286715
数3をベクトルの各成分に分けると次式数4、数5、数6となる。尚、ベクトルEの各成分(カメラ座標系における3次元座標)を(Ex、Ey、Ez)、ベクトルFの各成分(カメラ座標系における3次元座標)を(Fx、Fy、Fz)、ベクトルGの各成分(カメラ座標系における3次元座標)を(Gx、Gy、Gz)、ベクトルHの各成分(カメラ座標系における3次元座標)を(Gx、Gy、Gz)とする。
Figure 2007286715
Figure 2007286715
Figure 2007286715
(f/e)、(g/e)、(h/e)の3つをそれぞれ変数と見なすと、数4、数5、数6より、(f/e)、(g/e)、(h/e)が求まる。
つまり、1:(f/e):(g/e):(h/e)=e:f:g:hなので、e、f、g、hの比率が求まることになる。
したがって、eの値が求まれば上述の結果よりf、g、hの各値も求まる。上述したようにマーカー200において、特徴点101〜104は正方形の頂点の位置に配置されている。この正方形の一辺の長さをLとすると以下の式が成り立つ。
Figure 2007286715
数7より以下の式を導く。
Figure 2007286715
ここで、(h/e)は求められているので、数8よりeを求めることができ、それを用いて残りのf、g、hを求めることができる。
よって、上述の正方形の一辺の長さLがわかれば4つのベクトルeE、fF、gG、hH(e、f、g、hはスカラー値)を求めることができ、即ち、各特徴点101〜104のカメラ座標系における3次元座標を算出することができる。尚、正方形の一辺の長さLは、上述のパターン105の画像認識より取得されているので、使用したマーカー200の大きさに合わせて正確な3次元座標を算出することができる。このようにして、特徴点101〜104の3次元座標が算出される。
次に、3次元オブジェクトを合成するために必要な、合成パラメータをS302で算出された特徴点101〜104の3次元座標(4つのベクトルeE、fF、gG、hH)に基づいて算出する(S303)。
ここでは、合成パラメータとして、カメラ座標系における3次元オブジェクトの合成位置を示すベクトルpと、3次元オブジェクトの正面方向を示すベクトルtと、3次元オブジェクトの上方向を示すベクトルuとを算出する。
ここで、S302で算出されたeE、fF、gG、hHの各成分(3次元座標)を
Figure 2007286715
とする。
合成位置を示すベクトルpは次の式で算出される。
Figure 2007286715
正面方向を示すベクトルt、及び、上方向を示すベクトルuは次の式で算出される。
Figure 2007286715
このように合成パラメータとして3次元オブジェクトの合成位置を示すベクトルpと、合成する際の3次元オブジェクトの正面方向(カメラ座標系におけるマーカー200の正面方向)を示すベクトルtと、合成する際の3次元オブジェクトの上方向(カメラ座標系におけるマーカー200の上方向)を示すベクトルuとを算出し、RAM33に記憶させた後、合成パラメータ算出処理を終了し、認識合成処理へ戻る。
次に、合成処理について説明する。図18は合成処理のフローチャートである。合成処理を開始すると先ず、S205で算出した合成パラメータと、S201で記憶した2次元画像と、3次元オブジェクトのデータである3次元オブジェクトデータとをRAM33から読み出す(S261)。尚、ここでは上述の画像認識により認識されたパターン106が示す3次元オブジェクトをRAM33の3次元オブジェクト記憶領域304から読み出す。
ここで、3次元オブジェクトデータについて説明する。図19は一例として立方体の3次元オブジェクトを示す。図19に示した立方体の3次元オブジェクトの3次元オブジェクトデータは、立方体の8つの頂点の座標と、立方体の各表面に対応するテクスチャ画像情報と、立方体の底面の中心点pと、立方体の正面方向を示すベクトルtと、立方体の上方向を示すベクトルuとの情報を備えている。
次に、撮像素子のサイズの情報とカメラの焦点距離をRAM33の撮像素子サイズ記憶領域303と焦点距離記憶領域302から読み出す(S262)。
次に算出された合成パラメータを考慮して、3次元オブジェクトをカメラ座標系で回転させる。ここでは、合成パラメータであるベクトルuの方向と3次元オブジェクト情報の上方向を示すベクトルuの方向とを一致させるように回転させた後、合成パラメータであるベクトルtの方向と3次元オブジェクトの正面方向を示すベクトルtの方向とを一致させるように回転させる(S264)。
3次元オブジェクトの回転方法については、「ゲームプログラミングのための3Dグラフィックス数学,Eric Lengyel 緒 狩野智英 訳, ボーンデジタル, P.58−62」に記載されているが、ここでは簡単に説明する。
3次元オブジェクトのワールド座標系における任意の頂点の座標を(x,y,z)とするとき、単位ベクトルA(Ax, Ay, Az)で示される軸にそって、角度θ回転させた座標である頂点(x',y',z')は次の行列式で求めることができる。
Figure 2007286715
ここで、S=sinθ、C=cosθである。
ここで軸Aまわりの正の角度の回転とは、軸Aが視点側向いているときに反時計回りさせることをいう。
同じことを4×4の座標変換の行列式であらわすと、
Figure 2007286715
ただし、
Figure 2007286715
このような回転方法を用いて、ここでは、合成パラメータであるベクトルuの方向と3次元オブジェクト情報の上方向を示すベクトルuの方向とを一致させるように回転させた後、合成パラメータであるベクトルtの方向と3次元オブジェクトの正面方向を示すベクトルtの方向とを一致させるように回転させる。
次に、合成パラメータであるベクトルpを考慮してワールド座標系における3次元オブジェクトを移動させる(S265)。ここでは3次元オブジェクトの底面の中心点pがベクトルpの各成分と一致するように3次元オブジェクトの各頂点を移動させる。
そして、このように移動させた3次元オブジェクトをスクリーン上に透視射影して3次元オブジェクトの透視図を生成し、その透視図をカメラ70で撮影された2次元画像と合成した合成画像を生成し(S266)、認識合成処理に戻る。尚、生成された合成画像はRAM33の合成画像記憶領域309に記憶される。
このように本実施形態では、マーカー200のパターン105に記録されたマーカーサイズ情報に基づいてカメラ座標系における特徴点101〜104の3次元座標が算出されているので、3次元オブジェクトが正確な大きさでカメラ70で撮影した2次元画像に合成される。また、マーカーは単一のフォーマットで表示されているので、画像認識にかかる計算量を低減でき、画像認識の速度が向上する。
次に、閲覧処理について説明する。図20は閲覧処理のフローチャートである。先ず、RAM33の合成画像記憶領域309に記憶されている全ての合成画像をディスプレイ10にリスト表示する(S401)。合成画像がない場合はリストには何も表示しない。
そして、閲覧の終了の操作が行なわれるか否かを判断する(S402)。閲覧の終了の操作が行なわれた場合は(S402:Yes)、メイン処理に戻る。
閲覧の終了の操作が行なわれない場合は(S402:No)、リストから特定の合成画像を選択する操作が行なわれたか否かを判断する(S403)。リストから特定の合成画像を選択する操作が行なわれない場合は(S403:No)、S401に戻る。
リストから特定の合成画像を選択する操作が行なわれた場合は(S403:Yes)、選択された合成画像をディスプレイ10に表示させる(S404)。
そして、表示した合成画像を削除する操作が行なわれるか否かを判断する(S405)。削除の操作が行なわれた場合は(S405:Yes)、その合成画像をRAM33の合成画像記憶領域310から消去し(S406)、S401に戻る。
削除の操作が行なわれなかった場合は(S405:No)、ディスプレイ10の表示をリスト表示の画面に戻す操作が行なわれたか否かを判断する(S407)。
リスト表示の画面に戻す操作が行なわれなかった場合は(S407:No)、S404へ戻る。リスト表示の画面に戻す操作が行なわれた場合は(S407:Yes)、S401へ戻る。
尚、第一実施形態において、マーカー200が特徴点表示媒体に相当する。また、S202を実行するCPU31が2次元座標抽出手段に相当する。また、パターン105に記録されたマーカー200のサイズの情報であるマーカーサイズ情報が特徴点表示媒体サイズ情報に相当する。また、S202を実行するCPU31が特徴点表示媒体情報抽出手段に相当する。また、S205を実行するCPU31が合成パラメータ算出手段に相当する。また、S206を実行するCPU31が合成手段に相当する。
次に第二実施形態について説明する。以下第一実施形態と異なる部分についてのみ説明する。先ず、第二実施形態で使用するマーカー300について説明する。図21は第二実施形態におけるマーカー300の斜視図である。マーカー300は、表示面108と、所定の位置の配置面(例えば机の上の面)に配置した際に表示面108と配置面とが傾くように表示面の裏側に形成された傾斜部材109とを備える。
表示面108には上述のマーカー200同様に、特徴点101〜104が表示されている。また、表示面108の中央付近にはパターン107とパターン106とが表示されている。尚、図21中では、パターン106とパターン107とを省略して記載した。
ここで、パターン107は第一実施形態におけるパターン105とは異なり、マーカー300を任意の位置に配置したときに、傾斜部材109により表示面108と配置面との傾きを示す情報が記録されている。
図22にマーカー300の側面図を示す。図22に示すように傾斜部材は三角柱状の形状をしている。表示面108と配置面との傾きをαとするとき、このαの値がパターン107に特徴点表示媒体情報として記録されている。
このように、第二実施形態のマーカー300によれば、カメラ70の対して表示面108を向けてマーカー300を配置することができる。このため、特徴点101〜104の画像認識がより確実に行なえるようになる。第二実施形態の画像合成装置1により撮影した2次元画像の一例として、机の上にマーカー300を配置して撮影した2次元画像を図23に示す。
第二実施形態における画像合成装置1の外観及び電気的構成については第一実施形態と同様であるので説明を省略する。
第二実施形態における画像合成装置1の動作について説明する。尚、第一実施形態と同様の部分については説明を省略する。
第二実施形態では、図13に示した認識合成処理のS202の画像認識において、パターン107の画像認識を行い、表示面108と載置面との角度αを取得する。
次に第二実施形態における合成パラメータ算出処理のフローチャートを図24に示す。第二実施形態における合成パラメータ算出処理では、S302において、カメラ座標系におけるマーカー300の特徴点101〜104の3次元座標を算出した後、上述のS202においてパターン107から取得した特徴点表示媒体情報(角度αの値)に基づいて、特徴点103と特徴点104の3次元座標が配置面上に位置するように補正する(S2000)。このとき、特徴点101と特徴点102とを結ぶ直線を軸にして、特徴点103及び特徴点104を回転させる。回転方法については、上述の第一実施形態におけるS264で説明した通りであるので説明を省略する。
その後、S303において、特徴点101の3次元座標、特徴点102の3次元座標、S2000で補正した特徴点103の3次元座標、及び、S2000で補正した特徴点104の3次元座標に基づいて、合成パラメータを算出する。
その他の処理については、第一実施形態の処理と同様であるので説明を省略した。このように第二実施形態では、特徴点103の3次元座標と特徴点104の3次元座標とがパターン107に記録された傾斜情報(角度αの値)に基づいて補正されるので、正確な傾きで3次元オブジェクトが合成される。
ここで、第二実施形態において、マーカー300が特徴点表示媒体に相当する。パターン107に記録された、傾斜部材109により表示面108と配置面との傾きを示す情報が傾斜情報に相当する。
尚、上述の第一及び第二の実施形態では、カメラ70の焦点距離と、カメラ70の撮像素子のサイズとに基づいて4つの特徴点101〜104の各々のカメラ座標系における3次元座標を算出するものとして説明したが、カメラ70の焦点距離とカメラ70の撮像素子のサイズに代わる情報であるそれら以外の情報に基づいて特徴点101〜104の3次元座標を算出するようにしてもよい。
また、上述の第一及び第二実施形態では、カメラ座標系における特徴点101〜104の4点を頂点とする正方形の重心の位置であるベクトルpの各成分と、3次元オブジェクトの底面の中心点pとが一致するように3次元オブジェクトを合成するものとして説明した。しかし、これは一例であって、重心の位置でなくてもカメラ座標系における特徴点101〜104の4点を頂点とする正方形のいずれかの特定の位置(例えば、特徴点101の3次元座標の位置)に合成するようにしてもよい。
本発明の第一実施形態である携帯型の画像合成装置1の斜視図。 ディスプレイ部2の裏面を模式的に示した模式図。 小サイズのマーカー201の正面図。 中サイズのマーカー202の正面図。 大サイズのマーカー203の正面図。 画像合成装置1の電気的構成を示すブロック図。 画像合成装置1により撮影した2次元画像の一例(3次元オブジェクトをカメラ70から近い位置に合成する場合)。 2次元画像に3次元オブジェクトを合成して得られた合成画像(3次元オブジェクトをカメラ70から近い位置に合成する場合)。 画像合成装置1により撮影した2次元画像の一例(3次元オブジェクトをカメラ70から近い位置に合成する場合)。 画像合成装置1により撮影した2次元画像の一例(3次元オブジェクトをカメラ70から遠い位置に合成する場合)。 RAM33の各記憶領域を模式的に示す構成図。 画像合成装置1のCPU31が実行するメイン処理のフローチャート。 認識合成処理のフローチャート。 合成パラメータ算出処理のフローチャート。 カメラ座標系におけるスクリーンを示す模式図。 スクリーン上の特徴点101〜104と、カメラ原点からスクリーン上での特徴点101までのベクトルEとを模式的に示した模式図。 スクリーン上での特徴点101〜104とカメラ座標系における特徴点101〜104における特徴点101〜104との位置関係を示す模式図。 合成処理のフローチャート。 立方体の3次元オブジェクト。 閲覧処理のフローチャート。 第二実施形態におけるマーカー300の斜視図。 マーカー300の側面図。 第二実施形態の画像合成装置1により撮影した2次元画像の一例。 第二実施形態における合成パラメータ算出処理。
符号の説明
10 ディスプレイ
20 画像処理回路
30 マイコン
31 CPU
32 ROM
33 RAM
40 外部入力インターフェース
50 外部インターフェース
60 カメラインタフェース
70 カメラ
80 ドライバ
91、92、93 光源
101、102、103、104 特徴点

Claims (7)

  1. 撮影装置により撮影された2次元画像から画像認識により、特徴点表示媒体に表示された4つの特徴点の各々の2次元座標を抽出する2次元座標抽出手段と、
    前記撮影装置により撮影された前記2次元画像から前記特徴点表示媒体自身に関する情報であって前記特徴点表示媒体に表示された特徴点表示媒体情報を抽出する特徴点表示媒体情報抽出手段と、
    前記2次元画像から抽出した前記4つの特徴点の各々の前記2次元座標と、前記特徴点表示媒体情報とに基づいて、仮想的な3次元のカメラ座標系における3次元オブジェクトの位置と前記カメラ座標系における前記3次元オブジェクトの向きとを算出する合成パラメータ算出手段と、
    前記合成パラメータ算出手段により算出された前記位置と前記向きとに基づいて前記2次元画像に前記3次元オブジェクトを合成する合成手段とを備えた画像合成装置。
  2. 前記合成パラメータ算出手段が、
    前記撮影装置の焦点距離と、前記撮影装置の撮像素子のサイズと、前記特徴点表示媒体における特徴点間の距離と、前記4つの特徴点の各々の前記2次元座標とに基づいて、前記4つの特徴点の各々の前記カメラ座標系における3次元座標を算出し、
    その算出された3次元座標に基づいて、前記3次元オブジェクトの前記位置と前記向きとを算出することを特徴とする請求項1記載の画像合成装置。
  3. 前記特徴点表示媒体情報は前記特徴点表示媒体における前記特徴点間の距離を示す特徴点表示媒体サイズ情報であって、
    前記合成パラメータ算出手段は、前記特徴点表示媒体サイズ情報が示す特徴点間の距離に基づいて、前記4つの特徴点の3次元座標を算出することを特徴とする請求項2記載の画像合成装置。
  4. 前記特徴点表示媒体情報は、前記特徴点と前記特徴点表示媒体情報とが表示された表示面と、前記特徴点表示媒体を配置した面である配置面と、の傾きを示す傾斜情報であって、
    前記合成パラメータ算出手段は、前記傾斜情報に基づいて前記4つの特徴点が前記配置面上にあるように補正した前記3次元座標を算出することを特徴とする請求項2または請求項3記載の画像合成装置。
  5. 前記合成パラメータ算出手段が、
    前記特徴点の各々の前記3次元座標に基づき、前記特徴点を頂点とする平面図形の特定位置の3次元座標を算出し、その特定位置に前記3次元オブジェクトの底面の中心を一致させ、且つ前記3次元オブジェクトの上方向が前記平面図形と垂直な方向になるように、前記位置及び前記向きを算出することを特徴とする請求項2から請求項4のいずれかに記載の画像合成装置。
  6. 前記合成パラメータ算出手段が、
    前記特徴点の各々の前記3次元座標に基づき、前記特徴点を頂点とする平面図形の重心の位置の3次元座標を算出し、その重心の位置に前記3次元オブジェクトの底面の中心を一致させ、且つ前記3次元オブジェクトの上方向が前記平面図形と垂直な方向になるように、前記位置及び前記向きを算出することを特徴とする請求項5記載の画像合成装置。
  7. 画像合成装置のコンピュータを、
    前記撮影装置により撮影された2次元画像から画像認識により特徴点表示媒体に表示された4つの特徴点の各々の2次元座標を抽出する2次元座標抽出手段と、
    前記撮影装置により撮影された前記2次元画像から前記特徴点表示媒体自身に関する情報であって前記特徴点表示媒体に表示された特徴点表示媒体情報を抽出する特徴点表示媒体情報抽出手段と、
    前記2次元画像から抽出した前記4つの特徴点の各々の前記2次元座標と、前記特徴点表示媒体情報とに基づいて、仮想的な3次元のカメラ座標系における3次元オブジェクトの位置と前記カメラ座標系における前記3次元オブジェクトの向きとを算出する合成パラメータ算出手段と、
    前記合成パラメータ算出手段により算出された前記位置と前記向きとに基づいて前記2次元画像に前記3次元オブジェクトを合成する合成手段として機能させることを特徴とする画像合成プログラム。
JP2006110629A 2006-04-13 2006-04-13 画像合成装置及び画像合成プログラム Expired - Fee Related JP4835243B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006110629A JP4835243B2 (ja) 2006-04-13 2006-04-13 画像合成装置及び画像合成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006110629A JP4835243B2 (ja) 2006-04-13 2006-04-13 画像合成装置及び画像合成プログラム

Publications (2)

Publication Number Publication Date
JP2007286715A true JP2007286715A (ja) 2007-11-01
JP4835243B2 JP4835243B2 (ja) 2011-12-14

Family

ID=38758452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006110629A Expired - Fee Related JP4835243B2 (ja) 2006-04-13 2006-04-13 画像合成装置及び画像合成プログラム

Country Status (1)

Country Link
JP (1) JP4835243B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045621A (ja) * 2008-08-13 2010-02-25 Casio Comput Co Ltd 撮像装置
JP2012252440A (ja) * 2011-06-01 2012-12-20 Nintendo Co Ltd 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ
JP2014071877A (ja) * 2012-10-02 2014-04-21 Nintendo Co Ltd 画像処理用プログラム、画像処理装置、画像処理システム、および画像処理方法
US10083545B2 (en) 2016-06-20 2018-09-25 Yahoo Japan Corporation Image processing device, image processing method, and non-transitory computer-readable recording medium for specifying markers in accepted image data
US10176590B2 (en) 2016-03-16 2019-01-08 Yahoo Japan Corporation Image processing apparatus, image processing method, and non-transitory computer readable storage medium
WO2021036353A1 (zh) * 2019-08-23 2021-03-04 上海亦我信息技术有限公司 基于拍照的3d建模系统及方法、自动3d建模装置及方法
GB2591857A (en) * 2019-08-23 2021-08-11 Shang Hai Yiwo Information Tech Co Ltd Photographing-based 3D modeling system and method, and automatic 3D modeling apparatus and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005230139A (ja) * 2004-02-18 2005-09-02 Sony Computer Entertainment Inc 画像表示システム、情報処理システム、画像処理システム及びビデオゲームシステム
JP2006040045A (ja) * 2004-07-28 2006-02-09 Sony Corp 情報処理装置、立体物、情報処理システム及び情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005230139A (ja) * 2004-02-18 2005-09-02 Sony Computer Entertainment Inc 画像表示システム、情報処理システム、画像処理システム及びビデオゲームシステム
JP2006040045A (ja) * 2004-07-28 2006-02-09 Sony Corp 情報処理装置、立体物、情報処理システム及び情報処理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045621A (ja) * 2008-08-13 2010-02-25 Casio Comput Co Ltd 撮像装置
JP2012252440A (ja) * 2011-06-01 2012-12-20 Nintendo Co Ltd 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ
JP2014071877A (ja) * 2012-10-02 2014-04-21 Nintendo Co Ltd 画像処理用プログラム、画像処理装置、画像処理システム、および画像処理方法
US9478068B2 (en) 2012-10-02 2016-10-25 Nintendo Co., Ltd. Computer-readable medium, image processing device, image processing system, and image processing method
US10176590B2 (en) 2016-03-16 2019-01-08 Yahoo Japan Corporation Image processing apparatus, image processing method, and non-transitory computer readable storage medium
US10083545B2 (en) 2016-06-20 2018-09-25 Yahoo Japan Corporation Image processing device, image processing method, and non-transitory computer-readable recording medium for specifying markers in accepted image data
WO2021036353A1 (zh) * 2019-08-23 2021-03-04 上海亦我信息技术有限公司 基于拍照的3d建模系统及方法、自动3d建模装置及方法
GB2591857A (en) * 2019-08-23 2021-08-11 Shang Hai Yiwo Information Tech Co Ltd Photographing-based 3D modeling system and method, and automatic 3D modeling apparatus and method
GB2591857B (en) * 2019-08-23 2023-12-06 Shang Hai Yiwo Information Tech Co Ltd Photography-based 3D modeling system and method, and automatic 3D modeling apparatus and method

Also Published As

Publication number Publication date
JP4835243B2 (ja) 2011-12-14

Similar Documents

Publication Publication Date Title
JP7231306B2 (ja) イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム
JP5248806B2 (ja) 情報処理装置、情報処理方法
JP4508049B2 (ja) 360°画像撮影装置
JP4835243B2 (ja) 画像合成装置及び画像合成プログラム
JP4137078B2 (ja) 複合現実感情報生成装置および方法
EP2736013A2 (en) Calibration of multiple cameras on a moving object
EP1521215A1 (en) Image display method and image display system
JP2004062758A (ja) 情報処理装置および方法
JP2011185650A (ja) モデル作成装置およびモデル作成プログラム
JP2010287174A (ja) 家具シミュレーション方法、装置、プログラム、記録媒体
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2003141569A (ja) 情報処理方法および映像合成装置
JP4367926B2 (ja) 画像合成システムおよび画像合成方法、および画像合成装置
US8643679B2 (en) Storage medium storing image conversion program and image conversion apparatus
JP3690581B2 (ja) 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JPH0997344A (ja) テクスチャ生成方法およびテクスチャ生成システム
JP2017059041A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2005332177A (ja) 3次元情報処理装置、3次元情報処理方法、及び3次元情報処理プログラム
JP4926598B2 (ja) 情報処理方法、情報処理装置
JP2013231607A (ja) 校正器具表示装置、校正器具表示方法、校正装置、校正方法、校正システム及びプログラム
JP2015062017A (ja) モデル作成装置、モデル作成プログラム、および画像認識システム
JP5673293B2 (ja) 画像合成方法、画像合成装置、プログラム、及び、記録媒体
JP2005165665A (ja) 仮想物体の操作補助装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP2000057376A (ja) 新視点画像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees