JP4775205B2 - 撮像装置、撮像方法及びプログラム - Google Patents

撮像装置、撮像方法及びプログラム Download PDF

Info

Publication number
JP4775205B2
JP4775205B2 JP2006254651A JP2006254651A JP4775205B2 JP 4775205 B2 JP4775205 B2 JP 4775205B2 JP 2006254651 A JP2006254651 A JP 2006254651A JP 2006254651 A JP2006254651 A JP 2006254651A JP 4775205 B2 JP4775205 B2 JP 4775205B2
Authority
JP
Japan
Prior art keywords
image
subject
real world
virtual image
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006254651A
Other languages
English (en)
Other versions
JP2008078908A (ja
Inventor
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006254651A priority Critical patent/JP4775205B2/ja
Publication of JP2008078908A publication Critical patent/JP2008078908A/ja
Application granted granted Critical
Publication of JP4775205B2 publication Critical patent/JP4775205B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えば観光地等、視点位置や視線方向等によってある程度の被写体の位置関係等を特定することができる所定の被写体を撮影するのに好適な撮像装置、撮像方法及びプログラムに関する。
従来、旅行者が観光地に行った際に天候が悪い場合にはその観光地特有の風景や名所等を背景とするきれいな記念写真を残すことができないことに鑑みて、カラーディスプレイ、操作パネル、撮影用のディジタルカメラ、ビデオ再生器やディジタルカメラ用のディスクを駆動するディスクドライバー、料金支払い用の自動キャシュレジスタ、撮影用のブース、予め格納された複数の名所や記念物の背景画像の画像データ、カメラで撮影した人物画像と選択された背景画像とを合成してカラー印刷するカラープリンタ等を有する画像合成装置のような技術が考えられていた。(例えば、特許文献1)
特開平09−341444号公報
しかしながら上記特許文献1に記載された類の技術では、予め用意した背景画像を固定的に用いるため、どうしても背景が画一的になりがちであり、ユーザが所望するような構図、画角で自由に撮影することができないという不具合があった。
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、観光地等に行かずとも、その場所でユーザが自由に構図や画角等を選定した合成画像を撮影することが可能な撮像装置、撮像方法及びプログラムを提供することにある。
請求項1記載の発明は、被写体の画像を撮影する撮像手段と、被写体となりうる実世界内の物体の外観を表す3次元データを、実世界内の位置と方位とに対応付けて記憶した記憶手段と、上記実世界内の位置を任意に指定する位置指定手段と、上記実世界内における装置本体の方位を検出する方位検出手段と、上記位置指定手段で指定された位置を視点位置とするとともに上記方位検出手段で検出された方位を視線方向として、上記記憶手段に記憶される3次元データから実世界内の物体の仮想画像を生成する仮想画像生成手段と、上記仮想画像生成手段による仮想画像の生成に用いた方位と同じ方位に装置本体を向けたときに上記撮像手段で撮影された被写体の画像と、上記仮想画像生成手段で得た仮想画像とを透過的に重ね合わせた合成画像を作成する画像合成手段と、を具備したことを特徴とする。
請求項1記載の発明によれば、観光地等に行かずとも、予め3次元データを記憶してある場所についてユーザが自由に視点位置及び視線方向等を指定することで、自動的に構図等を選定した合成画像を気軽に表示し、撮影することができる。
(第1の実施の形態)
以下本発明をデジタルカメラに適用した場合の第1の実施の形態について図面を参照して説明する。
図1はその外観構成を示すもので、図1(A)が主にこのデジタルカメラ10の左斜め上方から見た前方側、図1(B)がデジタルカメラ10の右斜め上方から見た背面側の各斜視図である。
デジタルカメラ10の前面側にズーム機構を有する撮影レンズ11が取付けられ、右端のグリップ部上端面にレリーズキー12が配設されると共に、同グリップ部内には方位・3次元傾斜角センサ13が内在される。
また、デジタルカメラ10の上面には、右端側よりモード切替ダイヤル14、液晶表示部15、ペンタプリズム部のポップアップ式内蔵フラッシュ16及び外付けフラッシュ用ホット端子17、GPS受信アンテナ18等が配設される。
GPS受信アンテナ18は、後述する如く図示しない複数(原理上は4つ以上)のGPS衛星からの到来電波を受信してこのデジタルカメラ10の現在位置を3次元座標(緯度/経度/高度)で正確な現在時刻の情報と共に検出するべく設けられる。
さらにデジタルカメラ10の背面側には、光学ファインダ19、カーソルキー20、数値入力キー21、及びモニタ表示部とタッチパネル機能を兼ねた電子ファインダ22が設けられる。
電子ファインダ22は、バックライト付きのカラー液晶パネルと透明タッチパネルとが一体にして構成され、その基部が2軸ヒンジ機構とされることで表示面/タッチ面を所定の範囲内で任意に可動させることができる。
加えて、デジタルカメラ10のグリップ部を形成する背面右端乃至右側面の外面は、このデジタルカメラ10の電源となる電池及び記録媒体となるメモリカードを収納する収納部のカバー23を兼ねている。
次に図2によりこのデジタルカメラ10の電子回路の構成について説明する。
上記撮影レンズ11は、複数の光学レンズ群の光軸中に絞り機構11aとシャッタ機構11bとが挿入されるもので、これらを介して得られた撮影光は例えばCCDで構成される撮像素子31で結像される。
この撮像素子31は、ドライバ32により走査駆動されて光像に対応した画素毎の電荷を出力するもので、これがゲイン調整、サンプルホールドされた後にA/D変換器33でデジタル化されて画像データが形成され、映像信号処理34に送られる。
映像信号処理34は、原色系のカラー画像データを輝度色差系の同データに変換し、γ補正等のプロセス処理を施した上で処理後の画像データをバッファメモリとなる画像メモリ35に保持させる。
この画像メモリ35に保持された画像データを撮影制御回路36が読出し、CPUで構成される主制御回路37へ送出する。
撮影制御回路36はまた、上記撮影レンズ11中の特にフォーカスレンズ及びズームレンズの位置を検出するレンズ位置検出部38からの検出信号を受け、レンズ駆動部39に駆動信号を送出して上記各レンズの位置を制御する他、シャッタ・絞り駆動部40に制御信号を送出して上記撮影レンズ11中の絞り機構11a及びシャッタ機構11bの動作を制御する。
また、上記撮影レンズ11の一部を介して測光・測距センサ41に光が入射され、その検出信号が色温度検出部42、測光部43、及び測距部44へ出力される。
これら色温度検出部42、測光部43、測距部44は、測光・測距センサ41の検出信号から光像の色温度、光量、及び被写体までの距離をそれぞれ検出、測定し、その結果を共に上記撮影制御回路36へ出力する。
さらに撮影制御回路36は、上記内蔵フラッシュ16を発光駆動する、大容量コンデンサを含んだフラッシュ駆動部45、及び該内蔵フラッシュ16での発光照射角度を可変するべく、内蔵フラッシュ16を構成するキセノン放電管とそのリフレクタとの間隔を可変する照射角駆動部46に対しても制御信号を送出する。
主制御回路37は、上記撮影制御回路36の他に、音声復号化部47、音声符号化部48、姿勢検出部49、GPSレシーバ50、入力回路51、座標入力回路52、表示メモリ53、表示駆動部54、画像処理部55、圧縮符号化/伸長復号化部56、画像データメモリ57、プログラムメモリ58、データメモリ59、外部メモリインタフェース60、入出力インタフェース61、及び電源制御部62とも接続される。
音声復号化部47は、与えられた音声データを復号化してデジタル値の音声信号を得、これをD/A変換器63を介してアナログ化した上でデジタルカメラ10の背面側に配設されたスピーカ64により拡声放音させる。
一方、デジタルカメラ10の前面側に配設されたマイクロホン65より入力された音声は、A/D変換器66でサンプリングされてデジタル化された後に、音声符号化部48で所定の変調方式による符号化が実行され、主制御回路37へ出力される。
姿勢検出部49は、上記方位・3次元傾斜角センサ13より得られるθyaw、θpitch、θrollの各信号によりその時点でデジタルカメラ10の正面が向いている方位と姿勢とを検出し、その検出結果を主制御回路37へ出力する。
GPSレシーバ50は、上記GPS受信アンテナ18で受信された複数のGPS衛星からの到来電波により、原子時計に基づく正確な現在時刻と現在位置の3次元座標(緯度/経度/高度)とを算出して主制御回路37へ出力する。
入力回路51は、上記レリーズキー12、モード切替ダイヤル14、カーソルキー20、数値入力キー21を含む各種キーの操作を受付けてその操作信号を主制御回路37へ出力する。
座標入力回路52は、上記電子ファインダ22の一部を構成するタッチパネル22aでのタッチに基づく2次元座標データを生成して主制御回路37へ出力する。
表示メモリ53は、主制御回路37から与えられる画像データを保持して表示駆動部54に読出すことで、表示駆動部54が電子ファインダ22を構成するカラー液晶パネルでなる表示部22bを駆動表示する。
画像処理部55は、画像データに対するホワイトバランス、コントラスト、シャープネス等の変換や輝度補正、モノクロ/セピア処理等の各種画像処理を主制御回路37からの制御に基づいて実行する。
圧縮符号化/伸長復号化部56は、画像記録時の例えばJPEG(Joint Photograph coding Experts Group)規格に基づくDCT(離散コサイン変換)やエントロピー符号化としてのハフマン符号化等により原画像データを圧縮する一方で、画像再生時には上記データ圧縮とは逆の手順で圧縮されているデータを伸長する。
画像データメモリ57は、上記圧縮符号化/伸長復号化部56でのデータ圧縮/伸長時の画像データを一時的に保持する。
プログラムメモリ58は、後述する動作時に主制御回路37が実行する動作プログラムや同プログラムで使用する定数などのデータ等を固定的に記憶する。
データメモリ59は、主制御回路37のワークエリアとして使用される他、仮想被写体の位置データ、仮想被写体の視位置計算データ、コンピュータグラフィック(CG)描画用モデルデータ、‥‥等、後述する動作時に使用する各種データを記憶する。
外部メモリインタフェース60は、このデジタルカメラ10に記録媒体として装着されるメモリカード67と主制御回路37との間で画像データの送受を行なう。
入出力インタフェース61は、このデジタルカメラ10に設けられる、例えばUSB端子でなる入出力端子68と主制御回路37との間に通信部69と共に配置され、画像データを含む各種データの送受を行なう。
電源制御部62は、このデジタルカメラ10の電源となる電池70からの供給電圧を受け、これを安定化して上記主制御回路37へ与える一方で、電池70のモニタ管理等を行なう。
なお、上記入出力端子68を介してこのデジタルカメラ10をインターネット環境下にあるパーソナルコンピュータと接続することで、地図情報、地理情報、観光情報等を適宜必要なデータベースからダウンロードし、上記データメモリ59に保持しておくことができる。
次いで上記実施の形態の動作について説明する。
まず、図3乃至図5により本実施の形態の動作の概要を示す。
すなわち本実施の形態では、任意の位置を指定することで、その位置に存在する山や地形、建物、橋等の建造物を含む仮想の被写体の地理情報をデータ化して予めデータメモリ59に記憶しておき、撮影時のデジタルカメラ10の位置や向き、傾斜等のデータを入力する。
これらを基に、カメラ視野範囲内の仮想の被写体の位置座標(経度λn、緯度φn、高度hn)から仮想の被写体の視位置(方位Azn、高度角ψn)を推測計算する(S01)。
また、このデジタルカメラ10の向き(方位θyaw、仰角θpitch、傾斜角θroll)と撮影画角θ(またはデジタルズームの場合には表示画角θ’=θ/Md)に応じて、視野範囲内の仮想の被写体の3次元シミュレーション画像を図5(A)に示すように生成する(S02)。
一方で、撮像素子31で得られる実際の被写体像をA/D変換及び各種プロセス処理を施して実際の被写体のスルー画像を作成する(S03)。
このとき、特定の撮影条件として、例えばデジタルカメラ10から被写体までの距離を5[m]以内と設定しておくことにより、撮影画像全面をAF機能により走査して実際の被写体として5[m]以内にあるもののみを選択し、輪郭抽出処理と合わせて背景にあたる部分の画像を容易に省略することができるので、後述する合成画像に適した実被写体の画像を取得することができる。
加えて、上記輪郭抽出処理により、特に人物と思われる形状部分のみを抽出し、それ以外の領域を除外するものとしてもよい。
しかして、実際の被写体のスルー画像上に対し、仮想の被写体の3次元シミュレーション画像の輪郭を半透過処理した上で重畳して電子ファインダ22で表示させることで(S04)、図5(B)に示すような合成画像を得ることができる。
図5(B)では、シミュレーションで描画した仮想の被写体V1,V2の輪郭を実際の被写体像R1,R2と共に表示している例を示す。同図では、電子ファインダ22上に実際の被写体R1,R2とシミュレーションで得た仮想の被写体V1,V2とを合成表示している他に、右端側でカメラの高度角ψとの指針仰角の目盛りを表示し、同時にカメラの方位角Azの指針と目盛りを表示している。
このような表示状態にあってレリーズキー12の操作による撮影の指示があるのを待機し、指示があった時点でこれを判断して(S05)、図5(C)に示すように実際の被写体像の画像を撮影する(S06)。
こうして得られた実際の被写体像の画像と、仮想被写体のシミュレーション合成画像とを合成処理することにより、(S07)、図5(D)に示すような画像を得ることができる。
しかるに、こうして得られた合成画像のデータを圧縮符号化/伸長復号化部56にてデータ圧縮して符号化した後に、合わせて被写体情報、仮想被写体情報等を符号化して添付して1つのデータファイル化し、外部メモリインタフェース60を介して記録媒体であるメモリカード67に記録して(S08)、以上で一連の撮影に係る動作を完了する。
図6及び図7は、上述したこのデジタルカメラ10で仮想被写体との合成画像を撮影する合成撮影モード時に実行する制御の具体的な処理内容を示すメインルーチンであり、その制御動作は主として主制御回路37がプログラムメモリ58に記憶されている動作プログラムや定数等の固定データに基づいて実行する。
その当初には、撮影モードや撮影条件等をユーザが任意に設定する(ステップA01)。
この設定に基づき、仮想被写体との合成撮影モードが設定されたか否かを判断する(ステップA02)。
ここで仮想被写体との合成撮影モードが設定されていると判断した場合にのみ、次にこのデジタルカメラ10の現在位置または仮想位置の座標を経度λ、緯度φ、及び高度hとして入力するか、あるいは予め用意された仮想位置の先端を行なう(ステップA03)。
図8は、GPSを用いて現在位置の入力を行なう測位処理の内容を示すサブルーチンである。その当初には、GPSレシーバ50がすでに起動されて動作中であるか否かを判断する(ステップB01)。
ここで、まだ起動されておらず動作中ではないと判断した場合にのみ、あらためてGPSレシーバ50での動作を起動させ(ステップB02)、その後起動が完了して測位が可能となるのを待機する(ステップB03)。
このステップB03で起動が完了したと判断した場合、もしくは上記ステップB01ですでに起動されていると判断した場合に、次いでGPS受信アンテナ18を用いて複数のGPS衛星からの到来電波を受信し、まず測位信号中の疑似乱数列PRN(Pseudo−Ramdom Noise)によるコードを受信復調して疑似距離を計測する(ステップB04)。
次いで、各GPS衛星の天体歴情報、及び起動データを取得し(ステップB05)、各GPS衛星の位置及び現在位置からの距離を算出する(ステップB06)。
そして、この算出結果から、現在デジタルカメラ10が位置している正確な3次元座標、すなわち経度λ、緯度φ、及び高度hを現在時刻と共に算出する(ステップB07)。
これら各座標値に基づき、測地系座標への変換処理を行ない(ステップB08)、結果としてこのデジタルカメラ10の位置する現在位置を取得して、主制御回路37へ出力し(ステップB09)、以上で図8のサブルーチンを終了する。
図6のメインルーチンでは、ステップA03での位置の入力または選択に基づき、位置の座標を経度λ、緯度φ、及び高度hとして保持した後に、方位・3次元傾斜角センサ13、姿勢検出部49を用いてこのデジタルカメラ10の向き(方位、仰俯角、傾斜角など)を検出する(ステップA04)。
次いで、保持した位置とデジタルカメラ10の向きとから、ファインダ視野に入る概略の被写体位置範囲を設定する(ステップA05)。
この設定内容に基づき、データメモリ59に記憶している地理情報中から1つの被写体の位置座標(経度λ、緯度φ、高度h)を読出す(ステップA06)。
読出した1つの仮想被写体の位置座標により、カメラの現在位置に基づいて視野内での視位置を算出する(ステップA07)。
図9は、このステップA07のサブルーチンの内容を示すもので、図10はその概念を示す模式図である。まず上記ステップA03で得たデジタルカメラ10の位置の座標(経度λ、緯度φ、及び高度h)を入力し(ステップC01)、次に直前の上記ステップA06で得た仮想被写体の位置座標(経度λ、緯度φ、高度h)を入力する(ステップC02)。
これら各位置座標により、入力または選択した位置と仮想被写体の各位置座標から次式
x=(r+h)*cos(φ)*cos(λ)
y=(r+h)*cos(φ)*sin(λ)
z=(r+h)*sin(φ)*
(但し、r:当該地点の地球半径。)
に従って地心中心の直交座標XYZに変換する(ステップC03)。
こうして得た直交座標XYZを、Z軸の周りに現在地の経度λだけ回転し、次式
x'=x*cosλ+y*sinλ
y'=-x*sinλ+y*cosλ
z'=z
により直交座標X’Y’Z’に変換する(ステップC04)。
次に、直交座標X’Y’Z’を、今度はY軸の周りに(π/2−φ)だけ回転し、次式
x"=x'*cos(π/2-φ)-z'*sin(π/2-φ)
y"=y'
z"=x'*sin(π/2-φ)+z'*cos(π/2-φ)h)
-(R+h)
により直交座標X”Y”Z”に変換する(ステップC05)。
現在地から被写体の地点までの距離R、方位角Az、及び高度角ψを次式
X=x"-x"
Y=y"-y"
Z=z"-z"
R=√(X2+Y2+Z2)
Az=tan-1(Y/X)
ψ=sin-1(Z/R)
により求め(ステップC06)、求めた各地点までの距離R、方位角Az、及び高度角ψを出力して(ステップC07)、以上で図9のサブルーチンを一旦終了し、上記図6の処理に戻る。
図6のメインルーチンでは、求めた被写体の視位置(距離R、方位角Az、及び高度角ψ)を画像データメモリ57に記憶した後(ステップA08)、視野範囲内に位置するすべての仮想被写体に対して視位置の計算を行なったか否か、換言すればまだ同様の計算を行なうべき仮想被写体があるか否かを判断する(ステップA09)。
まだ計算を行なっていない仮想被写体があると判断すると、上記ステップA06からの処理に戻り、新たな仮想被写体に対する視位置の計算を実行する。
こうしてステップA06〜A09の処理を必要な仮想被写体の数だけ繰返し実行することで、デジタルカメラ10の視野範囲内に位置するすべての仮想被写体の視位置を算出し終えると、ステップA09でこれを判断して続くステップA10に至る。
なお、上記ステップA02で撮影モードが仮想被写体との合成撮影モードではないと判断した場合には、上記ステップA03〜A09の処理は行なわない。
ステップA10では、測光・測距センサ41、色温度検出部42、及び測光部43により測光処理とホワイトバランス調整処理とを実行する。その後、撮影レンズ11中のズームレンズ及びフォーカスレンズを必要により適宜移動させるズーム処理及びAF処理を実行する(ステップA11)。
以上で被写体像全体に対する適正な撮影状態が得られるので、その時点で撮像素子31で撮像し、画像メモリ35に保持している被写体像を電子ファインダ22にてスルー画像として表示する(ステップA12)。
ここで再び、撮影モードが仮想被写体との合成撮影モードであるか否かを判断する(ステップA13)。
仮想被写体との合成撮影モードであると判断した場合にのみ、その時点での撮影レンズ11の焦点距離(f)と撮像素子31のサイズ(X’)、及びデジタルズーム倍率(Md)により電子ファインダ22で表示すべき被写体像の撮影画角(θ)を算出する(ステップA14)。
なお、当該画角θは、次式
撮影画角θ=2tan-1(X'/2f)
表示及び記録画角θ'=θ/Md
で求められる。
こうして得た結果に基づき、カメラの向きと表示画角に対して、視野に入る仮想被写体の像位置を計算し、視位置の被写体情報を合成(または3次元CG(Computer Graphics)描画)した後に輪郭化処理し、実際に得られる被写体像上に重畳して電子ファインダ22で表示する(ステップA15)。
図11は、このとき電子ファインダ22で表示するために生成する、3次元CG描画処理の詳細を示し、図12にその各処理段階での描画モデルを示す。
その処理当初には、まず視野に入る被写体の地図情報を基に3次元のモデリング処理を施す(ステップD01)。
このモデリング処理としては、図示する如く地理座標・等高線モデル、ワイヤーフレーム・モデル、サーフェス・モデル、ソリッドモデル等を施すことで(ステップD02〜D05)、地図情報から3次元空間内の凹凸を忠実に再現したモデルを得る。図12(A)−1は地理座標・等高線モデル、図12(A)−2はワイヤーフレーム・モデルの例を示す。
こうして得た3次元モデルに対してレンダリング処理を施すことで、現実に肉眼で見える視野範囲の被写体情報を描画する。
すなわち、まず投影・座標変換処理(ステップD06)により上記3次元モデルを現在位置から見た2次元画像として透視投影処理する。
図12(B)がこの2次元の透視投影画像を例示するもので、具体的には平行投影処理(ステップD07)または透視投影処理(ステップD08)を実行する。座標変換では、ローカル座標系で指定した形状をワールド座標系に配置し、視点位置、視軸方向にある支点座標系をワールド座標系で決定した上で、このワールド座標系の位置を視軸上にあるuvn座標系(視野窓の座標系)の位置に変換する。
その後、該投影処理により得た2次元画像中から、視野範囲に合わせたクリッピング処理(ステップD09)を実行することで、図12(C)に示すように視野窓内に必要な部分のみを切出す。
さらに、図12(D)に示す如く、現在の視点位置から画面に現れる部分を決定し、視野に入らない部分、すなわち各被写体の背後の位置となる隠れ線、隠れ面の各消去処理(ステップD10)を実行する。
この消去処理としては、Zソート法(ステップD11)、Zバッファ法(ステップD12)、スキャンライン法(ステップD13)、及びレイ・トレーシング法(ステップD14)のいずれかを用いる。
次に、比較の当たり具合や反射、透過の様子を計算し、設定ライティング条件に基づいて、被写体表面の明暗や陰影付けを行なうシェーディング処理、及び地面にできる影を描画するシャドウイング処理を実行する(ステップD15)。
これらの処理内容としては、フラット・シェーディング法(ステップD16)、グーロー・シェーディング法(ステップD17)、フォン・シェーディング法(ステップD18)、レイ・トレーシング法(ステップD19)、及びラジオシティ法(ステップD02)のいずれかを用いる。
図12(E)は、この時点で得られる画像を例示するもので、シェーディング処理により陰影を付加した上で、被写体情報、地理情報等も重畳表示している状態を示す。
さらに、被写体画像の各表面に模様や細かな凹凸等を貼り付けるマッピング処理を行なうことで(ステップD21)、画像により現実感を与えるものとしてもよい。このマッピング手法としては、テクスチャ・マッピング法(ステップD22)、バンプ・マッピング法(ステップD23)、透明マッピング法(ステップD24)、反射マッピング法(ステップD25)、及び環境マッピング法(ステップD26)等のいずれか少なくとも1つを用いる。
最後に、上記一連のデジタル処理に伴う境界線部分のギザギザなどを滑らかにするアンチ・エリアシング処理などを行ない(ステップD27)、以上で一連の3次元CG描画処理の処理を終了する。
なお、仮想被写体の3次元CG表示に際しては、デジタルカメラ10の向きに応じた表示を行なうものとしてもよい。
図13は、デジタルカメラ10の向き(方位角θyaw)に応じた仮想被写体の視位置の表示を説明するものである。図13(A)はデジタルカメラ10の方位角(θyaw)が70°(略西南西)である場合、図13(B)は同90°(真西)である場合、図13(C)は同110°(略西北西)である場合のそれぞれの電子ファインダ22での表示例を示している。ここでは、電子ファインダ22中の中央にフォーカスエリアFAを表示すると共に、中心となる方位角θyaw及び仰角θpitchの目盛りを合わせて表示している。
また、図14及び図15は、デジタルカメラ10の傾斜(仰角θpitch)に応じた仮想被写体の視位置の表示例を示すものである。図14(A)はデジタルカメラ10の仰角(θpitch)が+70°である場合、図14(B)は同+40°である場合、図15(A)は同+20°である場合、図15(B)は同0°の場合それぞれの電子ファインダ22での表示例を示している。ここでは、電子ファインダ22中の中央にフォーカスエリアFAを表示すると共に、中心となる方位角θyaw及び仰角θpitchの目盛りを合わせて表示している。ここでは、電子ファインダ22中の中央にフォーカスエリアFAを表示すると共に、中心となる方位角θyaw及び仰角θpitchの目盛りを合わせて表示している。
図16〜図19により、このような視位置座標を算出する場合について説明する。
図16(A)に示す如く、XYZ空間において仮想被写体の視位置を、方位角Az、高度角(仰角)ψで表すものとする。このとき、図16(B)に示すようにデジタルカメラ10の向きをuvw空間(w軸がカメラ光軸)でθyaw,θpitch,θrollで表す。このうち、θrollがデジタルカメラ10を左右にも傾けた状態での角度を示す。
上記視位置(方位角Az、高度角ψ)をuvw空間中でのカメラ座標に変換し、カメラの向き(θyaw,θpitch,θroll)に応じた像位置を算出する場合の内容を図17に示す。
図17(A)はその側面図であり、仮想被写体の視位置、デジタルカメラ10の無機、及びレンズ焦点距離に応じて、撮像面上の像位置P′(u′,v′,w′)を計算し、さらに電子ファインダ22の表示座標(Sx,Sy)に換算する。
仮想被写体の視位置を方位角Az、高度角ψ、カメラの向きをθyaw,θpitch,θrollとすると、上記側面図からわかるように、半径1の球面上の視位置P(x,y,z)は図17(A)で示すように求められる。
さらに図17(B)はその上面図であり、これから半径1の球面上の視野中心のW方向からの距離u,vを求めると、図示する如くu,v,u’,v’を算出することができる。
この仮想被写体の像がθrollだけ傾斜したサイズを横Wv、縦Hvとし、このサイズで液晶表示パネル等で構成される電子ファインダ22で表示される時、表示されるべき位置座標(Sx,Sy)は、図18に示すように
ur=u'cos(θroll)+v'sin(θroll)
vr=-u'sin(θroll)+v'cos(θroll)
Sx=Wv/2+ur
Sy=Hv/2−vr
となる。なお、撮影レンズ11による倒立像を電子ファインダ22では正立像で表示する。
次に、図19により撮影レンズ11の焦点距離fと撮影画角θとの関係を示す。図19(A)に示すように、レンズの焦点距離fあるいは光学ズームの倍率Mを変えると、上記図18での表示位置の計算でも示したように、撮影レンズ11の撮影画角が変化するために、天体の表示位置や表示範囲が変わる。撮影レンズ11の結像面のイメージサイズをX’とすると、図示する如く
X'/2f=tan(θ/2)の関係により
撮像画角θ=2tan-1(X'/2f)
被写界範囲X=X'×L/f
となる。
なお、光学ズームではなくデジタルズーム機能の実行時には、撮影レンズ11での撮像画角は変わらないが、記録画角または電子ファインダ22視野での表示画角(θ’)は変化するため、デジタルズーム倍率をMd(Md≧1)とすると、
θ'=θ/M
となり、天体の視位置の狭い範囲が、電子ファインダ22ではMd倍に拡大して表示されることとなる。
上述の天体の視位置の電子ファインダ22上での表示位置も、上記撮影レンズ11の焦点距離f(または光学ズーム倍率M)だけでなく、デジタルズーム倍率Mdに合わせて、像位置P’(u’,v’)となる天体の視位置を
P’(Md*u’,Md*v’)
に相当する位置に変換して表示する必要がある。
図19(B)は、撮像素子31として1/2.5インチ型のCCDを用いた場合の横方向の画角を示すもので、焦点距離f[mm]、光学ズーム倍率M、デジタルズーム倍率Md、撮影画角θ[°]及び表示・記録画角θ’[°]の関係を例示している。
図20は、焦点距離f(ズーム倍率M)及び画角に応じて、仮想被写体の視位置の表示画面の範囲が可変する状態を例示するものである。
図20(a)は焦点距離が6[mm](光学ズーム倍率1倍)、図20(b)は焦点距離が18[mm](光学ズーム倍率3倍)、図20(c)は焦点距離が30[mm](光学ズーム倍率5倍)の場合の電子ファインダ22の表示視野を左側のズーム倍率用のインジケータと共に示すものであり、図20(A)〜図20(C)はそれぞれ上記各焦点距離(光学ズーム倍率)における実際の表示内容を例示するものである。
このように、撮影レンズ11でのズーム倍率を可変する操作を行なうことにより、撮影画角が可変することで、これに連動して電子ファインダ22で表示される範囲も自動的に可変設定されることとなる。
最後に、図21によりファインダ視野に入る仮想被写体の範囲の設定例を示す。
上記図6及び図7の仮想被写体の計算処理において、すべての仮想被写体の視位置を計算して、その中から視野範囲に入る視位置の天体を表示するものとすると、デジタルカメラ10に備えられる主制御回路37が実行しなければならない計算の時間と量が膨大なものとなってしまう。そのため、予め視野範囲に入り得る仮想被写体のみを計算することとすれば、計算の時間と量を大幅に削減できる。
図21によりそのような範囲を限定した計算を行なう場合について説明する。まず、図21(A)に示すように電子ファインダ22の視野FVを定義するものとする。すなわち、電子ファインダ22の横方向のサイズをWf、縦方向のサイズをHf、横画角をθ、縦画角をθ、対角画角をθとし、ファインダの四隅の各座標を図示のように定義するものとする。
図21(B)に示す如く、視野FVに天頂Zを含まない場合には、方位角Az、高度各ψが図中にハッチングで示した扇形の範囲にある座標を次式
(θyaw-θ/2)≦Az≦(θyaw+θ/2)、且つ
(θpitch-√(θ 2 2)/2)≦ψ≦(θpitch+√(θ 2 2)/2)
により逆算して、その仮想被写体の範囲のみを計算すればよい。
また、図21(C)に示す如く、視野FVに天頂Zを含む場合には、同様に図中にハッチングで示した円形の範囲にある座標を次式
(θpitch-√(θ 2 2)/2)≦ψ≦90°
により逆算して、その仮想被写体の範囲のみを計算すればよい。
なお、上記図21(B),(C)の場合にあって、デジタルズーム倍率Mdが1を越えている場合には、
θ=θ/Md、且つ
θ=θ/Md
であるものとして計算する必要がある。
こうして視野FVに入る可能性のある範囲のみ天体の計算を行なうことで、主制御回路37の負担を大幅に軽減することができる。
しかして、上記図7のメインルーチンでは、上記ステップA15で視位置に応じた合成画像を輪郭化処理し、実際に得られる被写体像上に重畳して電子ファインダ22で表示しながら、レリーズキー12の操作による撮影指示があるか否かを判断する(ステップA16)。
ここでレリーズキー12の操作がないと判断した場合には、レリーズキー12以外のキー操作あるいは表示に係る処理を実行する一方で(ステップA19)、レリーズキー12が操作されたと判断した場合には、その時点で設定されている撮影条件に従った撮影処理を実行し(ステップA17)、撮影により得た画像データを上記輪郭化する前の仮想被写体の合成画像データに重畳した画像データを得た上で(ステップA18)、この画像データを圧縮符号化/伸長復号化部56にてデータ圧縮して符号化し、撮影条件や撮影時の被写体情報等を添付してファイル化した上でメモリカード67に記録し(ステップA19)、以上で上記図6及び図7の一連の処理を一旦終了して、次の撮影に備えるべく再び始めからの処理に戻る。
このように、本発明の第1の実施の形態によれば、実際の観光地等に行かずとも、予めデータメモリ59に3次元データを記憶してある場所について、このデジタルカメラ10のユーザが自由に視点位置及び視線方向等を指定することで、自動的に構図等を選定した合成画像を気軽に電子ファインダ22にて表示し、撮影することができる。
また、上記図13や図14,図15、図16〜図18、図19,図20とそれらの説明でも示したように、デジタルカメラ10に方位・3次元傾斜角センサ13を内蔵するものとし、一旦デジタルカメラ10の位置や撮影方向を設定し、電子ファインダ22にて仮想被写体を含む合成画像を表示している状態でも、デジタルカメラ10の向きを変えれば、それに応じてカメラの視野の方向や仮想被写体の向きも自動的に変えて電子ファインダ22で表示される。
そのため、視点位置や視線方向、ズーム倍率(撮影画角)等を変えることで、電子ファインダ22に表示される仮想被写体の内容を対応して変化させることができ、表示内容を確認しながら自由に構図や画角などを変えて合成撮影を行なうことができる。
特に、データメモリ59から実在する地形や建造物等の物体の3次元データを読出して仮想被写体として用いることで、よりリアルな背景画像を得ることができる。
図22及び図23は、仮想被写体との合成撮影モード時に、デジタルカメラ10の位置または仮想被写体の位置の選択と合成を行なう第1の操作例を示す。ここでは、階層的な位置検索を行なうものとし、位置設定として当初に図22(A)に示すようなメルカトル法による世界地図、あるいは図22(B)に示すような地球儀の画像から図22(C)に示すように国や地域を選択する。
その後、図22(D)に示すように都道府県等の地域を選択し、さらに市町村などの詳細な地域を選択することで、図22(E)に示すようにある程度地点を特定することのできる地図が表示できるようになる。
この状態から所番地などの地点や建物等を選択することで、図23(A)に示すような3次元CG画像データによる仮想被写体が得られるので、撮影したい風景を任意選択する。
しかして、選択した地点、方向、画角の仮想風景を背景として、図23(B)に示すように実際の被写体像との合成撮影を行なうことで、図23(D)に示すような画像を得、その画像データが画像データメモリ57に記録されるものとなる。
または、上記図22(C)の状態から図22(F)に示すように都道府県等の地域を選択することで、予め3次元CG画像データが記憶されている地域のみを図中に示す「旗」等によりマーク表示することで、図22(G)に示すようにある程度地点を特定することのできる地図が表示できるようになる。
この状態から諸番地などの地点や建物等を選択することで、図23(C)に示すような3次元CG画像データによる仮想被写体が得られるので、撮影したい風景を任意選択するものとしてもよい。
その場合も、選択した地点、方向、画角の仮想風景を背景として、上記図23(B)に示すように実際の被写体像との合成撮影を行なうことで、図23(D)に示すような画像を得、その画像データが画像データメモリ57に記録されるものとなる。
続く図24及び図25は、通常の撮影モードから複数用意されたシーン選択プログラムの1つとして仮想被写体の合成撮影モードを選択可能とした場合の第2の操作例を示す。
ここでは、シーン選択プログラム(SP)の第3番目「SP3」に図24(A)に示す如く「風景と人物」を写すモード、第4番目「SP4」に図24(B)に示す如く「仮想風景を背景に写す」モードがある場合を例示する。
上記図24(B)に示すモードを選択することで、次に図24(C)に示すように背景となる風景の検索を操作に移行する。この場合、図示する如く国とその中の地域とを予め用意された候補の中から選択指示することで、対応する風景の地名や建物名等がリスト表示されるもので、ここでは国として「日本」、地域として「東京」を選択することで、「丸の内と官庁街」「東京駅」‥‥等を候補の一部として表示している。
このような候補のリスト表示状態から、所定のキー操作を行なうことで、図24(D)に示すように「東京」の地図上に予め用意した風景を表す名所旧跡、観光地図等をイラスト化して表示するものとしてもよい。
しかして、上記図24(C)に示した状態から、国として「フランス」、地域として「パリ」を選択することで、図24(A)に示すように該当する風景の候補の一部がリスト表示されることとなる。
上記図24(D)の表示と同様に、このような候補のリスト表示状態から、所定のキー操作を行なうことで、図25(B)に示すように「パリ」の地図上に予め用意した風景を表す名所旧跡、観光地図等をイラスト化して表示することができるものとしてもよい。
しかるに、上記図25(A)に示したリスト表示の状態、あるいは上記図25(B)に示したイラスト地図の表示状態から候補を1つ選択し、選択した地点、視線方向、画角を設定した上で実際の被写体像との合成撮影を行なうことで、図25(C)に示すような画像データを得、画像データメモリ57に記録することができる。
このように、このデジタルカメラ10のユーザは、実際の観光地等に行かずとも、予めデータメモリ59に3次元データを記憶してある場所について、自由に視点位置及び視線方向等の条件を指定することで、自動的に構図等を選定した合成画像を気軽に電子ファインダ22にて表示し、撮影することができる。
なお、データメモリ59に記憶される3次元CG画像データは、上記図2の入出力端子68にパーソナルコンピュータ等の外部機器を接続してインターネット等からダウンロードすることにより、適宜必要な内容を更新して記憶しておくことができる。
(第2の実施の形態)
以下本発明をデジタルカメラに適用した場合の第2の実施の形態について図面を参照して説明する。
なお、その外観構成に関しては上記図1に示したものと、電子回路の構成については上記図2に示したものとそれぞれ基本的にほぼ同様であるので、同一部分には同一符号を用いるものとして、ここではその図示と説明とを省略する。
なお、データメモリ59には、地形や建造物等の物体のみならず、人物や自動車等の移動体の3次元CG画像データが予め記憶されているものとする。
次に上記実施の形態の動作について説明する。
図26及び図27により本実施の形態の動作の概要を示す。
すなわち本実施の形態では、任意の位置を指定することで、その位置に存在する山や地形、建物、橋等の建造物を含む固定物体の仮想の被写体(図では「仮想被写体A」と称する)をその地理情報と共にデータ化して予めデータメモリ59に記憶しておく一方で、人物や自動車など、位置等に関係しない移動体の仮想の被写体(図では「仮想被写体B」と称する)の形状モデルデータ等も合わせて予めデータメモリ59に記憶しておき、撮影時にこれら2種類の仮想の被写体のデータを必要に応じて読出すものとする。
合成撮影モード時には、まず上記固定物体の仮想の被写体を指定するべく、GPSレシーバ50と方位・3次元傾斜角センサ13で得られるデジタルカメラ10の位置、向き、傾斜等の設定データを用い、カメラ視野範囲内の仮想の被写体の位置座標(経度λn、緯度φn、高度hn)から固定物体の仮想の被写体の視位置(方位Azn、高度角ψn)を推測計算する(S51)。
合わせて、データメモリ59に記憶している複数の移動体の仮想的な被写体のデータについて、その個数を含めた任意の選択を始めとして、カメラ視野内の任意の位置に設定姿勢で配置して、その視位置を計算する(S52)。
また、このデジタルカメラ10の向き(方位θyaw、仰角θpitch、傾斜角θroll)と撮影画角θ(またはデジタルズームの場合には表示画角θ’=θ/Md)に応じて、視野範囲内の上記固定的及び移動体双方の仮想の被写体の3次元シミュレーション画像を図26(A)に示すように生成する(S53)。
一方で、撮像素子31で得られる実際の被写体像をA/D変換及び各種プロセス処理を施して実際の被写体のスルー画像を作成する(S54)。
このとき、特定の撮影条件として、例えばデジタルカメラ10から被写体までの距離を5[m]以内と設定しておくことにより、撮影画像全面をAF機能により走査して実際の被写体として5[m]以内にあるもののみを選択し、輪郭抽出処理と合わせて背景にあたる部分の画像を容易に省略することができるので、後述する合成画像に適した実被写体(前景)の画像を取得することができる。
加えて、上記輪郭抽出処理により、特に人物と思われる形状部分のみを抽出し、それ以外の領域を除外するものとしてもよい。
しかして、実際の被写体のスルー画像上に対し、上記双方の仮想の被写体の3次元シミュレーション画像の輪郭を半透過処理した上で重畳して電子ファインダ22で表示させることで(S55)、図27(B)に示すような合成画像を得ることができる。
図27(B)では、シミュレーションで描画した仮想の被写体V11,V12の輪郭を実際の被写体像R11と共に表示している例を示す。同図では、電子ファインダ22上に実際の被写体R11とシミュレーションで得た仮想の被写体V11,V12とを合成表示している他に、右端側でカメラの高度角ψとの指針仰角の目盛りを表示し、同時にカメラの方位角Azの指針と目盛りを表示している。
このような表示状態にあってレリーズキー12の操作による撮影の指示があるのを待機し、指示があった時点でこれを判断して(S56)、図27(C)に示すように実際の被写体像の画像を撮影する(S57)。
こうして得られた実際の被写体像の画像と、上記2種類の仮想の被写体のシミュレーション合成画像とを合成処理することにより(S58)、図27(D)に示すような画像を得ることができる。
しかるに、こうして得られた合成画像のデータを圧縮符号化/伸長復号化部56にてデータ圧縮して符号化した後に、合わせて被写体情報、仮想被写体情報等を符号化して添付して1つのデータファイル化し、外部メモリインタフェース60を介して記録媒体であるメモリカード67に記録して(S59)、以上で一連の撮影に係る動作を完了する。
図28は、上記図26及び図27での処理中で行なわれる、仮想被写体との合成撮影処理の詳細を示し、図30にその各処理段階での描画モデルを示す。
その処理当初には、まず撮影条件及び仮想ライティングの条件などを設定する(ステップE01)。
次いで、設定した内容に基づき、必要により内蔵フラッシュ16を発光駆動して実際の被写体の撮影処理を実行する(ステップE02)。得た実際の被写体の画像データ中から、予め設定しておいた撮影条件として、被写体までの距離により画像中の主要被写体を含む前景部分のみを抽出し、撮影画像全面をAF機能により走査して実際の被写体として5[m]以内にある領域のみを抽出する(ステップE03)。
図29(A)は、上記ステップE02での撮影処理により得た実際の被写体の画像データであり、その画像データ中から主要被写体を含む前景領域のみを抽出した結果を図29(B)に示す。
一方で、設定した固定物体及び移動体の各仮想被写体の仮想モデルを、デジタルカメラ10の設定位置、向き等に応じて配置し、3次元の形状や空間を定義する(ステップE04)。図29(C)はワイヤーフレーム・モデル、図29(D)はソリッドモデルの例を示すものである。
こうして得た3次元モデルに対してレンダリング処理を施すことで、現実に肉眼で見える視野範囲の被写体情報を描画する。
すなわち、まず投影・座標変換処理(ステップE05)により上記3次元モデルを現在の視点位置及び視線方向から見た2次元画像として透視投影処理する。
図29(E)がこの2次元の透視投影画像を例示するもので、具体的には平行投影処理または透視投影処理を実行する。座標変換では、ローカル座標系で指定した形状をワールド座標系に配置し、視点位置、視軸方向にある支点座標系をワールド座標系で決定した上で、このワールド座標系の位置を視軸上にあるuvn座標系(視野窓の座標系)の位置に変換する。
その後、該投影処理により得た2次元画像中から、視野範囲に合わせたクリッピング処理(ステップE06)を実行することで、図29(F)に示すように視野窓内に必要な部分のみを切出す。
さらに、現在の視点位置から画面に現れる部分を決定し、視野に入らない部分、すなわち各被写体の背後の位置となる隠れ線、隠れ面の各消去処理(ステップE07)を実行する。
この消去処理としては、Zソート法、Zバッファ法、スキャンライン法、及びレイ・トレーシング法のいずれかを用いる。
次に、比較の当たり具合や反射、透過の様子を計算し、設定ライティング条件に基づいて、被写体表面の明暗や陰影付けを行なうシェーディング処理、及び地面にできる影を描画するシャドウイング処理を実行する(ステップE08)。
これらの処理内容としては、フラット・シェーディング法、グーロー・シェーディング法、フォン・シェーディング法、レイ・トレーシング法、及びラジオシティ法のいずれかを用いる。
図29(G)は、この時点で得られる画像を例示するもので、シェーディング処理により陰影を付加した状態を示す。さらに、被写体画像の各表面に模様や細かな凹凸等を貼り付けるマッピング処理を行なうことで、画像により現実感を与えるものとしてもよい。このマッピング手法としては、テクスチャ・マッピング法、バンプ・マッピング法、透明マッピング法、反射マッピング法、及び環境マッピング法等のいずれか少なくとも1つを用いる。
こうして得た仮想の被写体の画像上に、上記ステップE03で得た、撮影した画像から抽出した前景となる実際の被写体の画像を合成することで、図29(H)に示すような合成画像データを得る(ステップE09)。
こうして得た合成画像データに関し、上記一連のデジタル処理に伴う合成による境界線部分のギザギザなどを滑らかにするアンチ・エリアシング処理などを行ない(ステップE10)、合成画像としての不自然さを除去することで、以上で一連の3次元CG描画処理と合成処理とを終了して、合成された画像データを符号化し、合わせて被写体情報、仮想被写体情報等を符号化して添付して1つのデータファイル化し、外部メモリインタフェース60を介して記録媒体であるメモリカード67に記録して(ステップE11)、以上で一連の処理を完了する。
次に、上記合成画像中に仮想の被写体として用いる形状モデルデータについても説明しておく。
図30は、データメモリ59に記憶されているCG描画用の形状モデルデータの構成を最も単純な立方体を例にとって示すものである。
図30(A)−1は、ワイヤーフレームモデルのデータ構造を示すものである。ワイヤーフレームモデルは、各頂点と稜線に番号を付与して、図30(A)−2に示すように各頂点の座標を記憶する頂点テーブルと、図30(A)−3に示すように稜線の2端点の頂点番号を記憶する稜線(辺)テーブルとで形状を定義する構造となる。
図30(B)−1は、ソリッドモデルのデータ構造を示すものである。ソリッドモデルは、多面体を基本にして構成され、形状データは頂点座標と面を構成する頂点番号で定義する構造となる。図30(B)−2は面テーブルである。
その他、ポリゴンや多面体の頂点座標などで面を定義するサーフェスモデル、あるいは立方体や球、円柱などの基本的な3次元形状の組合せ(論理演算)で形状を定義するCSG(Constructive Solid Geometry)モデルなど、その他のモデルにより形状モデルを定義し、あるいは形状モデルデータを設定記憶するものとしてもよい。
図31は、実際にデータメモリ59に記憶される複数の形状モデルデータの一部を例示するものであり、ここではワイヤーフレームモデルを用いた場合を示している。
このように記憶されている形状モデルデータをデータメモリ59から読出した上で、仮想の被写体としての2次元描画画像を作成する過程を図32に示す。
すなわち、図32(A)に示すようにデータメモリ59から選択した形状モデルデータを読出すと、その構成に基づいて展開し、図32(B)に示すような描画画像を得る。このモデルデータの表面に対して上述した如くレンダリング処理として上記図28のステップE05〜E08に示したような処理過程を施し、色柄、テクスチャ、陰影などを貼付することで、図32(C)に示すような2次元描画画像を得ることができる。
このように本発明の第2の実施の形態によれば、地形や建造物等、その位置が定まっている固定物体のみならず、人物や自動車、動物などの移動体を仮想の被写体として実際の被写体と合成した画像を撮影し、記録することができるものとした。
そのため、合成後の画像に画一的ではない変化を与えることができ、より多彩で楽しみに富んだデジタルカメラを提供することができる。
なお、上記した第1及び第2の実施の形態は、いずれも本発明をデジタルカメラに適用した場合について説明したものであるが、本発明はこれに限るものではなく、例えばカメラ機能を有する携帯電話機、カメラ機能と通信機能を有するPDA(Personal Digital Assistants:個人向け携帯情報端末)やポータブルタイプのパーソナルコンピュータなど、各種小型電子機器にも同様に適用することができることは勿論である。
その他、本発明は上記実施の形態に限らず、その要旨を逸脱しない範囲内で種々変形して実施することが可能であるものとする。
さらに、上記実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合わせにより種々の発明が抽出され得る。例えば、実施の形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
本発明の第1の実施の形態に係るデジタルカメラの外観構成を示す斜視図。 同実施の形態に係るデジタルカメラの電子回路の構成を示すブロック図。 同実施の形態に係る撮影動作全体の概要を示す図。 同実施の形態に係る撮影動作全体の概要を示す図。 同実施の形態に係る撮影動作全体の概要を示す図。 同実施の形態に係るカメラの撮影制御内容の詳細を示すフローチャート。 同実施の形態に係るカメラの撮影制御内容の詳細を示すフローチャート。 同実施の形態に係るGPSによる測位処理のより詳細な処理内容を示すサブルーチンのフローチャート。 同実施の形態に係る仮想被写体の視位置の算出処理のより詳細な処理内容を示すサブルーチンのフローチャート。 同実施の形態に係る図9の概念を示す模式図。 同実施の形態に係る3次元CG描画処理の詳細を示す図。 同実施の形態に係る3次元CG描画処理の各処理段階での描画モデルを示す図。 同実施の形態に係るデジタルカメラの向き(方位角)に応じて仮想被写体の視位置の表示を説明する図。 同実施の形態に係るデジタルカメラの傾斜(仰角)に応じて仮想被写体の視位置の表示を説明する図。 同実施の形態に係るデジタルカメラの傾斜(仰角)に応じて仮想被写体の視位置の表示を説明する図。 同実施の形態に係る視位置座標の算出処理を説明する図。 同実施の形態に係る視位置座標の算出処理を説明する図。 同実施の形態に係る視位置座標の算出処理を説明する図。 同実施の形態に係る視位置座標の算出処理を説明する図。 同実施の形態に係る焦点距離(ズーム倍率)及び画角に応じて仮想被写体の視位置の表示画面の範囲が可変する状態を例示する図。 同実施の形態に係るファインダ視野に入る仮想被写体の範囲の設定例を示す図。 同実施の形態に係る仮想被写体との合成撮影モード時の第1の操作例を示す図。 同実施の形態に係る仮想被写体との合成撮影モード時の第1の操作例を示す図。 同実施の形態に係る仮想被写体との合成撮影モード時の第2の操作例を示す図。 同実施の形態に係る仮想被写体との合成撮影モード時の第2の操作例を示す図。 本発明の第2の実施の形態に係る撮影動作全体の概要を示す図。 同実施の形態に係る撮影動作全体の概要を示す図。 同実施の形態に係る仮想被写体との合成撮影処理の内容を示すフローチャート。 同実施の形態に係る3次元CG描画処理の各処理段階での描画モデルを示す図。 同実施の形態に係る形状モデルデータの構成を立方体を例にとって示す図。 同実施の形態に係るデータメモリに記憶される仮想被写体としての形状モデルデータの一部を例示する図。 同実施の形態に係る形状モデルデータから仮想の被写体となる2次元描画画像を生成する過程を例示する図。
符号の説明
10…デジタルカメラ、11…撮影レンズ、12…レリーズキー、13…方位・3次元傾斜角センサ、14…モード切替ダイヤル、15…液晶表示部、16…内蔵フラッシュ、17…外付けフラッシュ用ホット端子、18…GPS受信アンテナ、19…光学ファインダ、20…カーソルキー、21…数値入力キー、22…電子ファインダ、23…カバー、31…撮像素子、32…ドライバ、33…A/D変換器、34…映像信号処理、35…画像メモリ、36…撮影制御回路、37…主制御回路、38…レンズ位置検出部、39…レンズ駆動部、40…シャッタ・絞り駆動部、41…測光・測距センサ、42…色温度検出部、43…測光部、44…測距部、45…フラッシュ駆動部、46…照射角駆動部、47…音声復号化部、48…音声符号化部、49…姿勢検出部、50…GPSレシーバ、51…入力回路、52…座標入力回路、53…表示メモリ、54…表示駆動部、55…画像処理部、56…圧縮符号化/伸長復号化部、57…画像データメモリ、58…プログラムメモリ、59…データメモリ、60…外部メモリインタフェース(I/F)、61…入出力(I/O)インタフェース、62…電源制御部、63…D/A変換器、64…スピーカ、65…マイクロホン、66…A/D変換器、67…メモリカード、68…入出力端子、69…通信部、70…電池。

Claims (10)

  1. 被写体の画像を撮影する撮像手段と、
    被写体となりうる実世界内の物体の外観を表す3次元データを、実世界内の位置と方位とに対応付けて記憶した記憶手段と、
    上記実世界内の位置を任意に指定する位置指定手段と、
    上記実世界内における装置本体の方位を検出する方位検出手段と、
    上記位置指定手段で指定された位置を視点位置とするとともに上記方位検出手段で検出された方位を視線方向として、上記記憶手段に記憶される3次元データから実世界内の物体の仮想画像を生成する仮想画像生成手段と、
    上記仮想画像生成手段による仮想画像の生成に用いた方位と同じ方位に装置本体を向けたときに上記撮像手段で撮影された被写体の画像と、上記仮想画像生成手段で得た仮想画像とを透過的に重ね合わせた合成画像を作成する画像合成手段と、
    を具備したことを特徴とする撮像装置。
  2. 上記画像合成手段で得た合成画像を表示する表示手段と、
    画像の記録を指示する指示手段と、
    上記指示手段で指示されたタイミングで上記画像合成手段より得られる合成画像を記録する記録手段と
    を具備したことを特徴とする請求項1記載の撮像装置。
  3. 上記位置指定手段は、上記指定された実世界内の位置を保持し、
    上記方位検出手段は、上記実世界内における装置本体の方位を逐次検出し、
    上記仮想画像生成手段は、上記位置指定手段で保持された位置を視点位置とするとともに上記方位検出手段で逐次検出される方位を視線方向として、上記記憶手段に記憶される3次元データから実世界内の物体の仮想画像を逐次生成し、
    上記表示手段は、上記画像合成手段で逐次生成される合成画像を逐次表示する
    ことを特徴とする請求項2記載の撮像装置。
  4. 上記仮想画像生成手段は、上記指示手段で画像の記録が指示されるまでの間は、上記実世界内の物体の輪郭だけを仮想画像として生成し、上記指示手段で画像の記録が指示されたときは、上記実世界内の物体の輪郭以外を含む仮想画像を生成することを特徴とする請求項3記載の撮像装置。
  5. 上記撮像手段による被写体の画像中から人物部分の画像領域を特定する画像特定手段をさらに具備し、
    上記画像合成手段は、上記画像特定手段で特定した人物部分の画像領域のみを上記仮想画像生成手段で得た仮想画像と重ね合わせることを特徴とする請求項4記載の撮像装置。
  6. 上記撮像手段による被写体の画像中から所定距離以内にある被写体の画像領域を特定する画像特定手段をさらに具備し、
    上記画像合成手段は、上記画像特定手段で特定した所定距離以内にある被写体の画像領域のみを上記仮想画像生成手段で得た仮想画像と重ね合わせる
    ことを特徴とする請求項4記載の撮像装置。
  7. 上記記憶手段は、実世界内の物体として地形及び建造物を含む固定物体の外観を表す3次元データを位置情報と対応付けて記憶することを特徴とする請求項1乃至6のいずれかに記載の撮像装置。
  8. 上記記憶手段は、実世界内の物体として生物及び乗り物を含む移動物体の外観を表す3次元データを位置情報と対応付けて記憶することを特徴とする請求項1乃至6のいずれかに記載の撮像装置。
  9. 被写体の画像を撮影する撮像部備えた撮像装置での撮像方法であって、
    被写体となりうる実世界内の物体の外観を表す3次元データを、実世界内の位置と方位とに対応付けて記憶する記憶工程と、
    上記実世界内の位置を任意に指定する位置指定工程と、
    上記実世界内における装置本体の方位を検出する方位検出工程と、
    上記位置指定工程で指定された位置を視点位置とするとともに上記方位検出工程で検出された方位を視線方向として、上記記憶工程で記憶される3次元データから実世界内の物体の仮想画像を生成する仮想画像生成工程と、
    上記仮想画像生成工程による仮想画像の生成に用いた方位と同じ方位に装置本体を向けたときに上記撮像部で撮影された被写体の画像と、上記仮想画像生成工程で得た仮想画像とを透過的に重ね合わせた合成画像を作成する画像合成工程と、
    を有したことを特徴とする撮像方法。
  10. 被写体の画像を撮影する撮像部備えた撮像装置に内蔵されたコンピュータが実行するプログラムであって、
    被写体となりうる実世界内の物体の外観を表す3次元データを、実世界内の位置と方位とに対応付けて記憶する記憶ステップと、
    上記実世界内の位置を任意に指定する位置指定ステップと、
    上記実世界内における装置本体の方位を検出する方位検出ステップと、
    上記位置指定ステップで指定された位置を視点位置とするとともに上記方位検出ステップで検出された方位を視線方向として、上記記憶ステップで記憶される3次元データから実世界内の物体の仮想画像を生成する仮想画像生成ステップと、
    上記仮想画像生成ステップによる仮想画像の生成に用いた方位と同じ方位に装置本体を向けたときに上記撮像部で撮影された被写体の画像と、上記仮想画像生成ステップで得た仮想画像とを透過的に重ね合わせた合成画像を作成する画像合成ステップと、
    をコンピュータに実行させることを特徴とするプログラム。
JP2006254651A 2006-09-20 2006-09-20 撮像装置、撮像方法及びプログラム Active JP4775205B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006254651A JP4775205B2 (ja) 2006-09-20 2006-09-20 撮像装置、撮像方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006254651A JP4775205B2 (ja) 2006-09-20 2006-09-20 撮像装置、撮像方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2008078908A JP2008078908A (ja) 2008-04-03
JP4775205B2 true JP4775205B2 (ja) 2011-09-21

Family

ID=39350516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006254651A Active JP4775205B2 (ja) 2006-09-20 2006-09-20 撮像装置、撮像方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4775205B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102495878A (zh) * 2011-12-05 2012-06-13 深圳市中钞科信金融科技有限公司 一种机器视觉检测结果的存储文件及方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5088220B2 (ja) * 2008-04-24 2012-12-05 カシオ計算機株式会社 画像生成装置、及びプログラム
JP5189450B2 (ja) * 2008-09-30 2013-04-24 トッパン・フォームズ株式会社 画像生成方法
JP2011029839A (ja) * 2009-07-23 2011-02-10 Nikon Corp 電子カメラ
WO2011082650A1 (zh) 2010-01-07 2011-07-14 Dong futian 空间数据处理方法及装置
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
WO2013136601A1 (ja) * 2012-03-16 2013-09-19 富士フイルム株式会社 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法
JP6232948B2 (ja) * 2013-11-07 2017-11-22 株式会社リコー 情報処理装置、情報処理方法およびプログラム
JP6412400B2 (ja) * 2014-10-23 2018-10-24 日本放送協会 画像合成装置および画像合成プログラム
JP5969062B2 (ja) * 2015-01-07 2016-08-10 オリンパス株式会社 画像処理装置及び画像処理方法
JP6447251B2 (ja) * 2015-03-05 2019-01-09 富士通株式会社 情報処理装置、表示制御方法、及び表示制御プログラム
JP6532370B2 (ja) * 2015-10-02 2019-06-19 株式会社Nttドコモ 撮像システム、構図設定装置、及び構図設定プログラム
JP6914049B2 (ja) * 2017-02-15 2021-08-04 清水建設株式会社 構造物可視化装置及び構造物可視化システム
CN112560838A (zh) * 2020-12-01 2021-03-26 北京字节跳动网络技术有限公司 图像采集装置的控制方法、装置、终端和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133221A (ja) * 1992-10-14 1994-05-13 Sony Corp 撮像装置
JP2001014485A (ja) * 1999-07-01 2001-01-19 Matsushita Electric Ind Co Ltd 画像表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102495878A (zh) * 2011-12-05 2012-06-13 深圳市中钞科信金融科技有限公司 一种机器视觉检测结果的存储文件及方法

Also Published As

Publication number Publication date
JP2008078908A (ja) 2008-04-03

Similar Documents

Publication Publication Date Title
JP4775205B2 (ja) 撮像装置、撮像方法及びプログラム
JP5034343B2 (ja) 撮像装置及びプログラム
US10789671B2 (en) Apparatus, system, and method of controlling display, and recording medium
US9497391B2 (en) Apparatus and method for displaying images
US20130229546A1 (en) Apparatus and method for generating images
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
JP5075182B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
US20190340737A1 (en) Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium
KR20090000186A (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
US8339477B2 (en) Digital camera capable of detecting name of captured landmark and method thereof
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
CN102647449A (zh) 基于云服务的智能摄影方法、装置及移动终端
JP2012065263A (ja) 撮影機器
KR20050078136A (ko) 증강현실을 이용한 지역 정보 제공 방법 및 이를 위한지역 정보 서비스 시스템
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2006295827A (ja) 携帯端末装置
CN112261294B (zh) 一种拍摄方法、装置和电子设备
JP2019164782A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
US20240037856A1 (en) Walkthrough view generation method, apparatus and device, and storage medium
CN114283243A (zh) 数据处理方法、装置、计算机设备及存储介质
JP6532370B2 (ja) 撮像システム、構図設定装置、及び構図設定プログラム
JP2019164783A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
WO2022040868A1 (zh) 全景拍摄方法、电子设备及存储介质
JP2001005994A (ja) 画像処理装置および画像処理方法
JP5914714B2 (ja) 撮影機器および撮影方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

R150 Certificate of patent or registration of utility model

Ref document number: 4775205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3