JP3812264B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP3812264B2
JP3812264B2 JP2000036707A JP2000036707A JP3812264B2 JP 3812264 B2 JP3812264 B2 JP 3812264B2 JP 2000036707 A JP2000036707 A JP 2000036707A JP 2000036707 A JP2000036707 A JP 2000036707A JP 3812264 B2 JP3812264 B2 JP 3812264B2
Authority
JP
Japan
Prior art keywords
image
image data
digital camera
image acquisition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000036707A
Other languages
Japanese (ja)
Other versions
JP2001230955A (en
JP2001230955A5 (en
Inventor
将美 湯山
幸夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2000036707A priority Critical patent/JP3812264B2/en
Publication of JP2001230955A publication Critical patent/JP2001230955A/en
Publication of JP2001230955A5 publication Critical patent/JP2001230955A5/ja
Application granted granted Critical
Publication of JP3812264B2 publication Critical patent/JP3812264B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、立体画像を撮像するための撮像装置に関する。
【0002】
【従来の技術】
一般にデジタルスチルカメラで静物を被写体として立体画像を撮像する場合、1枚目の画像を撮影した後、撮影位置を10[cm]程度横に移動してから同一の被写体を同一の構図で2枚目の画像を撮影し、得た2枚の画像を表示モニタ上で左右に並べて表示し、これを交差法もしくは平行法に則って見ることで、立体の画像を見ることができる。
【0003】
【発明が解決しようとする課題】
しかしながら、上記のようにして静物を被写体とした2枚の画像を撮像する場合、なかなかフレーミングを正確に一致させることは困難であり、2枚の画像で撮影範囲がずれてしまう部分が多くなるほど、立体視できる範囲が狭くなってしまうこととなる。
【0004】
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、立体画像撮影時に確実なフレーミングを行なうことが可能な撮像装置を提供することにある。
【0005】
【課題を解決するための手段】
請求項1記載の発明は、撮影しようとする画像をモニタ表示する表示部を有した撮像装置であって、第1の画像データを取得する第1の画像取得手段と、この第1の画像取得手段で得た第1の画像データの一部を上記表示部でモニタ表示される画像に重ね合わせて表示させる表示制御手段と、第2の画像データを取得する第2の画像取得手段と、上記第1及び第2の画像取得手段で得た第1及び第2の画像データを左右に並べた1つの画像データとして記録保存する記録制御手段とを具備したことを特徴とする。
【0006】
このような構成とすれば、1台の撮像装置で被写体像を正確に位置合わせした複数の視点からの画像を撮影して、1つの画像データとして記録することができるため、動きの少ない被写体であれば1台の撮像装置で正確なフレーミングの立体画像を手軽に撮影し、保存することができる。
【0007】
請求項2記載の発明は、上記請求項1記載の発明において、上記第1の画像取得手段による画像取得時の撮影条件を記憶する記憶手段をさらに具備し、上記第2の画像取得手段は、この記憶手段の記憶した撮影条件に基づいて第2の画像データ撮影時の撮影条件を制限する
ことを特徴とする。
【0008】
このような構成とすれば、上記請求項1記載の発明の作用に加えて、例えば画質やズームレンズを有する場合の焦点距離、ホワイトバランスなど、撮影条件を揃えたい内容については第1の画像撮影時の撮影条件を用いて第2の画像撮影を行なうことで、得られる2つの画像で違和感がないようにすることができる。
【0009】
請求項3記載の発明は、上記請求項1記載の発明において、上記記録制御手段で記録保存する画像データは、一つのファイルとして記録保存することを特徴とする。
【0010】
このような構成とすれば、上記請求項1記載の発明の作用に加えて、画像データを一つのファイルとして記録保存することができる。
【0011】
請求項4記載の発明は、上記請求項1記載の発明において、画像を撮像する撮像手段を有し、上記第1の画像取得手段および上記第2の画像取得手段は、上記撮像手段より画像を取得することを特徴とする。
【0012】
このような構成とすれば、上記請求項1記載の発明の作用に加えて、上記第1の画像取得手段および上記第2の画像取得手段は上記撮像手段より画像を取得することができる。
【0017】
【発明の実施の形態】
(第1の実施の形態)
以下本発明をデジタルスチルカメラに適用した場合の第1の実施の形態について図面を参照して説明する。
【0018】
図1はその回路構成を示すもので、10がデジタルカメラである。このデジタルカメラ10は、記録モードと再生モードとを設定可能であり、記録モードの状態においては、レンズ11の後方に配置されたCCD12は、タイミング発生器(TG)13、垂直ドライバ14によって走査駆動され、一定周期毎に光電変換出力を1画面分出力する。
【0019】
この光電変換出力は、アナログ値の信号の状態で図示しないAGCアンプによりRGBの各色成分毎に適宜ゲイン調整された後に、サンプルホールド回路(S/H)15でサンプルホールドされ、A/D変換器(A/D)16でデジタルデータに変換され、カラープロセス回路17で補間処理及びγ補正処理を含むカラープロセス処理が行なわれて、デジタル値の輝度信号Y及び色差信号Cb,CrがDMA(Direct Memory Access)コントローラ18に出力される。
【0020】
DMAコントローラ18は、カラープロセス回路17の出力する輝度信号Y及び色差信号Cb,Crを、同じくカラープロセス回路17からの同期信号、メモリ書込みイネーブル、クロック出力を用いて一度DMAコントローラ18内部のバッファに書込み、DRAMインタフェース(I/F)19を介してDRAM20にDMA転送を行なう。
【0021】
CPU21は、上記輝度及び色差信号のDRAM20へのDMA転送終了後に、この輝度及び色差信号をDRAMインタフェース19を介してDRAM20より読出し、VRAMコントローラ22を介してVRAM23に書込む。
【0022】
デジタルビデオエンコーダ(以下「ビデオエンコーダ」と略称する)24は、上記輝度及び色差信号をVRAMコントローラ22を介してVRAM23より定期的に読出し、これらのデータを元にビデオ信号を発生して表示部25に出力する。
【0023】
この表示部25は、例えばバックライト付のカラー液晶表示パネルとその駆動回路とで構成され、カメラの背面側に配設されて、記録モード時にはEVF(Electronic View Finder:電子ビューファインダ)として機能するもので、ビデオエンコーダ24からのビデオ信号に基づいた表示を行なうことで、その時点でVRAMコントローラ22から取込んでいる画像情報に基づく画像を表示することとなる。
【0024】
そして、このように表示部25にその時点での画像がモニタ画像としてリアルタイムに表示されている状態で、記録保存を行ないたいタイミングでキー入力部26を構成するシャッタキーを操作すると、トリガ信号を発生する。
【0025】
CPU21は、このトリガ信号に応じてその時点でCCD12から取込んでいる1画面分の輝度及び色差信号のDRAM20へのDMA転送の終了後、直ちにCCD12からのDRAM20への経路を停止し、記録保存の状態に遷移する。
【0026】
この記録保存の状態では、CPU21がDRAM20に書込まれている1フレーム分の輝度及び色差信号をDRAMインタフェース19を介してY,Cb,Crの各コンポーネント毎に縦8画素×横8画素の基本ブロックと呼称される単位で読出してJPEG回路27に書込み、このJPEG回路27でADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換)、エントロピ符号化方式であるハフマン符号化等の処理により圧縮し、得た符号データを1画像データファイルとして該JPEG回路27から読出し、このデジタルカメラ10の記憶媒体として着脱自在に装着される、不揮発性メモリであるフラッシュメモリ28に書込む。
【0027】
そして、1フレーム分の輝度及び色差信号の圧縮処理及びフラッシュメモリ28への全圧縮データの書込み終了に伴なって、CPU21は再度CCD12からDRAM20への経路を起動する。
【0028】
この際、併せてCPU21は、元の画像データの構成画素数を大幅に間引いた画像データを作成し、これをサムネイル画像とも呼称されるプレビュー画像として元の画像データに関連付けてフラッシュメモリ28に記憶させる。
【0029】
なお、上記キー入力部26は、上述したシャッタキーの他に、記録(REC)モードと再生(PLAY)モードとを切換える録/再モード切換えキー、記録モードにおける立体画像の撮影モードを設定するステレオ画像キー、画像選択のためのカーソルキーや「Enter」キー等から構成され、キー操作に伴なう信号は直接CPU21へ送出される。
【0030】
また、再生モードでは、CPU21はCCD12からDRAM20への経路を停止し、キー入力部26の画像選択キー等の操作に応じてCPU21がフラッシュメモリ28から特定の1フレーム分の符号データを読出してJPEG回路27に書込み、JPEG回路27で伸長処理を行なって得られた縦8画素×横8画素の基本ブロック単位に、VRAMコントローラ22を介してVRAM23へ1フレーム分のYUVデータを展開記憶させる。すると、ビデオエンコーダ24は、VRAM23に展開記憶されている1フレーム分のYUVデータを元にビデオ信号を発生し、表示部25で表示させる。
【0031】
次に上記実施の形態の動作について説明する。
【0032】
図2は、上記キー入力部26のステレオ画像キーを操作して立体画像を撮影する場合の、主としてCPU21による制御処理内容を示すものである。
【0033】
同図に示すように、処理当初に上記ステレオ画像キーが操作されると、立体画像の撮影モードを設定した上で(ステップA01)、上記CCD12からDRAM20への経路を起動して、表示部25で撮影画像のモニタ表示を行ないながら、シャッタキーの操作による1枚目の画像撮影を待機する(ステップA02)。
【0034】
図3は、1枚目の画像として選択した内容を例示するもので、このような被写体としてのサイコロの画像が表示部25に表示されている時点でシャッタキーを操作すると、CPU21はこれを判断し、直ちに記録保存の状態に遷移して、DRAM20に書込まれている1フレーム分の輝度及び色差信号を取込んでJPEG回路27によりデータ圧縮させ、仮の画像データファイルとして一時的にフラッシュメモリ28に書込む(ステップA03)。
【0035】
これと共にCPU21は、フラッシュメモリ28に書込んだ画像データの中央の一部、例えば上下方向に延びた中央線から左右それぞれ1/16分ずつ、計1/8を用いて図4に示すような透過率50%程度の画像データをスケール画像として作成する(ステップA04)。
【0036】
そして、再度上記CCD12からDRAM20への経路を起動し、表示部25で上記ステップA04で作成したスケール画像を重ね合わせて撮影画像のモニタ表示を行ないながら(ステップA05)、シャッタキーの操作による2枚目の画像撮影を待機する(ステップA06)。
【0037】
なお、この2枚目の画像の撮影待機状態では、上記1枚目の画像撮影時の条件の一部、例えば画質(画像の構成画素数)、レンズ11がズームレンズであった場合にはその焦点距離、及びホワイトバランス等をロックして、これらの変更操作は受付けないものとする。
【0038】
図5はこのとき表示部25で表示される画像を例示するもので、デジタルカメラ10を上記1枚目の画像撮影時の位置から例えば右に10[cm]程度ずらし、且つ被写体(この場合はサイコロ)が画像フレーム中で1枚目の画像と同一の位置となるようにデジタルカメラ10の位置、撮像方向を調整する。
【0039】
そして、図5に示す如く、撮影しようとする被写体の画像フレーム中の位置が、1枚目の被写体の透過画像と一致したと思える時点でシャッタキーを操作すると、CPU21は上記ステップA06で2枚目の画像の撮影が指示されるものと判断し、直ちに記録保存の状態に遷移して、DRAM20に書込まれている1フレーム分の輝度及び色差信号を取込んでJPEG回路27によりデータ圧縮させ、これも仮の画像データファイルとして一時的にフラッシュメモリ28に書込む(ステップA07)。
【0040】
次いでCPU21は、フラッシュメモリ28に書込んだ1枚目の画像データと2枚目の画像データとを読出し、これを交差法(あるいは平行法)に基づいて左右に並べて配置した1枚の画像データファイルとして作成し、あらためてフラッシュメモリ28に記録し直す(ステップA08)。
【0041】
その後、設定されている立体画像の撮影モードを解除し、通常の画像撮影モードに復帰して(ステップA09)、以上でこの処理を終了する。
【0042】
上記2枚目の画像撮影時には、1枚目の画像撮影で使用した撮影条件の一部、例えば画質(画像の構成画素数)、レンズ11がズームレンズであった場合にはその焦点距離、及びホワイトバランス等をそのまま継承して撮影を行なっている。
【0043】
そのため、1枚目の画像と2枚目の画像とで違和感を感じるようなことがなく、きわめて自然に交差法(あるいは平行法)により画像を立体視することができるようになる。
【0044】
このように本発明の第1の実施の形態によれば、被写体が静物あるいは動きの少ないものであれば、1台の撮像装置で正確なフレーミングの立体画像を手軽に撮影し、保存することができる。
【0045】
(第2の実施の形態)
以下図面を参照して本発明をデジタルスチルカメラシステムに適用した場合の第2の実施の形態について図面を参照して説明する。
【0046】
図6はその外観構成を示すもので、ここでは図示しない三脚の雲台31上にコンビネーションバー32を三脚ネジを螺合させることで取付け、このコンビネーションバー32に2台のデジタルカメラ10A,10Bを略同一の撮像方向を向けて同様に取付けるものとする。
【0047】
2台のデジタルカメラ10A,10Bはそれぞれシリアルインタフェース端子として例えばIEEE1394規格に則った1394端子を有するものとし、図示する如く1394ケーブル33で両端子を接続することにより、画像データや撮影条件、シャッタ信号等の制御信号など種々情報を転送可能としている。ここで、上記1394ケーブル33で転送される内容はすべてアイソクロナス(Isochronous:等時性)転送方式を採用するものとする。
【0048】
次に図7により上記デジタルカメラ10A(10B)の回路構成を示す。なお、基本的な構成自体は上記図1に示した内容と同一であるものとして、同一部分には同一符号を付してその説明は省略するものとする。
【0049】
しかして、IEEE1394規格に則って外部接続された機器との間で上記1394ケーブル33を用いることで情報転送を行なう1394インタフェース(I/F)41がさらに上記CPU21と接続され。
【0050】
また、キー入力部26には、ステレオ(立体)画像モード撮影を行なう場合に主制御及び撮影した立体画像データの記録保存を行なうメイン機となることを設定するためのステレオ画像(主)キーと、サブ機となることを設定するためのステップ画像(副)キーとを有するものとする。
【0051】
次に上記実施の形態の動作について説明する。
【0052】
図8は、上記キー入力部26のステレオ画像キーを操作して立体画像を撮影する場合の、主としてそれぞれのCPU21による制御処理内容を示すものである。
【0053】
ここでは、例えば上記デジタルカメラ10Aをメイン機、デジタルカメラ10Bをサブ機として使用するものとして事前にそれぞれのキー入力部26でステレオ画像(主)キー、ステップ画像(副)キーにより予めモード設定しておくものとする。
【0054】
しかるに、メイン機であるデジタルカメラ10Aにおいては、上記CCD12からDRAM20への経路を起動して、表示部25で撮影画像のモニタ表示を行ない(ステップB01)、同時にそのモニタ画像を用いて画像データの中央の一部、例えば上下方向に延びた中央線から左右それぞれ1/16分ずつ、計1/8を用いて透過率50%程度の画像データをスケール画像として作成し(ステップB02)、作成したスケール画像のデータをその時点での撮影条件の一部、例えば画質(画像の構成画素数)、レンズ11がズームレンズであった場合にはその焦点距離、及びホワイトバランス等の情報と共にサブ機であるデジタルカメラ10Bに対して1394インタフェース41より送信しながら(ステップB03)、シャッタキーの操作を待機する(ステップB04)、という処理を繰返し実行する。
【0055】
このときデジタルカメラ10Bでは、1394インタフェース41によりデジタルカメラ10aから1394ケーブル33を介して送られてきた撮影条件の情報とスケール画像のデータとを受信し(ステップB31)、受信した撮影条件の情報に関してはこれを優先して設定し、CCD12からDRAM20への経路を起動して、モニタ画像を取得する(ステップB32)。
【0056】
そして、このモニタ画像と上記受信したスケール画像のデータとを重ね合わせた画像を表示部25にて表示しながら(ステップB33)、デジタルカメラ10Aから制御信号としてのシャッタ信号が送られてきたか否か判断し(ステップS34)、送られてこない場合は再び上記ステップB31からの処理に戻る、という処理を繰返し実行することで、上記シャッタ信号の到来を待機する。
【0057】
このようにメイン機であるデジタルカメラ10Aとサブ機であるデジタルカメラ10Bとでそれぞれモニタ画像を表示させている状態で、ユーザはそれぞれの撮像範囲を調整する。
【0058】
その場合、ユーザはまずメイン機であるデジタルカメラ10Aにより被写体に対するフレーミングその他の設定を行なう。このときにデジタルカメラ10Aの表示部25で表示されるモニタ画像が上記図3に示した内容であった場合、CPU21はその画像データの中央の一部を用いて上記図4に示したようなスケール画像のデータを作成し、サブ機であるデジタルカメラ10Bに撮影条件の情報と共に1394インタフェース41によってデジタルカメラ10Bに送信させる。
【0059】
一方、これを受けるサブ機であるデジタルカメラ10Bでは、表示部25で表示されるモニタ画像中の被写体の画像フレーム中の位置が、図5に示したようにスケール画像と一致していると思えるまでコンビネーションバー32上での取付け角度などにより調整する。
【0060】
そして、デジタルカメラ10A,10B双方の調整を終えた後に、ユーザが任意のタイミングでメイン機側のデジタルカメラ10Aのシャッタキーを操作すると、デジタルカメラ10AではステップB04でこれを判断し、デジタルカメラ10Bに対して制御信号としてのシャッタ信号を送信した後(ステップB05)、直ちに記録保存の状態に遷移して、DRAM20に書込まれている1フレーム分の輝度及び色差信号を取込み(ステップB06)、JPEG回路27によりデータ圧縮させて、得た画像データを仮の画像データファイルとして一時的にフラッシュメモリ28に書込んで(ステップB07)、その後にサブ機のデジタルカメラ10Bから同様の画像データが送られてくるのを待機する(ステップB08)。
【0061】
デジタルカメラ10Bでは、上記ステップB34でデジタルカメラ10Aからのシャッタ信号を受信したと判断した時点で、その信号に従って直ちに記録保存の状態に遷移して、DRAM20に書込まれている1フレーム分の輝度及び色差信号を取込んで(ステップB35)、JPEG回路27によりデータ圧縮させ、得た画像データを仮の画像データファイルとして一時的にフラッシュメモリ28に書込む(ステップB08)。
【0062】
そして、このフラッシュメモリ28に書込んだ画像データをメイン機であるデジタルカメラ10Aに送信した後(ステップB37)、フラッシュメモリ28に書込んだ仮の画像データファイルを消去することでフラッシュメモリ28の整理を行ない(ステップB38)、以上でこの処理を終了して、立体画像の撮影モードを解除し、通常の記録モードに復帰する。
【0063】
一方、メイン機であるデジタルカメラ10Aでは、ステップB08でデジタルカメラ10Bから画像データを受信したと判断すると、このデジタルカメラ10Bからの画像データとフラッシュメモリ28に書込んだ画像データの2つの画像データを用いて、交差法(あるいは平行法)に基づいて左右に並べて配置した1枚の画像データファイルを作成し(ステップB09)、あらためてフラッシュメモリ28に記録し直すと共に、フラッシュメモリ28内を整理して不要な画像データファイルを消去し(ステップB10)、。
【0064】
その後、設定されている立体画像の撮影モードを解除し、通常の画像撮影モードに復帰して(ステップA09)、以上でこの処理を終了して、やはり立体画像の撮影モードを解除し、通常の記録モードに復帰する。
【0065】
このように、メイン機であるデジタルカメラ10Aで得られるモニタ画像に合わせてサブ機であるデジタルカメラ10Bのフレーミングを正確に調整することができると共に、デジタルカメラ10A側のみのシャッタ操作で両者を同期させて立体画像を得ることができるため、動きの激しい被写体であっても正確なフレーミングで撮影することができる。
【0066】
また、デジタルカメラ10Aの撮影条件を用いてデジタルカメラ10Bで撮影するようになるため、画質や焦点距離、焦点位置、露出状態やホワイトバランスなどの撮影条件を統一して、より高い質の立体画像を取得することができる。
【0067】
加えて、デジタルカメラ10A出得た画像データとデジタルカメラ10Bで得た画像データをメイン機であるデジタルカメラ10A側に集約して1つの立体画像データファイルとして記録保存することができ、後処理としてパーソナルコンピュータ等を用いた煩雑な編集作業などを行なう必要がないため、手軽に立体画像の撮影を行なうことができる。
【0068】
なお、上記第2の実施の形態では、2台のデジタルカメラ10A,10BをIEEE1394規格に則ってシリアルインタフェース接続するものとして説明したが、これに限ることなく、USB(Universal Serial Bus)であってもよいし、さらには赤外線通信や無線通信により接続するものとしてもよい。
【0069】
また、上記第1及び第2の実施の形態では、いずれも立体画像のデータファイルをフラッシュメモリ28に記録保存した後に自動的に通常の記録モードに復帰するものとして説明したが、これに限ることなく、連続して立体画像を撮影することができるものとしてもよい。
【0070】
その他、本発明はその要旨を逸脱しない範囲内で種々変形して実施することが可能であるものとする。
【0071】
【発明の効果】
請求項1記載の発明によれば、1台の撮像装置で被写体像を正確に位置合わせした複数の視点からの画像を撮影して、1つの画像データとして記録することができるため、動きの少ない被写体であれば1台の撮像装置で正確なフレーミングの立体画像を手軽に撮影し、保存することができる。
【0072】
請求項2記載の発明によれば、上記請求項1記載の発明の効果に加えて、例えば画質やズームレンズを有する場合の焦点距離、ホワイトバランスなど、撮影条件を揃えたい内容については第1の画像撮影時の撮影条件を用いて第2の画像撮影を行なうことで、得られる2つの画像で違和感がないようにすることができる。
【0073】
請求項3記載の発明によれば、上記請求項1記載の発明の効果に加えて、画像データを一つのファイルとして記録保存することができる。
【0074】
請求項4記載の発明によれば、上記請求項1記載の発明の効果に加えて、第1の画像取得手段および第2の画像取得手段で取得する画像データは撮像手段より取得することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係るデジタルカメラの回路構成を示すブロック図。
【図2】同実施の形態に係る記録モード時の立体画像取得の動作処理内容を示すフローチャート。
【図3】同実施の形態に係る動作時に電子ビューファインダで表示される画像を例示する図。
【図4】同実施の形態に係る動作時に電子ビューファインダで表示される画像を例示する図。
【図5】同実施の形態に係る動作時に電子ビューファインダで表示される画像を例示する図。
【図6】本発明の第2の実施の形態に係るデジタルカメラシステムの外観構成を示す斜視図。
【図7】同実施の形態に係る個々のデジタルカメラの回路構成を示すブロック図。
【図8】同実施の形態に係る記録モード時の立体画像取得の動作処理内容を示すフローチャート。
【符号の説明】
10…デジタルカメラ
11…レンズ
12…CCD
13…タイミング発生器(TG)
14…垂直ドライバ
15…サンプルホールド回路(S/H)
16…A/D変換器(A/D)
17…カラープロセス回路
18…DMAコントローラ
19…DRAMインタフェース(I/F)
20…DRAM
21…CPU
22…VRAMコントローラ
23…VRAM
24…ビデオエンコーダ
25…表示部
26…キー入力部
27…JPEG回路
28…フラッシュメモリ
31…雲台
32…コンビネーションバー
33…1394ケーブル
41…1394インタフェース(I/F)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging device for capturing a three-dimensional image.
[0002]
[Prior art]
In general, when a three-dimensional image is taken with a digital still camera as a subject, the two images of the same subject with the same composition are taken after the first image is photographed and then the photographing position is moved sideways by about 10 cm. A three-dimensional image can be seen by taking an image of the eye and displaying the obtained two images side by side on the display monitor and viewing them in accordance with the intersection method or the parallel method.
[0003]
[Problems to be solved by the invention]
However, when capturing two images with a still life as the subject as described above, it is difficult to accurately match the framing, and as the number of portions where the shooting range is shifted between the two images increases, The range that can be stereoscopically viewed is narrowed.
[0004]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an imaging apparatus capable of performing reliable framing during stereoscopic image shooting.
[0005]
[Means for Solving the Problems]
The invention described in claim 1 is an image pickup apparatus having a display unit for displaying an image to be photographed on a monitor, the first image obtaining means for obtaining the first image data, and the first image obtaining. Display control means for displaying a part of the first image data obtained by the means superimposed on an image displayed on the monitor by the display unit, second image acquisition means for obtaining second image data, and And recording control means for recording and storing the first and second image data obtained by the first and second image acquisition means as one image data arranged side by side.
[0006]
With such a configuration, it is possible to shoot images from a plurality of viewpoints in which subject images are accurately aligned with one imaging device and record them as one image data. If there is one, it is possible to easily capture and store a precise framing stereoscopic image with a single imaging device.
[0007]
The invention described in claim 2 further comprises storage means for storing photographing conditions at the time of image acquisition by the first image acquisition means in the invention described in claim 1, wherein the second image acquisition means comprises: The imaging condition at the time of capturing the second image data is limited based on the imaging condition stored in the storage means.
[0008]
With such a configuration, in addition to the operation of the first aspect of the invention, the first image shooting is performed for the content to be set to have the same shooting conditions such as the image quality, the focal length when the zoom lens is provided, and the white balance. By performing the second image shooting using the current shooting conditions, it is possible to prevent the two obtained images from feeling uncomfortable.
[0009]
According to a third aspect of the present invention, in the first aspect of the present invention, the image data recorded and saved by the recording control means is recorded and saved as one file.
[0010]
With such a configuration, in addition to the operation of the first aspect of the invention, the image data can be recorded and saved as one file.
[0011]
According to a fourth aspect of the present invention, in the first aspect of the invention described above, the first image acquisition unit and the second image acquisition unit obtain images from the imaging unit. It is characterized by acquiring.
[0012]
With such a configuration, in addition to the operation of the first aspect of the invention, the first image acquisition unit and the second image acquisition unit can acquire an image from the imaging unit.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
A first embodiment when the present invention is applied to a digital still camera will be described below with reference to the drawings.
[0018]
FIG. 1 shows the circuit configuration, and 10 is a digital camera. The digital camera 10 can set a recording mode and a reproduction mode. In the recording mode, the CCD 12 disposed behind the lens 11 is scan-driven by a timing generator (TG) 13 and a vertical driver 14. Then, the photoelectric conversion output for one screen is output at every fixed period.
[0019]
The photoelectric conversion output is appropriately adjusted for each RGB color component by an AGC amplifier (not shown) in the state of an analog value signal, and then sampled and held by a sample hold circuit (S / H) 15 to be converted into an A / D converter. (A / D) 16 is converted to digital data, and color process processing including interpolation processing and γ correction processing is performed in the color process circuit 17 so that the digital luminance signal Y and the color difference signals Cb and Cr are converted into DMA (Direct). Memory Access) is output to the controller 18.
[0020]
The DMA controller 18 once converts the luminance signal Y and the color difference signals Cb and Cr output from the color process circuit 17 into a buffer inside the DMA controller 18 using the synchronization signal, memory write enable, and clock output from the color process circuit 17. Write and perform DMA transfer to DRAM 20 via DRAM interface (I / F) 19.
[0021]
After completing the DMA transfer of the luminance and color difference signals to the DRAM 20, the CPU 21 reads the luminance and color difference signals from the DRAM 20 via the DRAM interface 19 and writes them into the VRAM 23 via the VRAM controller 22.
[0022]
A digital video encoder (hereinafter abbreviated as “video encoder”) 24 periodically reads the luminance and color difference signals from the VRAM 23 via the VRAM controller 22, generates a video signal based on these data, and generates a display unit 25. Output to.
[0023]
The display unit 25 is composed of, for example, a backlit color liquid crystal display panel and its driving circuit, and is disposed on the back side of the camera, and functions as an EVF (Electronic View Finder) in the recording mode. Therefore, by performing display based on the video signal from the video encoder 24, an image based on the image information fetched from the VRAM controller 22 at that time is displayed.
[0024]
Then, when the shutter key constituting the key input unit 26 is operated at a timing when recording and saving are desired in a state where the image at that time is displayed as a monitor image in real time on the display unit 25 in this way, a trigger signal is generated. appear.
[0025]
In response to this trigger signal, the CPU 21 stops the path from the CCD 12 to the DRAM 20 immediately after the completion of the DMA transfer of the luminance and color difference signals for one screen captured from the CCD 12 to the DRAM 20 at that time, and records and saves them. Transition to the state.
[0026]
In this recording and storage state, the CPU 21 transmits the luminance and color difference signals for one frame written in the DRAM 20 through the DRAM interface 19 to each of the Y, Cb, and Cr components of 8 × 8 pixels. The data is read in units called blocks and written to the JPEG circuit 27. The JPEG circuit 27 compresses the data by performing processes such as ADCT (Adaptive Discrete Cosine Transform) and Huffman coding which is an entropy coding method. The encoded data is read out from the JPEG circuit 27 as one image data file and written into a flash memory 28 which is a non-volatile memory that is detachably mounted as a storage medium of the digital camera 10.
[0027]
Then, the CPU 21 activates the path from the CCD 12 to the DRAM 20 again as the luminance and color difference signals for one frame are compressed and the writing of all the compressed data to the flash memory 28 is completed.
[0028]
At this time, the CPU 21 also creates image data in which the number of constituent pixels of the original image data is greatly thinned out, and stores this in the flash memory 28 in association with the original image data as a preview image also called a thumbnail image. Let
[0029]
In addition to the shutter key described above, the key input unit 26 is a recording / re-mode switching key for switching between a recording (REC) mode and a reproduction (PLAY) mode, and a stereo for setting a stereoscopic image shooting mode in the recording mode. The key is composed of an image key, a cursor key for image selection, an “Enter” key, and the like, and a signal accompanying the key operation is directly sent to the CPU 21.
[0030]
Further, in the playback mode, the CPU 21 stops the path from the CCD 12 to the DRAM 20, and the CPU 21 reads the code data for a specific frame from the flash memory 28 according to the operation of the image selection key or the like of the key input unit 26, and JPEG. The YUV data for one frame is expanded and stored in the VRAM 23 via the VRAM controller 22 in units of basic blocks of 8 vertical pixels × 8 horizontal pixels obtained by writing to the circuit 27 and performing the decompression process by the JPEG circuit 27. Then, the video encoder 24 generates a video signal based on one frame of YUV data expanded and stored in the VRAM 23 and displays it on the display unit 25.
[0031]
Next, the operation of the above embodiment will be described.
[0032]
FIG. 2 mainly shows the contents of control processing by the CPU 21 when a stereo image key of the key input unit 26 is operated to capture a stereoscopic image.
[0033]
As shown in the figure, when the stereo image key is operated at the beginning of processing, a stereoscopic image shooting mode is set (step A01), and a path from the CCD 12 to the DRAM 20 is activated to display the display unit 25. While the captured image is displayed on the monitor, the first image capture by the operation of the shutter key is awaited (step A02).
[0034]
FIG. 3 illustrates the content selected as the first image. When the shutter key is operated at the time when such a dice image as a subject is displayed on the display unit 25, the CPU 21 determines this. Then, the state immediately transitions to the record storage state, the luminance and color difference signals for one frame written in the DRAM 20 are taken in, the data is compressed by the JPEG circuit 27, and temporarily flashed as a temporary image data file. 28 is written (step A03).
[0035]
At the same time, the CPU 21 uses a part of the center of the image data written in the flash memory 28, for example, 1/16 of each left and right from the center line extending in the vertical direction, as shown in FIG. Image data having a transmittance of about 50% is created as a scale image (step A04).
[0036]
Then, the path from the CCD 12 to the DRAM 20 is activated again, and the scale image created in step A04 is superimposed on the display unit 25 to display the captured image on the monitor (step A05), and two sheets are operated by operating the shutter key. Waiting for the eye to take an image (step A06).
[0037]
In the second image capturing standby state, some of the conditions for capturing the first image, such as image quality (the number of pixels constituting the image), and if the lens 11 is a zoom lens, The focal length, white balance, etc. are locked, and these changing operations are not accepted.
[0038]
FIG. 5 illustrates an image displayed on the display unit 25 at this time. The digital camera 10 is shifted to the right by about 10 [cm] from the position at which the first image was taken, and the subject (in this case) The position and the imaging direction of the digital camera 10 are adjusted so that the dice) is positioned at the same position as the first image in the image frame.
[0039]
Then, as shown in FIG. 5, when the shutter key is operated at the time when the position of the subject to be photographed in the image frame seems to coincide with the transmission image of the first subject, the CPU 21 performs two steps at step A06. When it is determined that an instruction to take an image of the eye is instructed, the state immediately shifts to the recording and storage state, and the luminance and color difference signals for one frame written in the DRAM 20 are taken in and compressed by the JPEG circuit 27. This is also temporarily written in the flash memory 28 as a temporary image data file (step A07).
[0040]
Next, the CPU 21 reads the first image data and the second image data written in the flash memory 28, and one image data arranged side by side based on the cross method (or parallel method). A file is created and recorded again in the flash memory 28 (step A08).
[0041]
Thereafter, the set stereoscopic image shooting mode is canceled, the normal image shooting mode is restored (step A09), and this processing is completed.
[0042]
When shooting the second image, some of the shooting conditions used for shooting the first image, such as image quality (number of pixels constituting the image), if the lens 11 is a zoom lens, its focal length, and Taking over the white balance, etc.
[0043]
Therefore, there is no sense of incongruity between the first image and the second image, and the image can be stereoscopically viewed by the intersection method (or parallel method) very naturally.
[0044]
As described above, according to the first embodiment of the present invention, if a subject is a still object or has little movement, an accurate framing stereoscopic image can be easily captured and stored with one imaging device. it can.
[0045]
(Second Embodiment)
A second embodiment in the case where the present invention is applied to a digital still camera system will be described below with reference to the drawings.
[0046]
FIG. 6 shows an external configuration thereof. Here, a combination bar 32 is mounted on a tripod head 31 (not shown) by screwing a tripod screw, and two digital cameras 10A and 10B are attached to the combination bar 32. It is assumed that they are mounted in the same manner with substantially the same imaging direction.
[0047]
Each of the two digital cameras 10A and 10B has, for example, a 1394 terminal conforming to the IEEE 1394 standard as a serial interface terminal. By connecting both terminals with a 1394 cable 33 as shown in the figure, image data, photographing conditions, shutter signals Various information such as control signals can be transferred. Here, it is assumed that the content transferred by the 1394 cable 33 adopts an isochronous transfer method.
[0048]
Next, FIG. 7 shows a circuit configuration of the digital camera 10A (10B). The basic configuration itself is the same as that shown in FIG. 1, and the same parts are denoted by the same reference numerals and the description thereof is omitted.
[0049]
Accordingly, a 1394 interface (I / F) 41 that transfers information by using the 1394 cable 33 with an externally connected device in accordance with the IEEE 1394 standard is further connected to the CPU 21.
[0050]
Also, the key input unit 26 includes a stereo image (main) key for setting that the main machine is to perform main control and record and save the captured stereoscopic image data when performing stereo (stereo) image mode shooting. And a step image (sub) key for setting to become a sub machine.
[0051]
Next, the operation of the above embodiment will be described.
[0052]
FIG. 8 mainly shows the contents of control processing by the respective CPUs 21 when a stereoscopic image is shot by operating the stereo image key of the key input unit 26.
[0053]
Here, for example, assuming that the digital camera 10A is used as a main machine and the digital camera 10B is used as a sub-machine, the mode is set in advance by the stereo image (main) key and step image (sub) key in advance in each key input unit 26. Shall be kept.
[0054]
However, in the digital camera 10A as the main machine, the path from the CCD 12 to the DRAM 20 is activated, and the captured image is displayed on the display unit 25 (step B01). At the same time, the monitor image is used to transfer image data. Image data with a transmittance of about 50% is created as a scale image using a total of 1/8 of a part of the center, for example, 1/16 minutes each from the center line extending in the vertical direction (step B02). The scale image data is stored in the sub-device together with information such as a part of the shooting conditions at that time, for example, the image quality (the number of pixels constituting the image), the focal length, and the white balance when the lens 11 is a zoom lens. Shutter key operation while transmitting from a 1394 interface 41 to a digital camera 10B (step B03) Waits (step B04), repeatedly a process of execution.
[0055]
At this time, the digital camera 10B receives the shooting condition information and the scale image data sent from the digital camera 10a via the 1394 cable 33 by the 1394 interface 41 (step B31), and the received shooting condition information is received. Gives priority to this, activates the path from the CCD 12 to the DRAM 20, and acquires a monitor image (step B32).
[0056]
Whether or not a shutter signal as a control signal has been sent from the digital camera 10A while displaying an image obtained by superimposing the monitor image and the received scale image data on the display unit 25 (step B33). A determination is made (step S34), and if it is not sent, the process of returning to the process from step B31 again is repeatedly executed to wait for the arrival of the shutter signal.
[0057]
In this manner, the user adjusts the imaging range in a state where the monitor images are displayed on the digital camera 10A as the main machine and the digital camera 10B as the sub machine.
[0058]
In this case, the user first performs framing and other settings for the subject using the digital camera 10A as the main machine. At this time, when the monitor image displayed on the display unit 25 of the digital camera 10A has the contents shown in FIG. 3, the CPU 21 uses a part of the center of the image data as shown in FIG. Scale image data is created and transmitted to the digital camera 10B through the 1394 interface 41 together with information on the photographing conditions to the digital camera 10B as a sub-unit.
[0059]
On the other hand, in the digital camera 10B that is a sub-device that receives this, it seems that the position of the subject in the monitor image displayed on the display unit 25 matches the scale image as shown in FIG. Adjust by the mounting angle etc. on the combination bar 32.
[0060]
When the user operates the shutter key of the digital camera 10A on the main unit side at an arbitrary timing after adjusting both the digital cameras 10A and 10B, the digital camera 10A determines this in step B04, and the digital camera 10B After transmitting a shutter signal as a control signal to (step B05), the state immediately shifts to the record storage state, and the luminance and color difference signals for one frame written in the DRAM 20 are captured (step B06). The data is compressed by the JPEG circuit 27, and the obtained image data is temporarily written in the flash memory 28 as a temporary image data file (step B07). Thereafter, similar image data is sent from the digital camera 10B of the sub machine. Waiting to be received (step B08).
[0061]
In the digital camera 10B, when it is determined in step B34 that the shutter signal from the digital camera 10A has been received, the digital camera 10B immediately transitions to the recording / saving state in accordance with the signal, and the luminance of one frame written in the DRAM 20 Then, the color difference signal is taken in (step B35), the data is compressed by the JPEG circuit 27, and the obtained image data is temporarily written in the flash memory 28 as a temporary image data file (step B08).
[0062]
Then, after the image data written in the flash memory 28 is transmitted to the digital camera 10A as the main machine (step B37), the temporary image data file written in the flash memory 28 is erased to delete the temporary data in the flash memory 28. Arrangement is performed (step B38), and this processing is completed as described above, the stereoscopic image shooting mode is canceled, and the normal recording mode is restored.
[0063]
On the other hand, if the digital camera 10A as the main machine determines that the image data is received from the digital camera 10B in step B08, the image data from the digital camera 10B and the image data written in the flash memory 28 are two image data. Is used to create a single image data file arranged side by side based on the intersection method (or parallel method) (step B09), and re-record it in the flash memory 28, and arrange the flash memory 28 again. Delete unnecessary image data files (step B10).
[0064]
Thereafter, the set stereoscopic image shooting mode is canceled, and the normal image shooting mode is restored (step A09). This processing is terminated, and the stereoscopic image shooting mode is also canceled, Return to recording mode.
[0065]
In this way, the framing of the digital camera 10B as the sub-machine can be accurately adjusted in accordance with the monitor image obtained by the digital camera 10A as the main machine, and both are synchronized by the shutter operation only on the digital camera 10A side. Thus, a stereoscopic image can be obtained, so that even a fast moving subject can be photographed with accurate framing.
[0066]
In addition, since the digital camera 10B is used to shoot using the shooting conditions of the digital camera 10A, the shooting conditions such as image quality, focal length, focal position, exposure state, and white balance are unified to obtain a higher quality stereoscopic image. Can be obtained.
[0067]
In addition, the image data obtained from the digital camera 10A and the image data obtained by the digital camera 10B can be aggregated on the digital camera 10A side which is the main machine, and recorded and saved as one stereoscopic image data file. Since it is not necessary to perform a complicated editing operation using a personal computer or the like, a stereoscopic image can be easily taken.
[0068]
In the second embodiment, the two digital cameras 10A and 10B have been described as being connected to the serial interface in accordance with the IEEE 1394 standard. However, the present invention is not limited to this, and a USB (Universal Serial Bus) is used. Alternatively, it may be connected by infrared communication or wireless communication.
[0069]
In the first and second embodiments described above, it has been described that the stereoscopic image data file is recorded and stored in the flash memory 28 and then automatically returns to the normal recording mode. However, the present invention is not limited to this. It is good also as what can image | photograph a three-dimensional image continuously.
[0070]
In addition, the present invention can be variously modified and implemented without departing from the scope of the invention.
[0071]
【The invention's effect】
According to the first aspect of the present invention, it is possible to shoot images from a plurality of viewpoints in which subject images are accurately aligned with a single imaging device, and to record them as one image data, so there is little movement. If it is a subject, an accurate framing stereoscopic image can be easily taken and stored with a single imaging device.
[0072]
According to the invention described in claim 2, in addition to the effect of the invention described in claim 1 above, the contents for which the shooting conditions are to be made uniform such as the image quality, the focal length in the case of having a zoom lens, white balance, etc. By performing the second image photographing using the photographing conditions at the time of image photographing, it is possible to prevent the two obtained images from feeling uncomfortable.
[0073]
According to the invention described in claim 3 , in addition to the effect of the invention described in claim 1, the image data can be recorded and saved as one file.
[0074]
According to the invention described in claim 4 , in addition to the effect of the invention described in claim 1, the image data acquired by the first image acquisition means and the second image acquisition means can be acquired from the imaging means. .
[Brief description of the drawings]
FIG. 1 is a block diagram showing a circuit configuration of a digital camera according to a first embodiment of the present invention.
FIG. 2 is a flowchart showing the operation processing content of stereoscopic image acquisition in the recording mode according to the embodiment.
FIG. 3 is a diagram illustrating an image displayed on the electronic viewfinder during the operation according to the embodiment;
FIG. 4 is a diagram illustrating an image displayed on the electronic viewfinder during the operation according to the embodiment;
FIG. 5 is a view illustrating an image displayed on the electronic viewfinder during the operation according to the embodiment;
FIG. 6 is a perspective view showing an external configuration of a digital camera system according to a second embodiment of the present invention.
7 is a block diagram showing a circuit configuration of each digital camera according to the embodiment; FIG.
FIG. 8 is a flowchart showing the contents of an operation process for obtaining a stereoscopic image in a recording mode according to the embodiment;
[Explanation of symbols]
10 ... Digital camera 11 ... Lens 12 ... CCD
13 ... Timing generator (TG)
14 ... Vertical driver 15 ... Sample hold circuit (S / H)
16 ... A / D converter (A / D)
17 ... Color process circuit 18 ... DMA controller 19 ... DRAM interface (I / F)
20 ... DRAM
21 ... CPU
22 ... VRAM controller 23 ... VRAM
24 ... Video encoder 25 ... Display unit 26 ... Key input unit 27 ... JPEG circuit 28 ... Flash memory 31 ... Pan head 32 ... Combination bar 33 ... 1394 cable 41 ... 1394 interface (I / F)

Claims (4)

撮影しようとする画像をモニタ表示する表示部を有した撮像装置であって、
第1の画像データを取得する第1の画像取得手段と、
この第1の画像取得手段で得た第1の画像データの一部を上記表示部でモニタ 表示される画像に重ね合わせて表示させる表示制御手段と、
第2の画像データを取得する第2の画像取得手段と、
上記第1及び第2の画像取得手段で得た第1及び第2の画像データを左右に並べた1つの画像データとして記録保存する記録制御手段と
を具備したことを特徴とする撮像装置。
An imaging apparatus having a display unit for displaying an image to be photographed on a monitor,
First image acquisition means for acquiring first image data;
Display control means for displaying a part of the first image data obtained by the first image acquisition means in a manner superimposed on an image displayed on the monitor by the display unit;
Second image acquisition means for acquiring second image data;
An image pickup apparatus comprising: a recording control unit that records and saves the first and second image data obtained by the first and second image acquisition units as one image data arranged side by side.
上記第1の画像取得手段による画像取得時の撮影条件を記憶する記憶手段をさらに具備し、
上記第2の画像取得手段は、この記憶手段の記憶した撮影条件に基づいて第2の画像データ撮影時の撮影条件を制限する
ことを特徴とする請求項1記載の撮像装置。
Further comprising storage means for storing photographing conditions at the time of image acquisition by the first image acquisition means,
2. The image pickup apparatus according to claim 1, wherein the second image acquisition unit limits a shooting condition at the time of shooting the second image data based on the shooting condition stored in the storage unit.
上記記録制御手段で記録保存する画像データは、一つのファイルとして記録保存されることを特徴とする請求項1記載の撮像装置。2. The imaging apparatus according to claim 1, wherein the image data recorded and saved by the recording control means is recorded and saved as one file. さらに画像を撮像する撮像手段を有し、
上記第1の画像取得手段および上記第2の画像取得手段は、上記撮像手段より画像を取得する
ことを特徴とする請求項1記載の撮像装置。
Furthermore , it has an imaging means for taking an image,
The first image acquisition unit and the second image acquisition unit acquire an image from the imaging unit.
The imaging apparatus according to claim 1.
JP2000036707A 2000-02-15 2000-02-15 Imaging device Expired - Fee Related JP3812264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000036707A JP3812264B2 (en) 2000-02-15 2000-02-15 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000036707A JP3812264B2 (en) 2000-02-15 2000-02-15 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005268361A Division JP2006074803A (en) 2005-09-15 2005-09-15 Imaging system

Publications (3)

Publication Number Publication Date
JP2001230955A JP2001230955A (en) 2001-08-24
JP2001230955A5 JP2001230955A5 (en) 2005-04-07
JP3812264B2 true JP3812264B2 (en) 2006-08-23

Family

ID=18560717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000036707A Expired - Fee Related JP3812264B2 (en) 2000-02-15 2000-02-15 Imaging device

Country Status (1)

Country Link
JP (1) JP3812264B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182122A (en) * 2010-02-26 2011-09-15 Fujitsu Ltd Device, method and program for photographing stereoscopic images

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244500A (en) * 2002-02-13 2003-08-29 Pentax Corp Stereo image pickup device
JP2003244727A (en) 2002-02-13 2003-08-29 Pentax Corp Stereoscopic image pickup system
JP4269776B2 (en) * 2003-05-21 2009-05-27 株式会社ニコン Electronic camera and program
GB2405764A (en) 2003-09-04 2005-03-09 Sharp Kk Guided capture or selection of stereoscopic image pairs.
JP2007072210A (en) * 2005-09-07 2007-03-22 Canon Inc Imaging apparatus, its control method, and program
JP5970748B2 (en) * 2011-06-03 2016-08-17 ソニー株式会社 Moving image photographing system and synchronization control method
JP6777474B2 (en) * 2016-09-07 2020-10-28 株式会社シータ Imaging device fixture
JP7173067B2 (en) * 2020-02-28 2022-11-16 カシオ計算機株式会社 Imaging device, imaging system, imaging method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182122A (en) * 2010-02-26 2011-09-15 Fujitsu Ltd Device, method and program for photographing stereoscopic images

Also Published As

Publication number Publication date
JP2001230955A (en) 2001-08-24

Similar Documents

Publication Publication Date Title
US7573504B2 (en) Image recording apparatus, image recording method, and image compressing apparatus processing moving or still images
US7728886B2 (en) Image recording apparatus and method
JP3822380B2 (en) Image signal processing device
US20070132878A1 (en) Digital camera system
JP2003008948A (en) Electronic camera and its image display method, and image recording method
JP3348917B2 (en) Image signal processing device
JP3812264B2 (en) Imaging device
JP3747914B2 (en) Image recording apparatus, image recording method, and program
JP4337758B2 (en) Imaging apparatus, still image display method during movie shooting, and program
JPH09219806A (en) Photographing device
JP2009065320A (en) Imaging device
JP4239997B2 (en) Imaging device, still image shooting method during movie shooting, and program
JP5539078B2 (en) Display control apparatus, method, program, and recording medium
JP2009033385A (en) Image processor, image processing method, image processing program and imaging device
JP4678273B2 (en) Imaging apparatus, moving image storage method, and moving image storage program
JP2004186866A (en) Image recording apparatus
JP4630530B2 (en) Movie recording apparatus, electronic camera, and program
JP4211764B2 (en) Electronic camera, image recording apparatus, image recording method and program
JP3433969B2 (en) Electronic still camera device
JPH10108133A (en) Image pickup device and its control method
JP2006074803A (en) Imaging system
JP2004104222A (en) Imaging unit
JP4016473B2 (en) Imaging method and imaging apparatus
JP4075319B2 (en) Digital camera, video playback method and video recording method
JP2004078075A (en) On-screen display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060522

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090609

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100609

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110609

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110609

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120609

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120609

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130609

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees