JP4022688B2 - Electronic camera capable of shooting movies - Google Patents

Electronic camera capable of shooting movies Download PDF

Info

Publication number
JP4022688B2
JP4022688B2 JP2002300642A JP2002300642A JP4022688B2 JP 4022688 B2 JP4022688 B2 JP 4022688B2 JP 2002300642 A JP2002300642 A JP 2002300642A JP 2002300642 A JP2002300642 A JP 2002300642A JP 4022688 B2 JP4022688 B2 JP 4022688B2
Authority
JP
Japan
Prior art keywords
image
moving
moving image
frame
movement information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002300642A
Other languages
Japanese (ja)
Other versions
JP2004140433A (en
Inventor
朋幸 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2002300642A priority Critical patent/JP4022688B2/en
Publication of JP2004140433A publication Critical patent/JP2004140433A/en
Application granted granted Critical
Publication of JP4022688B2 publication Critical patent/JP4022688B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は電子カメラに係り、特に動画撮影機能付きのデジタルカメラやビデオカメラなど動画撮影可能な電子カメラにおけるGPS(Global Positioning System )の利用技術に関する。
【0002】
【従来の技術】
GPSを利用するカメラシステムについては、従来から数多く提案されている。例えば、特許文献1には、GPSを利用して撮影場所の情報を取得し、この位置情報を住所データに変換して画像とともにプリントするシステムが開示されている。
【0003】
【特許文献1】
特開20001−61089号公報
【0004】
【発明が解決しようとする課題】
しかしながら、従来の提案は主に静止画の撮影システムを対象とするものであり、動画撮影時におけるGPS情報の利用方法について提案しているものは少ない。
【0005】
本発明はこのような事情に鑑みてなされたもので、動画撮影時におけるGPS情報の新たな利用形態を提案し、臨場感のある動画の記録及び再生を実現し得る電子カメラを提供することを目的とする。
【0006】
【課題を解決するための手段】
前記目的を達成するために本発明に係る動画撮影可能な電子カメラは、被写体の光学像を電気信号に変換する撮像手段と、前記撮像手段を用いて被写体を連続撮影して得られた画像を動画として記録媒体に記録する記録手段と、を備えた電子カメラであって、GPS衛星からの電波を受信するGPS受信装置を介して取得された情報から移動速度及び移動方向のうち少なくとも一方を求める信号処理手段と、前記信号処理手段により得られた移動速度及び移動方向のうち少なくとも一方の移動情報を撮影画像に合成する合成手段と、を備えたことを特徴とする。
【0007】
本発明によれば、カメラに内蔵又は外付け式に設けられたGPS受信装置により、動画撮影中にGPS衛星から情報電波を受信し、撮影者(すなわち、電子カメラ)の位置情報を取得する。ある時間間隔で取得された複数の位置情報を基に信号処理手段において電子カメラの移動速度及び移動方向のうち少なくとも一方の移動情報を算出する。こうして得られた移動情報は合成手段によって撮影画像の中に合成されて記録媒体に記録され、或いは表示手段に表示出力される。もちろん、撮影画像の記録と表示とを同時に行ってもよい。
【0008】
この発明は、移動しながら動画を撮影する場合において特に効果的であり、撮影時又は再生時において、撮影画像とともに撮影時の移動速度や移動方向といった情報が同時に表示されるので、臨場感のある映像を鑑賞できる。
【0009】
信号処理手段における移動情報の算出手順として、例えば、GPSから一定の時間間隔ごとに情報をリードし、得られたデータから緯度と経度を算出し、前回求めた緯度・経度と今回求めた緯度・経度から移動方向と移動距離を算出し、移動距離とリード間隔から移動速度を算出する。
【0010】
本発明の一態様によれば、前記撮像手段から取得された動画の画像データに前記移動情報が合成され、前記移動情報が合成されたフレームを含む動画データが前記記録媒体に記録されることを特徴とする。
【0011】
本発明の動画撮影可能な電子カメラにおいて、上記構成に加えて、前記移動情報が合成された動画映像を表示する表示手段を備える態様も好ましい。
【0012】
本発明の更に他の態様によれば、前記GPS受信装置は、カメラ本体から分離可能な外付けユニットとなっていることを特徴とする。
【0013】
GPS受信装置については、同分野における技術進歩が目覚ましく、頻繁に新しい製品が市場投入されていることから、本発明においてGPS受信装置を外付けユニットとし、カメラ側にはGPS受信装置からの信号を受け取るインターフェース部を搭載しておくことにより、GPS受信装置のバージョンアップに容易に対応できるという利点がある。また、GPSを利用しないユーザにとっては、GPS受信装置を購入しないという選択も可能であり、カメラ本体の低価格化を実現できる。
【0014】
【発明の実施の形態】
以下添付図面に従って本発明に係る動画撮影可能な電子カメラの好ましい実施の形態について詳説する。
【0015】
図1は本発明の実施形態に係る電子カメラの構成を示すブロック図である。このカメラ10は、音声付き動画の記録及び再生機能を備えたデジタルカメラであり、カメラ10全体の動作は中央処理装置(CPU)12によって統括制御される。 CPU12は、所定のプログラムに従って本カメラシステムを制御する制御手段として機能するとともに、自動露出(AE)演算、自動焦点調節(AF)演算、移動速度や移動方向など各種演算を実施する演算手段として機能する。
【0016】
バス14を介してCPU12と接続されたROM16には、CPU12が実行するプログラム及び制御に必要な各種データ等が格納されている。また、メモリ(SDRAM)18は、プログラムの展開領域及びCPU12の演算作業用領域として利用されるとともに、画像データや音声データの一時記憶領域として利用される。なお、不揮発性記憶手段であるROM16は書き換え不能なものであってもよいし、EEPROMのように書き換え可能なものでもよい。
【0017】
カメラ10にはモード選択スイッチ20、撮影ボタン21、その他、メニュー/OKキー、十字キー、キャンセルキーなどの操作手段22が設けられている。これら各種の操作部(20〜22)からの信号はCPU12に入力され、CPU12は入力信号に基づいてカメラ10の各回路を制御し、例えば、レンズ駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、画像表示装置24の表示制御などを行う。
【0018】
モード選択スイッチ20は、撮影モードと再生モードとを切り換えるための操作手段である。モード選択スイッチ20を操作して可動接片20Aを接点aに接続させると、その信号がCPU12に入力され、カメラ10は画像の記録が可能な撮影モードに設定される。その一方、可動接片20Aを接点bに接続させると、カメラ10は記録済みの画像を再生する「再生モード」に設定される。
【0019】
撮影ボタン21は、撮影開始の指示を入力する操作ボタンであり、動画撮影においては録画開始(スタート)/停止(ストップ)ボタンとして機能し、静止画撮影においてはレリーズボタンとして機能する。撮影ボタン21は、半押し時にONするS1 スイッチと、全押し時にONするS2 スイッチとを有する二段ストローク式のスイッチで構成されている。
【0020】
メニュー/OKキーは、画像表示装置24の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示するボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮影時のズームスイッチ或いは再生時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。キャンセルキーは、選択項目など所望の対象の消去や指示内容の取消し、或いは1つ前の操作状態に戻らせる時などに使用される。
【0021】
画像表示装置24は、カラー表示可能な液晶ディスプレイで構成されている。画像表示装置24は、撮影時に画角確認用の電子ファインダーとして使用できるとともに、記録済み画像を再生表示する手段として利用される。また、画像表示装置24は、ユーザインターフェース用表示画面としても利用され、必要に応じてメニュー情報や選択項目、設定内容などの情報が表示される。液晶ディスプレイに代えて、有機ELなど他の方式の表示装置(表示手段)を用いることも可能である。
【0022】
カメラ10は、2つのメディアソケット(メディア装着部)26,28を有し、それぞれのメディアソケット26,28に同種又は異種の記録メディア30を装着することができる。記録メディア30の形態は特に限定されず、スマートメディア(商標)に代表される半導体メモリカード、可搬型小型ハードディスク、磁気ディスク、光ディスク、光磁気ディスクなど、種々の媒体を用いることができる。
【0023】
本例では、第1のメディアソケット26に記録メディア30を装着し、第2のメディアソケット28にGPS装置32が装着されるものとする。本発明の実施に際しては、メディアソケットの個数は特に限定されない。また、画像データを記録する手段はリムーバブルメディアに限らず、カメラ10に内蔵された記録媒体(内部メモリ)であってもよい。
【0024】
メディアコントローラ33は、メディアソケット26、28に装着される記録メディア30又はGPS装置32に適した入出力信号の受渡しを行うために所要の信号変換を行う。
【0025】
GPS装置32は、GPS受信機を内蔵した可搬型のGPS受信ユニットであり、カメラ10本体のメディアソケット28に対して着脱自在の構造を有している。メディアソケット28にGPS装置32が装着されると、CPU12はこれを検知してGPS制御回路34にコマンドを送る。GPS制御回路34はCPU12の指令に従ってGPS装置32を制御し、GPS衛星から電波を受信する処理を行う。
【0026】
GPS装置32から得られた信号はGPS位置変換回路36に送られ、ここで位置情報(緯度及び経度の情報)に変換される。GPS位置変換回路36で生成された位置情報はCPU12に送られ、CPU12において移動速度と移動方向が計算される。
【0027】
また、カメラ10はパソコンその他の外部機器と接続するための通信手段としてUSBインターフェース部37を備えている。図示せぬUSBケーブルを用いてカメラ10と外部機器を接続することにより、外部機器との間でデータの受渡しが可能となる。図1に示したメディアソケット28に装着されるGPS装置32に代えて、USBインターフェース部37に接続されるGPS装置を用いる態様も可能である。もちろん、通信方式はUSBに限らず、IEEE1394やBluetooth その他の通信方式を適用してもよい。
【0028】
次に、カメラ10の撮影機能について説明する。
【0029】
モード選択スイッチ20によって撮影モードが選択されると、CCD固体撮像素子(以下、CCDという。)38を含む撮像部に電源が供給され、撮影可能な状態になる。
【0030】
レンズユニット40は、撮影レンズと絞り兼用メカシャッターとを含む光学ユニットである。レンズユニット40は、CPU12によって制御されるモータドライバ42、43によって電動駆動され、ズーム制御、フォーカス制御及びアイリス制御が行われる。
【0031】
レンズユニット40を通過した光は、CCD38の受光面に結像される。CCD38の受光面には多数のフォトダイオード(受光素子)が二次元的に配列されており、各フォトダイオードに対応して赤(R)、緑(G)、青(B)の原色カラーフィルタが所定の配列構造(ベイヤー、Gストライプなど)で配置されている。また、CCD38は、各フォトダイオードの電荷蓄積時間(シャッタースピード)を制御する電子シャッター機能を有している。CPU12は、タイミングジェネレータ44を介してCCD38での電荷蓄積時間を制御する。なお、CCD38に代えてMOS型など他の方式の撮像素子を用いてもよい。
【0032】
CCD38の受光面に結像された被写体像は、各フォトダイオードによって入射光量に応じた量の信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU12の指令に従いタイミングジェネレータ44から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出される。
【0033】
CCD38から出力された信号はアナログ処理部46に送られ、ここで各画素ごとのR、G、B信号がサンプリングホールド(相関二重サンプリング処理)され、増幅された後、A/D変換器47に加えられる。A/D変換器47は、順次入力するR、G、B信号をデジタル信号に変換して画像入力コントローラ48に出力する。
【0034】
画像信号処理回路50は、画像入力コントローラ48を介して入力するデジタルの画像信号をCPU12の指令に従って処理する。すなわち、画像信号処理回路50は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、輝度・色差信号生成回路、ガンマ補正回路、輪郭補正回路、ホワイトバランス補正回路等を含む画像処理手段として機能し、CPU12からのコマンドに従ってメモリ18を活用しながら所定の信号処理を行う。
【0035】
画像信号処理回路50に入力されたRGBの画像データは、画像信号処理回路50において輝度信号(Y信号)及び色差信号(Cr,Cb 信号)に変換されるとともに、ガンマ補正等の所定の処理が施される。画像信号処理回路50で処理された画像データはメモリ18に格納される。
【0036】
撮影画像を画像表示装置24にモニタ出力する場合、メモリ18から画像データが読み出され、バス14を介してビデオエンコーダ52に送られる。ビデオエンコーダ52は、入力された画像データを表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換して画像表示装置24に出力する。
【0037】
CCD74から出力される画像信号によってメモリ18内の画像データが定期的に書き換えられ、その画像データから生成される映像信号が画像表示装置24に供給されることにより、撮像中の映像がリアルタイムに画像表示装置24に表示される。撮影者は、画像表示装置に表示される映像(スルームービー画)によって撮影画角を確認できる。
【0038】
撮影ボタン21が押され、S1 スイッチがONすると、カメラ10はAE及びAF処理を開始する。すなわち、CCD38から出力された画像信号はA/D変換後に画像入力コントローラ48を介してAF検出回路54並びにAE/AWB検出回路55に入力される。
【0039】
AE/AWB検出回路55は、1画面を複数のエリア(例えば、8×8)に分割し、分割エリアごとにRGB信号を積算する回路を含み、その積算値をCPU12に提供する。CPU12は、AE/AWB検出回路55から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。求めた露出値と所定のプログラム線図に従い、絞り値とシャッタースピードが決定され、これに従いCPU12はCCD38の電子シャッター及びアイリスを制御して適正な露光量を得る。
【0040】
また、AE/AWB検出回路55は、分割エリアごとにRGB信号の色別の平均積算値を算出し、その算出結果をCPU12に提供する。CPU12は、Rの積算値、Bの積算値、Gの積算値を得て、R/G及びB/Gの比を求め、これらR/G、B/Gの値と、AE演算による撮影EV値の情報に基づいてシーン判別(光源種の判別)を行い、シーンに適した所定のホワイトバランス調整値に従って、各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のアンプゲインを制御し、各色チャンネルの信号に補正をかける。なお、シーン判別においては、R/G、B/Gの値を利用するのに代えて、R−Y、B−Yなど色温度情報を用いてもよい。
【0041】
本カメラ10におけるAF制御は、例えば映像信号のG信号の高周波成分が極大になるようにフォーカシングレンズ(撮影レンズを構成するレンズ光学系のうちフォーカス調整に寄与する移動レンズ)を移動させるコントラストAFが適用される。すなわち、AF検出回路54は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面内(例えば、画面中央部)に予め設定されているフォーカス対象エリア内の信号を切り出すAFエリア抽出部、及びAFエリア内の絶対値データを積算する積算部から構成される。
【0042】
AF検出回路54で求めた積算値のデータはCPU12に通知される。CPU12は、AFモータ駆動用のモータドライバ43を制御してフォーカシングレンズを移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、評価値が極大となるレンズ位置を合焦位置として決定する。そして、求めた合焦位置にフォーカシングレンズを移動させるようにモータドライバ43を制御する。なお、AF評価値の演算はG信号を利用する態様に限らず、輝度信号(Y信号)を利用してもよい。
【0043】
撮影ボタン21が押されると、S1 =ONによってAE/AF処理が行われ、S2 =ONによって記録用の撮影動作がスタートする。S2 =ONに応動して取得された画像データは画像信号処理回路50において輝度/色差信号(Y/C信号)に変換され、ガンマ補正等の所定の処理が施された後、メモリ18に格納される。
【0044】
メモリ18に格納されたY/C信号は、圧縮伸張回路56によって所定のフォーマットに従って圧縮された後、メディアコントローラ33を介して記録メディア30に記録される。例えば、静止画についてはJPEG(Joint Photographic Experts Group)形式、動画についてはモーションJPEG形式で記録される。
【0045】
モーションJPEG方式では、CCD38から取得した画像データを一旦、内部のメモリ18に記憶した後、画像信号処理回路50において輝度/色差信号(Y/C信号)に変換し、1画像内でJPEG圧縮しながら、外部の記録メディア30に一定のフレームレート(例えば、30フレーム/秒)で静止画を連続的に保存していく。
【0046】
動画のファイル形式はモーションJPEGに限定されず、MPEGなど他のファイル形式を適用してもよい。MPEG方式の場合は、フレーム内圧縮及びフレーム間圧縮を行いながら外部の記録メディア30に連続的に記録する。
【0047】
動画撮影中には、いわゆる「山登り方式」の連続的なAF処理(コンティニアスAF)を行う。すなわち、フォーカシングレンズを光軸に沿って前後に微小移動させて、焦点評価値の増減方向をチェックしながら、AF評価値の極大点まで、徐々にフォーカシングレンズを移動させる。
【0048】
動画撮影時の音声はマイク60によって検出され、その検出信号(音声信号)は、A/D変換器62によってデジタル信号に変換され、音声信号処理回路64に送られる。音声信号処理回路64はバス14に接続されており、メモリ18を利用しながらCPU12の指令に従い音声データを所定の信号形式に変換する。こうして生成された音声データは、メモリ18に記憶され、画像データとともに圧縮伸張回路56で圧縮された後、記録メディア30に記録される。
【0049】
録画開始後に、もう一度撮影ボタン21を押下(S1 =ON)すると録画動作が停止する。なお、撮影ボタン21を押下継続している期間、録画動作を行い、押下解除により録画を停止させる態様や、録画開始後の一定時間で録画を自動停止させる態様などもある。
【0050】
モード選択スイッチ20により再生モードが選択されると、記録メディア30に記録されている最終の画像ファイル(最後に記録されたファイル)の圧縮データが読み出される。最後の記録に係るファイルが静止画ファイルの場合、この読み出された画像圧縮データは、圧縮伸張回路56を介して非圧縮のYC信号に伸張され、画像信号処理回路50及びビデオエンコーダ52を介して表示用の信号に変換された後、画像表示装置24に出力される。これにより、当該ファイルの画像内容が画像表示装置24の画面上に表示される。
【0051】
再生対象ファイルが動画ファイルの場合には、動画の先頭フレームが代表画像として表示され、動画再生開始の指示を受け付ける画面になる。動画の先頭フレームが表示されている状態で操作部から所定の操作(例えば、十字キーの下キー押下)を行うと、動画ファイルの再生処理がスタートし、画像表示装置24に動画映像が表示されるとともに、音声信号処理回路64において再生処理された音声データがD/A変換器66を介してスピーカ68に出力され、動画とともに記録した音声も再生される。
【0052】
静止画の一コマ再生中(動画の先頭フレーム再生中も含む。)に、十字キーの右キー又は左キーを操作することによって、再生対象のファイルを切り換えること(順コマ送り/逆コマ送り)ができる。コマ送りされた位置の画像ファイルが記録メディア30から読み出され、上記と同様にして静止画像や動画が画像表示装置24に再生表示される。
【0053】
次に、本例のカメラ10におけるGPS情報の利用方法について説明する。
【0054】
カメラ10は、動画撮影中に一定の時間間隔でGPS装置32から情報を取得し、カメラ10とともに移動している撮影者又はカメラ10を搭載した乗り物などの移動体の移動速度及び移動方向の情報(以下、移動情報と総称する。)を動画データとともに記録する手段を備えている。
【0055】
既述のとおり、GPS装置32から得られた信号はGPS位置変換回路36において位置情報に変換され、この位置情報を基にCPU12において移動速度と移動方向が計算される。図2に示すように、画像信号処理回路50には撮影画像の画面内に移動情報を表示させるための文字信号及び図形信号のうち少なくとも一方の信号(以下、移動情報信号という。)を生成する移動情報信号生成回路72と、この移動情報信号生成回路72で生成した移動情報信号を撮影画像信号74と合成する合成処理回路76が含まれている。
【0056】
CPU12で計算された移動速度及び移動方向のデータは画像信号処理回路50に送られ、当該データを基に移動情報信号生成回路72において移動情報信号が生成される。生成された移動情報信号は合成処理回路76に送られ、撮影画像信号74と合成される。このとき、移動情報信号は画面内の指定された位置に合成される。CPU12は、合成処理回路76における合成処理動作のON/OFFを指令する制御信号や、移動情報信号の合成位置を指定する制御信号を合成処理回路76に送り、合成処理回路76の動作を制御する。
【0057】
図3に移動情報の合成例を示す。図3においては、撮影画像80の画面左下隅部に移動方向を示す情報81が付加され、画面右下隅部に移動速度を示す情報82が付加されている。移動方向の情報81は、撮影画面の中心点84が向かっている方向を視覚的に提示するものであり、コンパス(羅針儀)を模した図形によって表示される。移動速度の情報82は、文字による数値表示が行われる。
【0058】
動画撮影中にGPS情報が定期的に取得されることにより、移動方向の情報81及び移動速度の情報82は随時更新される。もちろん、情報の表示形態は図3の例に限定されず、移動方向を文字で表示する態様や、速度メータを模した図形によって移動速度を表示する態様、更には、文字と図形を組み合わせた表示態様など適宜の変更が可能である。
【0059】
また、画面内における移動方向の情報81及び移動速度の情報82の表示位置は、ユーザが適宜指定することができる。表示位置の指定方法としては、予め用意された表示位置の候補の中から所望の位置を選択する構成でもよいし、画面内で任意の位置を指定する構成でもよい。更に、移動情報の表示パターン(形態)を複数設け、ユーザの選択に応じて表示方式を変更できるように構成する態様も好ましい。
【0060】
例えば、「移動方向のみを表示」/「移動速度のみを表示」/「両方を表示」というように表示内容の選択を受け付ける構成も可能であるし、移動方向についてのコンパス表示の図柄選択、移動速度表示についての文字色やフォントの選択、「時速」/「分速」/「秒速」或いは「キロメートル」/「マイル」などの単位選択を受け付ける構成もある。
【0061】
カメラ10は、撮影した動画データに移動情報を付加して記録するモード(「GPS情報モード」)と、移動情報を付加せずに動画データを記録するモード(「通常の動画モード」)と、を有しており、ユーザは、メニュー画面など所定のユーザインターフェースを利用して所望のモードを選択できる。ユーザは必要に応じて「GPS情報モード」と「通常の動画モード」とを使い分けて動画撮影を行うことができる。
【0062】
次に、上記の如く構成されたカメラ10の動作について説明する。
【0063】
図4は、カメラ10における動画撮影時の動作シーケンスを示すフローチャートである。動画撮影モードがスタートすると、カメラ10のCPU12は、まず、GPS情報モードがONに設定されているか否かを判定する(ステップS110)。ステップS110においてGPS情報モードがOFFの場合には、ステップS112に進み、GPS情報を利用しない通常の動画モードに移行する。
【0064】
その一方、ステップS110においてGPS情報モードがONの場合には、ステップS114に進む。ステップS114では、撮影画面内において移動情報を合成する位置の指定を受け付ける。
【0065】
ユーザは十字キーその他の操作部を操作して移動情報の合成場所及び文字色などを指定する入力を行う(ステップS116)。CPU12は合成位置等の指定が確定したか否かを判定し(ステップS118))、NO(未確定)ならばステップS116に戻る。一方、ステップS118において合成位置等の指定が確定した場合には、ステップS120に進み、GPS装置32の接続判定を行う。
【0066】
CPU12は、メディアソケット28にGPS装置32が装着されているか否かを検出し(ステップS120)、未装着の場合には画像表示装置24にエラーメッセージを表示させ(ステップS122)、ユーザに対してGPS装置32の装着を促す。
【0067】
ステップS120においてGPS装置32が正しく接続されていることが検出されると、ステップS124に進み、撮影開始の指示の入力を待機する。ステップS124では撮影ボタン21のS1 スイッチの状態を判断し、S1 スイッチがOFFであればステップS124の処理を繰り返す。
【0068】
ステップS124においてS1 =ONが検出されると、AE/AF処理を実行するとともに、GPS装置32から情報をリードする処理を行い、位置データを正しく取得できたか否かの判定を行う(ステップS126)。位置データの取得に失敗した場合には、画像表示装置24にエラーメッセージを表示させる(ステップS128)。
【0069】
その一方、ステップS126において、位置データの取得に成功した場合には、得られた位置データをメモリ18に記憶するとともに、撮影ボタン21のS2 スイッチの状態を判定する(ステップS130)。S2 スイッチがOFFであればステップS130の処理を繰り返し、S2 =ONの入力を待つ。
【0070】
ステップ130においてS2 =ON検出されると、撮影を実行する(ステップ132)。撮影によって取得された画像データ(撮影データ)は、画像信号処理回路50において輝度/色差信号に変換される(ステップS134)。また、このとき、GPS装置32から情報をリードする処理を行い、位置データを正しく取得できたか否かの判定を行う(ステップS136)。位置データの取得に失敗した場合には、画像表示装置24にエラーメッセージを表示させる(ステップS138)。
【0071】
ステップS136において、位置データの取得に成功した場合には、得られた位置データと、メモリ18に記憶された直前の取得に係る位置データとから速度及び移動方向(進行方位)を計算する処理を行う(ステップS140)。そして、ステップS140の計算結果に基づいて移動情報信号を生成し、これを撮影画像データに合成する処理を行う(ステップS142)。
【0072】
ステップ142で生成された合成画像は、画像表示装置24に表示出力されるとともに、圧縮伸張回路56により圧縮され、記録メディア30に書き込まれる(ステップS144)。次いで、CPU12は撮影を終了するか否かの判定を行い、撮影を継続する場合にはステップS132に戻り、フレームレートを反映した一定の時間サイクルで上記の処理ステップS132〜ステップS146を繰り返す。
【0073】
撮影者が撮影ボタン21から撮影停止の操作を行うと、ステップS146において撮影終了の指令を検出したら、動画記録を終了する。
【0074】
こうして、本実施形態に係るカメラ10によって記録された動画データにはフレーム画像中に移動情報が合成されているため、当該動画データを再生すると、図3で説明したように、動画映像とともに移動情報が表示される。したがって、自動車や電車、飛行機など、特に高速で移動する乗り物に乗って撮影をした場合などにおいて、臨場感のある映像を鑑賞できる。
【0075】
〔実施形態の変形例1〕
図4のフローチャートでは、動画データの全フレームについて移動情報を合成したが、本発明の実施に際しては、全てのフレーム画像について移動情報を合成する必要はなく、動画記録中に一定の割合で移動情報の合成フレームを挿入する態様も可能である。
【0076】
例えば、奇数フレーム(フレーム番号が奇数のもの)には移動情報を付加し、偶数フレーム(フレーム番号が偶数のもの)には移動情報を付加しないものとする。再生時において移動情報を表示させるときには、動画データを全フレーム読み出し、移動情報が付加されていない偶数フレームの再生時においては、移動情報の表示エリア部分については直前又は直後のフレーム(奇数フレーム)の情報を再表示する処理を行う。つまり、移動情報の表示エリア部分については、2フレームに1回の割合で更新する。なお、このような表示制御を行う場合、移動情報の表示エリアは画面の隅部分に設定されていると処理が容易である。
【0077】
その一方、移動情報を表示させない選択を行った場合には、動画データのうち偶数フレームのみを読み出して再生する。または、動画データを全フレーム読み出し、移動情報が付加されている奇数フレームの再生時においては、移動情報の表示エリア部分については直前又は直後のフレーム(偶数フレーム)の情報を再表示する処理を行う。つまり、移動情報の表示エリア部分については、2フレームに1回の割合で更新する。これにより、再生時における移動情報の表示/非表示の切り換えを実現できる。
【0078】
再生時に移動情報を表示させるモードと表示させないモードとを切り換えるための操作手段(選択手段)をカメラ10に付加することにより、ユーザは必要に応じてこれらモードを使い分けることが可能になる。上記の議論は、2フィールドで1フレームを構成する場合においてフィールドごとに画像を記録する場合にも同様に適用可能であり、「奇数フレーム」、「偶数フレーム」という用語を「奇数フィールド」、「偶数フィールド」と置き換えることが可能である。
【0079】
また、移動情報を生成する処理シーケンスとして、最初の垂直ブランキング期間でGPS装置32から位置情報を取得し、次の垂直ブランキング期間で移動速度と移動方向を計算する処理を行い、更に次の垂直ブランキング期間で撮影画像への合成処理を行うという具合に、3Vに1回の割合(1Vは、CCD38の垂直駆動信号の周期を意味する。)で合成画像を生成する態様もある。
【0080】
移動情報の更新サイクルについては、適宜設計が可能である。毎フレーム更新を行うと、移動速度の数値表示が著しく変動し、観察し難くなることも予想されるので、ある程度更新のサイクルを長くして応答を鈍くすることが好ましい。実用上は1秒間に1回程度の更新サイクルで十分であると考えられる。この場合、30フレームに1回の割合で移動情報の合成画像が生成される。移動情報の更新サイクルが長くなるほど、CPU12の処理負担は軽減される。
【0081】
〔実施形態の変形例2〕
移動情報を動画の全フレームに書き込んだ上で、更に再生時において移動情報の表示/非表示を切り換え可能にする態様としては、以下のような方法がある。すなわち、動画の各フレームをハイビジョンサイズ(アスペクト比=9(縦):16(横))で記録し、通常のNTSC方式による表示(アスペクト比=3(縦):4(横))変換の際に切り落とされる左右の画面領域に移動情報を合成するものとする。これにより、ハイビジョン画角による再生表示のときには移動情報が表示され、NTSC方式による表示に切り換えたときには移動情報が非表示となる。
【0082】
〔実施形態の変形例3〕
上記実施の形態では動画のフレーム画像に移動情報を合成する例を述べたが、動画のフレームに移動情報を付加する態様としては、上記の例に限定されない。例えば、動画の各フレームについて付加情報をタグデータとして記録することができるファイルフォーマットを用いる場合には、動画記録時において移動情報をタグに記録する。かかる場合、再生時においてタグデータを読み込み、キャラクタジェネレータ等によって文字や図形の信号を生成し、これを画像と合成して表示する。
【0083】
また、モーションJPEGのように動画の各フレームについて付加情報を書くことはできないファイル形式を採用する場合においては、動画のフレーム番号と付加情報(移動情報)をリンクさせて別ファイルで保有する態様がある。この場合、再生時にリンクファイルを読んでキャラクタジェネレータ等によって文字情報を生成し、これを画像と合成して表示する。
【0084】
このように、画像とは別に移動情報をデータとして同一ファイル内に又は別ファイルに記録する態様によれば、再生時における移動情報の表示/非表示の切り換え処理が容易である。
【0085】
〔実施形態の変形例4〕
図1に示した例では、外付けタイプのGPS装置32を用いたが、本発明の実施に際しては、GPS装置をカメラに内蔵する態様も可能である。
【0086】
〔実施形態の変形例5〕
図1に示した例では、撮影した動画データを電子ファイルに変換して記録メディアに記録するデジタルカメラを説明したが、本発明の適用範囲はこれに限定されず、動画データを磁気テープの記録するビデオカメラについても本発明を適用できる。また、「カメラ」という製品名称に限定されず、カメラ付き携帯電話機、カメラ付きPDA、カメラ付きモバイルパソコンなどの携帯情報機器についても本発明を適用できる。この場合、カメラ部は携帯電話機等の本体から分離可能な着脱式(外付けタイプ)のものであってもよい。
【0087】
【発明の効果】
以上説明したように本発明によれば、動画撮影中にGPSから情報を取得し、移動速度及び移動方向のうち少なくとも一方の移動情報を画像データに合成するようにしたので、臨場感のある動画撮影が可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る電子カメラの構成を示すブロック図
【図2】図1中の画像信号処理回路の要部構成を示すブロック図
【図3】移動情報が合成された画面の例を示す図
【図4】本例のカメラにおける動画撮影時の動作シーケンスを示すフローチャート
【符号の説明】
10…カメラ、12…CPU、18…メモリ、20…モード選択スイッチ、24…画像表示装置、26,28…メディアソケット、30…記録メディア、32…GPS装置、33…メディアコントローラ、34…GPS制御回路、36…GPS位置変換回路、50…画像信号処理回路、72…移動情報信号生成回路、76…合成処理回路、81…移動方向の情報、82…移動速度の情報
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an electronic camera, and more particularly to a technique for using GPS (Global Positioning System) in an electronic camera capable of shooting a moving image such as a digital camera or a video camera with a moving image shooting function.
[0002]
[Prior art]
Many camera systems that use GPS have been proposed. For example, Patent Document 1 discloses a system that acquires information on a shooting location using GPS, converts the position information into address data, and prints it together with an image.
[0003]
[Patent Document 1]
JP 20001-61089 A
[0004]
[Problems to be solved by the invention]
However, conventional proposals are mainly for still image shooting systems, and few proposals have been made regarding methods of using GPS information during moving image shooting.
[0005]
The present invention has been made in view of such circumstances, and proposes a new use form of GPS information at the time of moving image shooting, and provides an electronic camera that can realize recording and reproduction of moving images with a sense of reality. Objective.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, an electronic camera capable of shooting a moving image according to the present invention includes an imaging unit that converts an optical image of a subject into an electrical signal, and images obtained by continuously shooting the subject using the imaging unit. An electronic camera having a recording means for recording a moving image as a moving image, and determining at least one of a moving speed and a moving direction from information acquired via a GPS receiver that receives radio waves from a GPS satellite Signal processing means, and synthesis means for synthesizing at least one of the movement speed and the movement direction obtained by the signal processing means with a photographed image are provided.
[0007]
According to the present invention, an information radio wave is received from a GPS satellite during moving image shooting, and position information of a photographer (that is, an electronic camera) is acquired by a GPS receiving device provided in the camera or provided externally. Based on a plurality of pieces of position information acquired at certain time intervals, movement information of at least one of the movement speed and movement direction of the electronic camera is calculated by the signal processing means. The movement information obtained in this way is synthesized in the photographed image by the synthesizing means and recorded on the recording medium, or displayed on the display means. Of course, the recording and display of the captured image may be performed simultaneously.
[0008]
The present invention is particularly effective when shooting a moving image while moving, and at the time of shooting or playback, information such as the moving speed and moving direction at the time of shooting is displayed together with the shot image, so there is a sense of presence. You can watch the video.
[0009]
As a calculation procedure of movement information in the signal processing means, for example, information is read from the GPS at regular time intervals, latitude and longitude are calculated from the obtained data, and the previously obtained latitude / longitude and the currently obtained latitude / The moving direction and moving distance are calculated from the longitude, and the moving speed is calculated from the moving distance and the lead interval.
[0010]
According to one aspect of the present invention, the moving information is combined with the moving image data acquired from the imaging unit, and moving image data including a frame with the moving information combined is recorded on the recording medium. Features.
[0011]
In addition to the above-described configuration, the electronic camera capable of shooting a moving image according to the present invention preferably includes a display unit that displays a moving image synthesized with the movement information.
[0012]
According to still another aspect of the present invention, the GPS receiver is an external unit separable from the camera body.
[0013]
With respect to GPS receivers, technological progress in this field is remarkable, and new products are frequently put on the market. Therefore, in the present invention, the GPS receiver is an external unit, and the signal from the GPS receiver is sent to the camera side. By installing the receiving interface unit, there is an advantage that it is possible to easily cope with version upgrade of the GPS receiver. In addition, for users who do not use GPS, it is possible to select not to purchase a GPS receiver, and the price of the camera body can be reduced.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
A preferred embodiment of an electronic camera capable of shooting a moving image according to the present invention will be described in detail below with reference to the accompanying drawings.
[0015]
FIG. 1 is a block diagram showing a configuration of an electronic camera according to an embodiment of the present invention. The camera 10 is a digital camera having a recording and playback function of a moving image with sound, and the operation of the entire camera 10 is centrally controlled by a central processing unit (CPU) 12. The CPU 12 functions as a control unit that controls the camera system according to a predetermined program, and also functions as a calculation unit that performs various calculations such as automatic exposure (AE) calculation, automatic focus adjustment (AF) calculation, moving speed and moving direction. To do.
[0016]
A ROM 16 connected to the CPU 12 via the bus 14 stores programs executed by the CPU 12, various data necessary for control, and the like. The memory (SDRAM) 18 is used as a program development area and a calculation work area for the CPU 12, and is also used as a temporary storage area for image data and audio data. Note that the ROM 16 which is a nonvolatile storage means may be rewritable or may be rewritable like an EEPROM.
[0017]
The camera 10 is provided with a mode selection switch 20, a shooting button 21, and other operation means 22 such as a menu / OK key, a cross key, and a cancel key. Signals from these various operation units (20 to 22) are input to the CPU 12, and the CPU 12 controls each circuit of the camera 10 based on the input signals. For example, lens drive control, shooting operation control, image processing control, image Data recording / reproduction control, display control of the image display device 24, and the like are performed.
[0018]
The mode selection switch 20 is an operation means for switching between the shooting mode and the playback mode. When the mode selection switch 20 is operated to connect the movable contact piece 20A to the contact a, the signal is input to the CPU 12, and the camera 10 is set to a photographing mode capable of recording an image. On the other hand, when the movable contact piece 20A is connected to the contact b, the camera 10 is set to the “reproduction mode” for reproducing the recorded image.
[0019]
The shooting button 21 is an operation button for inputting an instruction to start shooting. The shooting button 21 functions as a recording start (start) / stop (stop) button in moving image shooting, and functions as a release button in still image shooting. The photographing button 21 is composed of a two-stroke switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed.
[0020]
The menu / OK key is an operation having both a function as a menu button for instructing to display a menu on the screen of the image display device 24 and a function as an OK button for instructing confirmation and execution of selection contents. Key. The cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from a menu screen or instructing selection of various setting items from each menu. The up / down key of the cross key functions as a zoom switch at the time of shooting or a playback zoom switch at the time of playback, and the left / right key functions as a frame advance (forward / reverse feed) button in the playback mode. The cancel key is used to delete a desired object such as a selection item, cancel an instruction content, or return to the previous operation state.
[0021]
The image display device 24 is composed of a liquid crystal display capable of color display. The image display device 24 can be used as an electronic viewfinder for checking the angle of view at the time of shooting, and is used as a means for reproducing and displaying a recorded image. The image display device 24 is also used as a user interface display screen, and displays information such as menu information, selection items, and setting contents as necessary. Instead of the liquid crystal display, other types of display devices (display means) such as an organic EL can be used.
[0022]
The camera 10 has two media sockets (media mounting portions) 26 and 28, and the same type or different types of recording media 30 can be mounted in the media sockets 26 and 28, respectively. The form of the recording medium 30 is not particularly limited, and various media such as a semiconductor memory card represented by SmartMedia (trademark), a portable small hard disk, a magnetic disk, an optical disk, and a magneto-optical disk can be used.
[0023]
In this example, it is assumed that the recording medium 30 is attached to the first media socket 26 and the GPS device 32 is attached to the second media socket 28. In implementing the present invention, the number of media sockets is not particularly limited. The means for recording the image data is not limited to the removable medium, but may be a recording medium (internal memory) built in the camera 10.
[0024]
The media controller 33 performs necessary signal conversion in order to deliver an input / output signal suitable for the recording medium 30 or the GPS device 32 attached to the media sockets 26 and 28.
[0025]
The GPS device 32 is a portable GPS receiving unit with a built-in GPS receiver, and has a structure that is detachable from the media socket 28 of the camera 10 body. When the GPS device 32 is attached to the media socket 28, the CPU 12 detects this and sends a command to the GPS control circuit 34. The GPS control circuit 34 controls the GPS device 32 in accordance with a command from the CPU 12 and performs processing for receiving radio waves from GPS satellites.
[0026]
The signal obtained from the GPS device 32 is sent to the GPS position conversion circuit 36 where it is converted into position information (latitude and longitude information). The position information generated by the GPS position conversion circuit 36 is sent to the CPU 12 where the moving speed and moving direction are calculated.
[0027]
The camera 10 also includes a USB interface unit 37 as a communication means for connecting to a personal computer or other external device. By connecting the camera 10 and an external device using a USB cable (not shown), it is possible to exchange data with the external device. A mode in which a GPS device connected to the USB interface unit 37 is used instead of the GPS device 32 attached to the media socket 28 shown in FIG. 1 is also possible. Of course, the communication method is not limited to USB, and IEEE1394, Bluetooth, or other communication methods may be applied.
[0028]
Next, the shooting function of the camera 10 will be described.
[0029]
When the shooting mode is selected by the mode selection switch 20, power is supplied to an imaging unit including a CCD solid-state imaging device (hereinafter referred to as a CCD) 38, and a shooting is possible.
[0030]
The lens unit 40 is an optical unit including a photographic lens and a mechanical shutter combined with an aperture. The lens unit 40 is electrically driven by motor drivers 42 and 43 controlled by the CPU 12 to perform zoom control, focus control, and iris control.
[0031]
The light that has passed through the lens unit 40 is imaged on the light receiving surface of the CCD 38. A large number of photodiodes (light receiving elements) are two-dimensionally arranged on the light receiving surface of the CCD 38, and red (R), green (G), and blue (B) primary color filters corresponding to the respective photodiodes. They are arranged in a predetermined arrangement structure (Bayer, G stripe, etc.). The CCD 38 has an electronic shutter function for controlling the charge accumulation time (shutter speed) of each photodiode. The CPU 12 controls the charge accumulation time in the CCD 38 via the timing generator 44. Instead of the CCD 38, another type of image sensor such as a MOS type may be used.
[0032]
The subject image formed on the light receiving surface of the CCD 38 is converted into a signal charge of an amount corresponding to the amount of incident light by each photodiode. The signal charge accumulated in each photodiode is sequentially read out as a voltage signal (image signal) corresponding to the signal charge based on a drive pulse supplied from the timing generator 44 in accordance with a command from the CPU 12.
[0033]
The signal output from the CCD 38 is sent to the analog processing unit 46, where the R, G, B signals for each pixel are sampled and held (correlated double sampling processing), amplified, and then A / D converter 47. Added to. The A / D converter 47 converts R, G, B signals that are sequentially input into digital signals and outputs them to the image input controller 48.
[0034]
The image signal processing circuit 50 processes a digital image signal input via the image input controller 48 in accordance with a command from the CPU 12. That is, the image signal processing circuit 50 is a synchronization circuit (a processing circuit that interpolates a spatial shift of the color signal associated with the color filter arrangement of the single-plate CCD and converts the color signal into a simultaneous expression), and generates a luminance / color difference signal. It functions as an image processing means including a circuit, a gamma correction circuit, a contour correction circuit, a white balance correction circuit, etc., and performs predetermined signal processing using the memory 18 in accordance with commands from the CPU 12.
[0035]
The RGB image data input to the image signal processing circuit 50 is converted into a luminance signal (Y signal) and a color difference signal (Cr, Cb signal) by the image signal processing circuit 50 and subjected to predetermined processing such as gamma correction. Applied. The image data processed by the image signal processing circuit 50 is stored in the memory 18.
[0036]
When a captured image is output to the image display device 24 on a monitor, image data is read from the memory 18 and sent to the video encoder 52 via the bus 14. The video encoder 52 converts the input image data into a predetermined display signal (for example, an NTSC color composite video signal) and outputs the converted signal to the image display device 24.
[0037]
The image data in the memory 18 is periodically rewritten by the image signal output from the CCD 74, and a video signal generated from the image data is supplied to the image display device 24. It is displayed on the display device 24. The photographer can check the shooting angle of view from the video (through movie image) displayed on the image display device.
[0038]
When the shooting button 21 is pressed and the S1 switch is turned on, the camera 10 starts AE and AF processing. That is, the image signal output from the CCD 38 is input to the AF detection circuit 54 and the AE / AWB detection circuit 55 via the image input controller 48 after A / D conversion.
[0039]
The AE / AWB detection circuit 55 includes a circuit that divides one screen into a plurality of areas (for example, 8 × 8) and accumulates RGB signals for each divided area, and provides the accumulated value to the CPU 12. The CPU 12 detects the brightness of the subject (subject brightness) based on the integrated value obtained from the AE / AWB detection circuit 55, and calculates an exposure value (shooting EV value) suitable for shooting. According to the obtained exposure value and a predetermined program diagram, the aperture value and the shutter speed are determined, and the CPU 12 controls the electronic shutter and iris of the CCD 38 according to this to obtain an appropriate exposure amount.
[0040]
The AE / AWB detection circuit 55 calculates an average integrated value for each color of the RGB signals for each divided area and provides the calculation result to the CPU 12. The CPU 12 obtains the integrated value of R, the integrated value of B, and the integrated value of G, obtains the ratio of R / G and B / G, and takes these R / G and B / G values and the shooting EV by AE calculation. Scene discrimination (light source type discrimination) is performed based on the value information, and each ratio value is approximately 1 (that is, the RGB integration ratio is R: G on one screen) according to a predetermined white balance adjustment value suitable for the scene. : The gain of the white balance adjustment circuit is controlled so as to satisfy B≈1: 1: 1), and the signal of each color channel is corrected. In scene discrimination, color temperature information such as RY and BY may be used instead of using the values of R / G and B / G.
[0041]
In the AF control in the camera 10, for example, a contrast AF that moves a focusing lens (a moving lens that contributes to focus adjustment among lens optical systems constituting a photographing lens) so that a high-frequency component of a G signal of a video signal is maximized. Applied. That is, the AF detection circuit 54 cuts out a signal in a focus target area set in advance in a high-pass filter that passes only a high-frequency component of the G signal, an absolute value processing unit, and a screen (for example, the center of the screen). An area extraction unit and an integration unit that integrates absolute value data in the AF area are configured.
[0042]
The integrated value data obtained by the AF detection circuit 54 is notified to the CPU 12. The CPU 12 calculates a focus evaluation value (AF evaluation value) at a plurality of AF detection points while moving the focusing lens by controlling the motor driver 43 for driving the AF motor, and aligns the lens position where the evaluation value becomes the maximum. Determine as the focal position. Then, the motor driver 43 is controlled so as to move the focusing lens to the obtained in-focus position. The calculation of the AF evaluation value is not limited to a mode using the G signal, and a luminance signal (Y signal) may be used.
[0043]
When the shooting button 21 is pressed, AE / AF processing is performed with S1 = ON, and a recording shooting operation starts with S2 = ON. The image data obtained in response to S2 = ON is converted into a luminance / color difference signal (Y / C signal) by the image signal processing circuit 50, and after being subjected to predetermined processing such as gamma correction, it is stored in the memory 18. Is done.
[0044]
The Y / C signal stored in the memory 18 is compressed according to a predetermined format by the compression / decompression circuit 56 and then recorded on the recording medium 30 via the media controller 33. For example, a still image is recorded in JPEG (Joint Photographic Experts Group) format, and a moving image is recorded in motion JPEG format.
[0045]
In the motion JPEG method, the image data acquired from the CCD 38 is temporarily stored in the internal memory 18, and then converted into luminance / color difference signals (Y / C signals) by the image signal processing circuit 50, and JPEG compression is performed within one image. However, still images are continuously stored in the external recording medium 30 at a constant frame rate (for example, 30 frames / second).
[0046]
The file format of the moving image is not limited to motion JPEG, and other file formats such as MPEG may be applied. In the case of the MPEG system, recording is continuously performed on the external recording medium 30 while performing intra-frame compression and inter-frame compression.
[0047]
During moving image shooting, so-called “mountain climbing” continuous AF processing (continuous AF) is performed. That is, the focusing lens is slightly moved back and forth along the optical axis, and the focusing lens is gradually moved to the maximum point of the AF evaluation value while checking the increase / decrease direction of the focus evaluation value.
[0048]
The sound at the time of moving image shooting is detected by the microphone 60, and the detection signal (audio signal) is converted into a digital signal by the A / D converter 62 and sent to the audio signal processing circuit 64. The audio signal processing circuit 64 is connected to the bus 14 and converts audio data into a predetermined signal format in accordance with an instruction from the CPU 12 while using the memory 18. The audio data generated in this way is stored in the memory 18, compressed by the compression / decompression circuit 56 together with the image data, and then recorded on the recording medium 30.
[0049]
When the shooting button 21 is pressed again (S1 = ON) after the start of recording, the recording operation is stopped. In addition, there are a mode in which the recording operation is performed while the shooting button 21 is continuously pressed and the recording is stopped by releasing the pressing, or a mode in which the recording is automatically stopped at a certain time after the recording is started.
[0050]
When the playback mode is selected by the mode selection switch 20, the compressed data of the last image file (last recorded file) recorded on the recording medium 30 is read. When the file related to the last recording is a still image file, the read image compressed data is decompressed to an uncompressed YC signal via the compression / decompression circuit 56, and via the image signal processing circuit 50 and the video encoder 52. After being converted into a display signal, it is output to the image display device 24. As a result, the image content of the file is displayed on the screen of the image display device 24.
[0051]
When the reproduction target file is a moving image file, the first frame of the moving image is displayed as a representative image, and a screen for accepting an instruction to start moving image reproduction is displayed. When a predetermined operation (for example, pressing the down key of the cross key) is performed from the operation unit in a state where the first frame of the moving image is displayed, the moving image file reproduction processing starts and the moving image is displayed on the image display device 24. At the same time, the audio data reproduced by the audio signal processing circuit 64 is output to the speaker 68 via the D / A converter 66, and the audio recorded together with the moving image is also reproduced.
[0052]
During single-frame playback of a still image (including playback of the first frame of a moving image), the file to be played is switched by operating the right or left key of the four-way controller (forward / reverse frame advance). Can do. The image file at the frame-advanced position is read from the recording medium 30, and still images and moving images are reproduced and displayed on the image display device 24 in the same manner as described above.
[0053]
Next, a method of using GPS information in the camera 10 of this example will be described.
[0054]
The camera 10 acquires information from the GPS device 32 at regular time intervals during moving image shooting, and information on the moving speed and moving direction of a moving object such as a photographer moving with the camera 10 or a vehicle on which the camera 10 is mounted. (Hereinafter collectively referred to as movement information) is provided with means for recording together with moving image data.
[0055]
As described above, the signal obtained from the GPS device 32 is converted into position information by the GPS position conversion circuit 36, and the moving speed and moving direction are calculated by the CPU 12 based on this position information. As shown in FIG. 2, the image signal processing circuit 50 generates at least one of a character signal and a graphic signal (hereinafter referred to as a movement information signal) for displaying movement information on the screen of the photographed image. A movement information signal generation circuit 72 and a synthesis processing circuit 76 that combines the movement information signal generated by the movement information signal generation circuit 72 with the captured image signal 74 are included.
[0056]
The movement speed and movement direction data calculated by the CPU 12 are sent to the image signal processing circuit 50, and a movement information signal generation circuit 72 generates a movement information signal based on the data. The generated movement information signal is sent to the synthesis processing circuit 76 and synthesized with the captured image signal 74. At this time, the movement information signal is synthesized at a designated position in the screen. The CPU 12 controls the operation of the synthesis processing circuit 76 by sending a control signal for commanding ON / OFF of the synthesis processing operation in the synthesis processing circuit 76 and a control signal for designating the synthesis position of the movement information signal to the synthesis processing circuit 76. .
[0057]
FIG. 3 shows an example of composition of movement information. In FIG. 3, information 81 indicating the moving direction is added to the lower left corner of the screen of the captured image 80, and information 82 indicating the moving speed is added to the lower right corner of the screen. The moving direction information 81 visually presents the direction in which the center point 84 of the shooting screen is directed, and is displayed as a figure imitating a compass. The moving speed information 82 is numerically displayed by characters.
[0058]
When GPS information is periodically acquired during moving image shooting, the moving direction information 81 and the moving speed information 82 are updated as needed. Of course, the display form of the information is not limited to the example of FIG. 3, an aspect in which the moving direction is displayed in characters, an aspect in which the moving speed is displayed by a figure imitating a speed meter, and a display in which characters and figures are combined Appropriate changes such as aspects can be made.
[0059]
In addition, the display positions of the movement direction information 81 and the movement speed information 82 in the screen can be appropriately specified by the user. As a display position designation method, a configuration in which a desired position is selected from candidates for display positions prepared in advance or a configuration in which an arbitrary position is designated in the screen may be used. Further, it is also preferable to provide a plurality of movement information display patterns (forms) so that the display method can be changed according to the user's selection.
[0060]
For example, a configuration that accepts selection of display contents such as “display only the moving direction” / “display only the moving speed” / “display both” is possible. There is also a configuration that accepts selection of character color and font for speed display, and unit selection such as “hourly speed” / “minute speed” / “second speed” or “km” / “mile”.
[0061]
The camera 10 has a mode ("GPS information mode") in which moving information is added and recorded to the captured moving image data, a mode ("normal moving image mode") in which moving image data is recorded without adding movement information, The user can select a desired mode using a predetermined user interface such as a menu screen. The user can perform moving image shooting by properly using the “GPS information mode” and the “normal moving image mode” as necessary.
[0062]
Next, the operation of the camera 10 configured as described above will be described.
[0063]
FIG. 4 is a flowchart showing an operation sequence at the time of moving image shooting in the camera 10. When the moving image shooting mode starts, the CPU 12 of the camera 10 first determines whether or not the GPS information mode is set to ON (step S110). If the GPS information mode is OFF in step S110, the process proceeds to step S112 to shift to a normal moving image mode that does not use GPS information.
[0064]
On the other hand, if the GPS information mode is ON in step S110, the process proceeds to step S114. In step S114, designation of a position where movement information is to be combined in the shooting screen is accepted.
[0065]
The user operates the cross key or other operation unit to input for specifying the composition location and character color of the movement information (step S116). The CPU 12 determines whether or not the designation of the composition position or the like has been confirmed (step S118)), and if NO (undefined), the process returns to step S116. On the other hand, when the designation of the composition position or the like is confirmed in step S118, the process proceeds to step S120, and the connection determination of the GPS device 32 is performed.
[0066]
The CPU 12 detects whether or not the GPS device 32 is attached to the media socket 28 (step S120). If the GPS device 32 is not attached, the CPU 12 displays an error message on the image display device 24 (step S122) to the user. The user is prompted to attach the GPS device 32.
[0067]
If it is detected in step S120 that the GPS device 32 is correctly connected, the process proceeds to step S124 and waits for input of an instruction to start shooting. In step S124, the state of the S1 switch of the shooting button 21 is determined. If the S1 switch is OFF, the process of step S124 is repeated.
[0068]
When S1 = ON is detected in step S124, AE / AF processing is executed and information is read from the GPS device 32 to determine whether or not the position data has been correctly acquired (step S126). . If acquisition of position data has failed, an error message is displayed on the image display device 24 (step S128).
[0069]
On the other hand, if the position data acquisition is successful in step S126, the obtained position data is stored in the memory 18 and the state of the S2 switch of the photographing button 21 is determined (step S130). If the S2 switch is OFF, the process of step S130 is repeated, and the input of S2 = ON is waited.
[0070]
When S2 = ON is detected in step 130, photographing is performed (step 132). Image data (shooting data) acquired by shooting is converted into a luminance / color difference signal in the image signal processing circuit 50 (step S134). At this time, a process of reading information from the GPS device 32 is performed, and it is determined whether or not the position data has been correctly acquired (step S136). If acquisition of position data fails, an error message is displayed on the image display device 24 (step S138).
[0071]
If the acquisition of the position data is successful in step S136, a process of calculating the speed and the moving direction (traveling direction) from the obtained position data and the position data related to the previous acquisition stored in the memory 18 is performed. This is performed (step S140). Then, a movement information signal is generated based on the calculation result of step S140, and a process of synthesizing it with the captured image data is performed (step S142).
[0072]
The composite image generated in step 142 is displayed and output on the image display device 24, is compressed by the compression / decompression circuit 56, and is written to the recording medium 30 (step S144). Next, the CPU 12 determines whether or not to end the shooting. When the shooting is continued, the process returns to step S132, and the above-described processing steps S132 to S146 are repeated in a certain time cycle reflecting the frame rate.
[0073]
When the photographer performs an operation to stop shooting from the shooting button 21, when a shooting end command is detected in step S 146, the moving image recording is ended.
[0074]
Thus, since the moving information is combined in the frame image with the moving image data recorded by the camera 10 according to the present embodiment, when the moving image data is reproduced, the moving information together with the moving image is displayed as described in FIG. Is displayed. Therefore, it is possible to appreciate a realistic image when taking a picture of a vehicle moving at a high speed such as an automobile, a train, or an airplane.
[0075]
[Modification 1 of Embodiment]
In the flowchart of FIG. 4, the movement information is synthesized for all the frames of the moving image data. However, in the implementation of the present invention, it is not necessary to synthesize the movement information for all the frame images, and the movement information is recorded at a certain rate during the moving image recording. It is also possible to insert the composite frame.
[0076]
For example, it is assumed that movement information is added to odd frames (with an odd frame number) and movement information is not added to even frames (with an even frame number). When moving information is displayed during reproduction, all frames of the moving image data are read out. When reproducing even-numbered frames to which movement information is not added, the moving information display area portion is the frame immediately before or immediately after (odd frame). Process to redisplay information. That is, the display area portion of the movement information is updated at a rate of once every two frames. When such display control is performed, processing is easy if the display area of the movement information is set at the corner of the screen.
[0077]
On the other hand, when selection is made not to display the movement information, only even frames of the moving image data are read and reproduced. Alternatively, when all the frames of the moving image data are read out and an odd frame to which movement information is added is reproduced, processing for redisplaying information of the immediately preceding or subsequent frame (even frame) is performed on the display area portion of the movement information. . That is, the display area portion of the movement information is updated at a rate of once every two frames. Thereby, switching of display / non-display of movement information during reproduction can be realized.
[0078]
By adding an operation means (selection means) for switching between a mode for displaying movement information during reproduction and a mode for not displaying the information to the camera 10, the user can use these modes properly as necessary. The above discussion is also applicable to the case where an image is recorded for each field when one frame is composed of two fields, and the terms “odd frame” and “even frame” are referred to as “odd field”, “ It can be replaced with “even field”.
[0079]
In addition, as a processing sequence for generating movement information, position information is acquired from the GPS device 32 in the first vertical blanking period, a movement speed and a movement direction are calculated in the next vertical blanking period, and There is also an aspect in which a composite image is generated at a rate of once every 3V (1V means the period of the vertical drive signal of the CCD 38), such as performing a composite process with a captured image in the vertical blanking period.
[0080]
The movement information update cycle can be appropriately designed. When updating every frame, it is expected that the numerical display of the moving speed will fluctuate significantly and it will be difficult to observe. Therefore, it is preferable to lengthen the update cycle to some extent to make the response slow. In practice, an update cycle of about once per second is considered sufficient. In this case, a combined image of movement information is generated at a rate of once every 30 frames. As the movement information update cycle becomes longer, the processing load on the CPU 12 is reduced.
[0081]
[Modification 2 of the embodiment]
There is the following method as an aspect in which the movement information is written in all the frames of the moving image and the display / non-display of the movement information can be switched during reproduction. That is, each frame of a moving image is recorded in a high-definition size (aspect ratio = 9 (vertical): 16 (horizontal)), and is converted during normal NTSC display (aspect ratio = 3 (vertical): 4 (horizontal)). It is assumed that the movement information is combined with the left and right screen areas that are cut off. As a result, the movement information is displayed during playback display using the high-vision angle of view, and the movement information is not displayed when switching to the NTSC display.
[0082]
[Modification 3 of the embodiment]
In the above embodiment, the example in which the movement information is combined with the frame image of the moving image is described. However, the mode of adding the movement information to the frame of the moving image is not limited to the above example. For example, when a file format capable of recording additional information as tag data for each frame of a moving image is used, movement information is recorded on the tag at the time of moving image recording. In such a case, tag data is read at the time of reproduction, a character or graphic signal is generated by a character generator or the like, and this is combined with an image for display.
[0083]
In addition, when adopting a file format in which additional information cannot be written for each frame of a moving image, such as motion JPEG, there is a mode in which a moving image frame number and additional information (movement information) are linked and held in a separate file. is there. In this case, the link file is read during reproduction, character information is generated by a character generator or the like, and this is combined with an image for display.
[0084]
As described above, according to the aspect in which the movement information is recorded as data in the same file or in a separate file separately from the image, the display / non-display switching process of the movement information at the time of reproduction is easy.
[0085]
[Modification 4 of the embodiment]
In the example shown in FIG. 1, the external type GPS device 32 is used. However, when the present invention is implemented, a mode in which the GPS device is built in the camera is also possible.
[0086]
[Modification 5 of the embodiment]
In the example shown in FIG. 1, the digital camera that converts the captured moving image data into an electronic file and records it on a recording medium has been described. However, the scope of the present invention is not limited to this, and moving image data is recorded on a magnetic tape. The present invention can also be applied to a video camera. Further, the present invention is not limited to the product name “camera”, and the present invention can be applied to portable information devices such as a mobile phone with camera, a PDA with camera, and a mobile personal computer with camera. In this case, the camera unit may be a detachable (external type) that can be separated from the main body of a mobile phone or the like.
[0087]
【The invention's effect】
As described above, according to the present invention, information is acquired from the GPS during moving image shooting, and at least one of the moving speed and moving direction is combined with the image data. Shooting is possible.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an electronic camera according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the main configuration of the image signal processing circuit in FIG.
FIG. 3 is a diagram showing an example of a screen on which movement information is combined
FIG. 4 is a flowchart showing an operation sequence at the time of moving image shooting in the camera of this example.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Camera, 12 ... CPU, 18 ... Memory, 20 ... Mode selection switch, 24 ... Image display apparatus, 26, 28 ... Media socket, 30 ... Recording medium, 32 ... GPS apparatus, 33 ... Media controller, 34 ... GPS control Circuit: 36: GPS position conversion circuit, 50: Image signal processing circuit, 72: Movement information signal generation circuit, 76: Composition processing circuit, 81: Information on movement direction, 82: Information on movement speed

Claims (8)

被写体の光学像を電気信号に変換する撮像手段と、前記撮像手段を用いて被写体を連続撮影して得られた画像を動画として記録媒体に記録する記録手段とを備えた電子カメラであって、
GPS衛星からの電波を受信するGPS受信装置を介して取得された情報から移動速度及び移動方向のうち少なくとも一方を求める信号処理手段と、
前記信号処理手段により得られた移動速度及び移動方向のうち少なくとも一方の移動情報を撮影中の動画に合成する合成手段と、
を備えたことを特徴とする動画撮影可能な電子カメラ。
An electronic camera comprising an imaging means, and recording means for recording an image on a recording medium obtained by continuously photographing a subject as moving with the imaging means for converting an optical image of an object into an electrical signal,
A signal processing means for obtaining at least one of a moving speed and a moving direction from information acquired via a GPS receiver that receives radio waves from a GPS satellite;
Synthesizing means for synthesizing at least one of the moving speed and moving direction obtained by the signal processing means with the moving image being shot ;
An electronic camera capable of shooting moving images.
前記撮像手段から取得された動画のフレームに前記移動情報が合成され、前記移動情報が合成されたフレームを含む動画データが前記記録媒体に記録されることを特徴とする請求項1記載の動画撮影可能な電子カメラ。The movement information to the video frame obtained from the imaging means are combined, video recording of claim 1, wherein the moving image data including a frame in which the movement information is synthesized, characterized in that it is recorded on the recording medium Possible electronic camera. 前記移動情報が合成された動画映像を該動画の撮影中に表示する表示手段を備えたことを特徴とする請求項1又は2記載の動画撮影可能な電子カメラ。Claim 1 or 2 video recording an electronic camera, wherein the image of moving the moving information is synthesized with a display means for displaying in a shooting of the video. 前記GPS受信装置は、カメラ本体から分離可能な外付けユニットとなっていることを特徴とする請求項1から3のいずれか1項記載の動画撮影可能な電子カメラ。4. The electronic camera capable of moving image shooting according to claim 1 , wherein the GPS receiving device is an external unit that is separable from a camera body. 5. 前記合成手段は、前記撮像手段から取得された動画のフレーム中に、前記移動情報が合成されたフレームを一定の割合で挿入することを特徴とする請求項1から4のいずれか1項記載の動画撮影可能な電子カメラ。The said synthetic | combination means inserts the flame | frame with which the said movement information was synthesize | combined in the fixed ratio in the frame of the moving image acquired from the said imaging means. An electronic camera that can shoot movies. 前記合成手段は、撮影中の動画のフレーム中の奇数フレーム又は偶数フレームのいずれか一方に前記移動情報を合成することを特徴とする請求項1から5のいずれか1項記載の動画撮影可能な電子カメラ。6. The moving image can be photographed according to claim 1, wherein the synthesizing unit synthesizes the movement information with either an odd frame or an even frame in a frame of the moving image being photographed. Electronic camera. 前記動画とともに前記移動情報を表示する場合に、前記移動情報が付加されていないフレームを表示する時には、当該フレームの直前又は直後のフレームに付加された移動情報を前記表示手段に表示することを特徴とする請求項6記載の動画撮影可能な電子カメラ。When displaying the movement information together with the moving image, when displaying a frame to which the movement information is not added, the movement information added to the frame immediately before or after the frame is displayed on the display means. An electronic camera capable of shooting a moving image according to claim 6. 前記GPS装置からの位置情報の取得、前記移動情報の計算、及び前記移動情報を動画に合成する処理を、前記撮像手段から画像を読み出す際の垂直ブランキング期間に行うことを特徴とする請求項1から7のいずれか1項記載の動画撮影可能な電子カメラ。The position information acquisition from the GPS device, the calculation of the movement information, and the process of combining the movement information with a moving image are performed in a vertical blanking period when reading an image from the imaging unit. 8. An electronic camera capable of shooting a moving image according to any one of 1 to 7.
JP2002300642A 2002-10-15 2002-10-15 Electronic camera capable of shooting movies Expired - Fee Related JP4022688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002300642A JP4022688B2 (en) 2002-10-15 2002-10-15 Electronic camera capable of shooting movies

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002300642A JP4022688B2 (en) 2002-10-15 2002-10-15 Electronic camera capable of shooting movies

Publications (2)

Publication Number Publication Date
JP2004140433A JP2004140433A (en) 2004-05-13
JP4022688B2 true JP4022688B2 (en) 2007-12-19

Family

ID=32449268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002300642A Expired - Fee Related JP4022688B2 (en) 2002-10-15 2002-10-15 Electronic camera capable of shooting movies

Country Status (1)

Country Link
JP (1) JP4022688B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4687409B2 (en) * 2005-11-11 2011-05-25 ソニー株式会社 Imaging playback device

Also Published As

Publication number Publication date
JP2004140433A (en) 2004-05-13

Similar Documents

Publication Publication Date Title
JP4904108B2 (en) Imaging apparatus and image display control method
JP4730667B2 (en) Automatic regeneration method and apparatus
US7769287B2 (en) Image taking apparatus and image taking method
JP4730553B2 (en) Imaging apparatus and exposure control method
JP4697606B2 (en) Imaging apparatus and focus control method
JP2008219428A (en) Imaging apparatus
JP2005128437A (en) Photographing device
US7511742B2 (en) Digital camera and image signal generating method
JP2008109485A (en) Imaging apparatus and imaging control method
JP2009224918A (en) Operation controller
US7570294B2 (en) Digital camera
JP4022688B2 (en) Electronic camera capable of shooting movies
JP2005167701A (en) Digital camera
JP4716182B2 (en) Imaging apparatus and imaging control program
JP2006340100A (en) Photographic device
JP4678273B2 (en) Imaging apparatus, moving image storage method, and moving image storage program
JP2002112103A (en) Digital still camera
JP4433297B2 (en) Imaging apparatus and image reproduction apparatus
JP2010050599A (en) Electronic camera
JP2009077305A (en) Imaging apparatus and imaging control method
JP5370662B2 (en) Imaging device
JP2009089325A (en) Information device and remaining battery level detection method
JP2007180599A (en) Imaging apparatus, imaging apparatus control method, and imaging apparatus control program
JP5731087B1 (en) Image processing apparatus, display apparatus, image processing method, and program
JP2007142867A (en) Imaging apparatus, imaging apparatus control method and imaging apparatus control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050308

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070917

R150 Certificate of patent or registration of utility model

Ref document number: 4022688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees