JP2004241834A - Moving picture generating apparatus and method, moving picture transmission system, program, and recording medium - Google Patents

Moving picture generating apparatus and method, moving picture transmission system, program, and recording medium Download PDF

Info

Publication number
JP2004241834A
JP2004241834A JP2003026275A JP2003026275A JP2004241834A JP 2004241834 A JP2004241834 A JP 2004241834A JP 2003026275 A JP2003026275 A JP 2003026275A JP 2003026275 A JP2003026275 A JP 2003026275A JP 2004241834 A JP2004241834 A JP 2004241834A
Authority
JP
Japan
Prior art keywords
image
unit
panoramic image
server
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003026275A
Other languages
Japanese (ja)
Inventor
Masaharu Suzuki
雅晴 鈴木
Nobutoshi Koyama
伸俊 小山
Shinichi Morimoto
真一 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003026275A priority Critical patent/JP2004241834A/en
Publication of JP2004241834A publication Critical patent/JP2004241834A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system capable of easily acquiring a moving picture of a desired object from a photographed image. <P>SOLUTION: A moving picture generating apparatus sequentially generates an entire image comprising a plurality of unit images by changing a photographing direction to image a photographing range, records the generated entire image to a server 53, segments the unit image in the same photographing direction as that of the unit image designated by a user by each of the entire images recorded in the server 53 or the unit image on a photographing direction identified in response to a compared luminance level, and generates a moving picture on the basis of the segmented unit image. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、撮像したパノラマ画像毎に一の単位画像を切り出して、これに基づく動画を生成する動画像生成装置及び方法、動画像送信システム、プログラム並びに記録媒体に関する。
【0002】
【従来の技術】
従来より、CCDカメラとビデオテープレコーダを組み合わせたいわゆるビデオカメラが、監視用に広く用いられている。このビデオカメラでは、撮像時にCCDカメラで受像された映像信号を磁気テープ等の記録メディアに記録しておく。そして、この記録した映像信号を、内蔵の電子ビューファインダや外部のモニタ装置に表示することにより、ユーザによる所望の観測を実現することができる。
【0003】
このようなビデオカメラにおいて、所望の被写体を連続して撮像する場合には、ビデオカメラの撮影方向を、当該被写体の位置変化に対して常に追従させる必要がある。通常、この撮影方向を手動で制御する場合に、いわゆる手振れ等に基づくビデオカメラの振動が映像に現れてしまう。このため、かかる手振れに基づく映像の振動を抑制して、所望の被写体を確実に自動追尾することができるビデオカメラが従来において提案されている(例えば、特許文献1参照。)。
【0004】
このビデオカメラ200は、例えば図11に示すように、画像領域204内の移動被写体202を表す撮像信号を形成するイメージセンサ210を有している。このイメージセンサ210により形成された撮像信号は、画像動きベクトル検出器214に供給される。画像動きベクトル検出器214は、供給された撮像信号に基づき、画像領域204内の被写体202の動きを表す画像動きベクトルを出力216にて検出する。カメラ位置サーボ回路220には、エラー信号としての画像動きベクトルが出力端子216から供給され、この画像動きベクトルに応じて被写体202をトラッキングするようにイメージセンサ210の位置を調整する。
【0005】
さらに従来では、かかる動きベクトルの検出につき、仮に画像が特定の動きをみせるような状況においても、的確に実現することができる画像情報配信システム等も提案されている(例えば、特許文献2参照。)。
【0006】
【特許文献1】
特開平6−217188号公報
【特許文献2】
特開平11−331817号公報
【0007】
【発明が解決しようとする課題】
しかしながら、撮像したパノラマ画像について、単独のユーザのみならず複数のユーザがネットワークを介して同時に視認できるシステムが昨今において望まれている。特に百貨店等の商品売り場や立ち入り禁止区域等のような広範囲の状況については、複数のユーザが同時に管理する必要があり、特に事件発生後において、既に蓄積してあるパノラマ画像につき各人が事後的な確認を望む場合もある。
【0008】
しかしながら、上記従来のビデオカメラ200等は、自動追尾された被写体を、あくまでユーザが単独で撮像してこれを観測する際に好適なものであるため、複数のユーザによる動画像の同時取得や、撮影内容の事後的な確認が困難であった。
【0009】
また、撮影する被写体に合わせて撮影方向を調整するユーザの労力を軽減する必要もあり、さらには、一般的な画像フォーマットで動画を抽出できるようにすることで、撮影内容の事後的な確認を容易に実行できるようにする必要もあった。
【0010】
そこで、本発明は上述した問題点に鑑みて案出されたものであり、その目的とするところは、撮影した画像から所望の被写体の動画像を容易に取得することができ、また複数のユーザが生成した動画像を同時に取得することができる動画像生成装置及び方法、動画像送信システム、プログラム並びに記録媒体を提供することにある。
【0011】
【課題を解決するための手段】
本発明を適用した動画像生成装置は、上述した課題を解決するために、撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成する撮像手段と、生成されたパノラマ画像をサーバへ記録する記録手段と、サーバに記録されているパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成する動画生成手段とを備える。
【0012】
また、本発明を適用した動画像生成方法は、上述した課題を解決するために、撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成し、生成したパノラマ画像をサーバへ記録し、サーバに記録したパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成する。
【0013】
また、本発明を適用した動画像送信システムは、上述した課題を解決するために、撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成する撮像装置と、生成されたパノラマ画像を記録するためのサーバと、サーバに記録されているパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成する電子機器と、電子機器から通信網を介して受信した動画像を再生するための端末装置とを備える。
【0014】
また、本発明を適用したプログラムは、上述した課題を解決するために、撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成し、生成したパノラマ画像をサーバへ記録し、サーバに記録したパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成することをコンピュータに実行させる。
【0015】
また、本発明を適用した記録媒体は、上述した課題を解決するために、撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成し、生成したパノラマ画像をサーバへ記録し、サーバに記録したパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成することをコンピュータに実行させるためのプログラムを記録する。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。本発明を適用した動画像生成システム1は、例えば図1に示すように、被写体を撮像して画像信号を生成するカメラユニット2と、音声信号を受信するマイク12と、カメラユニット2より伝送された画像信号に所定の処理を施す画像入出力部13と、マイク12より伝送された音声信号に所定の処理を施す音声入出力部14と、少なくとも画像入出力部13及び音声入出力部14に接続され、上記画像信号に基づく動画像を生成する演算処理部15と、演算処理部15に接続され、上記画像信号を記録するサーバ53と、ユーザが本システム1を制御するための操作部16と、演算処理部15に接続され、上記ユーザに生成した動画像や各種情報を表示するためのディスプレイ6と、他のユーザがアプリケーションを実行するための端末装置9と、端末装置9に接続される端末ディスプレイ10と、端末装置9に対して各種情報を送受信するためのネットワーク8とを備えている。
【0017】
カメラユニット2は、パンチルタ部3と、カメラ部4とが一体的に構成されてなる。パンチルタ部3は、例えばパン、チルトの2軸につき撮影方向を自在に変更するための回転台として構成される。
【0018】
カメラ部4は、パンチルタ部3を構成する回転台上に配設され、演算処理部15等による制御に応じて、撮影方向を水平方向或いは垂直方向に調整しつつ、被写体を撮像する。またこのカメラ部4は、演算処理部15等による制御に応じて、撮影画角を順次変更することにより、撮影倍率を拡大又は縮小して、被写体を撮像する。
【0019】
画像入出力部13、音声入出力部14、演算処理部15、サーバ並びに操作部16は、例えばパーソナルコンピュータ(PC)等の電子機器100により一体化して構成してもよい。この電子機器100によれば、カメラユニット2から伝送される画像信号を記録し、また記録した画像信号につきディスプレイ6を介してユーザに表示する。またこの電子機器100は、ユーザから所望の画像領域又は画像位置が指定された場合には、記録した画像信号の中から最適なものを選択してこれをディスプレイ6に表示するように制御する。この電子機器100は、このネットワーク8全体を制御するためのいわゆる中央制御装置としての役割も担い、他の端末装置9からの要求に応じて、画像や音声を送信する。
【0020】
ネットワーク8は、例えば電子機器100と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの動画像生成システム1を、一定の狭いエリア内で運用する場合には、このネットワーク8を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク8は、静止画像に加えて動画像をも送信できるようにしてもよい。かかる場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信され、静止画像データは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク8には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、端末装置9による要求を受けて、自身に格納してある所定の情報を送信する。
【0021】
端末装置9は、各家庭や企業等に待機するユーザがネットワーク8を介して電子機器100から画像を取得し、所望の処理を実行するためのPCである。複数の端末装置9をネットワーク8に接続することにより、複数のユーザに対してこの動画像生成システム1のアプリケーションを同時に提供することが可能となる。この端末装置9は、電子機器100から取得した画像を、端末ディスプレイ10に対して表示する。またこの端末装置9は、ユーザによる指定操作に応じて要求信号を生成し、これを電子機器100に対して送信する。なお端末装置9のブロック構成については、後述する電子機器100の構成を引用し、説明を省略する。
【0022】
次に、本発明を適用した動画像生成システム1におけるカメラユニット2,電子機器100の構成について詳細に説明する。
【0023】
図2は、カメラユニット2,電子機器100の構成図である。この図2では、共通のコントローラバス21に対して、カメラユニット2並びに電子機器100の各構成要素が接続されている。
【0024】
カメラユニット2を構成するパンチルタ部3は、撮像方向を変更するための回転台を制御するTilt部3a、Pan部3bとを有する。また、カメラユニット2を構成するカメラ部4は、主としてレンズ部22の画角を変更するためのレンズ制御部23と、レンズ部22の光軸に直交する位置に配設される撮像部24と、撮像部24により生成された画像信号を画像入出力部13へ送信するためのIEEE(Institute of Electrical and Electronics Engineers)1394インターフェース25と、カメラユニット2の現在位置を検出するためのGPS(Global Positioning System)受信部28と、GPS受信部28に装着されるメタデータ生成部29とを備えている。ちなみに、IEEE1394インターフェース25は、イーサネット(登録商標)に代替してもよい。
【0025】
また画像入出力部13は、IEEE1394インターフェース25に接続されるバッファメモリ51と、バッファメモリ51に接続されるエンコーダ52とを備えている。
【0026】
また演算処理部15は、サーバ53から読み出された画像を圧縮するための画像圧縮部54と、サーバ53及び画像圧縮部54に接続され、ディスプレイ6上に表示する画像を作り出すグラフィックコントローラ55と、コントローラバス21を介して各部を制御するためのCPU56と、I/Oポート58にそれぞれ接続されるメモリカード61並びに時計62とを備えている。
【0027】
また操作部16は、ディスプレイ6上に表示されている画像からユーザが所望の画像領域、画像位置を指定するためのキーボード59並びにマウス60を備えている。
【0028】
Tilt部3a並びにPan部3bは、CPU56からの駆動信号に基づき、回転台の駆動源として構成されているステッピングモータを回転させる。これにより回転台上に載置されてなるカメラ部4の撮影方向を水平方向、或いは垂直方向に変更することができる。
【0029】
レンズ制御部23は、CPU56からの駆動信号に基づき、レンズ部22に対して自動絞り制御動作や自動焦点制御動作を実行する。またこのレンズ制御部23は、かかる駆動信号に基づき、被写体に対する撮影画角を変更する。これにより、カメラ部4は、撮影倍率を順次調整して被写体を撮像することも可能となる。
【0030】
撮像部24は、例えばCCD(Charge Coupled Device )等の固体撮像素子により構成され、レンズ部22を介して入射される被写体像を撮像面上に結像させ、光電変換により画像信号を生成し、これをIEEE1394インターフェース25へ送信する。
【0031】
GPS受信部28は、GPSシステムにより送出される信号に基づき、カメラユニット2の設置場所や撮影方向を検出する。このGPS受信部28を設けることにより、特に複数のカメラユニット2を設置する場合において、双方の撮影方向を連動して制御することが可能となる。GPS受信部28からの出力信号は、メタデータ生成部29に供給され、GPSによる測位結果に基づく、緯度、経度、方位、高度等の位置情報、並びに時刻や各種パラメータ等からなるメタデータが生成される。メタデータ生成部29は、この生成した位置情報やメタデータをエンコーダ52へ供給する。なお本発明では、このGPS受信部28、メタデータ生成部29の構成を省略してもよい。
【0032】
バッファメモリ51は、CPU56からの制御信号に基づき、IEEE1394インターフェース25から供給される画像信号を一時的に格納する。このバッファメモリ51において一時的に格納された画像信号は、エンコーダ52に供給され、例えばJPEG(Joint Photographic Experts Group)等の規格に基づいて圧縮符号化される。ちなみに、このエンコーダ52は、圧縮符号化する画像信号に対して、メタデータ生成部29から供給される位置情報やメタデータを付加してもよい。エンコーダ52は、圧縮符号化した画像信号をサーバ53或いは画像圧縮部54へ出力する。なお供給される画像信号につき、圧縮符号化を行わない場合には、このエンコーダ52における処理は省略される。
【0033】
サーバ53は、エンコーダ52から出力される画像信号を位置情報やメタデータと関連付けて順次記録する。ちなみに、このサーバ53は、例えばハードディスクや、着脱自在なディスク状記録媒体に代替してもよい。サーバ53に記録された画像信号は、CPU56による制御に基づき、画像圧縮部54やグラフィックコントローラ55へ読み出される。なおサーバ53に記録される画像信号をメモリカード61へ記録するように制御することにより、ユーザは、かかる撮像した画像を他のPCへ移し換えることも可能となる。また、このサーバ53に記録されている画像信号を上述した図示しないネットワークサーバに記録するように制御することにより、サーバ53を図示しないネットワークサーバに代替することも可能となる。
【0034】
画像圧縮部54は、サーバ53から読み出したJPEG形式の画像信号につき、それぞれ圧縮画像又はサムネイル画像を生成する。また、この画像圧縮部54は、CPU56による制御に従い、サーバ53に記録されている画像を読み出して、動画像を生成する。ちなみにこの動画像を生成する際の圧縮方法としては、例えばMPEG、Motion−JPEG、Motion−JPEG2000等に基づき実行してもよい。グラフィックコントローラ55は、サーバ53から読み出した画像信号、又は画像圧縮部54から出力される画像信号に基づき、ディスプレイ6への絵画処理を実行する。また、このグラフィックコントローラ55は、CPU56による制御に基づき、ディスプレイ6におけるコントラスト、輝度の制御を実行する。
【0035】
CPU56は、ユーザによりキーボード59やマウス60を介して画像領域、画像位置が指定された場合に、パンチルタ部3やレンズ制御部23を駆動するための駆動信号や、電子機器100内の各部を制御するための制御信号を、コントローラバス21を介して送信する。また、このCPU56は、端末装置9から所定の要求信号を受けて、サーバ53に記録されている最適な静止画像、動画像、或いは各種情報を選択し、これを当該端末装置9へ送信するように制御する。
【0036】
音声入出力部12は、マイク12から入力された音声信号を符号化する。この音声入出力部12により符号化された音声信号についても、上述の如く画像信号と同様にサーバ53へ供給され、記録されることになる。
【0037】
次に本発明を適用した動画像生成システム1における撮像動作について説明をする。
【0038】
図3は、カメラユニット2により、黒枠で示される撮影範囲内を撮影画角uで撮像する場合について示している。撮影範囲を撮影画角uで全て撮像するためには、撮影方向を水平方向又は垂直方向へ順にシフトさせて撮像する必要がある。仮に撮影範囲のサイズが、任意の撮影画角uで撮像することにより得られるフレーム(以下、単位画像という。)のサイズのi×j倍で表せるときには、少なくともi×j通りの撮影方向を設定する必要がある。この撮影画角uで撮像したi×j個の単位画像を貼り合わせることにより撮影範囲全体を表した全体画像を合成することができる。
【0039】
ここで、撮影範囲の各単位画像の座標(M,N)を、水平方向につき、左端から順に1、2、・・M・、iとし、垂直方向につき上端から順に1、2、・・N・、jとしたとき、CPU56は、Tilt部3a並びにPan部3bに対して駆動信号を送信することにより、カメラ部4の撮影方向を、先ず左上に位置する座標(1,1)に合わせて撮像を実行させる。この座標(1,1)について撮像することにより生成された単位画像に基づく画像信号は、バッファメモリ51に一時的に格納され、エンコーダ52において、JPEG規格に基づいて圧縮符号化される。そしてこの画像信号は、GPS28から送信される撮影方向等を示す位置情報やメタデータが同時に付加され、サーバ53に記録される。
【0040】
同様にCPU56は、Tilt部3a並びにPan部3bに対して駆動信号を送信することにより、カメラ部4の撮影方向を、右側に1画枠分シフトさせて座標(2,1)に合わせて撮像を実行する。この座標(2,1)について撮像することにより生成された画像信号も同様にサーバ53へ記録される。CPU56による制御に基づき、カメラ部4は、撮影方向を座標(3,1)、(4,1)・・(i,1)と水平方向へ順次変更させて撮像を実行する。
【0041】
カメラ部4は、1列目の撮像を終了させた後、CPU56による制御に基づき、撮影方向を2列目の座標(1,2)に調整して撮像を実行し、その後、水平方向へ順次シフトさせながら撮像を実行する。かかる動作を繰り返して座標(i,j)まで撮像を終了させた時、サーバ53は、座標毎に撮像したi×j個の単位画像に基づく画像信号が記録されている状態になる。図4は、上述した撮像動作を所定の間隔で実行することにより、サーバ53に順次記録される全体画像の例を示している。すなわち、サーバ53は、このような、撮影範囲におけるわずかな状況変化を各時刻(t1、t2、t3、t4、・・・)につき表示した全体画像が順次記録されることになる。
【0042】
ちなみに、このサーバ53に記録されている各単位画像に基づく画像信号は、画像圧縮部54により順次読み出されて、ディスプレイ6の表示画面のサイズに適合するように縮小される。この縮小された各単位画像は、グラフィックコントローラ15を経てディスプレイ6に表示される。サーバ53に記録されたi×j個の単位画像を全てディスプレイ6に表示させることにより、1枚の全体画像が合成されることになる。上述の撮像動作を一定の間隔で実行することにより、撮影範囲の最新の状況を示す全体画像を取得することが可能となる。
【0043】
図5は、撮像したi×j個の単位画像を貼り合わせることにより合成した全体画像を、ディスプレイ6の全体画像表示部70に表示する例を示している。なお、この電子機器100は、全体画像表示部70に対して、全体画像を構成する各単位画像間の境界を表示させてもよいし、シームレスな全体画像のみを表示させてもよい。また電子機器100は、パノラマ状の全体画像(パノラマ画像)の代替として、撮影範囲全体を捉えることができる撮影画角で撮影した1枚の全体画像を、この全体画像表示部70に表示させてもよい。
【0044】
ちなみに表示画面45には、単位画像を拡大した拡大画像を表示するための拡大画像表示部71がさらに設けられている。この拡大画像表示部71は、全体画像表示部70に表示される全体画像を構成する単位画像のうち、ユーザにより指定された一の単位画像を拡大して表示してもよいし、またかかる一の単位画像の撮影方向につき、動画を順次表示してもよい。これによりユーザは、指定した単位画像における撮影方向の状況につき、リアルタイムに確認することもできる。さらにこの拡大画像表示部71には、後述する方法により生成した動画を表示してもよい。
【0045】
また表示画面45には、拡大画像表示部71に表示されている単位画像につき、撮影倍率を縮小して表示させるためのWIDEボタン72、撮影倍率を拡大して表示させるためのZOOMボタン73が表示される。また、この表示画面45には、カメラ部4の撮影方向を水平、垂直方向において調整するための撮影方向制御部75、各種モードの設定やサーバに対して所望のアドレスに単位画像に基づく画像信号を記録させるための設定ボタン76等も表示される。
【0046】
また、ユーザは、全体画像表示部70や拡大画像表示部71に対して、キーボード59やマウス60を用いて、所望の画像領域、画像位置を指定することができる。なお、各表示部70,71には、マウス60等の動きに連動させて上述の指定操作を実行するための照準線やポインタをさらに表示させてもよい。
【0047】
次に本発明を適用した動画像生成システム1による動画像の生成方法につき説明をする。
【0048】
図6は、同一の撮影方向上にある単位画像に基づき動画像を生成する手順を示すフローチャートである。
【0049】
先ずステップS11において、ユーザは、全体画像表示部70に表示されている全体画像から、一の単位画像をマウス60等を用いて指定する。次に、ステップS12へ移行し、CPU56は、この指定された単位画像の座標(M,N)、すなわち、指定された単位画像の撮影方向を識別する。
【0050】
次にステップS13へ移行し、CPU56は、ある時刻t1において撮像した全体画像から、識別した撮影方向上にある単位画像を、サーバ53から読み出す。CPU56は、この読み出した単位画像を図示しないバッファ等に一時的に記憶しておく。
【0051】
次にステップS14へ移行し、CPU56は、次の時刻の全体画像に着目する。仮に図4の如く全体画像が、時刻t1、t2、・・の順にサーバ53へ記録されている場合には、CPU56は、時刻t2における全体画像に着目することになる。
【0052】
なお、先のステップS13において読み出した単位画像の時刻tが最後の時刻である場合には、ステップS15へ移行し、それ以外の場合には、ステップS12に移行する。この最後の時刻とは、生成する動画像のうち最後のフレームを構成する単位画像の時刻である。
【0053】
ステップS12に再び移行した場合には、識別した上記撮影方向と同一撮影方向にある単位画像をステップS13にて読み出して、順次図示しないバッファに記憶していくことになる。これを繰り返し実行することにより、図示しないバッファは、同一撮影方向上の単位画像が順次格納されている状態となる。
【0054】
図7は、時刻t1から時刻t4に至るまで、サーバ53から読み出した同一の撮影方向にある単位画像を示している。この図7は、ステップS11において、ユーザにより指定された撮影方向は、全体画像に表示されている”教会の入口付近”であり、かかる撮影方向につき、時刻t4に至るまで順次単位画像を読み出した場合につき示すものである。時刻が経過していくにつれて、移動被写体(鳩)がカメラ部4に接近する結果、徐々に大きく表示されていくことがわかる。
【0055】
ステップS15へ移行した場合に、CPU56は、図示しないバッファに格納した単位画像を先の時刻から順に抽出し、これを連続させた動画を作成する。ちなみに、図7に示す例では、移動被写体が徐々に接近してくる動画像が作成されることになる。
【0056】
次にステップS16へ移行し、作成した動画を例えばサーバ53等に保存しておく。この作成した動画を全体画像や単位画像等の静止画と別ファイルで保存することにより、動画ファイルのみネットワーク8を介して他の端末装置9へ送信することができ、また記録媒体に保存してこれを多数の顧客に配布することも可能となる。
【0057】
また、電子機器100内において、予め再生ツールをインストールしておくことにより、このステップS16において保存した動画ファイルをこの電子機器100により再生するようにしてもよい。
【0058】
次に、全体画像内を移動する被写体に追従して動画を生成する手順につき図8を用いて説明をする。
【0059】
先ず、ステップS21において、ユーザは、動画の作成を望む移動被写体を全体画像表示部70に表示されている全体画像の中から選択をする。例えば図9に示すように、左から右へ移動していく移動被写体を選択する場合には、マウス60等を用いて、かかる移動被写体が表示されている画像領域を指定する。以下、このステップS21において指定された画像領域を差異検出枠という。ちなみに、このステップS21では、ユーザのみならず、CPU56自らが移動被写体を選択するようにしてもよい。
【0060】
次にステップS22へ移行し、CPU56は、この指定された画像領域を含む単位画像の座標、すなわち指定された画像領域を含む単位画像の撮影方向を識別する。
【0061】
次にステップS23へ移行し、CPU56は、ある時刻t1において撮像した全体画像から、識別した撮影方向上にある単位画像を、サーバ53から読み出す。CPU56は、この読み出した単位画像を図示しないバッファ等に一時的に記憶しておく。
【0062】
次にステップS24へ移行し、CPU56は、次の時刻の全体画像に着目する。仮に図4の如く全体画像が、時刻t1、t2、・・の順にサーバ53へ記録されている場合には、CPU56は、時刻t2における全体画像に着目することになる。
【0063】
次にステップS25へ移行し、CPU56は、先の時刻t1における差異検出枠における画素の輝度レベルと、次の時刻t2における全体画像の輝度レベルを比較する。このとき、差異検出枠における画素の輝度レベルの代替として、かかる差異検出枠を含む単位画像内にある画素の輝度レベルを比較対象としてもよい。その結果、次の時刻t2における全体画像の輝度レベルにつき、差異検出枠内の輝度レベルに基づく変化が生じた場合には、ステップS26へ移行し、それ以外の場合はステップS28へ移行する。ちなみに、この輝度レベルが変化したか否かの閾値は、被写体や撮影範囲の状況に応じて、ユーザが自由に設定してもよく、またCPU56が自動的に設定してもよい。
【0064】
図9は、次の時刻t2における全体画像の輝度レベルにつき変化が生じた場合について示す図である。この図9に示すように、時刻t1において、座標(4、2)に表示されていた移動被写体が、時刻t2において座標(5、2)へ移動した場合には、座標(4,2)の単位画像と、座標(5,2)の単位画像につき、輝度レベルが変化することになる。
【0065】
ステップS26に移行した場合に、CPU56は、次の時刻t2における全体画像から、ステップS25の輝度レベルの比較において、差異が検出された単位画像を識別する。ちなみに、この輝度レベルの差異は、差異検出枠内の輝度レベルに、換言すれば移動被写体の画像に相当する輝度レベルに基づくものであるため、かかる差異が検出された単位画像は、時刻t2において移動被写体が新たに表示される結果、輝度レベルの変化が生じた画像である。このため、CPU56は、図9に示す例では、座標(5,2)の単位画像を識別することになり、また当該単位画像を取得することにより、常に移動被写体が表示されている画像を得ることが可能となる。
【0066】
次にステップS27において、CPU56は、時刻t2における全体画像からステップS26において識別した単位画像の撮影方向を識別する。
【0067】
ステップS28において、CPU56は、時刻t2において撮像した全体画像から、識別した撮影方向上にある単位画像を、サーバ53から読み出し、これを図示しないバッファに蓄積する。ちなみに、ステップS26,S27を経ずに、ステップS25から直接的に本ステップS28へ移行した場合には、CPU56により識別されている単位画像の撮影方向は、ステップS22において識別された撮影方向と同等である。このため、時刻t2においても、時刻t1と同一の撮影方向上に位置する単位画像を読み出すことになる。
【0068】
なお、先のステップS23において読み出した単位画像の時刻tが最後の時刻である場合には、ステップS29へ移行し、それ以外の場合には、ステップS24に移行する。
【0069】
ステップS24に再び移行した場合には、次の時刻の全体画像との間で、同様に輝度レベルを比較することにより、単位画像の撮影方向を識別していくことになる。そして、識別した上記撮影方向と同一撮影方向にある単位画像をステップS28にて読み出して、順次図示しないバッファに記憶していくことになる。これを繰り返し実行することにより、図示しないバッファは、移動被写体が表示されている単位画像が順次格納されている状態となる。
【0070】
図10は、時刻t1から時刻t4に至るまで、サーバ53から読み出した単位画像を示している。時刻が経過していくにつれて左から右へ移動する移動被写体に追従して単位画像を取得することができる。すなわち、輝度レベルの差異を検出することにより、移動被写体を自動的に追尾して単位画像を取得することができるため、あたかも、ユーザが手動でハンディカメラ等を操作して撮像したかのような映像を得ることができる。
【0071】
ステップS29へ移行した場合に、CPU56は、図示しないバッファに格納した単位画像を先の時刻から順に抽出し、これを連続させた動画を作成する。ちなみに、図10に示す例では、移動被写体の動きに着目した動画像が生成されることになる。
【0072】
次にステップS30へ移行し、作成した動画を例えばサーバ53等に保存しておく。この作成した動画を全体画像や単位画像等の静止画と別ファイルで保存することにより、動画ファイルのみネットワーク8を介して他の端末装置9へ送信することができ、或いはディスク状記録媒体に保存してこれを多数の顧客に配布することも可能となる。また、電子機器100内において、予め再生ツールをインストールしておくことにより、保存した動画ファイルを再生するようにしてもよい。
【0073】
なお、上述したフローでは、CPU56は、サーバ53読み出した単位画像を図示しないバッファに格納する例を示したが、かかる場合に限定されるものではなく、例えば、サーバ53から単位画像を読み出す代わりに、読み出すべき単位画像の座標ないしは撮影方向を記憶しておき、動画像作成時にこの記憶した座標等から単位画像を読み出すようにしてもよい。また、図示しないバッファの代替として、サーバ53を用いてもよい。
【0074】
また、輝度レベルの比較方法は、他のいかなる方法を適用してもよく、例えば差異検出枠につきブロックマッチングを用いて、ブロック毎に輝度レベルを比較するようにしてもよい。また輝度レベルを比較する場合に限定されるものではなく、R,G,Bの各原色成分を比較するようにしてもよい。
【0075】
以上詳細に説明したように、本発明を適用した動画像生成システム1では、撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなる全体画像を順次生成し、生成した全体画像をサーバ53へ記録し、またサーバ53に記録した全体画像毎にユーザに指定された単位画像と同一の撮影方向上にある単位画像、或いは比較した輝度レベルに応じて識別した撮影方向上にある単位画像を切り出し、切り出した単位画像に基づき動画像を生成する。
【0076】
これにより、本発明では、撮影した画像から所望の被写体の動画像を自動的に取得することができ、ユーザによる撮影内容の事後的な解析も容易となる。
【0077】
なお、本発明は上述した実施の形態に限定されるものではない。例えば上述した動作をコンピュータに実行させるプログラムとして構成してもよい。またかかるプログラムを記録したコンピュータ読み取り可能な記録媒体として構成してもよい。この記録媒体は、大容量型光ディスクのひとつであるDVD(Digital Versatile Disc)において、データの記録が可能なDVD−R(DVD−Recordable)や、記録したデータの書き換えが可能なDVD−RW(DVD−Rewritable)及びDVD−RAM(DVD−Random Access Memory)等、或いはCD(Compact Disk)において、CD−R(CD−Recordable)やCD−RW(CD−Rewritable)等、さらにはリムーバブルメモリ等に適用してもよい。ちなみに、記録媒体には、上述のプログラムのみならず、サーバ53に記録される全体画像や単位画像、及び/又は、本システム1において生成した動画像ファイルを記録してもよい。この記録媒体を取得した他のユーザは、自己のPC等を用いて、上記プログラムを実行することができ、また記録されている動画像を閲覧することもできる。
【0078】
なお、本発明を適用した動画像生成システム1は、電子機器100と同様の構成からなる端末装置9をネットワーク8に接続することにより、端末装置9に対して動画像を送信する動画像送信システムに適用してもよい。これにより、端末装置9を操作するユーザ自身も動画像を取得することができる。全体画像は、一度サーバ53に記録されているため、複数の端末装置9をネットワーク8に接続することにより、複数のユーザが事後的に上述の処理を実行することも可能となる。かかる場合において、撮像した各全体画像をネットワーク8に接続されている図示しないネットワークサーバへ順次記録しておくことにより、端末装置9自身がかかる図示しないネットワークサーバへアクセスして各単位画像を読み出して動画像を生成するようにしてもよい。これにより、複数の端末装置9から同時にアクセスを受けた電子機器100につき負担を軽減させることができる。
【0079】
【発明の効果】
以上詳細に説明したように、本発明では、撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなる全体画像を順次生成し、生成した全体画像をサーバへ記録し、またサーバに記録した全体画像毎にユーザに指定された単位画像と同一の撮影方向上にある単位画像、或いは比較した輝度レベルに応じて識別した撮影方向上にある単位画像を切り出し、切り出した単位画像に基づき動画像を生成する。
【0080】
これにより本発明では、撮影した画像から所望の被写体の動画像を自動的に取得することができるためユーザの労力負担を軽減させることができ、また撮影内容の事後的な解析も容易に行うことができる。また通信網に複数の端末装置を接続することにより、複数のユーザによる動画像の同時取得も可能となる。
【図面の簡単な説明】
【図1】本発明を適用した動画像生成システムの構成を示す図である。
【図2】カメラユニット,電子機器のブロック構成図である。
【図3】カメラユニットにより、黒枠で示される撮影範囲内を撮影画角uで撮像する場合について説明するための図である。
【図4】撮像動作を所定の間隔で実行することにより、サーバに順次記録された全体画像の例を示す図である。
【図5】ディスプレイ上の表示画面の構成例を示す図である。
【図6】同一の撮影方向上にある単位画像に基づき動画像を生成する手順を示すフローチャートである。
【図7】時刻t1から時刻t4に至るまで、サーバ53から読み出した同一の撮影方向にある単位画像を示す図である。
【図8】全体画像内を移動する被写体に追従して動画を生成する手順を示すフローチャートである。
【図9】具体的な差異検出例につき説明するための図である。
【図10】被写体の動きに着目して動画像を生成する例を示す図である。
【図11】従来のビデオカメラの構成につき説明するための図である。
【符号の説明】
1 動画像生成システム、2 カメラユニット、3 パンチルタ部、4 カメラ部、6 ディスプレイ、8 ネットワーク、9 ユーザ端末、10 端末ディスプレイ、12 マイク、13 画像入出力部、14 音声入出力部、15 演算処理部、16 操作部、21 コントローラバス、22 レンズ部、23 レンズ制御部、24 撮像部、25 IEEE1394インターフェース、28 GPS受信部、29 メタデータ生成部、51 バッファメモリ、52 エンコーダ、53 サーバ、54 画像圧縮部、55 グラフィックコントローラ、56 CPU、58 I/Oポート、59 キーボード、60 マウス、61 メモリカード、62 時計
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving image generating apparatus and method, which cuts out one unit image for each captured panoramic image and generates a moving image based on the unit image, a moving image transmitting system, a program, and a recording medium.
[0002]
[Prior art]
Conventionally, a so-called video camera combining a CCD camera and a video tape recorder has been widely used for monitoring. In this video camera, a video signal received by a CCD camera at the time of imaging is recorded on a recording medium such as a magnetic tape. Then, by displaying the recorded video signal on a built-in electronic viewfinder or an external monitor device, a desired observation by the user can be realized.
[0003]
In such a video camera, when imaging a desired subject continuously, it is necessary to always make the shooting direction of the video camera follow a change in the position of the subject. Normally, when the photographing direction is manually controlled, vibration of the video camera due to so-called camera shake or the like appears in an image. For this reason, a video camera capable of suppressing the vibration of an image due to the camera shake and reliably automatically tracking a desired subject has been conventionally proposed (for example, see Patent Document 1).
[0004]
The video camera 200 has an image sensor 210 that forms an imaging signal representing a moving subject 202 in an image area 204, for example, as shown in FIG. The imaging signal formed by the image sensor 210 is supplied to the image motion vector detector 214. The image motion vector detector 214 detects, at the output 216, an image motion vector representing the motion of the subject 202 in the image area 204 based on the supplied imaging signal. An image motion vector as an error signal is supplied from the output terminal 216 to the camera position servo circuit 220, and the position of the image sensor 210 is adjusted so as to track the subject 202 according to the image motion vector.
[0005]
Further, in the related art, there has been proposed an image information distribution system or the like that can accurately realize such motion vector detection even in a situation where an image shows a specific motion (for example, see Patent Document 2). ).
[0006]
[Patent Document 1]
JP-A-6-217188
[Patent Document 2]
JP-A-11-331817
[0007]
[Problems to be solved by the invention]
However, in recent years, a system in which not only a single user but also a plurality of users can visually recognize a captured panoramic image via a network has been desired. In particular, for a wide range of situations such as a merchandise store such as a department store or a restricted area, multiple users need to manage them at the same time. In some cases, you may want to make sure.
[0008]
However, the above-described conventional video camera 200 and the like are suitable for the case where the user independently captures an automatically tracked subject and observes it. Therefore, simultaneous acquisition of moving images by a plurality of users, It was difficult to confirm the contents of the shooting after the fact.
[0009]
It is also necessary to reduce the user's effort to adjust the shooting direction according to the subject to be shot.Furthermore, by making it possible to extract moving images in a general image format, it is possible to check the shooting contents afterwards. It also needed to be easy to implement.
[0010]
Therefore, the present invention has been devised in view of the above-described problems, and a purpose thereof is to easily obtain a moving image of a desired subject from a captured image, It is an object of the present invention to provide a moving image generation apparatus and method, a moving image transmission system, a program, and a recording medium that can simultaneously acquire a moving image generated by the method.
[0011]
[Means for Solving the Problems]
In order to solve the above-described problems, a moving image generation device to which the present invention is applied includes an imaging unit configured to sequentially generate a panoramic image including a plurality of unit images by imaging a shooting range by changing a shooting direction, A recording unit for recording the generated panoramic image to the server, and a moving image generating unit for cutting out one unit image for each panoramic image recorded on the server and generating a moving image based on the cut out unit image.
[0012]
In addition, in order to solve the above-described problem, the moving image generation method to which the present invention is applied is configured to sequentially generate a panoramic image including a plurality of unit images by imaging a shooting range while changing a shooting direction. The obtained panoramic image is recorded in the server, one unit image is cut out for each panoramic image recorded in the server, and a moving image is generated based on the cut out unit image.
[0013]
Further, in order to solve the above-described problem, a moving image transmission system to which the present invention is applied is an imaging device that sequentially generates a panoramic image including a plurality of unit images by imaging a shooting range while changing a shooting direction. And a server for recording the generated panoramic image, an electronic device that cuts out one unit image for each panoramic image recorded on the server, and generates a moving image based on the cut out unit image, and an electronic device. A terminal device for reproducing a moving image received via the communication network.
[0014]
Further, in order to solve the above-described problem, the program to which the present invention is applied changes a photographing direction and images a photographing range, thereby sequentially generating a panoramic image including a plurality of unit images, and generating the panoramic image. Is recorded on the server, one unit image is cut out for each panoramic image recorded on the server, and a computer is caused to generate a moving image based on the cut out unit image.
[0015]
Further, in order to solve the above-described problem, the recording medium to which the present invention is applied changes the photographing direction and images a photographing range, thereby sequentially generating a panoramic image including a plurality of unit images, and generating the panoramic image. An image is recorded on a server, a unit image is cut out for each panoramic image recorded on the server, and a program for causing a computer to generate a moving image based on the cut out unit image is recorded.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. A moving image generation system 1 to which the present invention is applied, for example, as shown in FIG. 1, a camera unit 2 that captures a subject to generate an image signal, a microphone 12 that receives an audio signal, and a video signal transmitted from the camera unit 2. An image input / output unit 13 that applies predetermined processing to the received image signal, an audio input / output unit 14 that applies predetermined processing to the audio signal transmitted from the microphone 12, and at least the image input / output unit 13 and the audio input / output unit 14. An arithmetic processing unit 15 connected to generate a moving image based on the image signal; a server 53 connected to the arithmetic processing unit 15 for recording the image signal; and an operation unit 16 for a user to control the system 1 And a display 6 connected to the arithmetic processing unit 15 for displaying moving images and various information generated by the user, and a terminal device for allowing other users to execute applications. 9, includes a terminal display 10 which is connected to the terminal device 9, and a network 8 to transmit and receive various information to the terminal device 9.
[0017]
The camera unit 2 includes a pan tilter unit 3 and a camera unit 4 integrally formed. The pan-tilt unit 3 is configured as a turntable for freely changing a shooting direction for, for example, two axes of pan and tilt.
[0018]
The camera unit 4 is disposed on a turntable that constitutes the pan tilter unit 3, and captures an image of a subject while adjusting a shooting direction in a horizontal direction or a vertical direction according to control by the arithmetic processing unit 15 and the like. Further, the camera unit 4 sequentially changes the photographing angle of view in accordance with the control of the arithmetic processing unit 15 and the like, thereby enlarging or reducing the photographing magnification, and photographing the subject.
[0019]
The image input / output unit 13, the audio input / output unit 14, the arithmetic processing unit 15, the server and the operation unit 16 may be integrated with an electronic device 100 such as a personal computer (PC). According to the electronic device 100, the image signal transmitted from the camera unit 2 is recorded, and the recorded image signal is displayed to the user via the display 6. Further, when a desired image area or image position is designated by the user, the electronic device 100 controls so as to select an optimum one from the recorded image signals and display the selected signal on the display 6. The electronic device 100 also plays a role as a so-called central control device for controlling the entire network 8, and transmits an image and a sound in response to a request from another terminal device 9.
[0020]
The network 8 includes, for example, an Internet network connected to the electronic device 100 via a telephone line, and information such as ISDN (Integrated Services Digital Network) / B (broadband) -ISDN connected to a TA / modem. This is a public communication network that enables bidirectional transmission and reception. Incidentally, when the moving image generation system 1 is operated in a fixed small area, the network 8 may be configured by a LAN (Local Area Network). Further, the network 8 may be configured to transmit a moving image in addition to a still image. In such a case, based on the Internet Protocol (IP), a moving image including, for example, MPEG (Moving Picture Experts Group) data is continuously transmitted from one channel, and the still image data is transmitted from another channel for a certain period of time. It will be transmitted every time. In addition, a network server (not shown) may be connected to the network 8. The network server (not shown) manages, for example, Internet information, and transmits predetermined information stored therein in response to a request from the terminal device 9.
[0021]
The terminal device 9 is a PC that allows a user waiting at each home or company to acquire an image from the electronic device 100 via the network 8 and execute a desired process. By connecting the plurality of terminal devices 9 to the network 8, it is possible to simultaneously provide the application of the moving image generation system 1 to a plurality of users. The terminal device 9 displays an image acquired from the electronic device 100 on the terminal display 10. In addition, the terminal device 9 generates a request signal in accordance with a designation operation by the user, and transmits the request signal to the electronic device 100. Note that the block configuration of the terminal device 9 will be referred to the configuration of the electronic device 100 described later, and description thereof will be omitted.
[0022]
Next, the configurations of the camera unit 2 and the electronic device 100 in the moving image generation system 1 to which the present invention is applied will be described in detail.
[0023]
FIG. 2 is a configuration diagram of the camera unit 2 and the electronic device 100. In FIG. 2, each component of the camera unit 2 and the electronic device 100 is connected to a common controller bus 21.
[0024]
The pan / tilt unit 3 included in the camera unit 2 includes a tilt unit 3a and a pan unit 3b that control a turntable for changing an imaging direction. The camera unit 4 constituting the camera unit 2 includes a lens control unit 23 for mainly changing the angle of view of the lens unit 22 and an imaging unit 24 disposed at a position orthogonal to the optical axis of the lens unit 22. , An IEEE (Institute of Electrical and Electronics Engineers) 1394 interface 25 for transmitting an image signal generated by the imaging unit 24 to the image input / output unit 13, and a GPS (Global Positioning) for detecting the current position of the camera unit 2. (System) receiving unit 28 and a metadata generating unit 29 attached to the GPS receiving unit 28. Incidentally, the IEEE 1394 interface 25 may be replaced by Ethernet (registered trademark).
[0025]
The image input / output unit 13 includes a buffer memory 51 connected to the IEEE 1394 interface 25, and an encoder 52 connected to the buffer memory 51.
[0026]
The arithmetic processing unit 15 includes an image compression unit 54 for compressing an image read from the server 53, a graphic controller 55 connected to the server 53 and the image compression unit 54, and generating an image to be displayed on the display 6. , A CPU 56 for controlling each unit via the controller bus 21, a memory card 61 and a clock 62 respectively connected to the I / O port 58.
[0027]
The operation unit 16 includes a keyboard 59 and a mouse 60 for the user to specify a desired image area and an image position from an image displayed on the display 6.
[0028]
The Tilt unit 3a and the Pan unit 3b rotate a stepping motor configured as a drive source of the turntable based on a drive signal from the CPU 56. Thereby, the shooting direction of the camera unit 4 mounted on the turntable can be changed in the horizontal direction or the vertical direction.
[0029]
The lens control unit 23 performs an automatic aperture control operation and an automatic focus control operation on the lens unit 22 based on a drive signal from the CPU 56. The lens control unit 23 changes the angle of view of the subject with respect to the subject based on the drive signal. Thus, the camera unit 4 can also sequentially adjust the photographing magnification and image the subject.
[0030]
The imaging unit 24 is configured by a solid-state imaging device such as a CCD (Charge Coupled Device), and forms an image of a subject incident through the lens unit 22 on an imaging surface, generates an image signal by photoelectric conversion, This is transmitted to the IEEE 1394 interface 25.
[0031]
The GPS receiving unit 28 detects an installation location and a shooting direction of the camera unit 2 based on a signal transmitted by the GPS system. By providing the GPS receiving unit 28, particularly when a plurality of camera units 2 are installed, it is possible to control both shooting directions in conjunction with each other. The output signal from the GPS receiving unit 28 is supplied to a metadata generating unit 29, which generates position information such as latitude, longitude, azimuth, altitude, and metadata including time, various parameters, and the like based on the positioning result by GPS. Is done. The metadata generation unit 29 supplies the generated position information and metadata to the encoder 52. In the present invention, the configurations of the GPS receiving unit 28 and the metadata generating unit 29 may be omitted.
[0032]
The buffer memory 51 temporarily stores an image signal supplied from the IEEE 1394 interface 25 based on a control signal from the CPU 56. The image signal temporarily stored in the buffer memory 51 is supplied to an encoder 52, and compression-encoded based on a standard such as JPEG (Joint Photographic Experts Group). Incidentally, the encoder 52 may add position information and metadata supplied from the metadata generation unit 29 to the image signal to be compression-encoded. The encoder 52 outputs the compression-encoded image signal to the server 53 or the image compression unit 54. When the supplied image signal is not subjected to the compression encoding, the processing in the encoder 52 is omitted.
[0033]
The server 53 sequentially records the image signal output from the encoder 52 in association with position information and metadata. Incidentally, the server 53 may be replaced with, for example, a hard disk or a removable disk-shaped recording medium. The image signal recorded in the server 53 is read out to the image compression unit 54 and the graphic controller 55 under the control of the CPU 56. By controlling the image signal recorded on the server 53 to be recorded on the memory card 61, the user can transfer the captured image to another PC. Further, by controlling the image signal recorded in the server 53 to be recorded in the above-described network server (not shown), the server 53 can be replaced with a network server (not shown).
[0034]
The image compression unit 54 generates a compressed image or a thumbnail image for each of the JPEG image signals read from the server 53. The image compression unit 54 reads an image recorded in the server 53 and generates a moving image under the control of the CPU 56. Incidentally, as a compression method at the time of generating the moving image, it may be executed based on, for example, MPEG, Motion-JPEG, Motion-JPEG2000, or the like. The graphic controller 55 executes a painting process on the display 6 based on the image signal read from the server 53 or the image signal output from the image compression unit 54. The graphic controller 55 controls the contrast and brightness of the display 6 based on the control by the CPU 56.
[0035]
The CPU 56 controls a drive signal for driving the pan tilter unit 3 and the lens control unit 23 and controls each unit in the electronic device 100 when an image area and an image position are designated by the user via the keyboard 59 and the mouse 60. Is transmitted via the controller bus 21. Further, the CPU 56 receives a predetermined request signal from the terminal device 9, selects an optimal still image, a moving image, or various information recorded in the server 53, and transmits it to the terminal device 9. To control.
[0036]
The audio input / output unit 12 encodes an audio signal input from the microphone 12. The audio signal encoded by the audio input / output unit 12 is also supplied to the server 53 and recorded in the same manner as the image signal as described above.
[0037]
Next, an imaging operation in the moving image generation system 1 to which the present invention is applied will be described.
[0038]
FIG. 3 shows a case where the camera unit 2 captures an image within the shooting range indicated by the black frame at the shooting angle of view u. In order to image the entire imaging range at the imaging angle of view u, it is necessary to sequentially shift the imaging direction in the horizontal direction or the vertical direction. If the size of the photographing range can be represented by i × j times the size of a frame (hereinafter, referred to as a unit image) obtained by photographing at an arbitrary photographing angle of view u, at least i × j photographing directions are set. There is a need to. By bonding the i × j unit images captured at the shooting angle of view u, an entire image representing the entire shooting range can be synthesized.
[0039]
Here, the coordinates (M, N) of each unit image in the shooting range are 1, 2,... M, i in the horizontal direction from the left end, and 1, 2,. .., J, the CPU 56 transmits a drive signal to the Tilt unit 3a and the Pan unit 3b, so that the shooting direction of the camera unit 4 is first adjusted to the coordinates (1, 1) located at the upper left. Perform imaging. An image signal based on a unit image generated by imaging the coordinates (1, 1) is temporarily stored in the buffer memory 51, and is compression-coded by the encoder 52 based on the JPEG standard. The image signal is recorded in the server 53 at the same time as position information and metadata indicating the shooting direction and the like transmitted from the GPS 28 are added.
[0040]
Similarly, the CPU 56 transmits a drive signal to the Tilt unit 3a and the Pan unit 3b to shift the shooting direction of the camera unit 4 to the right by one image frame and to pick up an image in accordance with the coordinates (2, 1). Execute An image signal generated by imaging the coordinates (2, 1) is also recorded in the server 53. Under the control of the CPU 56, the camera unit 4 changes the shooting direction to the coordinates (3,1), (4,1)... (I, 1) in the horizontal direction, and executes the shooting.
[0041]
After terminating the imaging of the first column, the camera unit 4 adjusts the imaging direction to the coordinates (1, 2) of the second column and executes imaging under the control of the CPU 56, and then sequentially in the horizontal direction. The imaging is performed while shifting. When this operation is repeated to end the imaging up to the coordinates (i, j), the server 53 enters a state in which an image signal based on i × j unit images captured for each coordinate is recorded. FIG. 4 shows an example of an entire image sequentially recorded in the server 53 by executing the above-described imaging operation at predetermined intervals. That is, the server 53 sequentially records the whole image in which such a slight change in the situation in the photographing range is displayed at each time (t1, t2, t3, t4,...).
[0042]
Incidentally, the image signal based on each unit image recorded in the server 53 is sequentially read out by the image compressing section 54 and reduced so as to be adapted to the size of the display screen of the display 6. Each of the reduced unit images is displayed on the display 6 via the graphic controller 15. By displaying all of the i × j unit images recorded on the server 53 on the display 6, one whole image is synthesized. By executing the above-described imaging operation at regular intervals, it is possible to obtain an entire image indicating the latest situation of the imaging range.
[0043]
FIG. 5 shows an example in which the entire image synthesized by pasting the captured i × j unit images is displayed on the entire image display unit 70 of the display 6. The electronic device 100 may cause the whole image display unit 70 to display a boundary between the unit images constituting the whole image, or may display only a seamless whole image. In addition, the electronic device 100 causes the whole image display unit 70 to display one whole image photographed at a photographing angle of view capable of capturing the entire photographing range as an alternative to the panoramic whole image (panoramic image). Is also good.
[0044]
Incidentally, the display screen 45 is further provided with an enlarged image display section 71 for displaying an enlarged image obtained by enlarging the unit image. The enlarged image display unit 71 may enlarge and display one unit image specified by the user among the unit images constituting the entire image displayed on the entire image display unit 70. The moving images may be displayed sequentially for the unit image shooting directions. Thereby, the user can also check the situation of the shooting direction in the specified unit image in real time. Further, the enlarged image display section 71 may display a moving image generated by a method described later.
[0045]
Also, on the display screen 45, a WIDE button 72 for reducing the magnification and displaying the unit image displayed on the enlarged image display unit 71 and a ZOOM button 73 for enlarging and displaying the magnification are displayed. Is done. The display screen 45 includes a shooting direction control unit 75 for adjusting the shooting direction of the camera unit 4 in the horizontal and vertical directions, setting of various modes, and image signals based on unit images at desired addresses to the server. A setting button 76 or the like for recording the data is also displayed.
[0046]
Further, the user can designate a desired image area and image position on the whole image display unit 70 and the enlarged image display unit 71 using the keyboard 59 and the mouse 60. Note that the display units 70 and 71 may further display a sight line and a pointer for executing the above-described designation operation in conjunction with the movement of the mouse 60 or the like.
[0047]
Next, a method of generating a moving image by the moving image generation system 1 to which the present invention is applied will be described.
[0048]
FIG. 6 is a flowchart illustrating a procedure for generating a moving image based on unit images in the same shooting direction.
[0049]
First, in step S11, the user specifies one unit image from the whole image displayed on the whole image display unit 70 using the mouse 60 or the like. Next, the process proceeds to step S12, where the CPU 56 identifies the coordinates (M, N) of the specified unit image, that is, the shooting direction of the specified unit image.
[0050]
Next, the process proceeds to step S13, where the CPU 56 reads, from the server 53, a unit image in the identified shooting direction from the entire image taken at a certain time t1. The CPU 56 temporarily stores the read unit image in a buffer (not shown) or the like.
[0051]
Next, the process proceeds to step S14, where the CPU 56 focuses on the entire image at the next time. If the entire image is recorded in the server 53 in the order of the times t1, t2,... As shown in FIG. 4, the CPU 56 will pay attention to the entire image at the time t2.
[0052]
If the time t of the unit image read in the previous step S13 is the last time, the process proceeds to step S15, otherwise, the process proceeds to step S12. The last time is the time of a unit image constituting the last frame of the generated moving image.
[0053]
When the process returns to step S12, the unit images in the same shooting direction as the identified shooting direction are read out in step S13 and sequentially stored in a buffer (not shown). By repeatedly executing this, a buffer (not shown) is in a state where unit images in the same shooting direction are sequentially stored.
[0054]
FIG. 7 shows unit images read from the server 53 in the same shooting direction from time t1 to time t4. In FIG. 7, the photographing direction specified by the user in step S11 is “near the entrance of the church” displayed in the entire image, and the unit images are sequentially read out until time t4 in this photographing direction. This is shown in each case. It can be seen that as the time elapses, the moving subject (dove) approaches the camera unit 4 and is gradually displayed larger.
[0055]
When the process proceeds to step S15, the CPU 56 sequentially extracts the unit images stored in the buffer (not shown) from the earlier time, and creates a moving image in which the unit images are successively extracted. Incidentally, in the example shown in FIG. 7, a moving image in which the moving subject gradually approaches is created.
[0056]
Next, the process proceeds to step S16, and the created moving image is stored in, for example, the server 53 or the like. By storing the created moving image as a separate file from the still image such as the whole image or the unit image, only the moving image file can be transmitted to another terminal device 9 via the network 8 and stored in a recording medium. This can be distributed to a large number of customers.
[0057]
Also, by installing a playback tool in advance in the electronic device 100, the moving image file stored in step S16 may be played back by the electronic device 100.
[0058]
Next, a procedure for generating a moving image following a moving object in the entire image will be described with reference to FIG.
[0059]
First, in step S21, the user selects a moving subject for which a moving image is desired to be created from the whole image displayed on the whole image display unit 70. For example, as shown in FIG. 9, when selecting a moving subject moving from left to right, an image area in which the moving subject is displayed is designated using the mouse 60 or the like. Hereinafter, the image area specified in step S21 is referred to as a difference detection frame. Incidentally, in this step S21, not only the user but also the CPU 56 may select the moving subject.
[0060]
Next, the process proceeds to step S22, where the CPU 56 identifies the coordinates of the unit image including the specified image region, that is, the shooting direction of the unit image including the specified image region.
[0061]
Next, the process proceeds to step S23, where the CPU 56 reads, from the server 53, a unit image in the identified shooting direction from the entire image taken at a certain time t1. The CPU 56 temporarily stores the read unit image in a buffer (not shown) or the like.
[0062]
Next, the process proceeds to step S24, and the CPU 56 focuses on the entire image at the next time. If the entire image is recorded in the server 53 in the order of the times t1, t2,... As shown in FIG. 4, the CPU 56 will pay attention to the entire image at the time t2.
[0063]
Next, the process proceeds to step S25, where the CPU 56 compares the luminance level of the pixel in the difference detection frame at the previous time t1 with the luminance level of the entire image at the next time t2. At this time, as an alternative to the brightness level of the pixel in the difference detection frame, the brightness level of the pixel in the unit image including the difference detection frame may be set as the comparison target. As a result, when the luminance level of the entire image at the next time t2 changes based on the luminance level in the difference detection frame, the process proceeds to step S26, and otherwise, the process proceeds to step S28. Incidentally, the threshold value for determining whether or not the luminance level has changed may be freely set by the user or may be automatically set by the CPU 56 according to the situation of the subject or the photographing range.
[0064]
FIG. 9 is a diagram illustrating a case where a change occurs in the luminance level of the entire image at the next time t2. As shown in FIG. 9, when the moving subject displayed at the coordinates (4, 2) at time t1 moves to the coordinates (5, 2) at the time t2, the coordinate (4, 2) The luminance level changes for the unit image and the unit image at the coordinates (5, 2).
[0065]
When the process proceeds to step S26, the CPU 56 identifies, from the entire image at the next time t2, the unit image in which the difference is detected in the comparison of the brightness levels in step S25. Incidentally, since the difference in the brightness level is based on the brightness level in the difference detection frame, in other words, based on the brightness level corresponding to the image of the moving subject, the unit image in which such a difference is detected at time t2 This is an image in which the luminance level has changed as a result of the moving object being newly displayed. For this reason, in the example shown in FIG. 9, the CPU 56 identifies the unit image at the coordinates (5, 2), and obtains the unit image to obtain an image in which the moving subject is always displayed. It becomes possible.
[0066]
Next, in step S27, the CPU 56 identifies the shooting direction of the unit image identified in step S26 from the entire image at time t2.
[0067]
In step S28, the CPU 56 reads, from the server 53, a unit image in the identified shooting direction from the entire image taken at time t2, and stores the read unit image in a buffer (not shown). Incidentally, when the process directly proceeds from step S25 to step S28 without going through steps S26 and S27, the photographing direction of the unit image identified by the CPU 56 is the same as the photographing direction identified in step S22. It is. Therefore, at time t2, a unit image located in the same shooting direction as at time t1 is read.
[0068]
Note that if the time t of the unit image read in the previous step S23 is the last time, the process proceeds to step S29; otherwise, the process proceeds to step S24.
[0069]
When the process proceeds to step S24 again, the photographing direction of the unit image is identified by comparing the brightness level with the whole image at the next time in the same manner. Then, in step S28, the unit images in the same shooting direction as the identified shooting direction are read out and sequentially stored in a buffer (not shown). By repeatedly executing this, the buffer (not shown) is in a state in which unit images displaying the moving subject are sequentially stored.
[0070]
FIG. 10 shows a unit image read from the server 53 from time t1 to time t4. As the time elapses, a unit image can be acquired following a moving subject that moves from left to right. That is, by detecting the difference in the luminance level, the moving subject can be automatically tracked and the unit image can be obtained, so that it is as if the user manually operated a handy camera or the like to take an image. You can get a picture.
[0071]
When the process proceeds to step S29, the CPU 56 sequentially extracts the unit images stored in the buffer (not shown) from the earlier time, and creates a moving image in which the unit images are successively extracted. By the way, in the example shown in FIG. 10, a moving image focusing on the movement of the moving subject is generated.
[0072]
Next, the process proceeds to step S30, and the created moving image is stored in, for example, the server 53 or the like. By saving the created moving image as a separate file from a still image such as an entire image or a unit image, only the moving image file can be transmitted to another terminal device 9 via the network 8 or stored in a disk-shaped recording medium. It can then be distributed to many customers. In addition, the stored moving image file may be reproduced by installing a reproduction tool in the electronic device 100 in advance.
[0073]
In the above-described flow, the example in which the CPU 56 stores the unit image read out from the server 53 in a buffer (not shown) has been described. However, the present invention is not limited to such a case. For example, instead of reading the unit image from the server 53, Alternatively, the coordinates of the unit image to be read or the shooting direction may be stored, and the unit image may be read from the stored coordinates or the like when a moving image is created. Further, the server 53 may be used as a substitute for a buffer not shown.
[0074]
In addition, any other method of comparing the luminance levels may be applied. For example, the luminance levels may be compared for each block using block matching for the difference detection frame. The present invention is not limited to the case where the luminance levels are compared, and the respective primary color components of R, G, and B may be compared.
[0075]
As described above in detail, in the moving image generation system 1 to which the present invention is applied, the entire image including a plurality of unit images is sequentially generated by changing the shooting direction to capture the shooting range, and the generated entire image is generated. The image is recorded in the server 53, and a unit image in the same photographing direction as the unit image designated by the user for each whole image recorded in the server 53, or in the photographing direction identified according to the compared luminance level. A certain unit image is cut out, and a moving image is generated based on the cut out unit image.
[0076]
As a result, in the present invention, a moving image of a desired subject can be automatically acquired from a captured image, and it is easy for a user to perform post-analysis of the captured content.
[0077]
Note that the present invention is not limited to the above embodiment. For example, you may comprise as a program which makes a computer perform the above-mentioned operation | movement. Further, the program may be configured as a computer-readable recording medium on which such a program is recorded. This recording medium is a DVD-R (DVD-Recordable) capable of recording data or a DVD-RW (DVD) capable of rewriting recorded data in a DVD (Digital Versatile Disc) which is one of large-capacity optical disks. -Rewritable, DVD-RAM (DVD-Random Access Memory), etc., or CD (Compact Disk), CD-R (CD-Recordable), CD-RW (CD-Rewritable), etc., and even removable memory etc. May be. Incidentally, the recording medium may record not only the above-described program but also an entire image or a unit image recorded in the server 53 and / or a moving image file generated in the present system 1. Other users who have obtained this recording medium can execute the above program using their own PC or the like, and can also view recorded moving images.
[0078]
The moving image generation system 1 to which the present invention is applied is a moving image transmission system that transmits a moving image to the terminal device 9 by connecting a terminal device 9 having the same configuration as the electronic device 100 to a network 8. May be applied. Thereby, the user who operates the terminal device 9 can also acquire the moving image. Since the entire image is recorded once in the server 53, by connecting a plurality of terminal devices 9 to the network 8, a plurality of users can execute the above-described processing ex post facto. In such a case, by sequentially recording each captured whole image in a network server (not shown) connected to the network 8, the terminal device 9 itself accesses the network server (not shown) to read out each unit image, and A moving image may be generated. Thus, the burden on the electronic device 100 that has been simultaneously accessed from the plurality of terminal devices 9 can be reduced.
[0079]
【The invention's effect】
As described in detail above, in the present invention, by changing the shooting direction and shooting the shooting range, an entire image including a plurality of unit images is sequentially generated, the generated entire image is recorded in the server, and Cut out a unit image in the same shooting direction as the unit image specified by the user or a unit image in the shooting direction identified according to the compared brightness level for each whole image recorded in the server, and cut out the unit image A moving image is generated based on.
[0080]
Thus, according to the present invention, a moving image of a desired subject can be automatically acquired from a photographed image, so that the burden on the user can be reduced, and post-analysis of photographed contents can be easily performed. Can be. In addition, by connecting a plurality of terminal devices to the communication network, a plurality of users can simultaneously acquire moving images.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a moving image generation system to which the present invention has been applied.
FIG. 2 is a block diagram of a camera unit and an electronic device.
FIG. 3 is a diagram for describing a case where a camera unit captures an image within a shooting range indicated by a black frame at a shooting angle of view u.
FIG. 4 is a diagram illustrating an example of an entire image sequentially recorded in a server by executing an imaging operation at predetermined intervals.
FIG. 5 is a diagram illustrating a configuration example of a display screen on a display.
FIG. 6 is a flowchart illustrating a procedure for generating a moving image based on unit images in the same shooting direction.
FIG. 7 is a diagram showing unit images read from the server 53 in the same shooting direction from time t1 to time t4.
FIG. 8 is a flowchart illustrating a procedure for generating a moving image following a moving object in the entire image.
FIG. 9 is a diagram for describing a specific example of difference detection.
FIG. 10 is a diagram illustrating an example of generating a moving image by focusing on the movement of a subject.
FIG. 11 is a diagram for describing a configuration of a conventional video camera.
[Explanation of symbols]
Reference Signs List 1 moving image generation system, 2 camera unit, 3 pan tilter section, 4 camera section, 6 display, 8 network, 9 user terminal, 10 terminal display, 12 microphone, 13 image input / output section, 14 audio input / output section, 15 arithmetic processing Unit, 16 operation unit, 21 controller bus, 22 lens unit, 23 lens control unit, 24 imaging unit, 25 IEEE1394 interface, 28 GPS receiving unit, 29 metadata generation unit, 51 buffer memory, 52 encoder, 53 server, 54 image Compression unit, 55 graphic controller, 56 CPU, 58 I / O port, 59 keyboard, 60 mouse, 61 memory card, 62 clock

Claims (26)

撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成する撮像手段と、
上記生成されたパノラマ画像をサーバへ記録する記録手段と、
上記サーバに記録されているパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成する動画生成手段とを備えること
を特徴とする動画像生成装置。
An imaging unit configured to sequentially generate a panoramic image including a plurality of unit images by imaging a shooting range by changing a shooting direction;
Recording means for recording the generated panoramic image on a server,
A moving image generating apparatus comprising: a moving image generating unit that cuts out one unit image for each panoramic image recorded in the server and generates a moving image based on the cut out unit image.
上記動画生成手段により生成された動画像を再生する再生手段をさらに備えること
を特徴とする請求項1記載の動画像生成装置。
The moving image generating apparatus according to claim 1, further comprising a reproducing unit that reproduces the moving image generated by the moving image generating unit.
上記パノラマ画像から切り出す単位画像を指定するための指定手段をさらに備え、
上記動画生成手段は、指定された単位画像と互いに同一の撮影方向上にある単位画像を、上記サーバに記録されている各パノラマ画像から切り出すこと
を特徴とする請求項1記載の動画像生成装置。
Further comprising a designation unit for designating a unit image to be cut out from the panoramic image,
2. The moving image generating apparatus according to claim 1, wherein the moving image generating unit cuts out, from each panoramic image recorded in the server, a unit image located in the same shooting direction as the designated unit image. .
上記動画生成手段は、単位画像を切り出したパノラマ画像と、当該パノラマ画像より後に撮像された他のパノラマ画像との間で輝度レベルを比較し、その比較した結果に応じて上記他のパノラマ画像から単位画像を切り出すこと
を特徴とする請求項1記載の動画像生成装置。
The moving image generating means compares a luminance level between a panoramic image obtained by cutting out the unit image and another panoramic image captured after the panoramic image, and, based on a result of the comparison, calculates a luminance level from the other panoramic image. The moving image generating apparatus according to claim 1, wherein a unit image is cut out.
上記動画生成手段は、単位画像を切り出したパノラマ画像と、上記他のパノラマ画像との間で輝度レベルの差分値を演算し、上記演算した差分値に基づき、上記他のパノラマ画像から単位画像を切り出すこと
を特徴とする請求項4記載の動画像生成装置。
The moving image generating means calculates a difference value of a luminance level between the panoramic image obtained by cutting out the unit image and the another panoramic image, and, based on the calculated difference value, calculates a unit image from the other panoramic image. The moving image generating apparatus according to claim 4, wherein the moving image is cut out.
上記パノラマ画像から切り出す単位画像を指定するための指定手段をさらに備えること
を特徴とする請求項4記載の動画像生成装置。
5. The moving image generating apparatus according to claim 4, further comprising a designating unit for designating a unit image cut out from the panoramic image.
上記撮像手段によるパノラマ画像の撮像に応じて音声信号を受信する音声信号受信手段をさらに備え、
上記記録手段は、上記音声信号受信手段が受信した音声信号を上記サーバへ記録し、
上記動画像生成手段は、単位画像を切り出したパノラマ画像に応じて上記サーバからさらに音声信号を読み出し、これを生成する動画像に付加すること
を特徴とする請求項1記載の動画像生成装置。
An audio signal receiving unit that receives an audio signal in accordance with the panorama image imaging by the imaging unit,
The recording means records the audio signal received by the audio signal receiving means in the server,
The moving image generating apparatus according to claim 1, wherein the moving image generating means further reads an audio signal from the server according to the panoramic image obtained by cutting out the unit image, and adds the audio signal to a moving image to be generated.
撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成し、
上記生成したパノラマ画像をサーバへ記録し、
上記サーバに記録したパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成すること
を特徴とする動画像生成方法。
By changing the shooting direction and imaging the shooting range, a panoramic image composed of a plurality of unit images is sequentially generated,
Record the generated panoramic image on the server,
A moving image generating method, wherein one unit image is cut out for each panoramic image recorded in the server, and a moving image is generated based on the cut out unit images.
上記パノラマ画像から切り出す単位画像を指定し、
指定した単位画像と互いに同一の撮影方向上にある単位画像を、上記サーバに記録されている各パノラマ画像から切り出すこと
を特徴とする請求項8記載の動画像生成方法。
Specify the unit image to be cut out from the above panoramic image,
9. The moving image generation method according to claim 8, wherein a unit image in the same shooting direction as the designated unit image is cut out from each panoramic image recorded in the server.
単位画像を切り出したパノラマ画像と、当該パノラマ画像より後に撮像された他のパノラマ画像との間で輝度レベルを比較し、その比較した結果に応じて上記他のパノラマ画像から単位画像を切り出すこと
を特徴とする請求項8記載の動画像生成方法。
Comparing the brightness level between the panoramic image obtained by cutting out the unit image and another panoramic image captured after the panoramic image, and cutting out the unit image from the other panoramic image according to the comparison result. 9. The moving image generating method according to claim 8, wherein
単位画像を切り出したパノラマ画像と、上記他のパノラマ画像との間で輝度レベルの差分値を演算し、上記演算した差分値に基づき、上記他のパノラマ画像から単位画像を切り出すこと
を特徴とする請求項10記載の動画像生成方法。
A difference value of a luminance level is calculated between the panoramic image obtained by cutting out the unit image and the other panoramic image, and the unit image is cut out from the other panoramic image based on the calculated difference value. The moving image generation method according to claim 10.
上記パノラマ画像から切り出す単位画像を指定すること
を特徴とする請求項10記載の動画像生成方法。
11. The moving image generation method according to claim 10, wherein a unit image cut out from the panoramic image is specified.
上記パノラマ画像の撮像に応じて音声信号を受信し、
上記受信した音声信号を上記サーバへ記録し、
単位画像を切り出したパノラマ画像に応じて上記サーバからさらに音声信号を読み出し、これを生成する動画像に付加すること
を特徴とする請求項8記載の動画像生成方法。
Receiving an audio signal in accordance with the imaging of the panoramic image,
Recording the received audio signal in the server,
9. The moving image generation method according to claim 8, further comprising reading an audio signal from the server according to the panoramic image obtained by cutting out the unit image, and adding the audio signal to a moving image to be generated.
撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成する撮像装置と、
上記生成されたパノラマ画像を記録するためのサーバと、
上記サーバに記録されているパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成する電子機器と、
上記電子機器から通信網を介して受信した上記動画像を再生するための端末装置とを備えること
を特徴とする動画像送信システム。
An imaging device that sequentially generates a panoramic image including a plurality of unit images by imaging a shooting range by changing a shooting direction;
A server for recording the generated panoramic image,
An electronic device that cuts out one unit image for each panoramic image recorded in the server and generates a moving image based on the cut out unit image,
A moving image transmission system, comprising: a terminal device for reproducing the moving image received from the electronic device via a communication network.
上記端末装置は、複数設けられてなること
を特徴とする請求項14記載の動画像送信システム。
The moving image transmission system according to claim 14, wherein a plurality of the terminal devices are provided.
撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成し、
上記生成したパノラマ画像をサーバへ記録し、
上記サーバに記録したパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成することをコンピュータに実行させるためのプログラム。
By changing the shooting direction and imaging the shooting range, a panoramic image composed of a plurality of unit images is sequentially generated,
Record the generated panoramic image on the server,
A program for causing a computer to cut out one unit image for each panoramic image recorded in the server and generate a moving image based on the cut out unit image.
上記パノラマ画像から切り出す単位画像を指定し、
指定した単位画像と互いに同一の撮影方向上にある単位画像を、上記サーバに記録されている各パノラマ画像から切り出すことをコンピュータに実行させる請求項16記載のプログラム。
Specify the unit image to be cut out from the above panoramic image,
17. The program according to claim 16, wherein the program causes the computer to cut out, from each panoramic image recorded in the server, a unit image in the same shooting direction as the designated unit image.
単位画像を切り出したパノラマ画像と、当該パノラマ画像より後に撮像された他のパノラマ画像との間で輝度レベルを比較し、その比較した結果に応じて上記他のパノラマ画像から単位画像を切り出すことをコンピュータに実行させる請求項16記載のプログラム。Comparing the brightness level between the panoramic image obtained by cutting out the unit image and another panoramic image captured after the panoramic image, and cutting out the unit image from the other panoramic image according to the comparison result. 17. The program according to claim 16, which is executed by a computer. 単位画像を切り出したパノラマ画像と、上記他のパノラマ画像との間で輝度レベルの差分値を演算し、上記演算した差分値に基づき、上記他のパノラマ画像から単位画像を切り出すことをコンピュータに実行させる請求項18記載のプログラム。A computer calculates a difference value of a luminance level between the panoramic image obtained by cutting out the unit image and the other panoramic image, and cuts out the unit image from the other panoramic image based on the calculated difference value. The program according to claim 18, which causes the program to execute. 上記パノラマ画像の撮像に応じて音声信号を受信し、
上記受信した音声信号を上記サーバへ記録し、
単位画像を切り出したパノラマ画像に応じて上記サーバからさらに音声信号を読み出し、これを生成する動画像に付加することをコンピュータに実行させる請求項16記載のプログラム。
Receiving an audio signal in accordance with the imaging of the panoramic image,
Recording the received audio signal in the server,
17. The program according to claim 16, wherein the program causes the computer to read out an audio signal from the server in accordance with the panoramic image obtained by cutting out the unit image and to add the audio signal to a moving image to be generated.
撮影方向を変化させて撮影範囲を撮像することにより、複数の単位画像からなるパノラマ画像を順次生成し、
上記生成したパノラマ画像をサーバへ記録し、
上記サーバに記録したパノラマ画像毎に一の単位画像を切り出し、切り出した単位画像に基づき動画像を生成することをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
By changing the shooting direction and imaging the shooting range, a panoramic image composed of a plurality of unit images is sequentially generated,
Record the generated panoramic image on the server,
A computer-readable recording medium storing a program for causing a computer to cut out one unit image for each panoramic image recorded in the server and generate a moving image based on the cut-out unit image.
上記パノラマ画像から切り出す単位画像を指定し、
指定した単位画像と互いに同一の撮影方向上にある単位画像を、上記サーバに記録されている各パノラマ画像から切り出すことをコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な請求項21記載の記録媒体。
Specify the unit image to be cut out from the above panoramic image,
22. The recording medium according to claim 21, which stores a program for causing a computer to cut out, from each panoramic image recorded in the server, a unit image located in the same shooting direction as the designated unit image. .
単位画像を切り出したパノラマ画像と、当該パノラマ画像より後に撮像された他のパノラマ画像との間で輝度レベルを比較し、その比較した結果に応じて上記他のパノラマ画像から単位画像を切り出すことをコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な請求項21記載の記録媒体。Comparing the brightness level between the panoramic image obtained by cutting out the unit image and another panoramic image captured after the panoramic image, and cutting out the unit image from the other panoramic image according to the comparison result. 22. The recording medium according to claim 21, wherein the recording medium stores a program to be executed by a computer. 単位画像を切り出したパノラマ画像と、上記他のパノラマ画像との間で輝度レベルの差分値を演算し、上記演算した差分値に基づき、上記他のパノラマ画像から単位画像を切り出すことをコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な請求項23記載の記録媒体。A computer calculates a difference value of a luminance level between the panoramic image obtained by cutting out the unit image and the other panoramic image, and cuts out the unit image from the other panoramic image based on the calculated difference value. 24. The recording medium according to claim 23, wherein the recording medium records a program to be read. 上記パノラマ画像の撮像に応じて音声信号を受信し、
上記受信した音声信号を上記サーバへ記録し、
単位画像を切り出したパノラマ画像に応じて上記サーバからさらに音声信号を読み出し、これを生成する動画像に付加することをコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な請求項21記載の記録媒体。
Receiving an audio signal in accordance with the imaging of the panoramic image,
Recording the received audio signal in the server,
22. The recording medium according to claim 21, further comprising: a computer-readable recording medium storing a program for causing a computer to read out an audio signal from the server according to a panoramic image obtained by cutting out the unit image and to add the audio signal to a moving image to be generated.
さらに上記生成したパノラマ画像及び/又は動画像を記録したコンピュータ読み取り可能な請求項21記載の記録媒体。22. The recording medium according to claim 21, further comprising a computer readable recording the generated panoramic image and / or moving image.
JP2003026275A 2003-02-03 2003-02-03 Moving picture generating apparatus and method, moving picture transmission system, program, and recording medium Withdrawn JP2004241834A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003026275A JP2004241834A (en) 2003-02-03 2003-02-03 Moving picture generating apparatus and method, moving picture transmission system, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003026275A JP2004241834A (en) 2003-02-03 2003-02-03 Moving picture generating apparatus and method, moving picture transmission system, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2004241834A true JP2004241834A (en) 2004-08-26

Family

ID=32954332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003026275A Withdrawn JP2004241834A (en) 2003-02-03 2003-02-03 Moving picture generating apparatus and method, moving picture transmission system, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2004241834A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007018097A1 (en) * 2005-08-05 2007-02-15 Matsushita Electric Industrial Co., Ltd. Monitor camera apparatus, image processor and photographing apparatus
JP2008236632A (en) * 2007-03-23 2008-10-02 Hitachi Ltd Image processing apparatus and method thereof
US9473699B2 (en) 2012-06-01 2016-10-18 Nintendo Co., Ltd. Storage medium storing information processing program, information processing device, information processing system, and information processing method
US11232768B2 (en) 2005-04-12 2022-01-25 Douglas G. Richardson Embedding animation in electronic mail, text messages and websites
WO2022138574A1 (en) 2020-12-25 2022-06-30 Ricoh Company, Ltd. Moving image generation apparatus, moving image generation method, program, and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232768B2 (en) 2005-04-12 2022-01-25 Douglas G. Richardson Embedding animation in electronic mail, text messages and websites
US11263998B2 (en) 2005-04-12 2022-03-01 Douglas G. Richardson Embedding animation in electronic mail, text messages and websites
US11893965B2 (en) 2005-04-12 2024-02-06 Douglas G. Richardson Embedding animation in electronic mail, text messages and websites
WO2007018097A1 (en) * 2005-08-05 2007-02-15 Matsushita Electric Industrial Co., Ltd. Monitor camera apparatus, image processor and photographing apparatus
JP2008236632A (en) * 2007-03-23 2008-10-02 Hitachi Ltd Image processing apparatus and method thereof
US9473699B2 (en) 2012-06-01 2016-10-18 Nintendo Co., Ltd. Storage medium storing information processing program, information processing device, information processing system, and information processing method
WO2022138574A1 (en) 2020-12-25 2022-06-30 Ricoh Company, Ltd. Moving image generation apparatus, moving image generation method, program, and recording medium

Similar Documents

Publication Publication Date Title
US20170309144A1 (en) Monitoring system for a photography unit, monitoring method, computer program, and storage medium
JP3849645B2 (en) Monitoring device
JP3968665B2 (en) Imaging apparatus, information processing apparatus, information processing method, program, and program recording medium
JP2006333133A (en) Imaging apparatus and method, program, program recording medium and imaging system
JP4736381B2 (en) Imaging apparatus and method, monitoring system, program, and recording medium
JP5292399B2 (en) Content editing device
JP4583717B2 (en) Imaging apparatus and method, image information providing system, program, and control apparatus
JP2004241834A (en) Moving picture generating apparatus and method, moving picture transmission system, program, and recording medium
JP3841033B2 (en) Monitoring system and method, program, and recording medium
JP4172352B2 (en) Imaging apparatus and method, imaging system, and program
JP2004228711A (en) Supervisory apparatus and method, program, and supervisory system
JP2009232325A (en) Imaging apparatus
JP5332668B2 (en) Imaging apparatus and subject detection program
JP4333255B2 (en) Monitoring device
JP6463967B2 (en) Imaging apparatus and control method thereof
JP4127080B2 (en) Imaging apparatus and method
JP2003324723A (en) Monitoring system and method, program, and recording medium
JP2004266669A (en) Monitoring camera and image pickup method
JP4211377B2 (en) Image signal processing device
JP4893364B2 (en) Information processing apparatus, information processing method, program, and program recording medium
JPH10276359A (en) Tracking device and tracking method
JP2004194114A (en) System for providing image information
JP2004247888A (en) Digital movie video camera, and moving picture reproducing device
JP2004088559A (en) Monitoring system, method, program, and recording medium
JP2004194112A (en) Image signal processing apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060404