JP5045213B2 - Imaging device, playback device, and recording file creation method - Google Patents

Imaging device, playback device, and recording file creation method Download PDF

Info

Publication number
JP5045213B2
JP5045213B2 JP2007116639A JP2007116639A JP5045213B2 JP 5045213 B2 JP5045213 B2 JP 5045213B2 JP 2007116639 A JP2007116639 A JP 2007116639A JP 2007116639 A JP2007116639 A JP 2007116639A JP 5045213 B2 JP5045213 B2 JP 5045213B2
Authority
JP
Japan
Prior art keywords
map
moving image
file
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007116639A
Other languages
Japanese (ja)
Other versions
JP2008277959A (en
Inventor
栄介 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007116639A priority Critical patent/JP5045213B2/en
Publication of JP2008277959A publication Critical patent/JP2008277959A/en
Application granted granted Critical
Publication of JP5045213B2 publication Critical patent/JP5045213B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Instructional Devices (AREA)

Description

本発明は、例えば位置情報取得機能及び通信機能を備えた撮像装置及びそれに用いる記録ファイルの作成方法及び再生装置に係り、特に少なくとも動画像データと地図画像データとを関連付けた記録ファイルを生成し記録可能な撮像装置、当該記録ファイルの作成方法、当該記録ファイルに基づき再生が可能な再生装置に関する。   The present invention relates to, for example, an imaging apparatus having a position information acquisition function and a communication function, and a recording file creation method and playback apparatus used therefor, and particularly, generates and records a recording file in which at least moving image data and map image data are associated with each other. The present invention relates to a possible imaging device, a method of creating the recording file, and a reproducing device capable of reproducing based on the recording file.

従来、デジタルカメラやデジタルビデオカメラ等の撮像装置では、撮影した画像に併せて様々な情報をユーザに提示することが可能となっているが、インターネットを介してサービスプロバイダ等により地図データが提供されるようになり、当該地図データに基づき地図を表示する撮像装置についても種々の提案がなされている。   Conventionally, in an imaging apparatus such as a digital camera or a digital video camera, it is possible to present various information to a user in addition to a captured image, but map data is provided by a service provider or the like via the Internet. Various proposals have been made for an imaging apparatus that displays a map based on the map data.

例えば、特許文献1では、内部に地図データがなくても、地図を表示し、位置情報に関連付けられた任意のデータを地図上に表示して有効利用を図る情報処理装置が開示されている。即ち、同技術では、画像データと、その位置情報及び地図へのリンク情報を有する付加情報とを対応付けてメモリスティックに記憶しておき、表示する際にリンク情報に基づいて地図情報を獲得し、LCDに表示している。   For example, Patent Document 1 discloses an information processing apparatus that displays a map even if there is no map data therein, and displays arbitrary data associated with position information on the map for effective use. That is, in this technology, image data, its position information, and additional information having link information to the map are stored in a memory stick in association with each other, and map information is acquired based on the link information when displayed. Is displayed on the LCD.

特開2002−196667号公報JP 2002-196667 A

しかしながら、従来技術では、コンテンツ単位(例えば、撮影開始されて撮影停止されるまでに撮影された動画像データ等の単位)で撮影時の位置情報等を記録していた為、動画撮影時に場所を大きく移動した場合等においては、動画再生時に動画撮影中のリアルタイムな撮影場所を反映した地図を表示することができない場合があった。   However, in the prior art, since position information at the time of shooting is recorded in content units (for example, units of moving image data shot from when shooting is started until shooting is stopped), the location at the time of moving image shooting is changed. In the case of a large movement, it may not be possible to display a map that reflects the real-time shooting location during moving image shooting during moving image playback.

つまり、動画を再生する際に、その動画像データの付加情報として保持されている撮影時の位置情報等に基づいて対応する地図を表示する場合、実際の動画撮影場所と表示される地図上の位置との間に不一致が生じる場合があった。従って、ユーザは、再生時において、動画撮影時の位置を正確に把握することができない場合もあった。   In other words, when displaying a corresponding map based on position information at the time of shooting, which is held as additional information of the moving image data, when playing a movie, on the map where the actual movie shooting location is displayed. In some cases, there was a discrepancy between the positions. Therefore, the user may not be able to accurately grasp the position at the time of moving image shooting during playback.

本発明は、撮影した動画の再生時に、動画撮影中のリアルタイムな撮影場所を反映した地図画像を表示することを課題とする。   It is an object of the present invention to display a map image reflecting a real-time shooting location during moving image shooting when playing back a shot moving image.

本発明の第1の観点による撮像装置は、地図データ提供サーバから地図データを取得可能であって、撮像手段が被写体像を撮像し画像信号を出力し、画像信号処理手段が上記画像信号を処理して動画像データを生成し出力し、動画像圧縮手段が上記動画像データを圧縮符号化し、位置/方位情報取得手段が上記撮像手段による撮影時の位置/方位情報を取得し、通信手段が上記位置/方位情報を、外部ネットワークを介して上記地図データ提供サーバに送信し、当該位置/方位情報に対応する地図画像データを取得し、地図画像取得手段が上記地図画像データの取得の処理を制御しつつ、当該地図画像データを格納した地図動画ファイルを生成し、記録手段が上記記録メディアへの上記地図動画ファイル、動画ファイルの記録を行い、このとき、制御手段が上記圧縮符号化後の動画像データを格納した動画ファイルを生成し、当該動画ファイルを上記地図動画ファイルと対応させて、上記地図動画ファイルと共に上記記録手段により記録メディアに記録するように制御する。 The image pickup apparatus according to the first aspect of the present invention can acquire map data from a map data providing server, the image pickup means picks up a subject image and outputs an image signal, and the image signal processing means processes the image signal. Then, moving image data is generated and output, the moving image compression means compresses and encodes the moving image data, the position / orientation information acquisition means acquires position / orientation information at the time of shooting by the imaging means, and the communication means The position / orientation information is transmitted to the map data providing server via an external network, the map image data corresponding to the position / orientation information is obtained, and the map image obtaining unit performs the process of obtaining the map image data. A map moving image file storing the map image data is generated while controlling, and the recording means records the map moving image file and the moving image file on the recording medium. , So that the control means generates the moving image file storing moving image data after the compression coding, the moving image file in correspondence with the map video files recorded on the recording medium by the recording means together with the map video file To control.

従って、動画像データを格納した動画ファイルと取得した地図画像データを格納した地図動画ファイルが生成されて記録メディアに記録される。   Accordingly, a moving image file storing moving image data and a map moving image file storing acquired map image data are generated and recorded on a recording medium.

本発明の第2の観点による再生装置は、記録メディアに少なくとも動画ファイルと当該動画ファイルの撮影時の位置/方位に対応する地図画像データを含む地図動画ファイルが記録され、再生手段が上記記録メディアより動画ファイルと地図動画ファイルとを読み出し、動画像復号手段が上記動画ファイルの動画像データを復号し、地図画像復号手段が上記地図動画ファイルの地図画像データを復号し、合成手段が上記復号された動画像データと地図画像データを合成し、保持手段がこの合成された画像に係るデータを一時的に保持し、表示手段がこの保持された画像に係るデータを読み出し表示し、上記記録メディアには動画ファイルと地図動画ファイルとの対応関係に係るデータを保持したコンテンツ管理ファイルが併せて格納されており、制御手段が、上記再生手段による再生に際しては当該コンテンツ管理ファイルに基づき動画ファイルに対応する地図動画ファイルを特定する。 In the playback apparatus according to the second aspect of the present invention, a map moving image file including at least a moving image file and map image data corresponding to the position / orientation at the time of shooting of the moving image file is recorded on the recording medium, and the reproducing means is the recording medium. Then, the moving image file and the map moving image file are read out, the moving image decoding unit decodes the moving image data of the moving image file, the map image decoding unit decodes the map image data of the map moving image file, and the combining unit decodes the moving image data. The moving image data and the map image data are combined, the holding unit temporarily stores the data related to the combined image, and the display unit reads out and displays the data related to the stored image, and stores the data on the recording medium. Is a content management file that holds data related to the correspondence between video files and map video files. The control means, when reproduction by said reproducing means to identify the map video file corresponding to the moving image file based on the content management file.

従って、動画再生時に、対応する地図画像が表示される。   Accordingly, a corresponding map image is displayed during moving image reproduction.

本発明の第3の観点による記録ファイル作成・記録方法は、撮影により得られた動画像データと地図データ提供サーバから得た地図画像データであって、上記動画ファイルの撮影時の位置/方位に対応する地図画像データをそれぞれ所定のファイル形式で記録メディアに記録する方法であって、撮影により得られた動画像データを圧縮符号化した後に動画ファイルに格納し、上記地図画像データを地図動画ファイルに格納し、上記動画ファイルと上記地図動画ファイルとの対応関係に係るデータを生成しコンテンツ管理ファイルに格納し、上記動画ファイルと上記地図動画ファイルと上記コンテンツ管理ファイルとを対応付けて上記記録ファイルとして記録メディアに記録する。 A recording file creation / recording method according to a third aspect of the present invention is a moving image data obtained by photographing and map image data obtained from a map data providing server , wherein the moving image file has a position / orientation at the time of photographing. Corresponding map image data is recorded on a recording medium in a predetermined file format, and the moving image data obtained by shooting is compressed and encoded and stored in a moving image file, and the map image data is stored in a map moving image file. And storing the data related to the correspondence between the moving image file and the map moving image file in the content management file, and associating the moving image file, the map moving image file, and the content management file with the recording file As a recording medium.

従って、動画像データが格納された動画ファイルと地図画像データが格納された地図動画ファイルの対応関係がコンテンツ管理ファイルにより管理される。   Accordingly, the correspondence between the moving image file storing the moving image data and the map moving image file storing the map image data is managed by the content management file.

本発明によれば、動画撮影時に動画像データ、並びに地図画像データを対応付けた記録ファイルを生成して記録し、動画再生時に動画撮影中のリアルタイムな撮影場所を反映した地図画像を表示可能とする撮像装置、及び当該記録ファイルの作成方法及び当該記録ファイルに基づく再生が可能な再生装置を提供することができる。   According to the present invention, it is possible to generate and record a recording file in which moving image data and map image data are associated with each other during moving image shooting, and display a map image reflecting a real-time shooting location during moving image shooting during moving image reproduction. An image pickup apparatus that performs recording, a method for creating the recording file, and a reproducing apparatus that can perform reproduction based on the recording file can be provided.

以下、図面を参照して、本発明を実施するための最良の実施の形態(以下、単に実施の形態と称する)について詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a best mode for carrying out the invention (hereinafter simply referred to as an embodiment) will be described in detail with reference to the drawings.

先ず、図1には本発明の第1の実施の形態に係る撮像装置の構成を示し説明する。   First, FIG. 1 shows and describes the configuration of an imaging apparatus according to the first embodiment of the present invention.

図1に示されるように、撮像装置は、全体の制御を司るマイクロコンピュータ13を備えている。このマイクロコンピュータ13は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、シリアルインターフェース、又はパラレルインターフェースなどを内蔵する、所謂「組み込み型」のマイクロコンピュータ等からなる。   As shown in FIG. 1, the imaging apparatus includes a microcomputer 13 that controls the entire system. The microcomputer 13 includes, for example, a so-called “built-in” microcomputer that incorporates a ROM (Read Only Memory), a RAM (Random Access Memory), a serial interface, or a parallel interface.

このマイクロコンピュータ13は、バッファメモリ5、動画像圧縮部6、画素数変換部7、静止画圧縮部12、音声圧縮部8、バッファメモリ10、ドライブ11といった各部と制御バスを介して通信自在に接続されている。モードダイアル14、記録開始停止ボタン15の出力はマイクロコンピュータ13の入力に接続されている。   The microcomputer 13 can communicate with each unit such as a buffer memory 5, a moving image compression unit 6, a pixel number conversion unit 7, a still image compression unit 12, an audio compression unit 8, a buffer memory 10, and a drive 11 via a control bus. It is connected. The outputs of the mode dial 14 and the recording start / stop button 15 are connected to the input of the microcomputer 13.

また、マイクロコンピュータ13は、地図画像取得部18とも通信自在に接続されており、当該地図画像取得部18は位置/方位情報取得部16や外部ネットワーク通信部17やドライブ11と通信自在に接続されている。この実施の形態に係る撮像装置では、地図画像取得部18もマイクロコンピュータにより構成される。但し、マイクロコンピュータ13に当該地図画像取得部18の機能を担わせることも可能である。   The microcomputer 13 is also connected to a map image acquisition unit 18 so as to be communicable. The map image acquisition unit 18 is connected to the position / orientation information acquisition unit 16, the external network communication unit 17, and the drive 11 so as to be capable of communication. ing. In the imaging apparatus according to this embodiment, the map image acquisition unit 18 is also configured by a microcomputer. However, the function of the map image acquisition unit 18 can be assigned to the microcomputer 13.

撮影部1は、例えばレンズや絞り等の光学系及びCCD(Charge Coupled Device)又はCMOS(Complementary Metal-Oxide Semiconductor)センサなどの撮像素子からなり、当該撮像素子の出力は動画像入力インターフェース2を介してバッファメモリ5に接続されている。音声変換部36は、例えばマイクロフォン等からなり、その出力は音声入力インターフェース4を介してバッファメモリ5に接続されている。   The imaging unit 1 includes, for example, an optical system such as a lens and a diaphragm, and an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) sensor. The output of the imaging device is transmitted via a moving image input interface 2. Are connected to the buffer memory 5. The audio conversion unit 36 is composed of, for example, a microphone and the output thereof is connected to the buffer memory 5 via the audio input interface 4.

このバッファメモリ5は、動画像圧縮部6、画素数変換部7、音声圧縮部8に接続されており、動画像圧縮部6、音声圧縮部8の出力はマルチプレクサ9に接続されている。画素数変換部7の出力は静止画像圧縮部12に接続されており、当該静止画圧縮部12の出力はバッファメモリ10に接続されている。マルチプレクサ9はバッファメモリ10に接続され、当該バッファメモリ10はドライブ11と通信自在に接続されている。尚、バッファメモリ5,10は、例えば、半導体メモリからなる。   The buffer memory 5 is connected to a moving image compression unit 6, a pixel number conversion unit 7, and an audio compression unit 8, and outputs of the moving image compression unit 6 and the audio compression unit 8 are connected to a multiplexer 9. The output of the pixel number conversion unit 7 is connected to the still image compression unit 12, and the output of the still image compression unit 12 is connected to the buffer memory 10. The multiplexer 9 is connected to the buffer memory 10, and the buffer memory 10 is connected to the drive 11 so as to be able to communicate. The buffer memories 5 and 10 are made of, for example, a semiconductor memory.

このような構成において、マイクロコンピュータ13は、内蔵のROMに格納されている制御プログラムを実行して、記録装置の全体を制御する。このマイクロコンピュータ13、例えば制御手段として機能する。   In such a configuration, the microcomputer 13 executes the control program stored in the built-in ROM to control the entire recording apparatus. This microcomputer 13 functions as a control means, for example.

撮影部1では、レンズや絞りなどの光学系を介して入射された被写体像が撮像素子に結像され、当該撮像素子が動画像に係る画像信号を動画像入力インターフェース2に供給する。この撮影部1の撮像素子は、例えば撮像手段として機能する。   In the photographing unit 1, a subject image incident through an optical system such as a lens and a diaphragm is formed on an image sensor, and the image sensor supplies an image signal related to a moving image to the moving image input interface 2. The imaging device of the photographing unit 1 functions as an imaging unit, for example.

動画像入力インターフェース2は、撮影部1の撮像素子から供給された画像信号をアナログ/デジタル変換し、シリアルパラレル変換して、当該画像信号を所定の方式の動画像データに変換して、当該動画像データをバッファメモリ5に供給する。この動画像入力インターフェース2は、例えば画像信号処理手段として機能する。   The moving image input interface 2 performs analog / digital conversion on the image signal supplied from the image sensor of the photographing unit 1, performs serial / parallel conversion, converts the image signal into moving image data of a predetermined method, and moves the moving image Image data is supplied to the buffer memory 5. The moving image input interface 2 functions as, for example, an image signal processing unit.

一方、音声変換部3は、被写体からの音声またはその周囲の音声を取得して、取得した音声に対応する音声信号を音声入力インターフェース4に供給する。この音声信号は、撮影部1から出力される画像信号に同期している。音声入力インターフェース4は、この音声信号をアナログデジタル変換し、シリアルパラレル変換して、当該音声信号を所定の方式の音声データに変換して、その音声データをバッファメモリ5に供給する。   On the other hand, the voice conversion unit 3 acquires the voice from the subject or the surrounding voice and supplies a voice signal corresponding to the acquired voice to the voice input interface 4. This audio signal is synchronized with the image signal output from the photographing unit 1. The audio input interface 4 converts the audio signal from analog to digital, serial / parallel conversion, converts the audio signal into audio data of a predetermined system, and supplies the audio data to the buffer memory 5.

バッファメモリ5は、動画像入力インターフェース2から供給された動画像データ、及び音声入力インターフェース4から供給された音声データを一時的に記憶する。   The buffer memory 5 temporarily stores the moving image data supplied from the moving image input interface 2 and the audio data supplied from the audio input interface 4.

そして、バッファメモリ5は、この記憶した動画像データを動画像圧縮部6及び画素数変換部7に供給し、記憶した音声データを音声圧縮部8に供給する。この動画像圧縮部6は、マイクロコンピュータ13の制御の下、バッファメモリ5から供給された動画像データを、例えばMPEG(Moving Pictures Experts Group)2方式等の所定の方式で圧縮符号化して、圧縮符号化された動画像データをマルチプレクサ9に供給する。この動画像圧縮部6は、例えば動画像圧縮手段として機能する。   The buffer memory 5 supplies the stored moving image data to the moving image compression unit 6 and the pixel number conversion unit 7, and supplies the stored audio data to the audio compression unit 8. The moving image compression unit 6 compresses and encodes the moving image data supplied from the buffer memory 5 under a control of the microcomputer 13 by a predetermined method such as MPEG (Moving Pictures Experts Group) 2 method. The encoded moving image data is supplied to the multiplexer 9. The moving image compression unit 6 functions as, for example, a moving image compression unit.

画素数変換部7は、マイクロコンピュータ13の制御の下、動画像データから所定のピクチャ(フレームまたはフィールド)を抽出し、ピクチャの画素数を変換する。   The pixel number conversion unit 7 extracts a predetermined picture (frame or field) from the moving image data under the control of the microcomputer 13 and converts the number of pixels of the picture.

例えば、画素数変換部7は、抽出したピクチャから画素を間引くことにより、ピクチャの画素数を変換する。画素数変換部7は、例えば、図4で示されるように、動画像圧縮部6においてMPEG2方式で圧縮符号化される動画像データのうち、2つのGOPから1つのフレームを抽出する。より具体的には、例えば、動画像圧縮部6が、1秒あたり30フレームの動画像を連続する15フレームからなるGOPを単位として圧縮符号化する場合には、画素数変換部7は、2つのGOPを構成する30フレームから1つのフレームを抽出し、当該フレームから画素を間引いて画素数を変換する。画像数変換部7は画素数を変換した画像データを静止画像圧縮部12に供給する。   For example, the pixel number conversion unit 7 converts the number of pixels in the picture by thinning out pixels from the extracted picture. For example, as illustrated in FIG. 4, the pixel number conversion unit 7 extracts one frame from two GOPs in the moving image data compressed and encoded by the moving image compression unit 6 using the MPEG2 method. More specifically, for example, when the moving image compression unit 6 compresses and encodes a moving image of 30 frames per second in units of 15 frames of GOPs, the pixel number conversion unit 7 has 2 One frame is extracted from 30 frames constituting one GOP, and the number of pixels is converted by thinning out pixels from the frame. The image number conversion unit 7 supplies the image data obtained by converting the number of pixels to the still image compression unit 12.

静止画像圧縮部12は、マイクロコンピュータ13の制御の下、画素数変換部7から供給された画像データを、例えばJPEG(Joint Photographic Experts Group)方式等といった静止画像を圧縮する圧縮符号化方式で符号化する。静止画像圧縮部12は、符号化した画像データをサムネイル画像データとしてバッファメモリ10に供給する。   The still image compression unit 12 encodes the image data supplied from the pixel number conversion unit 7 under the control of the microcomputer 13 by a compression encoding method that compresses a still image such as a JPEG (Joint Photographic Experts Group) method. Turn into. The still image compression unit 12 supplies the encoded image data to the buffer memory 10 as thumbnail image data.

一方、音声圧縮部8は、マイクロコンピュータ13の制御の下、バッファメモリ5から供給された音声データを、例えばAC3(Audio Code Number 3(Dolby Digital(登録商標))方式等といった所定の方式で圧縮符号化して、圧縮符号化された音声データをマルチプレクサ9に供給する。尚、音声圧縮部8から出力される音声データは、動画像圧縮部6から出力される画像データに同期している。こうして、音声圧縮部8は、この圧縮符号化された音声データをマルチプレクサ9に供給する。   On the other hand, the audio compression unit 8 compresses audio data supplied from the buffer memory 5 under a control of the microcomputer 13 by a predetermined method such as an AC3 (Audio Code Number 3 (Dolby Digital (registered trademark)) method. The encoded and compressed audio data is supplied to the multiplexer 9. The audio data output from the audio compression unit 8 is synchronized with the image data output from the moving image compression unit 6. The audio compression unit 8 supplies the compression-encoded audio data to the multiplexer 9.

マルチプレクサ9は、動画像圧縮部6から供給された動画像データ、及び音声圧縮部8から供給された音声データを、例えばMPEG2のシステムストリーム等といった動画ストリームとして多重化し、多重化された動画ストリーム(動画像データ及び音声データからなる)をバッファメモリ10に供給する。バッファメモリ10は、マルチプレクサ9から供給された動画ストリーム(動画像データ及び音声データからなる)、並びに静止画像圧縮部12から供給されたサムネイル画像データを一時的に記憶する。   The multiplexer 9 multiplexes the moving image data supplied from the moving image compression unit 6 and the audio data supplied from the audio compression unit 8 as a moving image stream such as an MPEG2 system stream. (Consisting of moving image data and audio data) is supplied to the buffer memory 10. The buffer memory 10 temporarily stores the moving image stream (consisting of moving image data and audio data) supplied from the multiplexer 9 and the thumbnail image data supplied from the still image compression unit 12.

マイクロコンピュータ13は、所定の制御プログラムを実行して、バッファ10に記憶されている各種データのファイル方式を整えて、後述する所定のファイル方式とする。   The microcomputer 13 executes a predetermined control program and arranges a file system for various data stored in the buffer 10 to obtain a predetermined file system to be described later.

ドライブ11は、バッファメモリ10から、多重化された動画ストリーム(動画像データ及び音声データ)、並びに所定のファイル方式とされたサムネイル画像データを読み出して、記録メディア19に記録する。この記録メディア19としては、磁気ディスク、光ディスク、又は光磁気ディスクなど、種々のものを採用することが可能である。このドライブ11は、例えば記録手段として機能する。   The drive 11 reads the multiplexed video stream (moving image data and audio data) and thumbnail image data in a predetermined file format from the buffer memory 10 and records them on the recording medium 19. As the recording medium 19, various media such as a magnetic disk, an optical disk, or a magneto-optical disk can be adopted. The drive 11 functions as a recording unit, for example.

この動画撮影時においては、地図画像取得部18の制御の下、位置/方位情報取得部16が撮像装置100の位置/方位情報を取得する。より具体的には、位置/方位情報取得部16は、例えばGPS(Global Positioning System)機能により当該撮影時の撮像装置100の位置情報を取得する。即ち、人工衛星103から電波が届くまでの時間を用いて求められる距離を基に、撮像装置100が地球上のどの位置(緯度・経度)にいるのかを検知する。その結果、位置/方位情報として緯度、経度、方位等の情報が取得される。この位置/方位情報取得部16は、例えば位置/方位情報取得手段として機能する。   At the time of moving image shooting, the position / orientation information acquisition unit 16 acquires the position / orientation information of the imaging device 100 under the control of the map image acquisition unit 18. More specifically, the position / orientation information acquisition unit 16 acquires the position information of the imaging apparatus 100 at the time of shooting using, for example, a GPS (Global Positioning System) function. That is, the position (latitude / longitude) on which the imaging apparatus 100 is located on the earth is detected based on the distance obtained using the time until the radio wave arrives from the artificial satellite 103. As a result, information such as latitude, longitude, and direction is acquired as the position / orientation information. The position / orientation information acquisition unit 16 functions as, for example, a position / orientation information acquisition unit.

この位置/方位情報取得部16は、この位置/方位情報を地図画像取得部18に供給する。地図画像取得部18は、この位置/方位情報を、外部ネットワーク通信部17及び例えばインターネット等の外部ネットワーク102を介して、地図データ提供サーバ101に送信し、当該位置/方位情報に対応する地図データ参照先情報を取得する。この地図データ参照先情報は、例えばURL(uniform resource locator)等により表記される。   The position / orientation information acquisition unit 16 supplies the position / orientation information to the map image acquisition unit 18. The map image acquisition unit 18 transmits the position / orientation information to the map data providing server 101 via the external network communication unit 17 and the external network 102 such as the Internet, and the map data corresponding to the position / orientation information. Get reference destination information. This map data reference destination information is described by URL (uniform resource locator) etc., for example.

地図画像取得部18は地図データ参照先情報を取得することができた場合には、当該参照先にアクセスし、地図画像データを取得する。この地図画像データは、ドライブ11に供給され、当該ドライブ11により記録メディア19に記録される。   When the map image acquisition unit 18 can acquire the map data reference destination information, the map image acquisition unit 18 accesses the reference destination and acquires the map image data. The map image data is supplied to the drive 11 and is recorded on the recording medium 19 by the drive 11.

即ち、地図画像取得部18は、地図画像データを詳細は後述するように所定のファイル形式に変換する。そして、地図画像取得部18は、バッファメモリ10の動画ファイルとの対応関係を取りながら、ドライバ11を駆動し、マイクロコンピュータ13が生成した一のフォルダに対応付けて、記録メディア19に記録するよう制御する。この地図画像取得部18は、例えば地図画像取得手段として機能する。   That is, the map image acquisition unit 18 converts the map image data into a predetermined file format as will be described in detail later. Then, the map image acquisition unit 18 drives the driver 11 while taking a correspondence relationship with the moving image file in the buffer memory 10, and records it on the recording medium 19 in association with the one folder generated by the microcomputer 13. Control. This map image acquisition part 18 functions as a map image acquisition means, for example.

以上の処理の過程で、マイクロコンピュータ13は、ユーザの操作に応じた記録開始停止ボタン15やモードダイアル14からの信号受けると、当該信号に基づいて各部に動作を指示する。例えば、通常モードと特殊モードがある場合、モードダイアル14の操作によりいずれかのモードが所望されたかを上記信号によりマイクロコンピュータ13は検知することができ、当該モードに応じて、取得する地図画像データの種別を切り替えることも可能である。即ち、特殊モードが選択されたときには、この種別として例えば、3次元表示(3D)用の地図画像データや各種縮尺の地図画像データ等を選択して取得することが可能となるが、これには限定されない。尚、通常モード選択時には、地図画像データの取得は行わず、通常の撮影動作が行われる。   In the course of the above processing, when the microcomputer 13 receives a signal from the recording start / stop button 15 or the mode dial 14 according to the user's operation, the microcomputer 13 instructs each unit to operate based on the signal. For example, when there is a normal mode and a special mode, the microcomputer 13 can detect from the signal whether any mode is desired by operating the mode dial 14, and map image data to be acquired according to the mode. It is also possible to switch the type. That is, when the special mode is selected, for example, map image data for 3D display (3D) or map image data of various scales can be selected and acquired as this type. It is not limited. Note that when the normal mode is selected, the normal image capturing operation is performed without acquiring the map image data.

ここで、図2には動画の撮影によって記録メディア19に記録される動画コンテンツのファイル構成の一例を示し説明する。   Here, FIG. 2 shows an example of a file structure of moving image content recorded on the recording medium 19 by moving image shooting.

図2に示されるように、動画の撮影によって記録メディア19に記録される動画コンテンツは、ファイル群を管理するコンテンツ管理ファイル、例えばMPEG2方式による動画ストリーム(動画像データ及び音声データからなる)を格納する動画ファイル(例えばGAZO001.MPG、GAZO002.MPEG…)、当該動画ファイルに対応した地図動画ストリーム(地図画像データからなる)を格納する地図動画ファイル(例えばTIZU001.MAP…)、これら動画ストリームと地図動画ストリームとの関係を保持する地図動画管理ファイル(例えばTIZU001.MNR)からなる。これら動画ファイル、地図動画ファイル、コンテンツ管理ファイルは、例えば記録ファイルに相当するものである。   As shown in FIG. 2, the moving image content recorded on the recording medium 19 by shooting a moving image stores a content management file for managing a file group, for example, a moving image stream (consisting of moving image data and audio data) according to the MPEG2 system. Video files (for example, GAZO001.MPG, GAZO002.MPEG ...), map video files (for example, TIZU001.MAP ...) that store map video streams (consisting of map image data) corresponding to the video files, and these video streams and maps It consists of a map video management file (for example, TIZU001.MNR) that holds the relationship with the video stream. These moving image file, map moving image file, and content management file correspond to, for example, recording files.

これら動画ファイル、地図動画ファイル、地図動画管理ファイルの対応関係は、コンテンツ管理ファイルにより、例えば図3で示すようなファイル方式で記録される。   The correspondence relationship between the moving image file, the map moving image file, and the map moving image management file is recorded by the content management file in a file system as shown in FIG.

コンテンツ管理ファイルは、ヘッダとボディ部からなり、当該ボディ部は各ファイル群を管理するための画像ファイル管理情報からなる。この画像ファイル管理情報は、動画ファイル名、地図動画ファイル名、地図動画管理ファイル名で構成される。従って、マイクロコンピュータ13は、この画像ファイル管理情報に基づいて、動画ファイルに対応する地図動画ファイルを簡易且つ迅速に特定することが可能となる。   The content management file includes a header and a body part, and the body part includes image file management information for managing each file group. This image file management information includes a moving image file name, a map moving image file name, and a map moving image management file name. Therefore, the microcomputer 13 can easily and quickly specify the map moving image file corresponding to the moving image file based on the image file management information.

動画ストリームと地図動画ストリームとの関係は図4に示される通りである。   The relationship between the moving image stream and the map moving image stream is as shown in FIG.

この図4において、黒塗りで示したのは、各GOPを構成する先頭フレームである。   In FIG. 4, the first frame constituting each GOP is shown in black.

同図に示されるように、動画ストリームの所定のフレームに対して地図動画ストリームの地図画像データが関連付けられている。例えば、この実施の形態では、動画ストリームの先頭のフレームF1に対して地図画像データP1を割り当てることになる。   As shown in the figure, map image data of the map moving image stream is associated with a predetermined frame of the moving image stream. For example, in this embodiment, map image data P1 is assigned to the first frame F1 of the moving image stream.

次いで、地図画像データを取得するための閾値を例えば2GOPとする場合において2GOP後の動画ストリーム記録時に既に初回の地図画像データが取得できている場合には、3GOPの先頭フレームF2に対応した地図画像データP2を割り当てる。以降、フレームF3には地図画像データP3を割り当てる等、2GOP毎に一の地図画像データが取得可能な場合、2GOP毎に地図画像データが対応付けられて記録される。   Next, when the threshold value for acquiring the map image data is 2 GOP, for example, when the first map image data has already been acquired when recording the video stream after 2 GOP, the map image corresponding to the first frame F2 of 3 GOP Data P2 is assigned. Thereafter, when one map image data can be acquired every 2 GOPs, for example, map image data P3 is allocated to the frame F3, the map image data is recorded in association with each 2 GOPs.

次に図5には地図動画ファイルのファイル構造、図6には地図動画管理ファイルのファイル構造を示し、それぞれ詳細に説明する。図5に示されるように、地図動画ファイルには、複数の地図画像データからなる地図動画ストリームが格納されている。   Next, FIG. 5 shows the file structure of the map moving image file, and FIG. 6 shows the file structure of the map moving image management file, which will be described in detail. As shown in FIG. 5, the map moving image file stores a map moving image stream including a plurality of map image data.

そして、図6に示されるように、地図動画管理ファイルは、ヘッダ部とボディ部からなり、当該ボディ部には地図画像管理情報が格納されている。この地図画像管理情報は、その地図画像データが動画ストリーム中のどのフレームに対応するかを示す動画ストリームフレーム情報、位置/方位情報取得部16から取得した位置/方位情報、地図データ提供サーバ101から地図画像データからなる地図動画ストリームを取得するための地図データ参照先情報、地図動画ファイルに保存した地図画像データの先頭アドレス及びそのデータサイズから構成される。従って、この地図動画管理ファイルを参照すれば、地図画像データが、動画ストリームのどのフレームに対応するか、更には当該地図画像データの格納場所を簡易且つ迅速に検知することが可能となる。   As shown in FIG. 6, the map moving image management file includes a header portion and a body portion, and map image management information is stored in the body portion. This map image management information includes moving image stream frame information indicating which frame in the moving image stream corresponds to the map image data, position / orientation information acquired from the position / orientation information acquisition unit 16, and from the map data providing server 101. It consists of map data reference destination information for acquiring a map moving image stream made up of map image data, the top address of map image data stored in a map moving image file, and its data size. Therefore, by referring to the map moving image management file, it is possible to easily and quickly detect which frame of the moving image stream corresponds to the map image data, and also the storage location of the map image data.

以下、図7乃至図10のフローチャートを参照して、本発明の第1の実施の形態に係る撮像装置による処理を詳細に説明する。尚、以下の処理の一部或いは全部は、記録ファイル作成方法に相当する。   Hereinafter, with reference to the flowcharts of FIGS. 7 to 10, processing by the imaging apparatus according to the first embodiment of the present invention will be described in detail. Part or all of the following processing corresponds to a recording file creation method.

先ず、図7のフローチャートを参照して、本発明の第1の実施の形態に係る撮像装置による地図動画記録処理について詳細に説明する。   First, with reference to the flowchart of FIG. 7, the map moving image recording process by the imaging device according to the first embodiment of the present invention will be described in detail.

地図動画記録処理を開始すると、マイクロコンピュータ13の制御の下、動画像圧縮部6がバッファメモリ5より供給された動画像データを圧縮符号化し、この圧縮符号化された動画像データをマルチプレクサ9に送出する(ステップS1)。   When the map moving image recording process is started, the moving image compression unit 6 compresses and encodes the moving image data supplied from the buffer memory 5 under the control of the microcomputer 13, and the compressed and encoded moving image data is sent to the multiplexer 9. Send out (step S1).

続いて、音声圧縮部8がバッファメモリ5より供給された音声データを圧縮符号化し、圧縮符号化された音声データをマルチプレクサ9に送出する(ステップS2)。   Subsequently, the audio compression unit 8 compresses and encodes the audio data supplied from the buffer memory 5, and sends the compressed and encoded audio data to the multiplexer 9 (step S2).

マルチプレクサ9は、この動画像データと音声データを多重化し、動画ストリームとしてバッファメモリ10に送出する。ドライブ11は、このバッファメモリ10から動画ストリームを読み出して、記録メディア19に記録する(ステップS3)。尚、このステップS3の動画ストリームの記録処理の詳細については図8で後述する。   The multiplexer 9 multiplexes the moving image data and audio data, and sends them to the buffer memory 10 as a moving image stream. The drive 11 reads the moving picture stream from the buffer memory 10 and records it on the recording medium 19 (step S3). Details of the recording process of the moving image stream in step S3 will be described later with reference to FIG.

続いて、マイクロコンピュータ13は、前回の地図画像データの取得が終了しているかを判断する(ステップS4)。この判断は、外部ネットワーク通信部17がインターネット等の外部ネットワーク102を介して地図データ提供サーバ101との間で通信を行って地図画像データを取得する処理が完了するまでは、次の地図画像データの取得処理に移行できないことを考慮したものである。ステップS4にて、前回の地図画像データの取得が終了していない場合には(ステップS4をNoに分岐)、ステップS1に戻り動画像データの圧縮符号化、音声データの圧縮符号化の処理を繰り返す。   Subsequently, the microcomputer 13 determines whether the previous acquisition of the map image data has been completed (step S4). This determination is made until the external map communication unit 17 completes the process of acquiring the map image data by communicating with the map data providing server 101 via the external network 102 such as the Internet. This is because it cannot be transferred to the acquisition process. If the previous acquisition of map image data has not been completed in step S4 (step S4 branches to No), the process returns to step S1 to perform compression encoding of moving image data and compression encoding of audio data. repeat.

一方、前回の地図画像データの取得が終了していると判断した場合には(ステップS4をYesに分岐)、動画ストリームの記録GOP数が閾値を超えたか否かを判断する(ステップS5)。ステップS5にて、動画ストリームの記録GOP数が閾値を超えていない場合には(ステップS5をNoに分岐)、ステップS1に戻り、上記処理を繰り返す。その一方、動画ストリームの記録GOP数が閾値を超えている場合には(ステップS5をYesに分岐)、地図画像取得部18で次の地図画像データの取得処理を行い(ステップS6)、上記ステップS1以降の処理を繰り返すことになる。尚、ステップS6の地図画像データの取得処理の詳細については図9で後述する。   On the other hand, if it is determined that the previous acquisition of the map image data has been completed (step S4 branches to Yes), it is determined whether or not the number of recorded GOPs in the video stream has exceeded the threshold (step S5). In step S5, when the number of recording GOPs of the moving image stream does not exceed the threshold value (step S5 branches to No), the process returns to step S1 and the above processing is repeated. On the other hand, when the number of recorded GOPs of the moving image stream exceeds the threshold (step S5 branches to Yes), the map image acquisition unit 18 performs the next map image data acquisition process (step S6), and the above steps The processes after S1 are repeated. Details of the map image data acquisition process in step S6 will be described later with reference to FIG.

このように、この地図動画記録処理では、動画像圧縮部6、音声圧縮部8で各処理を実行し、前回処理した地図画像の取得が完了している場合であって、且つ前回地図画像取得処理実行から動画ストリームの記録GOP数が閾値を超えた場合には、地図画像取得部18による地図画像の取得処理を実行することになる。   As described above, in this map moving image recording process, each process is executed by the moving image compression unit 6 and the audio compression unit 8 and the acquisition of the previously processed map image is completed, and the previous map image acquisition is performed. When the number of recorded GOPs of the moving image stream exceeds the threshold after the execution of the process, the map image acquisition process by the map image acquisition unit 18 is executed.

ここで、図8のフローチャートを参照して、図7のステップS3の動画ストリームの記録の処理について更に詳細に説明する。   Here, with reference to the flowchart of FIG. 8, the moving image stream recording process in step S3 of FIG. 7 will be described in more detail.

マイクロコンピュータ13は、バッファメモリ10から記憶している動画ストリームのデータ量を取得して、当該バッファメモリ10に記憶されている動画ストリームのデータ量が、予め定めた動画ストリーム記録開始閾値以上になったか否かを判定する(ステップS11)。ここで、動画ストリームのデータ量がシステムストリーム記録開始閾値以上になるまで、判定の処理を繰り返す(ステップS11をNoに分岐)。   The microcomputer 13 acquires the data amount of the moving image stream stored from the buffer memory 10, and the data amount of the moving image stream stored in the buffer memory 10 is equal to or greater than a predetermined moving image stream recording start threshold. It is determined whether or not (step S11). Here, the determination process is repeated until the data amount of the moving image stream becomes equal to or greater than the system stream recording start threshold (step S11 branches to No).

一方、ステップS11において、バッファメモリ10に記憶されている動画ストリームのデータ量が動画ストリーム記録開始閾値以上になったと判定された場合(ステップS11をYesに分岐)、マイクロコンピュータ13は、ドライブ11に、バッファメモリ10に記憶されている動画ストリームを1クラスタ分だけ記録メディア19に記録させる(ステップS12)。続いて、マイクロコンピュータ13は、バッファメモリ10に記憶されている動画ストリームのデータ量が、1クラスタ未満になったか否かを判定する(ステップS13)。ここで、バッファメモリ13に記憶されている動画ストリームのデータ量が、1クラスタ未満になっていないと判定された場合、さらにそのストリームユニットに動画ストリームを記録することができるので、ステップS12に戻り、クラスタへの動画ストリームの記録の処理を繰り返す(ステップS13をNoに分岐)。   On the other hand, when it is determined in step S11 that the data amount of the moving image stream stored in the buffer memory 10 is equal to or greater than the moving image stream recording start threshold (step S11 branches to Yes), the microcomputer 13 Then, the moving image stream stored in the buffer memory 10 is recorded on the recording medium 19 by one cluster (step S12). Subsequently, the microcomputer 13 determines whether or not the data amount of the moving image stream stored in the buffer memory 10 has become less than one cluster (step S13). Here, when it is determined that the data amount of the moving image stream stored in the buffer memory 13 is not less than one cluster, the moving image stream can be further recorded in the stream unit, and the process returns to step S12. Then, the process of recording the moving image stream to the cluster is repeated (step S13 branches to No).

このステップS12,S13のループにより、ストリームユニットの終端まで動画ストリームが記録されることになる。一方、ステップS13において、バッファメモリ10に記憶されている動画ストリームのデータ量が、1クラスタ未満になったと判定された場合(ステップS13をYesに分岐)、更にそのストリームユニットに動画ストリームを記録することができないので、バッファメモリ10に動画ストリームが蓄積されるまで待機するために、ステップS11に戻り、上述した処理を繰り返す。   Through the loop of steps S12 and S13, the moving image stream is recorded up to the end of the stream unit. On the other hand, if it is determined in step S13 that the data amount of the moving image stream stored in the buffer memory 10 has become less than one cluster (step S13 branches to Yes), the moving image stream is further recorded in the stream unit. Therefore, in order to wait until the moving image stream is accumulated in the buffer memory 10, the process returns to step S11 and the above-described processing is repeated.

以上の処理により、バッファメモリ10上の動画ストリームのデータ量が閾値を超えた場合、当該動画ストリームを記録メディア19に記録することができる。   With the above processing, when the data amount of the moving image stream on the buffer memory 10 exceeds the threshold, the moving image stream can be recorded on the recording medium 19.

次に、図9のフローチャートを参照して、図7のステップS6で実行される地図画像データの取得処理について更に詳細に説明する。   Next, the map image data acquisition process executed in step S6 of FIG. 7 will be described in more detail with reference to the flowchart of FIG.

この地図画像データの取得処理を開始すると、位置/方位情報取得部16が位置/方位情報を取得する(ステップS21)。続いて、地図画像取得部18が、外部ネットワーク通信部17により、インターネット等の外部ネットワーク102を介して地図データ提供サーバ101と通信を行って地図画像データを取得する(ステップS22)。   When the map image data acquisition process is started, the position / orientation information acquisition unit 16 acquires position / orientation information (step S21). Subsequently, the map image acquisition unit 18 communicates with the map data providing server 101 via the external network 102 such as the Internet by the external network communication unit 17 to acquire map image data (step S22).

地図画像取得部18は、この地図画像データを取得すると、ドライブ11を駆動制御して、記録メディア19上の地図動画ファイルに当該地図画像データを記録する(ステップS23)。そして、地図画像取得部18は地図動画管理ファイルに詳細は前述したような地図画像管理情報を記録し(ステップS24)、処理を終了する。   When acquiring the map image data, the map image acquiring unit 18 drives and controls the drive 11, and records the map image data in the map moving image file on the recording medium 19 (step S23). Then, the map image acquisition unit 18 records the map image management information as described above in detail in the map moving image management file (step S24), and ends the process.

以上の処理により、記録メディア19上の地図動画ファイルに地図画像データを記録して、更に地図動画管理ファイルに地図画像管理情報を記録することができる。   With the above processing, map image data can be recorded in the map moving image file on the recording medium 19, and further map image management information can be recorded in the map moving image management file.

尚、地図データ提供サーバ101から提供されるデータは、例えばJPEGファイルフォーマット形式の画像ファイルとする。また、地図上の撮影位置及び撮影方向が記録された指示情報が合成された画像が提供される。指示情報が合成されない画像が提供される場合は、後述するが再生時に画像合成部で指示情報を合成してもよい。地図データ提供サーバ101から提供される地図画像データは、地名情報や建物情報などの文字情報や駅等を表すマークとなるランドマーク情報を地図画像に合成したものでもよい。   The data provided from the map data providing server 101 is, for example, an image file in the JPEG file format. In addition, an image in which instruction information in which a shooting position and a shooting direction on a map are recorded is combined is provided. When an image to which instruction information is not combined is provided, the instruction information may be combined by an image combining unit during reproduction as described later. The map image data provided from the map data providing server 101 may be obtained by combining character information such as place name information and building information, or landmark information serving as a mark representing a station or the like, with a map image.

次に、図10のフローチャートを参照して、本発明の第1の実施の形態に係る撮像装置による地図画像データの再取得処理について説明する。   Next, map image data reacquisition processing by the imaging apparatus according to the first embodiment of the present invention will be described with reference to the flowchart of FIG.

地図画像データの再取得処理を開始すると、マイクロコンピュータ13は、コンテンツ管理ファイルの地図動画管理ファイルの地図画像管理情報の位置情報存在フラグの状態を確認し(ステップS310)、当該位置情報存在フラグが“false”である場合には(ステップS31をNoに分岐)、リターンする。一方、当該位置情報存在フラグが“true”ならば、マイクロコンピュータ13は、地図データ参照先情報が設定されているか否かを確認する(ステップS32)。ここで、地図データ参照先情報が設定されていない場合、マイクロコンピュータ13は地図データ参照先情報を取得する(ステップS33)。   When the map image data reacquisition process is started, the microcomputer 13 confirms the position information presence flag state of the map image management information in the map moving image management file of the content management file (step S310), and the position information presence flag is set. If “false” (step S31 branches to No), the process returns. On the other hand, if the position information presence flag is “true”, the microcomputer 13 checks whether map data reference destination information is set (step S32). Here, when the map data reference destination information is not set, the microcomputer 13 acquires the map data reference destination information (step S33).

続いて、地図データ参照先情報が取得できたか否かを判断する(ステップS34)。ここで、当該情報を取得できなかったと判断した場合(ステップS34をNoに分岐)、この処理を終了してリターンする。一方、地図データ参照先情報を取得できたと判断した場合には(ステップS34をYesに分岐)、ステップS35に移行する。また、ステップS32で地図データ参照先情報が設定されている場合にも(ステップS32をYesに分岐)、ステップS35に移行する。こうしてステップS35では、地図データ参照先情報に基づき地図画像データを取得し、この処理を終了してリターンする。   Subsequently, it is determined whether or not map data reference destination information has been acquired (step S34). Here, when it is determined that the information could not be acquired (step S34 is branched to No), this process is ended and the process returns. On the other hand, if it is determined that the map data reference destination information has been acquired (step S34 is branched to Yes), the process proceeds to step S35. Moreover, also when map data reference destination information is set by step S32 (step S32 is branched to Yes), it transfers to step S35. In this way, in step S35, map image data is acquired based on the map data reference destination information, and this process ends and returns.

次に図11には、本発明の第1の実施の形態に係る撮像装置の再生系の構成を示し説明する。この再生系の構成は、例えば再生装置としても機能する。   Next, FIG. 11 shows and describes the configuration of the reproduction system of the imaging apparatus according to the first embodiment of the present invention. This playback system configuration also functions as a playback device, for example.

撮像装置は、全体の制御を司るマイクロコンピュータ67を有している。   The imaging apparatus has a microcomputer 67 that controls the entire system.

このマイクロコンピュータ67は、例えば、ROM、RAM、シリアルインターフェース、又はパラレルインターフェースなどを内蔵する、所謂「組み込み型」のマイクロコンピュータ等からなる。マイクロコンピュータ67は、ドライブ52、バッファメモリ53、動画像伸張部55、地図画像伸張部56、ファイルフォーマット変換部57、音声伸張部58、バッファメモリ59、解像度変換部60、画像合成部61、バッファメモリ62と制御バスを介して制御可能に接続されている。モードダイアル69と再生開始停止ボタン68の出力はマイクロコンピュータ67の入力に接続されている。   The microcomputer 67 is composed of, for example, a so-called “built-in” microcomputer that incorporates a ROM, a RAM, a serial interface, a parallel interface, or the like. The microcomputer 67 includes a drive 52, a buffer memory 53, a moving image expansion unit 55, a map image expansion unit 56, a file format conversion unit 57, an audio expansion unit 58, a buffer memory 59, a resolution conversion unit 60, an image composition unit 61, and a buffer. Controllably connected to the memory 62 via a control bus. The outputs of the mode dial 69 and the playback start / stop button 68 are connected to the input of the microcomputer 67.

このような構成において、マイクロコンピュータ67は、ROMに格納された所定の制御プログラムを実行して、ユーザの操作に応じた再生開始停止ボタン68からの信号を基に、各部に動作を指示する。このマイクロコンピュータ67は、例えば制御手段として機能する。ドライブ52は、マイクロコンピュータ67の制御の下、装着された記録メディア51から、動画ストリーム等を読み出しバッファメモリ53に記憶させる。このドライブ51は、例えば再生手段として機能する。   In such a configuration, the microcomputer 67 executes a predetermined control program stored in the ROM, and instructs each unit to operate based on a signal from the reproduction start / stop button 68 according to a user operation. The microcomputer 67 functions as a control unit, for example. Under the control of the microcomputer 67, the drive 52 reads a moving image stream or the like from the attached recording medium 51 and stores it in the buffer memory 53. The drive 51 functions as a reproducing unit, for example.

デマルチプレクサ54は、バッファメモリ53に記憶されている動画ストリームにおいて多重化されている動画像データと音声データとを分離して、分離した動画像データを動画像伸張部55に供給し、分離した音声データを音声伸張部58に供給する。このデマルチプレクサ54は、例えば分離手段として機能する。   The demultiplexer 54 separates the moving image data and the audio data multiplexed in the moving image stream stored in the buffer memory 53, and supplies the separated moving image data to the moving image decompression unit 55 for separation. The audio data is supplied to the audio expansion unit 58. The demultiplexer 54 functions as a separating unit, for example.

動画像伸張部55は、マイクロコンピュータ67の制御の下、デマルチプレクサ54から供給された、圧縮符号化されている動画像データを復号し、伸張して、解像度変換部61に送出する。この動画像伸張部55は、例えば動画像復号手段に相当する。   The moving image decompression unit 55 decodes the compressed and encoded moving image data supplied from the demultiplexer 54 under the control of the microcomputer 67, decompresses it, and sends it to the resolution conversion unit 61. The moving image decompression unit 55 corresponds to, for example, a moving image decoding unit.

解像度変換部60は、この復号された動画像データの解像度を変換し画像合成部61に送出する。地図画像伸張部56は、地図動画ストリームの地図画像データを復号し、伸張してバッファメモリ59に供給する。この地図画像伸張部56は、例えば地図画像復号手段として機能するものである。バッファメモリ59の地図画像データは画像合成部61に送出される。そして、動画像データと地図画像データが合成され、バッファメモリ62に送出される。この画像合成部61は、例えば合成手段として機能する。   The resolution conversion unit 60 converts the resolution of the decoded moving image data and sends it to the image composition unit 61. The map image decompression unit 56 decodes the map image data of the map moving image stream, decompresses it, and supplies it to the buffer memory 59. This map image expansion unit 56 functions as, for example, a map image decoding unit. The map image data in the buffer memory 59 is sent to the image composition unit 61. Then, the moving image data and the map image data are combined and sent to the buffer memory 62. The image composition unit 61 functions as a composition unit, for example.

静止画像伸張部70は、マイクロコンピュータ67の制御の下、サムネイル画像データを記憶しているバッファメモリ53からサムネイル画像データを取得して、JPEG方式等により圧縮符号化されているサムネイル画像データを復号することにより伸張して、復号したサムネイルデータをバッファメモリ62に供給する。   The still image expansion unit 70 acquires thumbnail image data from the buffer memory 53 storing thumbnail image data under the control of the microcomputer 67, and decodes the thumbnail image data compressed and encoded by the JPEG method or the like. Thus, the decompressed thumbnail data is supplied to the buffer memory 62.

音声伸張部58は、マイクロコンピュータ67の制御の下、デマルチプレクサ54から供給された、例えばAC3方式等により圧縮符号化されている音声データを復号することにより伸張して、復号した音声データをバッファメモリ62に供給する。   The audio decompression unit 58 decompresses the audio data supplied from the demultiplexer 54 under the control of the microcomputer 67 and is compressed and encoded by, for example, the AC3 method, and buffers the decoded audio data. This is supplied to the memory 62.

画像出力インターフェース63は、バッファメモリ62から供給された画像データをパラレルシリアル変換するなど、画像データを表示部64が利用することができる所定の方式の画像信号に変換して、その画像信号を表示部64に供給する。   The image output interface 63 converts the image data supplied to the buffer memory 62 into an image signal of a predetermined method that can be used by the display unit 64, such as parallel-serial conversion, and displays the image signal. Supplied to the unit 64.

表示部64は、例えばLCD(Liquid Crystal Display)又は有機EL(Electro Luminescence)表示装置などからなり、画像出力インターフェース63を介して供給された画像信号に基づいて、動画像および静止画像を表示することになる。この表示部64は例えば表示手段として機能するものである。   The display unit 64 includes, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display device, and displays a moving image and a still image based on an image signal supplied via the image output interface 63. become. The display unit 64 functions as a display unit, for example.

音声出力インターフェース65は、バッファメモリ62から供給された音声データをパラレルシリアル変換するか、またはデジタルアナログ変換するなど、音声データを音声出力部66が利用することができる所定の方式の音声信号に変換して、その音声信号を音声出力部66に供給する。音声出力部66は、オーディオ増幅器又はラウドスピーカなどからなり、音声出力インターフェース65を介して供給された音声信号に基づいて、音声を出力する。   The audio output interface 65 converts the audio data supplied from the buffer memory 62 into an audio signal of a predetermined method that the audio output unit 66 can use, such as parallel-serial conversion or digital-analog conversion. Then, the audio signal is supplied to the audio output unit 66. The audio output unit 66 includes an audio amplifier or a loudspeaker, and outputs audio based on an audio signal supplied via the audio output interface 65.

以下、図12のフローチャートを参照して、本発明の第1の実施の形態に係る撮像装置による地図画像、動画再生処理について詳細に説明する。   Hereinafter, with reference to the flowchart of FIG. 12, the map image and moving image reproduction process by the imaging apparatus according to the first embodiment of the present invention will be described in detail.

処理を開始すると、マイクロコンピュータ67は、表示対象フレームが地図画像データと地図画像管理情報で対応付けられている動画像データ(フレーム)か否かを判断する(ステップS51)。ここで、地図画像データと対応付けられている動画像データ(フレーム)でない場合には(ステップS51をNoに分岐)、ステップS55に移行する。   When the process is started, the microcomputer 67 determines whether the display target frame is moving image data (frame) associated with the map image data and the map image management information (step S51). Here, when it is not the moving image data (frame) matched with map image data (step S51 is branched to No), it transfers to step S55.

一方、ステップS51にて、地図画像データと対応付けられている動画像データ(フレーム)である場合には(ステップS51をYesに分岐)、マイクロコンピュータ67は地図動画管理ファイルの地図画像管理情報から地図画像データが対応付けられている動画ストリームフレーム情報を取得し(ステップS52)、地図動画ファイルから対応する地図画像データを取得し(ステップS53)、当該地図画像データを地図画像伸張部56により伸張し、バッファメモリ59に記録する(ステップS54)。   On the other hand, when it is the moving image data (frame) associated with the map image data in step S51 (step S51 branches to Yes), the microcomputer 67 determines from the map image management information in the map moving image management file. The video stream frame information associated with the map image data is acquired (step S52), the corresponding map image data is acquired from the map video file (step S53), and the map image data is expanded by the map image expansion unit 56. Then, it is recorded in the buffer memory 59 (step S54).

続いて、マイクロコンピュータ67は、デマルチプレクサ54から分離供給された動画像データを動画像伸張部55にて伸張し(ステップS55)、動画像データの解像度を解像度変更部60により変更し(ステップS56)、地図画像データと動画像データを画像合成部61により合成する(ステップS57)。そして、デマルチプレクサ54から分離供給された音声データを音声伸張部58により伸張し(ステップS58)、表示部64にて合成した画像を再生し(ステップS59)、それと共に音声出力部66にて音声を再生する(ステップS60)。その後、ステップS51に戻り、再生開始/停止ボタン68の操作に基づく割り込み処理に移行するまで、上記処理を繰り返す。   Subsequently, the microcomputer 67 expands the moving image data separately supplied from the demultiplexer 54 by the moving image expansion unit 55 (step S55), and changes the resolution of the moving image data by the resolution changing unit 60 (step S56). ) The map image data and the moving image data are combined by the image combining unit 61 (step S57). The audio data separated and supplied from the demultiplexer 54 is expanded by the audio expansion unit 58 (step S58), and the combined image is reproduced by the display unit 64 (step S59). Is reproduced (step S60). Thereafter, the process returns to step S51, and the above process is repeated until the process shifts to an interrupt process based on the operation of the reproduction start / stop button 68.

以上の処理によって、記録メディア51上に記録された動画ファイルの動画ストリームと地図動画ファイルの地図動画ストリームが同期して再生される。   Through the above process, the moving image stream of the moving image file recorded on the recording medium 51 and the map moving image stream of the map moving image file are reproduced in synchronization.

ここで、動画コンテンツのサムネイル画像を一覧表示した場合の表示部64の表示例は例えば図13に示される通りである。再生モードでは、ユーザは、モードダイアル69の操作によりアイコン200c,200dを適宜選択することで、通常再生モードと地図付再生モードを選択することができる。画面200の動画一覧表示から、表示領域200aに表示された動画用サムネイルを参照し、カーソル200bを移動させ選択することで再生を所望とする動画コンテンツを選択する。地図付再生モードを選択した状態で再生する動画コンテンツを選択すると、この選択された動画コンテンツに対して、動画ストリームと同期して地図動画ストリームの再生処理が実行される。   Here, a display example of the display unit 64 when the thumbnail images of the moving image content are displayed as a list is as shown in FIG. 13, for example. In the playback mode, the user can select the normal playback mode and the playback mode with map by appropriately selecting the icons 200c and 200d by operating the mode dial 69. From the moving image list display on the screen 200, the moving image content desired to be reproduced is selected by referring to the moving image thumbnail displayed in the display area 200a and moving and selecting the cursor 200b. When the moving image content to be reproduced is selected in the state where the map-added reproduction mode is selected, the reproduction processing of the map moving image stream is executed on the selected moving image content in synchronization with the moving image stream.

モードダイアル69の選択により、動画及び地図動画を再生した場合の表示例は、例えば図14に示される通りである。この場合、表示部64の画面201には動画ストリームと地図動画ストリームが合成されて再生される。具体的には、動画ストリームは動画再生エリア201aに再生され、地図動画ストリームは地図画像表示エリア201bに再生される。前述したように、動画ストリームの閾値で指定したフレーム毎に、地図画像が更新され、動画ストリームと地図動画ストリームが同期して再生される。このとき、地名情報や建物情報などの文字情報や駅等を表すマークとなるランドマーク情報を、さらには位置/方位情報に基づく指標201cを地図画像に合成している。   A display example when a moving image and a map moving image are reproduced by selecting the mode dial 69 is as shown in FIG. 14, for example. In this case, the moving image stream and the map moving image stream are combined and reproduced on the screen 201 of the display unit 64. Specifically, the moving image stream is reproduced in the moving image reproduction area 201a, and the map moving image stream is reproduced in the map image display area 201b. As described above, the map image is updated for each frame specified by the threshold value of the moving image stream, and the moving image stream and the map moving image stream are reproduced in synchronization. At this time, character information such as place name information and building information, landmark information serving as a mark representing a station, etc., and an index 201c based on position / orientation information are combined with a map image.

以上説明したように、本発明の第1の実施の形態に係る撮像装置によれば、ユーザは動画に関して正確な撮影時の位置/方向情報を反映した地図を参照すること、動画の付加情報をより正確に知ることが可能となるので、利便性を向上させることができる。   As described above, according to the imaging apparatus according to the first embodiment of the present invention, the user refers to a map reflecting accurate position / direction information at the time of shooting with respect to the moving image, and adds the additional information of the moving image. Since it becomes possible to know more accurately, convenience can be improved.

より詳細には、動画ストリーム中の、例えば数GOP毎のフレームに対して、当該フレームの撮影位置に対応した地図画像データと撮影時の位置/方位情報を当該フレームに関連させて記録保存することで、その動画ストリームの再生時に、当該動画ストリームに同期させて、動画ストリームの付加情報として対応した地図画像データを再生する際に動画撮影時の位置/方位情報をリアルタイムで表示することができる。従って、ユーザはより正確な撮影時の位置/方位情報を把握することが可能となる。   More specifically, for example, for each frame of several GOPs in the video stream, map image data corresponding to the shooting position of the frame and position / orientation information at the time of shooting are recorded and stored in association with the frame. Thus, when reproducing the moving image stream, the position / orientation information at the time of moving image shooting can be displayed in real time when the map image data corresponding to the additional information of the moving image stream is reproduced in synchronization with the moving image stream. Therefore, the user can grasp more accurate position / orientation information at the time of shooting.

また、動画再生中に、リアルタイムな撮影位置を反映した地図画像上の地名情報や建物情報を参照することができるため、その時点で再生されている画像に対応した地名情報や建物情報をより正確に把握することが可能となる。更に、撮影位置情報から地図画像を取得する手段が、外部通信機能を利用している場合に関して、動画撮影時に、動画ストリームに同期した地図画像データを記録メディア上に記録しているため、動画再生時に、外部通信機能が通信不良によって、地図画像データが取得できないような状況でも、地図画像を再生することが可能である。また、撮影時の位置/方位情報から地図画像データを取得する手段に関して、当該地図画像データの提供機能が、生成する地図画像に含まれる地図情報を逐次更新されるものである場合であっても、本実施の形態では、撮影時点の地図画像データを記録しているため、動画ストリームと同期して再生される地図画像データは正確な情報として表示することができることとなる。   In addition, since the location name information and building information on the map image reflecting the real-time shooting position can be referenced during video playback, the location name information and building information corresponding to the image being played back at that time are more accurate. It becomes possible to grasp. Furthermore, when the means for acquiring the map image from the shooting position information uses the external communication function, the map image data synchronized with the video stream is recorded on the recording medium at the time of video shooting. Sometimes, it is possible to reproduce a map image even in a situation where the external communication function cannot acquire map image data due to poor communication. Further, regarding the means for acquiring map image data from the position / orientation information at the time of shooting, even if the map image data providing function is to sequentially update the map information included in the generated map image. In this embodiment, since map image data at the time of shooting is recorded, map image data reproduced in synchronization with the moving image stream can be displayed as accurate information.

次に図15乃至図17を参照して、本発明の第2の実施の形態について説明する。   Next, a second embodiment of the present invention will be described with reference to FIGS.

前述した第1の実施の形態では、位置/方位情報取得部16により取得された位置/方位情報に基づいて、対応する地図画像データを外部ネットワーク通信部17が地図データ提供サーバ101から取得していたが、取得する地図画像データの種別については、特に言及しなかった。これに対して、第2の実施の形態に係る撮像装置は、複数の縮尺に係る複数の地図画像データ及び3次元(3D)表示に係る地図画像データを取得し、複数の縮尺、視点の地図画像の表示を可能とするものである。   In the first embodiment described above, the external network communication unit 17 acquires the corresponding map image data from the map data providing server 101 based on the position / orientation information acquired by the position / orientation information acquisition unit 16. However, the type of map image data to be acquired was not particularly mentioned. In contrast, the imaging apparatus according to the second embodiment acquires a plurality of map image data according to a plurality of scales and map image data according to a three-dimensional (3D) display, and a plurality of scales and viewpoint maps. It is possible to display an image.

ここで、地図の視点とは、地図を上から見た場合の2次元画像や地図を撮影方向に向かってみた場合の3D画像が挙げられる。   Here, the viewpoint of the map includes a two-dimensional image when the map is viewed from above and a 3D image when the map is viewed in the shooting direction.

尚、第2の実施の形態に係る撮像装置の記録系、及び表示系のハードウェア構成は、第1の実施の形態(図1、図11)と同様であるので、以下では同一構成については同一符号を用いて説明する。また、前提として、地図データ提供サーバ101は、指定された縮尺/視点の地図画像データを提供できるものとする。   Note that the hardware configuration of the recording system and display system of the imaging apparatus according to the second embodiment is the same as that of the first embodiment (FIGS. 1 and 11). Explanation will be made using the same reference numerals. As a premise, the map data providing server 101 can provide map image data of a specified scale / viewpoint.

ここで、図15には動画の撮影によって記録メディア19に記録される動画コンテンツのファイル構成の一例を示し説明する。動画の撮影によって、記録メディア19に記録される動画コンテンツは、生成するファイル群を管理するコンテンツ管理ファイル、例えばMPEG2方式による動画ストリームを格納する動画ファイル(例えばGAZO001.MPG)、当該動画ファイルに対応した地図動画ストリームを格納する地図動画ファイル(例えばTIZU001.MAP、TIZU002.MAP、TIZU003.MAP)、これら動画ストリームと地図動画ストリームとの関係を保持する地図動画管理ファイル(例えばTIZU001.MNR)からなる。特に、地図動画ファイルとしては、複数の縮尺/視点に係るファイルが設けられる。   Here, FIG. 15 shows an example of a file structure of moving image content recorded on the recording medium 19 by moving image shooting. The moving image content recorded on the recording medium 19 by shooting a moving image corresponds to a content management file that manages a group of files to be generated, for example, a moving image file (for example, GAZO001.MPG) that stores a moving image stream according to the MPEG2 system. Map video files (for example, TIZU001.MAP, TIZU002.MAP, TIZU003.MAP) that store the map video stream, and a map video management file (for example, TIZU001.MNR) that holds the relationship between the video stream and the map video stream. . In particular, as the map moving image file, files relating to a plurality of scales / viewpoints are provided.

そして、特に第2の実施の形態としては、図16に示されるように、画像ファイル管理情報に、動画ファイル名、地図動画ファイル名、地図動画管理ファイルに加えて、複数の縮尺/視点に係る種別情報が「地図動画種別情報」として格納される。即ち、記録処理時において、画像ファイル管理情報に、指定した縮尺/視点の種別を併せて記録することを可能とする。尚、図16では、図示を簡略化しているが、この地図動画種別情報は、地図動画ファイル毎の縮尺/視点の種別を表すことになるので、各地図動画ファイル毎に個別に設けられることになる。そして、再生処理時においては、画像合成部61において、縮尺/視点情報を合成して表示可能とする。   As a second embodiment in particular, as shown in FIG. 16, the image file management information includes a plurality of scales / viewpoints in addition to the movie file name, the map movie file name, and the map movie management file. The type information is stored as “map moving image type information”. That is, during the recording process, it is possible to record the specified scale / viewpoint type together with the image file management information. In FIG. 16, although the illustration is simplified, this map moving image type information represents a scale / viewpoint type for each map moving image file, and therefore is provided individually for each map moving image file. Become. At the time of reproduction processing, the image composition unit 61 makes it possible to compose and display the scale / viewpoint information.

この表示例は、図17に示される通りである。   This display example is as shown in FIG.

この場合、表示部64の画面202には動画ストリームと地図動画ストリームが合成されて再生される。具体的には、動画ストリームは動画再生エリア202aに再生され、地図動画ストリームは地図画像表示エリア202bに再生される。前述したように、動画ストリームの閾値で指定したフレーム毎に、地図画像が更新され、動画ストリームと地図動画ストリームが同期して再生される。このとき、地名情報や建物情報などの文字情報や駅等を表すマークとなるランドマーク情報を、さらには方位情報に基づく指標202cを地図画像に合成している。そして、画面右端の“3D”、“拡大”、“縮小”アイコン202d乃至202fを押下することで、表示される地図の縮尺/視点を適宜変更できる。   In this case, the moving image stream and the map moving image stream are combined and reproduced on the screen 202 of the display unit 64. Specifically, the moving image stream is reproduced in the moving image reproduction area 202a, and the map moving image stream is reproduced in the map image display area 202b. As described above, the map image is updated for each frame specified by the threshold value of the moving image stream, and the moving image stream and the map moving image stream are reproduced in synchronization. At this time, character information such as place name information and building information, landmark information serving as a mark representing a station, etc., and an index 202c based on direction information are combined with a map image. Then, the scale / viewpoint of the displayed map can be changed as appropriate by pressing the “3D”, “enlarge”, and “reduced” icons 202d to 202f on the right end of the screen.

以上説明したように、本発明の第2の実施の形態によれば、ユーザが好む動画ストリームの付加情報を記録可能とすることで、ユーザの利便性を向上することができる。   As described above, according to the second embodiment of the present invention, it is possible to improve user convenience by enabling recording of additional information of a video stream preferred by the user.

以上、本発明の実施の形態について説明したが、本発明はこれに限定されることなくその趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。   The embodiment of the present invention has been described above, but the present invention is not limited to this, and it is needless to say that various improvements and changes can be made without departing from the spirit of the present invention.

例えば、前述した実施の形態では、デジタルカメラやデジタルビデオカメラ等の撮像装置への適用例を示したが、これに限定されず、デジタルカメラ機能を備えた携帯電話機やPDA(Personal Digital Assistants)にも適用可能であることは勿論である。   For example, in the above-described embodiment, an example of application to an imaging apparatus such as a digital camera or a digital video camera has been shown. Of course, it is applicable.

本発明の第1の実施の形態に係る撮像装置の構成図。The block diagram of the imaging device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る撮像装置による動画の撮影によって記録メディアに記録される動画コンテンツのファイル構成を示す図。FIG. 3 is a diagram showing a file structure of moving image content recorded on a recording medium by moving image shooting by the imaging apparatus according to the first embodiment of the present invention. コンテンツ管理ファイルのファイル構造の一例を示す図。The figure which shows an example of the file structure of a content management file. 動画ストリームと地図動画ストリームとの関係を示す図。The figure which shows the relationship between a video stream and a map video stream. 地図動画ファイルのファイル構造を示す図。The figure which shows the file structure of a map moving image file. 地図動画管理ファイルのファイル構造を示す図。The figure which shows the file structure of a map moving image management file. 本発明の第1の実施の形態に係る撮像装置による地図動画記録処理について詳細に説明するフローチャート。The flowchart explaining in detail the map moving image recording process by the imaging device which concerns on the 1st Embodiment of this invention. 図7のステップS3の動画ストリームの記録の処理について更に詳細に説明するフローチャート。FIG. 8 is a flowchart for explaining in more detail the processing of recording a moving image stream in step S3 of FIG. 図7のステップS6で実行される地図画像データの取得処理について更に詳細に説明するフローチャート。8 is a flowchart for explaining in more detail the map image data acquisition process executed in step S6 of FIG. 本発明の第1の実施の形態に係る撮像装置による地図画像データの再取得処理について説明するフローチャート。The flowchart explaining the re-acquisition process of the map image data by the imaging device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る撮像装置の再生系の構成図。1 is a configuration diagram of a reproduction system of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る撮像装置による地図画像、動画再生処理について詳細に説明するフローチャート。5 is a flowchart for explaining in detail map image and moving image reproduction processing by the imaging apparatus according to the first embodiment of the present invention. 動画コンテンツのサムネイル画像を一覧表示した場合の表示例を示す図。The figure which shows the example of a display when the thumbnail image of a moving image content is displayed as a list. 動画及び地図動画を再生した場合の表示例を示す図。The figure which shows the example of a display at the time of reproducing | regenerating a moving image and a map moving image. 本発明の第2の実施の形態に係る撮像装置による動画の撮影によって記録メディアに記録される動画コンテンツのファイル構成の一例を示す図。The figure which shows an example of the file structure of the moving image content recorded on a recording medium by imaging | photography of the moving image by the imaging device which concerns on the 2nd Embodiment of this invention. 画像ファイル管理情報の内容を示す図。The figure which shows the content of image file management information. 動画及び地図動画を再生した場合の表示例を示す図。The figure which shows the example of a display at the time of reproducing | regenerating a moving image and a map moving image.

符号の説明Explanation of symbols

1…撮影部、2…動画像入力インターフェース、3…音声変換部、4…音声入力インターフェース、5…バッファメモリ、6…動画圧縮部、7…画素数変換部、8…音声圧縮部、9…マルチプレクサ、10…バッファメモリ、11…ドライブ、12…静止画圧縮部、13…マイクロコンピュータ、14…モードダイアル、15…記録開始停止ボタン、16…位置/方位情報取得部、17…外部ネットワーク通信部、18…地図画像取得部、19…記録メディア、51…記録メディア、52…ドライブ、53…バッファメモリ、54…マルチプレクサ、55…動画像伸張部、56…地図画像伸張部、57…ファイルフォーマット変換部、58…音声伸張部、59…バッファメモリ、60…解像度変換部、61…画像合成部、62…バッファメモリ、63…画像出力インターフェース、64…表示部、65…音声出力インターフェース、66…音声出力部、67…マイクロコンピュータ、68…再生開始停止ボタン、69…モードダイアル、70…静止画伸張部、100…撮像装置(記録系)、101…地図データ提供サーバ、102…外部ネットワーク、103…人工衛星、104…撮像装置(再生系)   DESCRIPTION OF SYMBOLS 1 ... Image pick-up part, 2 ... Moving image input interface, 3 ... Audio | voice conversion part, 4 ... Audio | voice input interface, 5 ... Buffer memory, 6 ... Movie compression part, 7 ... Pixel number conversion part, 8 ... Audio | voice compression part, 9 ... Multiplexer, 10 ... Buffer memory, 11 ... Drive, 12 ... Still image compression unit, 13 ... Microcomputer, 14 ... Mode dial, 15 ... Recording start / stop button, 16 ... Position / orientation information acquisition unit, 17 ... External network communication unit 18 ... Map image acquisition unit, 19 ... Recording medium, 51 ... Recording medium, 52 ... Drive, 53 ... Buffer memory, 54 ... Multiplexer, 55 ... Moving image decompression unit, 56 ... Map image decompression unit, 57 ... File format conversion 58: Audio decompression unit, 59 ... Buffer memory, 60 ... Resolution conversion unit, 61 ... Image composition unit, 62 ... Buffer memo 63 ... Image output interface, 64 ... Display unit, 65 ... Audio output interface, 66 ... Audio output unit, 67 ... Microcomputer, 68 ... Playback start / stop button, 69 ... Mode dial, 70 ... Still image expansion unit, 100 ... Imaging device (recording system), 101 ... Map data providing server, 102 ... External network, 103 ... Artificial satellite, 104 ... Imaging device (reproduction system)

Claims (7)

地図データ提供サーバから地図画像データを取得可能な撮像装置において、
被写体像を撮像し画像信号を出力する撮像手段と、
上記画像信号を処理して動画像データを生成し出力する画像信号処理手段と、
上記動画像データを圧縮符号化する動画像圧縮手段と、
上記撮像手段による撮影時の位置/方位情報を取得する位置/方位情報取得手段と、
上記位置/方位情報を外部ネットワークを介して上記地図データ提供サーバに送信し、当該位置/方位情報に対応する地図画像データを取得する通信手段と、
上記地図画像データの取得の処理を制御しつつ、当該地図画像データを格納した地図動画ファイルを生成する地図画像取得手段と、
記録メディアへの上記地図動画ファイル、動画ファイルの記録を行う記録手段と、
上記圧縮符号化後の動画像データを格納した動画ファイルを生成し、当該動画ファイルを上記地図動画ファイルと対応させて、上記地図動画ファイルと共に上記記録手段により上記記録メディアに記録するように制御する制御手段とを具備する
ことを特徴とする撮像装置。
In an imaging device capable of acquiring map image data from a map data providing server,
Imaging means for capturing a subject image and outputting an image signal;
Image signal processing means for processing the image signal to generate and output moving image data;
Moving image compression means for compressing and encoding the moving image data;
Position / orientation information acquisition means for acquiring position / orientation information at the time of shooting by the imaging means;
Communication means for transmitting the position / orientation information to the map data providing server via an external network and acquiring map image data corresponding to the position / orientation information;
Map image acquisition means for generating a map moving image file storing the map image data while controlling the processing of acquiring the map image data;
Recording means for recording the map moving image file and moving image file on the recording medium;
A moving image file storing the moving image data after the compression encoding is generated, and the moving image file is associated with the map moving image file and controlled to be recorded on the recording medium by the recording means together with the map moving image file. An image pickup apparatus comprising: a control unit.
上記記録メディアに記録された動画ファイル及び地図動画ファイルを読み出し、当該動画ファイルに格納されている動画像データ及び上記地図動画ファイルに格納されている地図画像データに係る画像を少なくとも表示する表示手段を有し、
上記表示手段による表示に際して、上記動画像データのサムネイル画像を表示し、当該サムネイル画像に対応する地図画像データを表示指示するためのアイコンを上記サムネイル画像と併せて表示する
ことを特徴とする請求項1に記載の撮像装置。
Display means for reading out the moving image file and the map moving image file recorded on the recording medium, and displaying at least the moving image data stored in the moving image file and the image related to the map image data stored in the map moving image file Have
The thumbnail image of the moving image data is displayed at the time of display by the display means, and an icon for instructing display of map image data corresponding to the thumbnail image is displayed together with the thumbnail image. The imaging apparatus according to 1.
上記記録メディアに動画ファイルと地図動画ファイルを格納するときには、当該動画ファイルと地図動画ファイルとの対応関係に係るデータを保持したコンテンツ管理ファイルを併せて格納する
ことを更に特徴とする請求項1に記載の撮像装置。
The video recording file and the map video file are stored on the recording medium, and a content management file holding data relating to the correspondence between the video file and the map video file is also stored. The imaging device described.
上記撮影時に上記地図画像取得手段により上記位置/方位情報に対応する地図画像データを取得することができなかった場合において、上記地図画像取得手段は、上記位置/方位情報を再び外部ネットワークを介して上記地図データ提供サーバに送信し、当該位置/方位情報に対応する地図画像データを取得する
ことを更に特徴とする請求項2に記載の撮像装置。
In case of failure to obtain the map image data corresponding to the position / orientation information by the map image acquisition unit during the shooting, the map image acquisition means, the position / orientation information again via the external network The imaging apparatus according to claim 2, further comprising: transmitting to the map data providing server and acquiring map image data corresponding to the position / orientation information.
上記記録メディアに記録された動画ファイル及び地図動画ファイルを読み出し、当該動画ファイルに格納されている動画像データ及び上記地図動画ファイルに格納されている地図画像データに係る画像を少なくとも表示する表示手段を有し、
上記地図画像取得手段は、上記地図データ提供サーバより複数の縮尺及び視点に係る地図画像データを取得し、上記表示手段による表示に際しては、上記複数の縮尺及び視点に係る地図画像データに係る地図画像を選択的に表示することを可能とする
ことを特徴とする請求項1に記載の撮像装置。
Display means for reading out the moving image file and the map moving image file recorded on the recording medium, and displaying at least the moving image data stored in the moving image file and the image related to the map image data stored in the map moving image file Have
The map image acquisition means acquires map image data relating to a plurality of scales and viewpoints from the map data providing server, and when displaying by the display means, the map image relating to the map image data relating to the plurality of scales and viewpoints The image pickup apparatus according to claim 1, wherein the image pickup device can be selectively displayed.
少なくとも動画ファイルと当該動画ファイルの撮影時の位置/方位に対応する地図画像データを含む地図動画ファイルが記録された記録メディアと、
上記記録メディアより動画ファイルと地図動画ファイルとを読み出す再生手段と、
上記動画ファイルの動画像データを復号する動画像復号手段と、
上記地図動画ファイルの地図画像データを復号する地図画像復号手段と、
上記復号された動画像データと地図画像データを合成する合成手段と、
この合成された画像に係るデータを一時的に保持する保持手段と、
この保持された画像に係るデータを読み出し、表示する表示手段と、
上記記録メディアには動画ファイルと地図動画ファイルとの対応関係に係るデータを保持したコンテンツ管理ファイルが併せて格納されており、上記再生手段による再生に際しては当該コンテンツ管理ファイルに基づき動画ファイルに対応する地図動画ファイルを特定する制御手段とを具備する
ことを特徴とする再生装置。
A recording medium on which a map video file including at least a video file and map image data corresponding to the position / orientation at the time of shooting the video file is recorded;
Reproducing means for reading out the moving image file and the map moving image file from the recording medium,
Moving image decoding means for decoding moving image data of the moving image file;
Map image decoding means for decoding the map image data of the map moving image file;
Combining means for combining the decoded moving image data and map image data;
Holding means for temporarily holding data relating to the synthesized image;
Display means for reading out and displaying data relating to the held image;
The recording medium also stores a content management file that holds data relating to the correspondence between the moving image file and the map moving image file, and corresponds to the moving image file based on the content management file when played by the playing means. And a control means for specifying a map moving image file.
撮影により得られた動画像データと地図データ提供サーバから得た地図画像データであって、上記動画ファイルの撮影時の位置/方位に対応する地図画像データをそれぞれ所定のファイル形式で記録メディアに記録する方法であって、
撮影により得られた動画像データを圧縮符号化した後に動画ファイルに格納し、
上記地図画像データを地図動画ファイルに格納し、
上記動画ファイルと上記地図動画ファイルとの対応関係に係るデータを生成しコンテンツ管理ファイルに格納し、上記動画ファイルと上記地図動画ファイルと上記コンテンツ管理ファイルとを対応付けて記録ファイルとして記録メディアに記録する
ことを特徴とする記録ファイル作成方法。
The moving image data obtained by shooting and the map image data obtained from the map data providing server, and the map image data corresponding to the position / orientation at the time of shooting of the moving image file are recorded on the recording medium in a predetermined file format. A way to
Video data obtained by shooting is compressed and encoded and stored in a video file.
Store the map image data in a map video file,
Data related to the correspondence between the video file and the map video file is generated and stored in a content management file, and the video file, the map video file, and the content management file are associated with each other and recorded as a recording file on a recording medium. A recording file creation method characterized by:
JP2007116639A 2007-04-26 2007-04-26 Imaging device, playback device, and recording file creation method Expired - Fee Related JP5045213B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007116639A JP5045213B2 (en) 2007-04-26 2007-04-26 Imaging device, playback device, and recording file creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007116639A JP5045213B2 (en) 2007-04-26 2007-04-26 Imaging device, playback device, and recording file creation method

Publications (2)

Publication Number Publication Date
JP2008277959A JP2008277959A (en) 2008-11-13
JP5045213B2 true JP5045213B2 (en) 2012-10-10

Family

ID=40055436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007116639A Expired - Fee Related JP5045213B2 (en) 2007-04-26 2007-04-26 Imaging device, playback device, and recording file creation method

Country Status (1)

Country Link
JP (1) JP5045213B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102197645A (en) 2008-10-22 2011-09-21 夏普株式会社 Imaging device and program
JP5599037B2 (en) * 2010-04-30 2014-10-01 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP2012226646A (en) 2011-04-21 2012-11-15 Sony Corp Information providing apparatus, information providing method and program
JP6220128B2 (en) * 2013-01-08 2017-10-25 アークレイ株式会社 Terahertz wave generator and terahertz wave measuring method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288725A (en) * 1994-04-20 1995-10-31 Hitachi Ltd Video device
JP2003249057A (en) * 2002-02-26 2003-09-05 Toshiba Corp Enhanced navigation system using digital information medium

Also Published As

Publication number Publication date
JP2008277959A (en) 2008-11-13

Similar Documents

Publication Publication Date Title
KR101905648B1 (en) Apparatus and method for shooting a moving picture of camera device
JP4938615B2 (en) Video recording / playback device
JP5783737B2 (en) Image pickup apparatus and moving image recording apparatus control method
JP6270555B2 (en) Image processing system, imaging apparatus, and control method thereof
JP2007274443A (en) Image transmitting method, transmitter, receiver and image transmitting system
JP5045213B2 (en) Imaging device, playback device, and recording file creation method
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
US8625002B2 (en) Image processing apparatus and control method thereof for use in multiplexing image data and additional information
JP2009239381A (en) Video recording system and imaging apparatus
KR101385168B1 (en) Image data recording apparatus
JP5349488B2 (en) Imaging device, output device, program, and imaging method of imaging device
JP5769434B2 (en) Movie recording device, information processing device
JP2015023317A5 (en) Image management apparatus, image management method, program, and storage medium
JP6366268B2 (en) Imaging apparatus and control method thereof
KR101480407B1 (en) Digital image processing apparatus, method for controlling the same and medium of recording the method
JP2006005610A (en) Panoramic video recording and reproducing device
JP2008288934A (en) Moving picture photographing device and moving picture reproducing device
JP2006304163A (en) Still image generating system
JP2005109658A (en) Photographing apparatus
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method
JP5058842B2 (en) Virtual landscape display device
JP2009004993A (en) Method and apparatus for photographing dynamic pictures
JP2008262487A (en) Imaging unit, and method for generating and recording synchronization file
JP2015029211A (en) Imaging device
JP2021040217A (en) Imaging apparatus, control method of the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees