JP2009159279A - Camera instrument and image reproducer - Google Patents
Camera instrument and image reproducer Download PDFInfo
- Publication number
- JP2009159279A JP2009159279A JP2007334823A JP2007334823A JP2009159279A JP 2009159279 A JP2009159279 A JP 2009159279A JP 2007334823 A JP2007334823 A JP 2007334823A JP 2007334823 A JP2007334823 A JP 2007334823A JP 2009159279 A JP2009159279 A JP 2009159279A
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- video data
- position information
- azimuth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルカメラ、ビデオカメラ等のカメラ装置およびそのカメラ装置で撮影された映像の映像信号を再生する映像再生装置に関する。 The present invention relates to a camera device such as a digital camera or a video camera, and a video playback device that plays back a video signal of a video shot by the camera device.
従来、被写体の光学映像を取込み、映像データに変換して電子的に保存するカメラ装置(電子カメラ装置ともいう)が知られている。従来のカメラ装置には、静止画の撮影を主体とするデジタルカメラと、動画の撮影を主体とするビデオカメラとがある。 2. Description of the Related Art Conventionally, a camera device (also referred to as an electronic camera device) that captures an optical image of a subject, converts it into video data, and stores it electronically is known. Conventional camera devices include a digital camera mainly for taking still pictures and a video camera mainly for taking moving pictures.
デジタルカメラ、ビデオカメラのいずれについても従来から様々なものが普及している。例えば、特許文献1には、撮影場所の地名を静止画に付加して表示するデジタルカメラが開示されている。
前述のカメラ装置の場合、静止画を再生すると、撮影場所の地名を付加して表示することができる。 In the case of the camera device described above, when a still image is reproduced, the place name of the shooting location can be added and displayed.
しかし、動画を再生したときに撮影場所の地名を付加して表示するには、撮影により得られる映像データに加えて撮影場所のデータ(以下「撮影場所データ」という)を別途、記録しておかなければならない。しかも、動画は静止画と違って撮影中にカメラの方位や傾斜角(アングル)が変化しながら撮影されることが多いため、映像データ中のシーンごとに撮影場所データを記録し、かつ映像データと撮影場所データとを対応付けておかねばならない。 However, in order to add and display the location name of the shooting location when the video is played back, record the shooting location data (hereinafter referred to as “shooting location data”) in addition to the video data obtained by shooting. There must be. In addition, unlike still images, moving images are often shot while the camera orientation and tilt angle (angle) changes during shooting, so shooting location data is recorded for each scene in the video data, and video data And shooting location data must be associated with each other.
また、撮影後、映像データ中の不要な部分の削除や別のシーンの挿入といった編集作業を行うと、それに伴い、映像データが変化することになるが、その場合、編集後の映像データと撮影場所データとを対応付けておかないと、編集後、地名等の位置を明らかにすることはできなくなってしまう。 In addition, if editing work such as deleting unnecessary parts in video data or inserting another scene is performed after shooting, the video data will change accordingly. If the location data is not associated with each other, the location of the place name or the like cannot be clarified after editing.
そこで、本発明は上記課題を解決するためになされたもので、撮影場所データを映像データとは別に記録しておくことなく、編集後も映像がどこでどのようにして撮影されたのかを明らかにできるようにしたカメラ装置および映像再生装置を提供することを目的とする。 Therefore, the present invention has been made to solve the above-mentioned problem, and clearly shows where and how the video was shot after editing without recording the shooting location data separately from the video data. It is an object of the present invention to provide a camera device and a video playback device that can be used.
上記課題を解決するため、本発明は、光学映像に応じた撮像信号を出力する撮像手段と、その撮像手段から出力される撮像信号を用いて光学映像に応じた映像データを生成する映像データ生成手段と、撮影場所に関する位置情報を取得する位置情報取得手段と、撮像手段の方位を特定するための方位情報を取得する方位情報取得手段と、映像データ生成手段が映像データを生成するときに、位置情報取得手段が取得した位置情報および方位情報取得手段が取得した方位情報を、映像データ生成手段により生成される映像データに挿入する挿入手段とを有するカメラ装置を特徴とする。 In order to solve the above-described problems, the present invention provides an image pickup unit that outputs an image pickup signal corresponding to an optical image, and an image data generation that generates image data corresponding to an optical image using the image pickup signal output from the image pickup unit. Means, position information acquisition means for acquiring position information relating to the shooting location, orientation information acquisition means for acquiring orientation information for specifying the orientation of the imaging means, and when the video data generation means generates video data, The camera apparatus includes an insertion unit that inserts the position information acquired by the position information acquisition unit and the direction information acquired by the direction information acquisition unit into the video data generated by the video data generation unit.
また、本発明は、圧縮符号化された映像データを復号する復号手段と、位置画像を生成するための地図情報を記憶する地図情報記憶手段と、復号手段が映像データを復号するときに、その映像データにおける付加情報を加えるためのユーザデータ領域に挿入されている付加情報を抽出し、同期用データとともに記憶手段に記憶させる記憶制御手段と、記憶手段に記憶されている付加情報から、緯度、経度および高度を含む位置情報と、方角を示す方位情報とを抽出する抽出手段と、抽出手段が抽出した位置情報のうちの緯度および経度に対応する対応地図情報を地図情報記憶手段から読み出す読出手段と、その読出手段が読み出した対応地図情報から生成した対応位置画像を表示させる表示制御手段とを有する映像再生装置を提供する。 Further, the present invention provides a decoding means for decoding the compression-encoded video data, a map information storage means for storing map information for generating a position image, and when the decoding means decodes the video data, The additional information inserted in the user data area for adding the additional information in the video data is extracted and stored in the storage means together with the synchronization data, and from the additional information stored in the storage means, the latitude, Extraction means for extracting position information including longitude and altitude and azimuth information indicating the direction, and reading means for reading out corresponding map information corresponding to latitude and longitude from the position information extracted by the extraction means from the map information storage means And a display control means for displaying the corresponding position image generated from the corresponding map information read by the reading means.
以上詳述したように、本発明によれば、撮影場所データを映像データとは別に記録しておくことなく、編集後も映像がどこでどのようにして撮影されたのかを明らかにできるようにしたカメラ装置および映像再生装置が得られる。 As described above in detail, according to the present invention, it is possible to clarify where and how the video was shot even after editing without recording the shooting location data separately from the video data. A camera device and a video playback device are obtained.
以下、本発明の実施の形態について説明する。なお、同一要素には同一符号を用い、重複する説明は省略する。
(カメラ装置の構成)
Embodiments of the present invention will be described below. In addition, the same code | symbol is used for the same element and the overlapping description is abbreviate | omitted.
(Configuration of camera device)
図1は本発明の実施形態に係るカメラ装置1の主要な構成を示すブロック図である。図1に示すカメラ装置1は動画の撮影を主体とし、静止画も撮影することが可能なデジタルビデオカメラ装置である。 FIG. 1 is a block diagram showing a main configuration of a camera apparatus 1 according to an embodiment of the present invention. A camera apparatus 1 shown in FIG. 1 is a digital video camera apparatus that mainly captures moving images and can also capture still images.
カメラ装置1はレンズ2、CCD(Charge Coupled Device)3、ADコンバータ4、8、ビデオエンコーダ5、PSマルチプレクサ6、マイク7、オーディオエンコーダ9を有している。また、カメラ装置1は、磁気方位センサ10、GPS((Global Positioning System)受信部11、CPU12、メモリ13、表示マイコン14、SDカードコントローラ15、カラーLCDパネル16および操作パネル17を有している。図1のとおり、各構成要素はバス18に接続されている。 The camera device 1 includes a lens 2, a CCD (Charge Coupled Device) 3, AD converters 4 and 8, a video encoder 5, a PS multiplexer 6, a microphone 7, and an audio encoder 9. The camera device 1 also includes a magnetic orientation sensor 10, a GPS (Global Positioning System) receiver 11, a CPU 12, a memory 13, a display microcomputer 14, an SD card controller 15, a color LCD panel 16, and an operation panel 17. 1, each component is connected to a bus 18.
レンズ2は光学映像を取り込む映像取込手段であって、被写体の光学映像を取り込み、CCD3に結像させる。CCD3は、撮像手段であって、結像された光学画像に応じた撮像信号を生成してADコンバータ4に出力する。ADコンバータ4はCCD3から出力される撮像信号をデジタル形式の映像データに変換して出力する。ビデオエンコーダ5は入力される映像データをMPEG2(Moving Picture Experts Group phase2)ビデオストリームに圧縮符号化し、さらにそのMPEG2ビデオストリームからPES(Packetized Elementary Stream)パケットを生成してPSマルチプレクサ6に出力する。ADコンバータ4とビデオエンコーダ5とによって映像データ生成手段が構成されている。 The lens 2 is an image capturing means for capturing an optical image, and captures an optical image of a subject and forms an image on the CCD 3. The CCD 3 is an imaging unit, and generates an imaging signal corresponding to the formed optical image and outputs it to the AD converter 4. The AD converter 4 converts the imaging signal output from the CCD 3 into digital video data and outputs it. The video encoder 5 compresses and encodes the input video data into an MPEG2 (Moving Picture Experts Group phase 2) video stream, generates a PES (Packetized Elementary Stream) packet from the MPEG2 video stream, and outputs it to the PS multiplexer 6. The AD converter 4 and the video encoder 5 constitute video data generating means.
マイク7は音声を取り込み電気信号に変換してADコンバータ8に出力し、ADコンバータ8はマイク7から出力される電気信号をデジタル形式に変換して音声データを生成する。オーディオエンコーダ9は入力される音声データをオーディオストリームに符号化し、さらにPESパケットを生成してPSマルチプレクサ6に出力する。PSマルチプレクサ6は入力されるPESパケットを多重化してPSパケットを出力する。 The microphone 7 takes in the sound and converts it into an electric signal and outputs it to the AD converter 8. The AD converter 8 converts the electric signal output from the microphone 7 into a digital format and generates sound data. The audio encoder 9 encodes input audio data into an audio stream, generates a PES packet, and outputs the PES packet to the PS multiplexer 6. The PS multiplexer 6 multiplexes input PES packets and outputs PS packets.
そして、磁気方位センサ10は方位検出手段であって、レンズ2およびCCD3の向いている方位を検出して方位情報を出力する。GPS受信部11はGPS衛星から送信されるGPS信号を受信してCPU12に出力する。なお、以下の説明では、方位情報と位置情報をまとめて方位位置情報ともいう。 The magnetic azimuth sensor 10 is azimuth detection means, detects the azimuth that the lens 2 and the CCD 3 are facing, and outputs azimuth information. The GPS receiver 11 receives a GPS signal transmitted from a GPS satellite and outputs it to the CPU 12. In the following description, azimuth information and position information are collectively referred to as azimuth position information.
CPU12はメモリ13に記憶されているプログラムにしたがい作動してカメラ装置1を制御する一方、後述する位置情報取得手段、方位情報取得手段、変換手段として作動する。メモリ13にはCPU12が実行するプログラムなどが格納されている。表示マイコン14はカラーLCDパネル16における動画や静止画の表示を制御し、SDカードコントローラ15はSDカード20に対するPSパケットの読み書きを制御する。カラーLCDパネル16には動画や静止画が表示される。 The CPU 12 operates according to a program stored in the memory 13 to control the camera device 1, while operating as a position information acquisition unit, a direction information acquisition unit, and a conversion unit, which will be described later. The memory 13 stores a program executed by the CPU 12. The display microcomputer 14 controls display of moving images and still images on the color LCD panel 16, and the SD card controller 15 controls reading and writing of PS packets with respect to the SD card 20. A moving image and a still image are displayed on the color LCD panel 16.
以上のような構成のカメラ装置1は風景などを撮影した際、撮影場所データを映像データとは別に記録しておくことなく撮影がどこでどのようにして行われたのかを明らかにするため、方位位置情報をMPEG2ビデオストリーム31に挿入するようにしている。そのための構成について以下説明する。 In order to clarify where and how the shooting was performed without recording the shooting location data separately from the video data when the camera device 1 having the above configuration shot a landscape or the like, The position information is inserted into the MPEG2 video stream 31. The configuration for this will be described below.
図2は、ビデオエンコーダ5、CPU12および磁気方位センサ10,GPS受信部11により、方位位置情報をMPEG2ビデオストリーム31に挿入するときの動作手順を示す図である。 FIG. 2 is a diagram showing an operation procedure when the azimuth position information is inserted into the MPEG2 video stream 31 by the video encoder 5, the CPU 12, the magnetic azimuth sensor 10, and the GPS receiving unit 11.
ビデオエンコーダ5は、映像データの圧縮符号化を行ってMPEG2ビデオストリーム31を出力するときに、CPU12に割込みP1を出力する。CPU12は割込みP1が出力されたときに、位置情報取得手段および方位情報取得手段としての動作を行い、磁気方位センサ10およびGPS受信部11から方位位置情報の取得P2を行う。このとき、CPU12はGPS受信部11が出力するGPS信号から、カメラ装置1の置かれている位置、すなわち、撮影場所の緯度、経度および高度を検出して位置情報を取得する。 The video encoder 5 outputs an interrupt P1 to the CPU 12 when compressing and encoding the video data and outputting the MPEG2 video stream 31. When the interrupt P <b> 1 is output, the CPU 12 performs operations as a position information acquisition unit and a direction information acquisition unit, and performs acquisition P <b> 2 of the direction position information from the magnetic direction sensor 10 and the GPS receiver 11. At this time, the CPU 12 detects the position where the camera device 1 is placed, that is, the latitude, longitude, and altitude of the shooting location from the GPS signal output from the GPS receiving unit 11 and acquires position information.
続いて、CPU12は変換手段としての動作を行い、後述する変換規則にしたがって方位位置情報の変換P3を行う。また、CPU12はバッファ5aに対して方位位置情報の書込P4を行う。そして、ビデオエンコーダ5は、バッファ5aから方位位置情報を読み出した上で挿入手段としての動作を行い、方位位置情報のMPEG2ビデオストリーム31への挿入P5を行い、MPEG2ビデオストリーム31を生成する。 Subsequently, the CPU 12 performs an operation as a conversion unit, and performs conversion P3 of azimuth position information according to a conversion rule described later. Further, the CPU 12 performs writing P4 of the azimuth position information to the buffer 5a. Then, the video encoder 5 reads out the azimuth position information from the buffer 5 a and performs an operation as an inserting unit, and performs insertion P5 of the azimuth position information into the MPEG2 video stream 31 to generate the MPEG2 video stream 31.
ここで、MPEG2ビデオストリーム31は、図3に示すように、GOP(group of pictures)32と呼ばれる複数の画像の集合で構成されている。GOP32の先頭にはGOPヘッダ33があり、その後に、extension_and_user_data34とよばれる付加情報を入れるユーザデータ領域が定義され、その後に各シーンのデータが配置されている。各シーンのデータにも、picture_header36の後にextension_and_user_data37が設けられている。そのほか、picture_cording_extension38や、picture_data39がある。 Here, the MPEG2 video stream 31 is composed of a set of a plurality of images called GOP (group of pictures) 32 as shown in FIG. There is a GOP header 33 at the head of the GOP 32, and after that, a user data area for storing additional information called extension_and_user_data 34 is defined, and thereafter, data of each scene is arranged. In each scene data, extension_and_user_data 37 is provided after picture_header 36. In addition, there are picture_cording_extension 38 and picture_data 39.
カメラ装置1では、こうしたMPEG2ビデオストリーム31の構成を踏まえビデオエンコーダ5における映像データの圧縮符号化のときに、extension_and_user_data34やextension_and_user_data37に方位位置情報を挿入することにより、挿入されるそれぞれの方位位置情報がどのフレームと対応するのかを再生の際、容易に判断できる点に着目し、方位位置情報をextension_and_user_data34や、extension_and_user_data37に挿入している。 In the camera device 1, based on the configuration of the MPEG2 video stream 31, when the video encoder 5 compresses and encodes video data, the azimuth position information is inserted into the extension_and_user_data 34 and the extension_and_user_data 37. Focusing on the fact that it is possible to easily determine which frame corresponds to playback, orientation position information is inserted into extension_and_user_data 34 and extension_and_user_data 37.
こうすることにより、MPEG2ビデオストリーム31は方位位置情報が組み込まれて、撮影場所データと一体不可分の構成になる。そのため、後述する映像再生装置100では、撮影場所データを別途記録しておくことなく、MPEG2ビデオストリーム31だけを用いることで対応するフレームに同期して撮影場所の地図や地名などを表示することができる。 By doing this, the MPEG2 video stream 31 has a configuration inseparable from the shooting location data by incorporating the azimuth position information. For this reason, the video playback apparatus 100 described later can display a shooting location map or a place name in synchronization with the corresponding frame by using only the MPEG2 video stream 31 without separately recording shooting location data. it can.
なお、H.264の場合は、方位位置情報をSEI(Supplemental Enhancement Information)のuser_data_unregistered に挿入することができる。また、VC1では、Entry-Point Headerの直後にUser Dataとして方位位置情報を挿入することができる。 H. In the case of H.264, azimuth position information can be inserted into user_data_unregistered of SEI (Supplemental Enhancement Information). In VC1, the azimuth position information can be inserted as User Data immediately after the Entry-Point Header.
また、IEC13818-1で規定されているTS(Transport Stream)やPS(Program Stream)、ES(Elementary Stream)などに方位位置情報を挿入することもできる。現在のデジタル放送やDVDによる映像データは、IEC13818−1と呼ばれる規格で定義されたTSかPSの形式で記録媒体に記録したり、放送波に重畳して伝送するのが一般的である。 Further, it is also possible to insert azimuth position information into TS (Transport Stream), PS (Program Stream), ES (Elementary Stream), etc. defined in IEC13818-1. The current digital broadcast or DVD video data is generally recorded on a recording medium in a TS or PS format defined by a standard called IEC13818-1, or is superimposed on a broadcast wave and transmitted.
IEC13818−1では、このPSやTS、また、PSやTSにする前のESのレベルなどで、ビデオやオーディオなどの規格で規定されているデータ以外のデータを挿入できるように、各所にPrivate Dataの格納場所を用意している。 In IEC13818-1, Private Data can be inserted in various places so that data other than data defined by standards such as video and audio can be inserted at this PS and TS, and ES level before PS and TS. A storage location is prepared.
これは、IEC13818−1のAnnex−Hで記述されている。この場合、方位位置情報はTSパケットのStream typeのUser privateとして挿入することができ、TSパケットのadaptation_fieldに挿入することもできる。また、PESパケットのprivate_stream_1やprivate_stream_2に挿入することもできるし、program_stream_mapなどにあるdescriptorや、TSのprivate sectionに挿入することもできる。以下の説明では、MPEG2ビデオストリーム31のextension_and_user_data34に方位位置情報を挿入する場合を例にとって説明する。 This is described in Annex-H of IEC13818-1. In this case, the azimuth position information can be inserted as a stream-type user private of the TS packet, and can also be inserted into the adaptation_field of the TS packet. Further, it can be inserted into private_stream_1 and private_stream_2 of the PES packet, or can be inserted into a descriptor in program_stream_map and the private section of TS. In the following description, a case where azimuth position information is inserted into extension_and_user_data 34 of the MPEG2 video stream 31 will be described as an example.
なお、ここで、ES、TS、PSについて説明を補足すれば以下のとおりである。MPEG2で圧縮符号化されたビデオ、オーディオ等それぞれのデータをES(Elementary Stream)という。ESをパケット化したものをPES(Packetized Elementary Stream)という。映像や音声を再生するためのデータは、ビデオのESやオーディオのESなどから構成されたESの集まりになっており、これらのESはすべて同期してデコードされなければならない。MPEG2では、そのための方式が規定されている。多重化されたESの集まりをプログラムという。これらの各ESを多重化してプログラムの集まりとして1つのストリームにする場合に、PSとTSという2種類のストリームが定義されている。 Here, supplementary explanations for ES, TS, and PS are as follows. Each data such as video and audio compressed and encoded by MPEG2 is called ES (Elementary Stream). A packetized ES is called a PES (Packetized Elementary Stream). Data for reproducing video and audio is a collection of ESs composed of video ESs, audio ESs, and the like, and all these ESs must be decoded synchronously. MPEG2 defines a method for that purpose. A group of multiplexed ESs is called a program. When these ESs are multiplexed to form a stream as a group of programs, two types of streams, PS and TS, are defined.
PSは誤りの発生しない環境でのデータの伝送や蓄積に適用されることが想定されていて、DVD等の強力な誤り訂正符号を用いた記録媒体で使用されている。PSは1本のストリームに1本のプログラムしか入れることができない。また、パケット長は可変である。 PS is assumed to be applied to data transmission and storage in an error-free environment, and is used in a recording medium using a powerful error correction code such as a DVD. PS can only have one program per stream. The packet length is variable.
TSは放送や通信ネットワークといった伝送誤りが発生する環境に適用されることが想定されており、冗長度はPSよりも大きくなっている。TSは1本のストリームに複数のプログラムを入れることができる。パケット長は188バイト固定となっている。 TS is assumed to be applied to environments where transmission errors occur, such as broadcasting and communication networks, and redundancy is higher than that of PS. The TS can put a plurality of programs in one stream. The packet length is fixed at 188 bytes.
ところで、DVDの規格では、GOPヘッダ33の直後のextension_and_user_data34にクローズドキャプションを入れる方法が規定されている。そこで、本実施の形態では、このDVDの規格にのっとり、方位位置情報をクローズドキャプションとして挿入することとしている。 By the way, in the DVD standard, a method for inserting a closed caption into extension_and_user_data 34 immediately after the GOP header 33 is defined. Therefore, in this embodiment, the azimuth position information is inserted as a closed caption according to the DVD standard.
DVDの規格では、図4に示すフォーマットで、ライン21に挿入するクローズドキャプションの情報(ライン21データ)35を、GOPヘッダ33直後のextension_and_user_data34に挿入するようになっている。ライン21には、米国の放送においてEIA−608−Bという規格にしたがい、クローズドキャプションやコピー制御情報などが挿入されている。なお、クローズドキャプションとは、米国の文字放送で、これにより画面に字幕が出るようになる。 According to the DVD standard, the closed caption information (line 21 data) 35 to be inserted into the line 21 is inserted into the extension_and_user_data 34 immediately after the GOP header 33 in the format shown in FIG. A closed caption, copy control information, and the like are inserted into the line 21 in accordance with the standard of EIA-608-B in US broadcasting. Closed captioning is a teletext in the United States that causes subtitles to appear on the screen.
NTSC信号では、1枚の画像が525本のラインで構成されているが、最初の21ラインはテレビの走査線を下から上に移動するための期間である。この期間はVBI(Vertical Blanking Interval:垂直帰線区間)とよばれ、映像表示の行われない期間であるため、アスペクト比やコピー制御情報などの付加情報が送信されている。米国ではライン21が用いられ、日本ではライン20が用いられている。 In the NTSC signal, one image is composed of 525 lines, but the first 21 lines are periods for moving the scanning lines of the television from the bottom to the top. This period is called VBI (Vertical Blanking Interval), and is a period during which video display is not performed. Therefore, additional information such as aspect ratio and copy control information is transmitted. Line 21 is used in the United States, and line 20 is used in Japan.
そして、カメラ装置1では、方位位置情報をMPEG2ビデオストリーム31にライン21データ35のフォーマットで挿入するため、前述のとおり、CPU12が方位位置情報をすべてテキストデータに変換する。 In the camera device 1, since the azimuth position information is inserted into the MPEG2 video stream 31 in the format of the line 21 data 35, as described above, the CPU 12 converts all the azimuth position information into text data.
本実施の形態では、緯度および経度を0.0〜360.0度の範囲の0.1度単位、4桁十進数とし、識別用として経度は“LO”、緯度は“LA”の文字列をつけて表記する。すると、例えば経度が35度で、緯度が139度であった場合の位置情報は“LO0350LA1390”のようになる。 In the present embodiment, latitude and longitude are set to a 0.1 degree unit in a range of 0.0 to 360.0 degrees, and a 4-digit decimal number, and for identification, a character string of “LO” for longitude and “LA” for latitude. Use the notation. Then, for example, when the longitude is 35 degrees and the latitude is 139 degrees, the position information is “LO0350LA1390”.
また、高度は、マイナス1000〜プラス8999mとし、単位はメートル(m)で、実際の値に“1000”を加算した4桁十進数とし、識別用に“HI”の文字列を付けて表記する。すると、例えば高度が600mであった場合、高度の情報は“HI1600”のようになる。 The altitude is minus 1000 to plus 8999 m, the unit is meters (m), and is expressed as a 4-digit decimal number obtained by adding “1000” to the actual value, with the character string “HI” added for identification. . Then, for example, when the altitude is 600 m, the altitude information becomes “HI1600”.
さらに、方位は北を0度として反時計回りの一周360度で表現するとし、3桁十進数で先頭に識別用に“DR”の文字列を付けて表記する。すると、方位が真北の場合、方位情報は“DR000”となる。 Furthermore, if the direction is expressed as 360 degrees in a counterclockwise direction with 0 degree as the north, the direction is expressed by adding a character string of “DR” for identification at the beginning with a 3-digit decimal number. Then, when the direction is true north, the direction information is “DR000”.
以上の規則(以下「変換規則」という)にしたがい、CPU12が方位位置情報をテキスト情報に変換するとする。この場合、例えば、撮影場所が経度35度、緯度139度、高度400mで方角が真北であった場合、方位位置情報は“LO0350LA1390HI1400DR000”のようなテキストデータに変換される。こうして生成されるテキストデータをビデオエンコーダ5がクローズドキャプションとしてextension_and_user_data34に各GOP単位に挿入する。 In accordance with the above rules (hereinafter referred to as “conversion rules”), the CPU 12 converts the azimuth position information into text information. In this case, for example, when the shooting location is 35 degrees longitude, 139 degrees latitude, altitude 400 m, and the direction is true north, the azimuth position information is converted into text data such as “LO0350LA1390HI1400DR000”. The video encoder 5 inserts the text data generated in this way into the extension_and_user_data 34 as a closed caption for each GOP unit.
なお、DVD規格で定義されているクローズドキャプションは、EIA−608で記述されているライン21にデータを埋め込む規格を元にしており、1フレーム2文字しか挿入できない。 The closed caption defined in the DVD standard is based on the standard for embedding data in the line 21 described in EIA-608, and only 2 characters per frame can be inserted.
しかし、通常、1個のGOPは0.5秒程度なので、MPEG2ビデオストリーム31が毎秒60フレーム(60F/S)で生成されているなら、1GOPは30フレームなので、30×2文字で60文字挿入することが可能である。GOPの先頭ごとに、方角付加情報を表示するような仕組みにすれば、撮影された場所の地図上の位置のような付加的な情報を映像に同期させながら表示させることができる。 However, since one GOP is usually about 0.5 seconds, if the MPEG2 video stream 31 is generated at 60 frames per second (60 F / S), since 1 GOP is 30 frames, 60 characters are inserted with 30 × 2 characters. Is possible. If a mechanism for displaying the direction additional information is displayed for each head of the GOP, it is possible to display additional information such as the position on the map where the image was taken in synchronization with the video.
次に、以上の構成を有するカメラ装置1の動作内容について説明する。カメラ装置1では、レンズ2によりCCD3に光学画像が結像され、CCD3により光学画像に応じた撮像信号が生成される。生成される撮像信号はADコンバータ4でデジタル形式の映像データに変換されてビデオエンコーダ5に入力される。 Next, the operation content of the camera apparatus 1 having the above configuration will be described. In the camera device 1, an optical image is formed on the CCD 3 by the lens 2, and an imaging signal corresponding to the optical image is generated by the CCD 3. The generated imaging signal is converted into digital video data by the AD converter 4 and input to the video encoder 5.
ビデオエンコーダ5では、入力された映像データをMPEG2ビデオストリーム31に圧縮符号化し、さらに、PESパケットにして、そのPESパケットをPSマルチプレクサ6に出力する。 The video encoder 5 compresses and encodes the input video data into an MPEG2 video stream 31, further converts it into a PES packet, and outputs the PES packet to the PS multiplexer 6.
また、ビデオエンコーダ5が映像データをMPEG2ビデオエンコーダ31に圧縮符号化するとき、前述のようにして、CPU12がリアルタイムに磁気方位センサ10から方位情報を取得するとともに、GPS受信部11からGPS信号を入力し、そのGPS信号から緯度、経度および高度を検出して位置情報を取得する。そして、CPU12は取得した方位情報および位置情報を前述の変換規則にしたがいテキストデータに変換する。さらに、CPU12は得られたテキストデータを図4に示したDVD規格のフォーマットに変換する。 Further, when the video encoder 5 compresses and encodes the video data into the MPEG2 video encoder 31, as described above, the CPU 12 acquires the orientation information from the magnetic orientation sensor 10 in real time and receives the GPS signal from the GPS receiving unit 11. The position information is acquired by detecting latitude, longitude, and altitude from the input GPS signal. Then, the CPU 12 converts the acquired azimuth information and position information into text data in accordance with the conversion rules described above. Further, the CPU 12 converts the obtained text data into the DVD standard format shown in FIG.
そして、ビデオエンコーダ5は、CPU12により生成されたデータをクローズドキャプションとして、GOPヘッダ33の直後のextension_and_user_data34に挿入する。こうして、方位位置情報が組み込まれて一体となったMPEG2ビデオエンコーダ31が生成される。 Then, the video encoder 5 inserts the data generated by the CPU 12 into the extension_and_user_data 34 immediately after the GOP header 33 as a closed caption. Thus, the MPEG2 video encoder 31 in which the azimuth position information is incorporated and integrated is generated.
一方、マイク7から出力される電気信号がADコンバータ8によりデジタル形式の信号に変換され、オーディオエンコーダ9により、MPEG1Layer3で符号化され、さらにPESパケットが生成された上でPSマルチプレクサ6に出力される。 On the other hand, the electric signal output from the microphone 7 is converted into a digital signal by the AD converter 8, encoded by the audio encoder 9 with MPEG1 Layer 3, and further a PES packet is generated and output to the PS multiplexer 6. .
PSマルチプレクサ6では、入力されたMPEG2ビデオストリーム31のPESパケットと、オーディオストリームのPESパケットとを多重化し、1本のPSストリームとしてPSパケットを出力する。 The PS multiplexer 6 multiplexes the input PES packet of the MPEG2 video stream 31 and the PES packet of the audio stream, and outputs the PS packet as one PS stream.
そして、CPU12はPSパケット記録制御手段としての動作を行い、SDカードコントローラ15に指示して、PSマルチプレクサ6から取得したPSパケットを記録媒体としてのSDカード20に記録させる。 Then, the CPU 12 performs an operation as a PS packet recording control means, instructs the SD card controller 15 to record the PS packet acquired from the PS multiplexer 6 on the SD card 20 as a recording medium.
次に、カメラ装置1により撮影された映像を再生する映像再生装置100について説明する。映像再生装置100はSDカード20に記録されたPSパケットを用いて映像信号を再生する。 Next, the video playback device 100 that plays back video shot by the camera device 1 will be described. The video reproduction device 100 reproduces the video signal using the PS packet recorded on the SD card 20.
映像再生装置100は図5に示すように、SDカードコントローラ101と、CPU102と、メモリ103と、ビデオデコーダ104と、オーディオデコーダ105と、グラフィックコントローラ106と、コンポジタ107と、D/Aコンバータ108,109とを有している。また、映像再生装置100は、HDDコントローラ110と、ハードディスク111と、操作パネル112と、表示用サブマイコン113と、VFD表示パネル114とを有している。 As shown in FIG. 5, the video reproduction apparatus 100 includes an SD card controller 101, a CPU 102, a memory 103, a video decoder 104, an audio decoder 105, a graphic controller 106, a compositor 107, a D / A converter 108, 109. The video playback apparatus 100 also includes an HDD controller 110, a hard disk 111, an operation panel 112, a display sub-microcomputer 113, and a VFD display panel 114.
映像再生装置100では、CPU102の指示にしたがいSDカードコントローラ101がSDカード20に記録されているPSパケットを読み出す。そして、CPU102がPSパケットを解析してPESパケットを抽出し、ビデオストリームとオーディオストリームに分類する。前者はビデオデコーダ104に出力され、後者はオーディオデコーダ105に出力される。オーディオデコーダ105は入力されるPESパケットからESを抽出した上で復号処理を行い、音声信号をD/Aコンバータ109に出力する。D/Aコンバータ109はアナログの音声信号を生成して出力する。 In the video reproduction apparatus 100, the SD card controller 101 reads out the PS packet recorded on the SD card 20 in accordance with an instruction from the CPU 102. Then, the CPU 102 analyzes the PS packet, extracts the PES packet, and classifies it into a video stream and an audio stream. The former is output to the video decoder 104 and the latter is output to the audio decoder 105. The audio decoder 105 extracts the ES from the input PES packet, performs a decoding process, and outputs an audio signal to the D / A converter 109. The D / A converter 109 generates and outputs an analog audio signal.
ビデオデコーダ104は復号手段であって、入力されるPESパケットからESを抽出した上で、MPEG2の復号処理を行い、生成される映像フレームを同期データとしてのPTS(Presentation Time Stamp)で同期をとりつつコンポジタ107に出力する。その一方、ビデオデコーダ104はGOPヘッダ33の直後のextension_and_user_data34から抽出したクローズドキャプションとしてのデータ(方位位置情報)をPTSとともにメモリ103に記憶させる記憶制御手段としての動作を行い、CPU102に割込みで通知する。 The video decoder 104 is a decoding means that extracts an ES from an input PES packet, performs MPEG2 decoding processing, and synchronizes a generated video frame with PTS (Presentation Time Stamp) as synchronization data. While outputting to the compositor 107. On the other hand, the video decoder 104 operates as storage control means for storing data (azimuth position information) as a closed caption extracted from the extension_and_user_data 34 immediately after the GOP header 33 in the memory 103 together with the PTS, and notifies the CPU 102 by an interrupt. .
CPU102は割込みで通知を受け取ると、メモリ103に書き込まれたクローズドキャプションとしてのデータを読み出すとともに、抽出手段としての動作を行い、読み出したデータを解析して、位置情報(緯度、経度および高度)と方位情報とを抽出する。 When the CPU 102 receives the notification by interruption, the CPU 102 reads out the data as the closed caption written in the memory 103 and performs the operation as the extracting unit, analyzes the read data, and acquires the position information (latitude, longitude, and altitude). Orientation information is extracted.
一方、CPU102は読出手段としての動作を行い、HDDコントローラ110に指示して、地図情報記憶手段としてのHDD111に記録されている地図情報のうち、位置情報に対応する対応地図情報を読み出し、さらに地図画像生成手段としての動作を行い、読み出した対応地図情報を基に、対応地図画像を生成する。 On the other hand, the CPU 102 operates as a reading unit, instructs the HDD controller 110 to read corresponding map information corresponding to the position information among the map information recorded in the HDD 111 as the map information storage unit, and further An operation as an image generation unit is performed, and a corresponding map image is generated based on the read corresponding map information.
また、CPU102は表示制御手段としての動作を行い、グラフィックコントローラ106に対応地図画像の表示指示を出力する。この際、CPU102は変更手段としての動作を行い、方位位置情報に基づいて、カメラ装置1の向きに対応した表示となるように対応地図画像を回転させて向きを変更するための指示も出力する。 In addition, the CPU 102 performs an operation as a display control unit, and outputs a corresponding map image display instruction to the graphic controller 106. At this time, the CPU 102 performs an operation as a changing unit, and outputs an instruction for changing the orientation by rotating the corresponding map image so that the display corresponds to the orientation of the camera device 1 based on the azimuth position information. .
グラフィックコントローラ106は、CPU102の指示にしたがい映像データのスケーリングを行うとともに、対応地図画像を回転して図示しないフレームバッファに描画する。そして、コンポジタ107はビデオデコーダ104から出力される映像フレームに、グラフィックコントローラ106から出力される対応地図画像をアルファブレンドで合成してD/Aコンバータ108に出力する。D/Aコンバータ108はデジタル形式の映像データからアナログ形式の映像信号を生成して出力する。映像再生装置100が以上のようにして作動することにより、図示しない表示装置には、出力される映像信号により、図6に示すような映像200が表示される。 The graphic controller 106 performs scaling of the video data in accordance with an instruction from the CPU 102 and rotates the corresponding map image to draw it in a frame buffer (not shown). Then, the compositor 107 synthesizes the video map output from the video decoder 104 with the corresponding map image output from the graphic controller 106 by alpha blending, and outputs it to the D / A converter 108. The D / A converter 108 generates and outputs an analog video signal from the digital video data. When the video playback device 100 operates as described above, a video 200 as shown in FIG. 6 is displayed on a display device (not shown) by an output video signal.
この映像200は、カメラ装置1で撮影された映像に加えて、地図画像201が表示されているので、この地図画像201により、映像200がどこで撮影されたのかを明らかにすることができる。しかも、カメラ装置1で記憶されたPESパケットから抽出した方位情報に応じて、表示される地図画像201の向きが変わるようになっているので、地図画像201の向きの変わり方を確認することにより、どのようにして撮影が行われたかも明らかにすることができる。 Since this video image 200 displays a map image 201 in addition to the video imaged by the camera device 1, the map image 201 can clarify where the video image 200 was shot. In addition, since the orientation of the displayed map image 201 changes according to the orientation information extracted from the PES packet stored in the camera device 1, it is possible to confirm how the orientation of the map image 201 changes. It is also possible to clarify how the shooting was performed.
以上のように、カメラ装置1が、地図画像と同期をとって映像を再生できるよう、撮影の際、MPEG2ビデオストリーム31に方位位置情報をリアルタイムに挿入している。そのため、撮影場所データを映像データと別のデータとして記録しておく必要がなく、MPEG2ビデオストリーム31だけで撮影がどこでどのようにして行われたのかを明らかにできるようになっている。 As described above, the azimuth position information is inserted into the MPEG2 video stream 31 in real time at the time of shooting so that the camera device 1 can reproduce the video in synchronization with the map image. Therefore, it is not necessary to record the shooting location data as data different from the video data, and it is possible to clarify where and how the shooting was performed only with the MPEG2 video stream 31.
また、生成されたMPEG2ビデオストリーム31について、不要部分の削除や別のシーンの追加、複数シーンの接合といった編集処理を行うと、対応する方位位置情報も合わせて編集されるので、映像データと方位位置情報との対応関係はそのまま維持される。したがって、編集後も、MPEG2ビデオストリーム31を用いた再生を行うだけで、撮影場所データを別途用意しなくても、編集前のように撮影がどこでどのようにして行われたのかを明らかにできる。 Further, when editing processing such as unnecessary part deletion, addition of another scene, and joining of a plurality of scenes is performed on the generated MPEG2 video stream 31, the corresponding azimuth position information is also edited. The correspondence with the position information is maintained as it is. Therefore, even after editing, only playback using the MPEG2 video stream 31 is performed, and it is possible to clarify where and how shooting was performed as before editing without preparing shooting location data separately. .
なお、映像再生装置100では、地図画像201を表示しているが、地図画像201のほか、地名や場所を明確にする文字や記号(例えば、東京都港区芝浦1−*−*)の画像を表示してもよい。これらの画像や地図画像201は位置を示す位置画像を構成している。このような位置画像の表示に加えて音声案内を出力してもよい。 In addition, in the video reproduction apparatus 100, the map image 201 is displayed, but in addition to the map image 201, images of characters and symbols (for example, 1-*-* Shibaura, Minato-ku, Tokyo) that clarify the place name and location. May be displayed. These images and the map image 201 constitute a position image indicating the position. In addition to such display of the position image, voice guidance may be output.
また、映像再生装置100では、ランダムアクセスによりデータの読み書きを行える外部記憶装置として、HDD111を有しているが、HDD111のほか、DVD(Digital Versatile Disk)へのデータの記録を行うDVDドライブを備えていてもよい。そして、DVDドライブにより、DVD−RW、DVD−RAMなどの書き換え可能な記憶媒体に動画データを記憶するようにすればよい。 The video playback apparatus 100 includes the HDD 111 as an external storage device that can read and write data by random access. In addition to the HDD 111, the video playback apparatus 100 includes a DVD drive that records data on a DVD (Digital Versatile Disk). It may be. Then, the moving image data may be stored in a rewritable storage medium such as DVD-RW or DVD-RAM by a DVD drive.
以上の説明は、本発明の実施の形態についての説明であって、この発明の装置及び方法を限定するものではなく、様々な変形例を容易に実施することができる。又、各実施形態における構成要素、機能、特徴あるいは方法ステップを適宜組み合わせて構成される装置又は方法も本発明に含まれるものである。 The above description is the description of the embodiment of the present invention, and does not limit the apparatus and method of the present invention, and various modifications can be easily implemented. In addition, an apparatus or method configured by appropriately combining components, functions, features, or method steps in each embodiment is also included in the present invention.
1…カメラ装置、2…レンズ、3…CCD、5…ビデオエンコーダ、10…磁気方位センサ、11…GPS受信部、12,102…CPU、13,103…メモリ、15…SDカードコントローラ、20…SDカード、31…MPEG2ビデオストリーム、34,37…extension_and_user_data、100…映像再生装置、104…ビデオデコーダ、111…ハードディスク。 DESCRIPTION OF SYMBOLS 1 ... Camera device, 2 ... Lens, 3 ... CCD, 5 ... Video encoder, 10 ... Magnetic direction sensor, 11 ... GPS receiver, 12, 102 ... CPU, 13, 103 ... Memory, 15 ... SD card controller, 20 ... SD card 31... MPEG2 video stream 34. 37 extension_and_user_data 100... Video playback device 104.
Claims (10)
該撮像手段から出力される前記撮像信号を用いて前記光学映像に応じた映像データを生成する映像データ生成手段と、
撮影場所に関する位置情報を取得する位置情報取得手段と、
前記撮像手段の方位を特定するための方位情報を取得する方位情報取得手段と、
前記映像データ生成手段が前記映像データを生成するときに、前記位置情報取得手段が取得した前記位置情報および前記方位情報取得手段が取得した前記方位情報を、前記映像データ生成手段により生成される前記映像データに挿入する挿入手段とを有することを特徴とするカメラ装置。 An imaging means for outputting an imaging signal corresponding to the optical image;
Video data generating means for generating video data corresponding to the optical video using the imaging signal output from the imaging means;
Position information acquisition means for acquiring position information regarding the shooting location;
Orientation information acquisition means for acquiring orientation information for specifying the orientation of the imaging means;
When the video data generation means generates the video data, the position information acquired by the position information acquisition means and the direction information acquired by the direction information acquisition means are generated by the video data generation means. A camera device comprising an insertion means for inserting into video data.
前記挿入手段は、前記符号化手段により前記映像データが圧縮符号化されるときに、前記位置情報および前記方位情報を前記映像データに挿入することを特徴とする請求項1記載のカメラ装置。 The video data generation means includes encoding means for compressing and encoding the video data,
2. The camera apparatus according to claim 1, wherein the insertion unit inserts the position information and the azimuth information into the video data when the video data is compressed and encoded by the encoding unit.
前記挿入手段は、前記符号化手段により符号化される前記MPEG2またはVC1若しくはH.264形式のビデオストリームのうちの付加情報を加えるためのユーザデータ領域に前記位置情報および前記方位情報を挿入することを特徴とする請求項2記載のカメラ装置。 The encoding means converts the video data into MPEG2, VC1, or H.264. H.264 format video stream,
The insertion means is the MPEG2 or VC1 or H.264 encoded by the encoding means. 3. The camera apparatus according to claim 2, wherein the position information and the orientation information are inserted into a user data area for adding additional information in a H.264 format video stream.
前記挿入手段は、前記ユーザデータ領域のうちのGOPヘッダ直後に配置されるユーザデータ領域に、前記変換手段により変換された前記テキスト情報をクローズドキャプションとして挿入することを特徴とする請求項3記載のカメラ装置。 Converting the position information into text information indicating latitude, longitude and altitude, and further converting means for converting the azimuth information into text information indicating a direction;
The said insertion means inserts the said text information converted by the said conversion means as a closed caption in the user data area arrange | positioned immediately after the GOP header of the said user data area. Camera device.
前記撮像手段の方位を検出する方位検出手段とを更に有し、
前記位置情報取得手段は前記符号化手段による前記映像データの符号化のときに前記GPS受信手段が受信した前記GPS信号から、前記位置情報として緯度、経度および高度を取得し、
前記方位情報取得手段は前記符号化手段による前記映像データの符号化のときに前記方位検出手段から、前記方位情報として検出された方位を取得することを特徴とする請求項2〜4のいずれか一項記載のカメラ装置。 GPS receiving means for receiving GPS signals transmitted from GPS satellites;
Azimuth detecting means for detecting the azimuth of the imaging means,
The position information acquisition means acquires latitude, longitude and altitude as the position information from the GPS signal received by the GPS reception means when the video data is encoded by the encoding means,
5. The azimuth information acquisition means acquires the azimuth detected as the azimuth information from the azimuth detection means when the video data is encoded by the encoding means. The camera device according to one item.
位置画像を生成するための地図情報を記憶する地図情報記憶手段と、
前記復号手段が前記映像データを復号するときに、該映像データにおける付加情報を加えるためのユーザデータ領域に挿入されている付加情報を抽出し、同期用データとともに記憶手段に記憶させる記憶制御手段と、
前記記憶手段に記憶されている前記付加情報から、緯度、経度および高度を含む位置情報と、方角を示す方位情報とを抽出する抽出手段と、
前記抽出手段が抽出した前記位置情報のうちの前記緯度および経度に対応する対応地図情報を前記地図情報記憶手段から読み出す読出手段と、
該読出手段が読み出した前記対応地図情報から生成した対応位置画像を表示させる表示制御手段とを有する映像再生装置。 Decoding means for decoding the compression-encoded video data;
Map information storage means for storing map information for generating a position image;
Storage control means for extracting additional information inserted in a user data area for adding additional information in the video data when the decoding means decodes the video data, and storing it in the storage means together with synchronization data; ,
Extraction means for extracting position information including latitude, longitude and altitude, and azimuth information indicating a direction from the additional information stored in the storage means;
Reading means for reading out corresponding map information corresponding to the latitude and longitude of the position information extracted by the extraction means from the map information storage means;
And a display control means for displaying a corresponding position image generated from the corresponding map information read by the reading means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007334823A JP2009159279A (en) | 2007-12-26 | 2007-12-26 | Camera instrument and image reproducer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007334823A JP2009159279A (en) | 2007-12-26 | 2007-12-26 | Camera instrument and image reproducer |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009159279A true JP2009159279A (en) | 2009-07-16 |
Family
ID=40962807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007334823A Pending JP2009159279A (en) | 2007-12-26 | 2007-12-26 | Camera instrument and image reproducer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009159279A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011077788A1 (en) * | 2009-12-22 | 2011-06-30 | ソニー株式会社 | Image capturing device, azimuth information processing method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09312825A (en) * | 1996-05-20 | 1997-12-02 | Sony Corp | Recording system, recorder, recording medium, reproduction system and reproduction device |
JP2004056397A (en) * | 2002-07-18 | 2004-02-19 | Canon Inc | Image processing apparatus and method |
JP2004282656A (en) * | 2003-03-19 | 2004-10-07 | Mitsubishi Electric Corp | Program recording apparatus, program reproducing apparatus, and program recording method |
-
2007
- 2007-12-26 JP JP2007334823A patent/JP2009159279A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09312825A (en) * | 1996-05-20 | 1997-12-02 | Sony Corp | Recording system, recorder, recording medium, reproduction system and reproduction device |
JP2004056397A (en) * | 2002-07-18 | 2004-02-19 | Canon Inc | Image processing apparatus and method |
JP2004282656A (en) * | 2003-03-19 | 2004-10-07 | Mitsubishi Electric Corp | Program recording apparatus, program reproducing apparatus, and program recording method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011077788A1 (en) * | 2009-12-22 | 2011-06-30 | ソニー株式会社 | Image capturing device, azimuth information processing method, and program |
JP2011135165A (en) * | 2009-12-22 | 2011-07-07 | Sony Corp | Imaging device, method of processing orientation information, and program |
CN102754423A (en) * | 2009-12-22 | 2012-10-24 | 索尼公司 | Image capturing device, azimuth information processing method, and program |
US9106835B2 (en) | 2009-12-22 | 2015-08-11 | Sony Corporation | Imaging device, azimuth information processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5637585B2 (en) | Device for receiving digital information signals | |
JP3771954B2 (en) | Image display control apparatus and method | |
JP4224690B2 (en) | Recording method, recording apparatus, reproducing method, reproducing apparatus, and imaging apparatus | |
US8078034B2 (en) | Method and apparatus for navigating through subtitles of an audio video data stream | |
EP1052851A1 (en) | Recording/reproducing apparatus and method | |
JP2008054155A (en) | Image synthesizer | |
JP5091502B2 (en) | Subtitled video display system, server device, and terminal device | |
JP2009159279A (en) | Camera instrument and image reproducer | |
JP3925487B2 (en) | Imaging apparatus and imaging method | |
JP4646160B2 (en) | Transmission apparatus and method | |
JP4664173B2 (en) | Transmitting apparatus, reproducing apparatus, and methods for subtitle concealment broadcasting | |
JP4714003B2 (en) | Imaging apparatus and recording method | |
JP2006319397A (en) | Digital recording and reproducing apparatus | |
KR100899046B1 (en) | Moving-image shooting device, moving-image reproducing device, method of shooting moving-image, method of reproducing a coded video signal and method of reproducing the moving-image | |
JP2005269655A (en) | Data multiplexing device and method, program recording medium, and program | |
JP3910149B2 (en) | Program recording apparatus, program reproducing apparatus, and program recording method | |
JP3825894B2 (en) | Video recording device | |
JP4366609B2 (en) | Recording method, recording apparatus, reproducing method, reproducing apparatus, recording / reproducing apparatus, and recording / reproducing method | |
JP4941128B2 (en) | Video processing device | |
JP4642734B2 (en) | Data recording apparatus and method | |
JP2007243706A (en) | Apparatus and method for data format conversion | |
JP2006180315A (en) | Moving picture photographing device and moving picture reproducing device, and moving picture photographing method and moving picture reproducing method | |
JP2002165178A (en) | Reproducing apparatus and method | |
JP2004104477A (en) | Information processor and information method processing, program, as well as recording medium | |
JP4983977B2 (en) | Data recording apparatus and method, and reproducing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110621 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111018 |