JP2009027376A - Video camera - Google Patents

Video camera Download PDF

Info

Publication number
JP2009027376A
JP2009027376A JP2007187456A JP2007187456A JP2009027376A JP 2009027376 A JP2009027376 A JP 2009027376A JP 2007187456 A JP2007187456 A JP 2007187456A JP 2007187456 A JP2007187456 A JP 2007187456A JP 2009027376 A JP2009027376 A JP 2009027376A
Authority
JP
Japan
Prior art keywords
zone
image data
video camera
moving image
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007187456A
Other languages
Japanese (ja)
Inventor
Masatoshi Okuda
正寿 奥田
Soichiro Nakamiya
惣一郎 中宮
Hiroyuki Hirata
博之 平田
Akihiro Nunogaki
明宏 布垣
Masahiro Shioji
昌宏 塩路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007187456A priority Critical patent/JP2009027376A/en
Publication of JP2009027376A publication Critical patent/JP2009027376A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new video camera. <P>SOLUTION: The video camera 10 acquires position data in a GPS circuit 52, and a CPU 30 determines in which zone of one region or resort the video camera is present on the basis of the position data. When specified by a user, the CPU 30 superimposes zone inherent moving image data inherent to the determined zone, which are read from a flash memory 56, on real time moving image data and stores them in an SDRAM 38. When a REC button is pressed, composite image data read from the SDRAM 38 are encoded by an encoding circuit 46, ciphered by an SD card driver 48 and recorded in an SD card 50. The zone peculiar moving images can be combined with the real time moving images. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、ビデオカメラに関し、特にたとえば、テーマパークや遊園地、動物園、水族館などで使用する、ビデオカメラに関する。   The present invention relates to a video camera, and more particularly to a video camera used in a theme park, amusement park, zoo, aquarium, and the like.

この発明にとって興味ある背景技術の一例が、特許文献1に開示されている。この背景技術に係る画像処理システムでは、GPSで取得した位置データを撮影映像データに付与し、その位置データから特定される行楽地(たとえば、公園、動物園、遊園地、水族館、博物館、植物園、テーマパーク、観光地、観光施設)を認識させる関連映像データを撮影映像データに重ねることによって、趣向性、装飾性のある画像を形成使用とするものである。
特開2003‐259285号公報[H04N 5/91, G06T 3/00, H04N 5/76]
An example of background technology that is of interest to the present invention is disclosed in Patent Document 1. In the image processing system according to the background art, position data acquired by GPS is added to captured video data, and a resort area (for example, a park, a zoo, an amusement park, an aquarium, a museum, a botanical garden, a theme, which is identified from the position data. By superimposing related video data for recognizing a park, a sightseeing spot, and a tourist facility on photographed video data, an image having a taste and decoration is formed and used.
JP2003-259285A [H04N 5/91, G06T 3/00, H04N 5/76]

背景技術は、行楽地で静止画を撮影する際に撮影場所の位置データを撮影画像に埋め込み、のちに撮影された画像に埋め込まれた位置データからその行楽地に関連画像を重ねるものである。また、この関連画像は1つの行楽地毎に関連画像が用意されるものであり、1つの行楽地内の詳しい情報を静止画に重ねることはできなかった。   In the background art, when a still image is shot at a resort, position data of the shooting location is embedded in a captured image, and a related image is superimposed on the resort from the position data embedded in the captured image. In addition, the related image is prepared for each resort place, and detailed information in one resort place cannot be superimposed on the still image.

また、背景技術では、撮影されたのちにその撮影画像に関連画像を重ね合わせるため、MPGE‐4等で圧縮/伸張される動画に対しては動画撮影後に関連画像を重ね合わせることができなかった。   In addition, in the background art, since related images are superimposed on the captured images after being captured, related images could not be superimposed on moving images compressed / expanded by MPGE-4 or the like after moving images were captured. .

それゆえに、この発明の主たる目的は、新規な、ビデオカメラを提供することである。   Therefore, the main object of the present invention is to provide a novel video camera.

この発明の他の目的は、1つの行楽地のゾーン毎、すなわちゾーン毎に行われるアトラクション等に対してその撮影位置に基づいて、撮影の際にそのゾーンに関連するアトラクション等の関連画像を撮影画像に重ね合わせることができる、ビデオカメラを提供することである。   Another object of the present invention is to shoot related images such as attractions related to the zone at the time of shooting based on the shooting position for each zone of the resort, that is, the attractions performed for each zone. It is to provide a video camera that can be superimposed on an image.

この発明のさらに他の目的は、撮影する静止画像のみならず動画像に対しても関連画像もしくは関連動画像を重ね合わせることができる、ビデオカメラを提供することである。   Still another object of the present invention is to provide a video camera capable of superimposing a related image or a related moving image on a moving image as well as a still image to be photographed.

この発明のその他の目的は、行楽地毎で来場者にレンタルするのに好適なビデオカメラを提供することである。   Another object of the present invention is to provide a video camera suitable for renting to visitors at each resort.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために後述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, supplementary explanations, and the like indicate correspondence with embodiments to be described later in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、複数のゾーンに区分された地域内で使用されるビデオカメラであって、被写界を表すリアルタイム動画像のリアルタイム動画像データを出力するリアルタイム動画像データ出力手段、撮影時にビデオカメラが複数のゾーンのいずれに存在するか判別するゾーン判別手段、ゾーン判別手段で判別したゾーンに特有のゾーン特有画像を表すゾーン特有画像データを出力するゾーン特有画像データ出力手段、ゾーン特有画像データとリアルタイム動画像データとを合成して合成画像データを出力する画像合成手段、および合成画像データを記憶媒体に記録する記録手段を備える、ビデオカメラである。   A first invention is a video camera used in an area divided into a plurality of zones, and is a real-time moving image data output means for outputting real-time moving image data of a real-time moving image representing an object scene. Zone discriminating means for discriminating in which of the plurality of zones the video camera exists, zone-specific image data output means for outputting zone-specific image data representing a zone-specific image specific to the zone discriminated by the zone discriminating means, and zone-specific image A video camera is provided with image synthesizing means for synthesizing data and real-time moving image data and outputting synthesized image data, and recording means for recording the synthesized image data on a storage medium.

第1の発明のビデオカメラ(10:実施例で相当する部分を例示する参照符号。以下同様。)は、たとえば、光学レンズ(12),イメージャ(28)およびカメラ処理回路(34)さらにはSDRAM(38)によってリアルタイム動画像データ出力手段を構成し、ゾーン特有画像データ出力手段(56)が出力するゾーン特有画像データが、そのリアルタイム動画像データとともに画像合成手段(44)に与えられる。たとえばCPU(30)によって能動化されているとき、画像合成手段(44)は、たとえば、リアルタイム動画像データおよびゾーン特有画像データを画像合成用メモリ(図示せず)に書き込むことによって、リアルタイム動画像データ上にゾーン特有画像データを重畳するように合成し、合成画像データを出力する。実施例では符号化回路(46)およびSDカードドライバ(48)を含む記録手段が、記録媒体、たとえば、SDカード(50)に合成画像データを記憶させる。   The video camera of the first invention (10: reference numerals exemplifying corresponding parts in the embodiment; the same applies hereinafter) includes, for example, an optical lens (12), an imager (28), a camera processing circuit (34), and an SDRAM. (38) constitutes the real-time moving image data output means, and the zone-specific image data output from the zone-specific image data output means (56) is given to the image composition means (44) together with the real-time moving image data. For example, when activated by the CPU (30), the image synthesizing means (44) writes the real-time moving image data and the zone-specific image data in an image synthesizing memory (not shown), for example, to thereby realize the real-time moving image. The zone-specific image data is synthesized so as to be superimposed on the data, and the synthesized image data is output. In the embodiment, recording means including an encoding circuit (46) and an SD card driver (48) store the composite image data in a recording medium, for example, an SD card (50).

第1の発明によれば、ゾーン特有画像データをリアルタイム動画像データと合成することによって、特に行楽地などでのレンタルムービーとして好適するビデオカメラが得られる。   According to the first aspect of the present invention, a video camera suitable as a rental movie particularly in a resort area can be obtained by combining zone-specific image data with real-time moving image data.

第2の発明は、第1の発明に従属し、ゾーン特有画像はゾーン特有動画像であり、ゾーン特有画像データ出力手段はゾーン特有動画像データを出力し、画像合成手段は、ゾーン特有動画像データとリアルタイム動画像データとを合成する、ビデオカメラである。   The second invention is dependent on the first invention, the zone-specific image is a zone-specific moving image, the zone-specific image data output means outputs zone-specific moving image data, and the image composition means has a zone-specific moving image. This is a video camera that synthesizes data and real-time moving image data.

第2の発明では、たとえばフラッシュメモリ(56)に撮影ゾーンで行われるアトラクション等のアニメーション動画等のゾーン特有動画を蓄積しておき、ゾーン特有画像データ出力手段はそのゾーン特有動画データを出力する。第2の発明によれば撮影する動画像に関連する動画像が合成される。   In the second invention, for example, zone-specific moving images such as animation moving images such as attractions performed in the shooting zone are accumulated in the flash memory (56), and the zone-specific image data output means outputs the zone-specific moving image data. According to the second invention, a moving image related to a moving image to be photographed is synthesized.

第3の発明は、第1の発明または第2の発明に従属し、記録手段は、合成画像データを暗号化して記録媒体に記録する、ビデオカメラである。   A third invention is a video camera according to the first invention or the second invention, wherein the recording means encrypts the composite image data and records it on a recording medium.

第3の発明では、記録手段を構成する符号化回路(46)およびSDカードドライバ(48)のいずれかに暗号化手段の機能を付加する。暗号化されて記録されたSDカード(50)は、たとえば、レンタルしているビデオカメラ(10)を返却するためのステーション(図示せず)でしか読み出しできないので、ビデオカメラ(10)のレンタルを受けたユーザがそのままSDカード(50)だけを抜き取って持ち帰っても、それに記録されている圧縮画像データは再生することができず、結果として、レンタルビデオカメラをユーザが不正に利用するのを防止することができる。   In the third invention, the function of the encryption means is added to either the encoding circuit (46) or the SD card driver (48) constituting the recording means. Since the SD card (50) recorded in an encrypted manner can be read only by a station (not shown) for returning the rented video camera (10), for example, the rental of the video camera (10) can be performed. Even if the user who has received it pulls out the SD card (50) as it is, the compressed image data recorded on the SD card (50) cannot be played back. can do.

第4の発明は、第3の発明に従属し、ビデオカメラに固有の固有識別コードを記憶しておく固有識別コード記憶手段をさらに備え、記憶手段は、固有識別コードを用いて合成画像データを暗号化して記憶媒体に記憶する、ビデオカメラでる。   The fourth invention is dependent on the third invention and further comprises unique identification code storage means for storing a unique identification code unique to the video camera, and the storage means stores the composite image data using the unique identification code. A video camera that encrypts and stores it on a storage medium.

第4の発明では、ビデオカメラ(10)のたとえばフラッシュメモリ(56)にIDコードを予め設定しておき、暗号化に際して、そのIDコードを利用する。第4の発明によれば、IDコードをユーザなどの第三者が知ることはできないので、上述の不正利用防止が一層確実である。   In the fourth invention, an ID code is set in advance in, for example, the flash memory (56) of the video camera (10), and the ID code is used for encryption. According to the fourth invention, since the ID code cannot be known by a third party such as a user, the above-described unauthorized use prevention is further ensured.

第5の発明は、第1の発明ないし第4の発明のいずれかに従属し、リアルタイム動画像にゾーン特有画像を合成するための該ゾーン特有画像の配置位置を表示する配置位置表示手段をさらに備える、ビデオカメラである。   A fifth invention is according to any one of the first to fourth inventions, further comprising an arrangement position display means for displaying an arrangement position of the zone-specific image for synthesizing the zone-specific image with the real-time moving image. It is a video camera.

第5の発明では、リアルタイム動画像と合成されるゾーン特有画像の配置位置を、たとえば位置記号で、ユーザに教えるようにしたので、思わぬ位置にゾーン特有画像が重畳されるのを防ぐことができる。この場合、ユーザがその位置記号の位置すなわちゾーン特有画像の配置位置を変更できるようにしてもよい。   In the fifth invention, the position of the zone-specific image to be synthesized with the real-time moving image is taught to the user by using, for example, a position symbol, so that the zone-specific image can be prevented from being superimposed at an unexpected position. it can. In this case, the user may be able to change the position of the position symbol, that is, the arrangement position of the zone-specific image.

第6の発明は、第1の発明ないし第5の発明のいずれかに従属し、ゾーン特有動画像データ出力手段は複数のゾーン特有動画像のデータを出力でき、複数のゾーン特有動画像のどれかをユーザに選択させるための手段をさらに備える、ビデオカメラである。   A sixth invention is dependent on any one of the first to fifth inventions, and the zone-specific moving image data output means can output data of a plurality of zone-specific moving images, and any one of the plurality of zone-specific moving images can be output. It is a video camera further provided with the means for making a user select.

第6の発明では、たとえばフラッシュメモリ(56)にゾーン毎に複数の特有動画像データを設定しておき、たとえば、各動画像のサムネイルを表示するとともに、ユーザに選択を促すメッセージを表示するなどによって、ユーザがどれか1つのゾーン特有動画像を選択できる。第6の発明によれば、ゾーン特有動画像を選択できるので、女の子や男の子によって、あるいは老若によって、気に入ったものを選択できる。   In the sixth invention, for example, a plurality of unique moving image data is set for each zone in the flash memory (56), for example, a thumbnail of each moving image is displayed and a message prompting the user to select is displayed. Thus, the user can select any one of the zone-specific moving images. According to the sixth aspect, since the zone-specific moving image can be selected, it is possible to select a favorite one by a girl or boy, or by old or young.

第7の発明は、第1の発明ないし第6の発明のいずれかに従属し、ビデオカメラの存在する位置に関連する位置関連情報を取得する位置関連情報取得手段をさらに備え、ゾーン判定手段は、位置関連情報取得手段によって取得した位置関連情報に基づいて当該ビデオカメラが複数のゾーンのいずれに存在するか判別する、ビデオカメラである。   A seventh invention is according to any one of the first to sixth inventions, further comprising position-related information acquisition means for acquiring position-related information related to a position where the video camera exists, wherein the zone determination means is The video camera determines which of the plurality of zones the video camera is in based on the position related information acquired by the position related information acquisition means.

第7の発明では、たとえば、GPS回路(52)によって現在位置データを取得し、たとえばCPU(30)が、たとえばゾーンテーブル(64)を参照することによってそのときのビデオカメラの位置がどのゾーンに属するかを判別することができる。   In the seventh invention, for example, the current position data is acquired by the GPS circuit (52), and the CPU (30) refers to, for example, the zone table (64), so that the current position of the video camera is in which zone. Whether it belongs can be determined.

この発明によれば、各ゾーンに特有の映像をリアル映像と合成することができるので、地域(行楽地)での記念の映像が一層豊富になる。   According to the present invention, a video peculiar to each zone can be synthesized with a real video, so that a memorial video in the region (excursion) is further enriched.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

実施例のレンタルムービーシステムでは、一例として図1および図2に示すビデオカメラ10を利用するが、ビデオカメラの形状や構成は図1および図2のものに限定されるものではない、ということを予め指摘しておく。   In the rental movie system of the embodiment, the video camera 10 shown in FIGS. 1 and 2 is used as an example, but the shape and configuration of the video camera are not limited to those of FIGS. 1 and 2. Point out in advance.

図1(A)‐図1(D)を参照して、この実施例のビデオカメラ10は扁平でやや縦長の筐体12を有し、その筺体12の前面上部に光学レンズ14が配置される。RECボタン16は筐体12の後面の上部に設けられ、電源ボタン18は筐体12の一方側面の下部に設けられる。筐体12の一方側面の上方には、2軸式のヒンジ機構20が設けられ、このヒンジ機構20によって、LCDモニタユニット22が、開閉かつ回転可能に、筐体12に連結される。モニタ画面24は、LCDモニタユニット22の裏面に形成される。モニタ画面24は、図1(A)に示す閉状態において筐体12の一方側面と対向する一方、図1(B)‐図1(D)に示す開状態において露出する。なお、電源ボタン18は、図1(A)に示す閉状態においてLCDモニタユニット22によって覆われる。図1(D)からわかる、筺体12の後面のRECボタン16の近傍にはチルトキー26が設けられる。チルトキー26は、たとえば、LCDモニタユニット22のモニタ画面24上に表示したカーソル(図示せず)を動かすのに利用され得る。カーソルは、たとえば、モニタ画面24に表示されている「はい」または「いいえ」を選択したり、あるいは、後述のキャラクタ動画(ゾーン特有動画像)の選択をしたりするのに使われる。   Referring to FIGS. 1A to 1D, a video camera 10 of this embodiment has a flat and slightly vertical casing 12, and an optical lens 14 is disposed on the front upper portion of the casing 12. . The REC button 16 is provided on the upper portion of the rear surface of the housing 12, and the power button 18 is provided on the lower portion of one side surface of the housing 12. A biaxial hinge mechanism 20 is provided above one side surface of the casing 12, and the LCD monitor unit 22 is connected to the casing 12 by the hinge mechanism 20 so as to be opened and closed and rotated. The monitor screen 24 is formed on the back surface of the LCD monitor unit 22. The monitor screen 24 faces one side surface of the housing 12 in the closed state shown in FIG. 1A, and is exposed in the open state shown in FIGS. 1B to 1D. The power button 18 is covered by the LCD monitor unit 22 in the closed state shown in FIG. As shown in FIG. 1D, a tilt key 26 is provided in the vicinity of the REC button 16 on the rear surface of the housing 12. The tilt key 26 can be used, for example, to move a cursor (not shown) displayed on the monitor screen 24 of the LCD monitor unit 22. The cursor is used, for example, to select “Yes” or “No” displayed on the monitor screen 24, or to select a character moving image (zone-specific moving image) described later.

図2を参照して、上述のように、この実施例のビデオカメラ10は、光学レンズ12を含む。被写界を表す光学像は、光学レンズ12を経てイメージャ28の撮像面に照射される。撮像面は、R(Red),G(Green)およびB(Blue)の色要素がモザイク状に配列された色フィルタ(図示せず)によって覆われる。撮像面に形成された複数の受光素子の各々で生成される電荷の量は、このような色フィルタを経た光の量を反映する。   With reference to FIG. 2, as described above, the video camera 10 of this embodiment includes the optical lens 12. The optical image representing the object scene is irradiated on the imaging surface of the imager 28 through the optical lens 12. The imaging surface is covered with a color filter (not shown) in which R (Red), G (Green), and B (Blue) color elements are arranged in a mosaic pattern. The amount of charge generated by each of the plurality of light receiving elements formed on the imaging surface reflects the amount of light that has passed through such a color filter.

CPU30は、このビデオカメラ10の全体の制御を司る。たとえば、カメラモードにおいて、露光および電荷読み出しの繰り返しをTG32に命令し、LCDドライバ34を起動する。TG32は、1/30秒毎に撮像面を露光し、これによって生成された電荷をラスタ走査態様で撮像面から読み出す。この結果、被写界を表す生画像信号が30fpsのフレームレートでイメージャ28から出力される。   The CPU 30 controls the entire video camera 10. For example, in the camera mode, the TG 32 is instructed to repeat exposure and charge readout, and the LCD driver 34 is activated. The TG 32 exposes the imaging surface every 1/30 seconds, and reads the charges generated thereby from the imaging surface in a raster scanning manner. As a result, a raw image signal representing the object scene is output from the imager 28 at a frame rate of 30 fps.

カメラ処理回路34は、イメージャ28から出力された各フレームの生(RAW)画像信号にCDS,AGC,A/D変換,色分離,白バランス調整,YUV変換の一連の処理を施し、YUV形式のリアルタイム動画像(そのとき実際に撮影した画像のこと)のデータを作成する。カメラ処理回路34から出力されるリアルタイム動画像データは、メモリ制御回路36によってSDRAM38に書き込まれる。LCDドライバ40は、SDRAM38に格納された画像データをメモリ制御回路36を通して1/30秒毎に読み出し、読み出されたリアルタイム動画像データに基づいてLCDモニタユニット22を駆動する。この結果、スルー画像(リアルタイム動画像)がLCDモニタユニット22のモニタ画面24に表示される。   The camera processing circuit 34 performs a series of processing such as CDS, AGC, A / D conversion, color separation, white balance adjustment, and YUV conversion on the raw (RAW) image signal of each frame output from the imager 28, so that the YUV format Data of real-time moving images (images actually taken at that time) is created. Real-time moving image data output from the camera processing circuit 34 is written into the SDRAM 38 by the memory control circuit 36. The LCD driver 40 reads the image data stored in the SDRAM 38 through the memory control circuit 36 every 1/30 seconds, and drives the LCD monitor unit 22 based on the read real-time moving image data. As a result, a through image (real-time moving image) is displayed on the monitor screen 24 of the LCD monitor unit 22.

画像合成回路44は、上述のCPU30によって能動化/不能動化されるもので、能動化されているときには、SDRAM38に格納されたYUV形式のリアルタイム動画像データをメモリ制御回路36を通して1/30秒毎に読み出し、画像合成用メモリ(図示せず)に書き込む。他方、後述のフラッシュメモリ56に蓄積されている同じYUV形式のゾーン特有画像をその画像合成用メモリに書き込むことによって、リアルタイム動画像データとゾーン特有動画像データとを合成して合成画像データを出力する。ただし、画像合成回路44は、能動化されていないときには、画像合成動作を行なわない。   The image synthesizing circuit 44 is activated / disabled by the CPU 30 described above. When activated, the image synthesizing circuit 44 transmits real-time moving image data in YUV format stored in the SDRAM 38 through the memory control circuit 36 for 1/30 second. Each time it is read out, it is written in an image composition memory (not shown). On the other hand, the same YUV format zone-specific image stored in the flash memory 56, which will be described later, is written into the image composition memory, thereby synthesizing the real-time moving image data and the zone-specific moving image data and outputting the combined image data. To do. However, the image composition circuit 44 does not perform an image composition operation when it is not activated.

カメラモードが選択された状態でキー入力装置42上のRECボタン16が操作されると、CPU30は、記録処理の開始を符号化回路46に命令する。RECボタン16が再度操作されると、CPU30は、記録処理の終了を符号化回路46に命令する。符号化回路46は、所定の終了処理を実行する。これによって、所望の動画像が収められた圧縮ファイルがSDカード50に記録される。   When the REC button 16 on the key input device 42 is operated with the camera mode selected, the CPU 30 commands the encoding circuit 46 to start the recording process. When the REC button 16 is operated again, the CPU 30 commands the encoding circuit 46 to end the recording process. The encoding circuit 46 performs a predetermined end process. As a result, a compressed file containing a desired moving image is recorded on the SD card 50.

詳しく説明すると、符号化回路46は、画像合成回路44を使わないときには、SDRAM38に格納されたリアルタイム動画像データをメモリ制御回路36を通して1/30秒毎に読み出し、読み出した画像データをたとえばMPEG-4のような圧縮ファイル形式で符号化する。ただし、CPU30によって画像合成回路44が能動化されているときには、その画像合成回路44からリアルタイム動画像データと同じフレームレートで出力される合成画像データをMPEG-4のような圧縮ファイル形式で符号化する。   More specifically, the encoding circuit 46 reads the real-time moving image data stored in the SDRAM 38 every 1/30 seconds through the memory control circuit 36 when the image synthesis circuit 44 is not used, and reads the read image data, for example, MPEG- Encode in a compressed file format such as 4. However, when the image composition circuit 44 is activated by the CPU 30, the composite image data output from the image composition circuit 44 at the same frame rate as the real-time moving image data is encoded in a compressed file format such as MPEG-4. To do.

たとえば、符号化回路46は、いずれも図示しないが、MPEG‐4プリプロセサ、MPEG‐4コーデック、およびMPEG‐4フォーマッタを有し、まず、MPEG‐4プリプロセサによって画像データを圧縮に適するように調整してMPEG‐4コーデックに与える。MPEG‐4コーデックでは画像データを圧縮し、MPEG‐4フォーマッタに圧縮した画像データを渡す。MPEG‐4フォーマッタでは、圧縮した画像データで映像トラックを形成し、別途録音された音声を圧縮した音声圧縮データからなる音声トラックとともに、MPEG‐4形式のコンテナフォーマットに格納する。これによって、画像データが音声データとともに、パソコンで認識できる動画フォーマットに調製される。ただし、静止画像データの場合には、JPEG方式で圧縮される。   For example, the encoding circuit 46 includes an MPEG-4 preprocessor, an MPEG-4 codec, and an MPEG-4 formatter (not shown), and first adjusts the image data to be suitable for compression by the MPEG-4 preprocessor. To the MPEG-4 codec. The MPEG-4 codec compresses image data and passes the compressed image data to an MPEG-4 formatter. In the MPEG-4 formatter, a video track is formed from compressed image data, and stored in an MPEG-4 format container format together with an audio track made up of compressed audio data obtained by compressing separately recorded audio. As a result, the image data and the audio data are prepared in a moving image format that can be recognized by a personal computer. However, in the case of still image data, it is compressed by the JPEG method.

この動画フォーマットに符号化された画像データは、SDカードドライバ48によって記録媒体の一例であるSDカード50に記録する。ただし、このとき、SDカードドライバ48は、CPU30から与えられるこのビデオカメラ10の固有の識別番号(IDコード)を用いて暗号化して、SDカード50に記録する。この暗号化されて記録されたSDカード50は、このビデオカメラ10を返却するためのステーション(図示せず)に備えられているDVD作成機(図示せず)によってのみ読出しが可能にされている。したがって、ビデオカメラ10のレンタルを受けたユーザがそのままSDカード50だけを抜き取って持ち帰っても、SDカード50内に記録されている圧縮画像データは再生することができない。このような暗号化/解読方式によって、レンタルビデオカメラをユーザが不正に利用するのを防止することができる。   The image data encoded in this moving image format is recorded on an SD card 50 which is an example of a recording medium by an SD card driver 48. However, at this time, the SD card driver 48 uses the unique identification number (ID code) of the video camera 10 given from the CPU 30 for encryption and records it on the SD card 50. The SD card 50 recorded in an encrypted manner can be read only by a DVD creator (not shown) provided in a station (not shown) for returning the video camera 10. . Therefore, even if a user who has rented the video camera 10 pulls out the SD card 50 as it is, the compressed image data recorded in the SD card 50 cannot be reproduced. Such an encryption / decryption method can prevent the user from illegally using the rental video camera.

ただし、SDカードドライバ48にそのような暗号化手段の機能を持たせる場合に代えて、符号化回路46に暗号化手段の機能を付加するようにしてもよい。   However, instead of providing the SD card driver 48 with the function of the encryption means, the function of the encryption means may be added to the encoding circuit 46.

レンタルしたビデオカメラ10はユーザが図示しない返却ステーションに返却する。この返却ステートョンにはDVD作成機が設置されていて、ユーザがビデオカメラ10をそこに返却したとき、DVD作成機によってSDカード50の中の映像を編集して、たとえばDVDに焼き付けるなどのサービスを行なう。ただし、DVDにではなく、別のSDカードなどに落とし込むようにしてもよい。   The rented video camera 10 is returned to a return station (not shown) by the user. In this return state, a DVD creator is installed, and when the user returns the video camera 10 there, a service such as editing the video in the SD card 50 by the DVD creator and burning it to a DVD, for example. Do. However, you may make it drop into another SD card etc. instead of DVD.

ビデオカメラ10にはさらに、図2に示すように、GPS(Global Positioning System:全地球測位システム)回路52が設けられていて、このGPS回路52は、よく知られているように、現在位置を緯度経度のデータとして認識することができ、位置データをCPU30に入力する。CPU30では、後述のように、この位置データに基づいて、1つの地域または行楽地(たとえば、公園、動物園、遊園地、水族館、博物館、植物園、テーマパーク、観光地、観光施設)内のどのゾーンにビデオカメラ10が現在存在しているかを判別する。   As shown in FIG. 2, the video camera 10 is further provided with a GPS (Global Positioning System) circuit 52. The GPS circuit 52, as is well known, determines the current position. It can be recognized as latitude and longitude data, and position data is input to the CPU 30. In the CPU 30, as described later, based on this position data, which zone or amusement park (for example, a park, a zoo, an amusement park, an aquarium, a museum, a botanical garden, a theme park, a tourist resort, a tourist facility) It is determined whether the video camera 10 currently exists.

さらに、モーションセンサ54が設けられる。このモーションセンサ54は典型的にはジャイロセンサと3軸加速度センサとの組合せもしくはそれらの一方を含み、ビデオカメラ10の姿勢や移動速度あるいは移動方向などのデータ(「モーションデータ」と総称する。)を出力し、そのモーションデータをCPU30に与える。CPU30は、モーションデータに基づいて、後述の枠記号68(図6)を移動させたりすることができる。   Furthermore, a motion sensor 54 is provided. The motion sensor 54 typically includes a combination of a gyro sensor and a triaxial acceleration sensor or one of them, and data such as the attitude, moving speed, or moving direction of the video camera 10 (collectively referred to as “motion data”). And the motion data is given to the CPU 30. The CPU 30 can move a frame symbol 68 (FIG. 6) described later based on the motion data.

ビデオカメラ10に内蔵されているフラッシュメモリ(これはハードディスクのような別の記憶装置に代えられてもよい。)56には、図3に示すように、プログラム記憶領域58とデータ記憶領域60とが形成される。プログラム記憶領域58には上で説明したビデオカメラ10の動作を制御するのに必要な、さらにはこのビデオカメラ10をレンタルビデオカメラ(レンタルムービー)として貸出しするのに必要な、1つまたは2以上のプログラムが予め設定されている。この実施例に関していえば、具体的には、図7および図8に示すフローチャートに従った動作プログラムが組み込まれている。   A flash memory (which may be replaced with another storage device such as a hard disk) 56 built in the video camera 10 includes a program storage area 58 and a data storage area 60 as shown in FIG. Is formed. The program storage area 58 includes one or more necessary for controlling the operation of the video camera 10 described above, and also for renting the video camera 10 as a rental video camera (rental movie). These programs are preset. As for this embodiment, specifically, an operation program according to the flowcharts shown in FIGS. 7 and 8 is incorporated.

これらのプログラムは、一度に全部もしくは必要な都度部分的に、フラッシュメモリ56から読み出され、CPU30の内部メモリ(図示せず)上に展開されて利用される。ただし、後述のデータ記憶領域60内のデータも、一度に全部もしくは必要な都度部分的にフラッシュメモリ56から読み出され、CPU30の内部メモリ上に展開されて利用される。   These programs are read from the flash memory 56 all at once or partially as needed, and are used by being expanded on an internal memory (not shown) of the CPU 30. However, data in a later-described data storage area 60 is also read from the flash memory 56 all at once or partially as needed, and is used by being expanded on the internal memory of the CPU 30.

データ記憶領域60は、ゾーンテーブル62を含む。上述のように、この実施例のビデオカメラ10は、「地域」または「行楽地」おいて来場者に有償で貸し出されるいわゆるレンタルムービーとして意図されているが、そのような「地域」または「行楽地」の一例が図4に示される。   The data storage area 60 includes a zone table 62. As described above, the video camera 10 of this embodiment is intended as a so-called rental movie that is rented to a visitor for a fee in an “area” or “excursion place”. An example of “ground” is shown in FIG.

図4に図示する地域ないし行楽地74は、一例として、7つのゾーン741‐747に区分されているが、図4のゾーン区分は単なる一例である。   The area or resort area 74 shown in FIG. 4 is divided into seven zones 741 to 747 as an example, but the zone division in FIG. 4 is merely an example.

この実施例のビデオカメラ10では、上述の各ゾーン721‐727においてビデオカメラを使用するとき、各ゾーン特有に予め作成されている、たとえば図5に示す動画像データをリアルタイム動画像に重ねて記録しようとする目的のビデオカメラである。そのために、フラッシュメモリ56のデータ記憶領域60のゾーン動画データ領域62には、各ゾーン毎に異なるゾーン動画のYUV形式のデータを予め格納しておく。   In the video camera 10 of this embodiment, when the video camera is used in each of the zones 721 to 727 described above, for example, the moving image data shown in FIG. It is a video camera for the purpose of trying. Therefore, in the zone moving image data area 62 of the data storage area 60 of the flash memory 56, YUV format data of a zone moving image that is different for each zone is stored in advance.

たとえば、第1ゾーンのためには第1‐第mの(m個の)ゾーン動画像データが、それぞれのサムネイル画像データとともに、記憶され、第nゾーンのためには第1‐第mのゾーン動画像データが、それぞれのサムネイル画像データとともに予め準備されている。   For example, 1st to m-th (m) zone moving image data is stored together with the respective thumbnail image data for the first zone, and the 1st to m-th zones for the nth zone. Moving image data is prepared in advance together with each thumbnail image data.

図5にゾーン動画像の一例が図示されている。このゾーン動画像は、該当するゾーンに関連するキャラクタ(ゾーン特有動画像)が一連の動きをするアニメーション動画である。ただし、ゾーン特有の風景やアトラクションを映しこんだ実写動画像であってもよい。   FIG. 5 shows an example of a zone moving image. This zone moving image is an animated moving image in which a character (zone-specific moving image) related to the corresponding zone moves in a series. However, it may be a live-action moving image that reflects a zone-specific landscape or attraction.

データ記憶領域60には、さらに、ゾーンテーブル64が設定されている。このゾーンテーブル64は、図2のGPS回路52で取得した位置データがたとえば図4に示すゾーン741‐747のいずれに属するかをCPU30が判別する際に利用するものである。ゾーンテーブル64の形式は任意でよいが、たとえば、各ゾーンの東端、西端、南端、北端のそれぞれの緯度と経度とを設定しておき、CPU30はそのときの位置が、東端より西側にあるか、西端より東側にあるか、南端より北側にあるか、北端より南側にあるか、などを判別し、4つ全てに肯定的な結果が得られたとき、該当のゾーンに属すると判別するようにすることが考えられる。   A zone table 64 is further set in the data storage area 60. This zone table 64 is used when the CPU 30 determines to which of the zones 741 to 747 shown in FIG. 4 the position data acquired by the GPS circuit 52 of FIG. 2 belongs, for example. The format of the zone table 64 may be arbitrary. For example, the latitude and longitude of the east end, west end, south end, and north end of each zone are set, and the CPU 30 determines whether the current position is west of the east end. It is determined whether it is east from the west end, north from the south end, south from the north end, etc., and if all four positive results are obtained, it is determined that it belongs to the corresponding zone Can be considered.

他の形式として、各ゾーン毎にそのゾーンの一部の領域だけについて上述のような東端、西端、南端、北端のそれぞれの緯度と経度とを設定しておき、現在位置が、東端より西側にあるか、西端より東側にあるか、南端より北側にあるか、北端より南側にあるかを判別する方法、各ゾーン毎にその中心地の緯度と経度とを設定しておき、現在位置がその中心地から一定距離(たとえば500m)以内なら該当のゾーンに属すると判断する方法、など任意に設定できる。   As another format, the latitude and longitude of each east end, west end, south end, and north end as described above are set for each zone for each zone, and the current position is west of the east end. It is possible to determine whether it is located on the east side of the west end, on the north side of the south end, or on the south side of the north end, and the latitude and longitude of the center is set for each zone. It is possible to arbitrarily set, for example, a method for determining that the vehicle belongs to the corresponding zone within a certain distance (for example, 500 m) from the center.

要は、ゾーンテーブル64は、GPS回路52で取得した位置データに基づいて、ビデオカメラ10がそのときどのゾーンに属しているかをCPU30が判別できるテーブルであればよい。   In short, the zone table 64 may be a table that allows the CPU 30 to determine which zone the video camera 10 belongs to based on the position data acquired by the GPS circuit 52.

データ記憶領域60にはさらに、記号データ領域66が形成される。この領域66には、たとえば図6に示すような、ゾーン特有動画を配置すべき位置をモニタ画面24上で示す枠記号68を描画するための枠記号データが設定されている。   A symbol data area 66 is further formed in the data storage area 60. In this area 66, for example, frame symbol data for drawing a frame symbol 68 indicating the position on the monitor screen 24 where the zone-specific moving image is to be arranged is set as shown in FIG.

データ記憶領域60のID記憶領域70には、このビデオカメラ10の固有識別番号(IDコード)が、好ましくは暗号化されて、設定されている。このIDコードは、ビデオカメラ10の個体識別の用途の他、図2に示すSDカードドライバ48での暗号化のための鍵データの一部として利用される。   In the ID storage area 70 of the data storage area 60, the unique identification number (ID code) of the video camera 10 is preferably encrypted and set. This ID code is used as part of key data for encryption by the SD card driver 48 shown in FIG.

データ記憶領域60のメッセージ領域72には、モニタ画面24上に表示すべきメッセージの文字の表示データや、「はい」「いいえ」などの選択肢の表示のデータが格納されている。   In a message area 72 of the data storage area 60, display data of message characters to be displayed on the monitor screen 24 and display data of options such as “Yes” and “No” are stored.

この実施例のビデオカメラ10の動作を、図7および図8のフローチャートを参照して説明する。   The operation of the video camera 10 of this embodiment will be described with reference to the flowcharts of FIGS.

図7は、このビデオカメラ10の貸し出しを受けたユーザが、RECボタン16(図1)をオンしたときの、「録画モード」における動作を示す。最初のステップS1で、CPU30は、GPS回路52から位置データを取得したかどうか判断する。“NO”なら、位置データが入力されるまで待つ。“YES”なら、次のステップS3で、CPU30は、図3に示すゾーンテーブル64を参照して、そのときビデオカメラがどのゾーンに存在しているかを判定する。   FIG. 7 shows an operation in the “recording mode” when the user who has lent the video camera 10 turns on the REC button 16 (FIG. 1). In the first step S <b> 1, the CPU 30 determines whether position data has been acquired from the GPS circuit 52. If “NO”, wait until position data is input. If “YES”, in the next step S3, the CPU 30 refers to the zone table 64 shown in FIG. 3 to determine in which zone the video camera is present.

続くステップS5で、CPU30は、たとえばス゛3に示すゾーン動画データ領域62にそのゾーンのためのゾーン特有動画像データが設定されているかどうか、判断する。   In subsequent step S5, CPU 30 determines whether or not zone-specific moving image data for the zone is set in zone moving image data area 62 shown in FIG. 3, for example.

ステップS5で“YES”を判断したとき、CPU30は、次のステップS7で、図3のメッセージ領域72から読み出したデータを利用して、たとえば、「ゾーン動画を入れますか?」というメッセージ、「はい」「いいえ」の選択肢、そしてその選択肢を洗濯させるためのカーソルとをモニタ画面24に表示し、ユーザからの入力を待つ。   When “YES” is determined in the step S5, the CPU 30 uses the data read from the message area 72 in FIG. 3 in the next step S7, for example, a message “Do you want to insert a zone movie?” An option “Yes” and “No” and a cursor for washing the option are displayed on the monitor screen 24, and an input from the user is awaited.

つまり、ステップS9でユーザが「はい」を選択したかどうか判断し、“NO”なら、ステップS11で一定時間の経過を判断するまで、ステップS7を表示し続ける。一定時間経過しても「はい」を選択しなかった場合、つまり、ユーザがゾーン動画のリアルタイム動画像内への挿入に同意しなかった場合には、ステップS19に進む。   That is, it is determined whether or not the user has selected “Yes” in Step S9. If “NO”, Step S7 is continuously displayed until it is determined in Step S11 that a predetermined time has elapsed. If “Yes” is not selected even after a certain period of time has elapsed, that is, if the user has not agreed to insert the zone moving image into the real-time moving image, the process proceeds to step S19.

ステップS9で“YES”が判断されたとき、つまり、ユーザがゾーン動画の挿入に同意した場合には、次のステップS13で、CPU30は、図3に示すゾーン動画データ領域62から、該当するゾーンの全てのゾーン動画1‐mのサムネイル画像をモニタ画面24上に一覧表示するとともに、メッセージ領域72から読み出したデータによって、「どのゾーン動画を入れますか?」というメッセージとサムネイル画像を選択させるためのカーソルとを表示し、ユーザの指定を待つ。   When “YES” is determined in step S9, that is, when the user agrees to insert the zone moving image, in the next step S13, the CPU 30 reads the corresponding zone from the zone moving image data area 62 shown in FIG. The thumbnail images of all the zone videos 1-m are displayed in a list on the monitor screen 24, and the message “Which zone movie do you want to insert?” And thumbnail images are selected according to the data read from the message area 72. And wait for the user's specification.

つまり、ステップS15でユーザがサムネイル画像のどれかを指定したかどうか判断し、“NO”なら、ステップS17で一定時間の経過を判断するまで、ステップS13を表示し続ける。一定時間経過してもユーザがゾーン動画を選択または指定しなかった場合には、ゾーン動画を挿入しない場合と同様に、ステップS19に進む。   That is, it is determined whether or not the user designates any of the thumbnail images in step S15. If “NO”, step S13 is continuously displayed until it is determined in step S17 that a predetermined time has elapsed. If the user does not select or designate the zone moving image even after a predetermined time has elapsed, the process proceeds to step S19 as in the case where the zone moving image is not inserted.

ステップS19では、CPU30は、SDRAM38からリアルタイム動画像データを読み出して、符号化回路46に与える。   In step S <b> 19, the CPU 30 reads out the real-time moving image data from the SDRAM 38 and gives it to the encoding circuit 46.

ステップS15でユーザがどれかのサムネイル画像を指定したときには、次のステップS21で、画像合成動作を実行する。   When the user designates any thumbnail image in step S15, an image composition operation is executed in the next step S21.

具体的には、図8の最初のステップS31で、CPU30は、SDRAM38からリアルタイム動画像データを読み出して、画像合成回路44内に設けられている画像合成用のメモリ(図示せず)に書き込む。次いで、CPU30は、ステップS33で、図3の枠記号データ領域66の枠記号データを用いて、図6に示す枠記号70をモニタ画面24に表示する。ただし、このとき画像合成回路44のメモリ内にリアルタイム動画像が書き込まれているので、図6に示すように、モニタ画面24にはリアルタイム動画像も同時に表示される。そして、メッセージ領域72のデータに基づいて「枠記号位置はOKですか?」のようなメッセージと、「枠記号位置を変更したいときはチルトキー26を使って動かしてください。」のようなメッセージを表示する。そして、ステップS37でユーザによるチルトキーの操作があったとき、その操作方向と操作量に応じて枠記号70を移動させる。チルトキー26の操作がなくなったとき、ステップS35で“YES”が判断できる。ただし、モーションセンサ54の入力をCPU30で検知し、その入力に応じた位置に枠記号68の位置を移動させるようにしてもよい。   Specifically, in the first step S31 of FIG. 8, the CPU 30 reads real-time moving image data from the SDRAM 38 and writes it in an image composition memory (not shown) provided in the image composition circuit 44. Next, in step S33, the CPU 30 displays the frame symbol 70 shown in FIG. 6 on the monitor screen 24 using the frame symbol data in the frame symbol data area 66 of FIG. However, since the real-time moving image is written in the memory of the image composition circuit 44 at this time, the real-time moving image is simultaneously displayed on the monitor screen 24 as shown in FIG. Based on the data in the message area 72, a message such as “Is the frame symbol position OK?” And a message such as “If you want to change the frame symbol position, move it using the tilt key 26.” indicate. When the tilt key is operated by the user in step S37, the frame symbol 70 is moved according to the operation direction and the operation amount. When the operation of the tilt key 26 is lost, “YES” can be determined in step S35. However, the input of the motion sensor 54 may be detected by the CPU 30 and the position of the frame symbol 68 may be moved to a position corresponding to the input.

前述のように、この実施例においては、SDRAM38に書き込まれるリアルタイム動画像データはいわゆるスルー画像であり、ゾーン特有動画像はRECボタン16を押したときだけ重畳されるので、そのままではユーザは、ゾーン特有動画像がどこに配置されるのか分からない。したがって、思いがけない位置、たとえば人物などの主要被写体上にゾーン特有動画像が重なってしまうという不都合が生じるかもしれない。しかしながら、この枠記号68によってゾーン特有動画像の配置位置を予告的にユーザに教えることができるので、斯かる不都合を回避することができる。   As described above, in this embodiment, the real-time moving image data written in the SDRAM 38 is a so-called through image, and the zone-specific moving image is superimposed only when the REC button 16 is pressed. I don't know where the unique video is located. Therefore, there may be an inconvenience that the zone-specific moving image overlaps an unexpected position, for example, a main subject such as a person. However, since the user can be informed in advance of the position of the zone-specific moving image by using the frame symbol 68, such inconvenience can be avoided.

ステップS35で“YES”を判断すると、次にCPU30は、ステップS15でユーザが指定したゾーン特有動画像データをフラッシュメモリ56あるいはCPU30の内部メモリから読み出す。   If "YES" is determined in the step S35, the CPU 30 next reads the zone-specific moving image data designated by the user in the step S15 from the flash memory 56 or the internal memory of the CPU 30.

そして、次のステップS41で、そのゾーン特有動画像データを上述の画像合成用メモリ(図示せず)に書き込むことによって、リアルタイム動画像データとゾーン特有動画像データとを混合して、合成画像データを出力する。   Then, in the next step S41, the zone-specific moving image data is written into the above-described image composition memory (not shown), and the real-time moving image data and the zone-specific moving image data are mixed to produce the combined image data. Is output.

このようにして、図7のステップS19において画像合成回路44からリアルタイム動画像が、またはステップS21において画像合成回路44から合成画像データが、出力される。   In this way, the real-time moving image is output from the image composition circuit 44 in step S19 in FIG. 7, or the composite image data is output from the image composition circuit 44 in step S21.

ステップS23では、CPU30は符号化回路46に指令を与え、圧縮操作(符号化処理)を実行させる。そして、たとえばMPEG‐4フォーマットの圧縮画像(音声も含む)をSDカードドライバ48に出力する。したがって、SDカードドライバ48は、CPU30によって図3のID記憶領域68から与えられるこのビデオカメラ10のIDコードを用いて暗号化して、SDカード50に記録する。   In step S23, the CPU 30 gives an instruction to the encoding circuit 46 to execute a compression operation (encoding process). Then, for example, a compressed image (including audio) in the MPEG-4 format is output to the SD card driver 48. Therefore, the SD card driver 48 uses the ID code of the video camera 10 given by the CPU 30 from the ID storage area 68 of FIG.

そして、ステップS25でCPU30がRECボタン16のオフを検出したとき、録画動作を終了する。   When the CPU 30 detects that the REC button 16 is turned off in step S25, the recording operation is terminated.

このようにして、図9に例示するような、リアルタイム動画像にゾーン特有動画像が重畳または合成された合成画像がSDカード50に暗号化して記録される。ただし、ステップS19を経た場合には、合成画像ではなく、リアルタイム動画像だけが暗号化されてSDカード50に記録される。   In this way, a composite image obtained by superimposing or synthesizing a zone-specific moving image on a real-time moving image as exemplified in FIG. 9 is encrypted and recorded on the SD card 50. However, after step S19, only the real-time moving image, not the synthesized image, is encrypted and recorded on the SD card 50.

なお、先に説明した実施例では、リアルタイム動画像と合成すべきゾーン特有動画像のデータをフラッシュメモリ56に予め準備して格納しておき、GPS回路52が検出した位置データに基づいて判定したゾーンに該当するゾーン動画像データをフラッシュメモリ56またはCPU30の内部メモリから読み出して利用するようにした。   In the embodiment described above, the zone-specific moving image data to be synthesized with the real-time moving image is prepared in advance and stored in the flash memory 56, and the determination is made based on the position data detected by the GPS circuit 52. The zone moving image data corresponding to the zone is read from the flash memory 56 or the internal memory of the CPU 30 and used.

これに対して、次に説明する実施例では、GPS回路36は屋内では位置データを検出しにくいということ、および、フラッシュメモリ56に全てのゾーン動画像データを予め蓄積しておくことの面倒さとを考慮して、QRコード(登録商標)のような2次元バーコードを利用して位置データすなわちゾーンデータを取得し、併せて、ゾーン特有動画像データを近距離無線通信を利用してその都度取得するようにしている。なお、「QRコード」は登録商標であるが、ここでは、2次元バーコードを代表して便宜的にこの語を使用していることを予め指摘しておく。   On the other hand, in the embodiment described below, it is difficult for the GPS circuit 36 to detect the position data indoors, and it is troublesome to store all the zone moving image data in the flash memory 56 in advance. In consideration of the above, position data, that is, zone data is acquired using a two-dimensional bar code such as a QR code (registered trademark), and zone-specific moving image data is also used each time using short-range wireless communication. Try to get. Note that “QR code” is a registered trademark, but it is pointed out in advance that this word is used for convenience for the sake of convenience in representing two-dimensional barcodes.

この実施例のビデオカメラ10の構成が図10に示される。この実施例のビデオカメラ10は無線ユニット76を含み、この無線ユニット76によって、近距離無線通信でゾーン特有動画像データを取得する。その取得したゾーン動画データはCPU30の内部メモリまたは他のメモリ(いずれも図示せず)に記憶して保持しておく。   The configuration of the video camera 10 of this embodiment is shown in FIG. The video camera 10 of this embodiment includes a wireless unit 76, and the wireless unit 76 acquires zone-specific moving image data by short-range wireless communication. The acquired zone moving image data is stored and held in the internal memory of the CPU 30 or in another memory (both not shown).

また、この実施例ではカメラ機能を利用して静止画も撮影できるので、QRコードはこのビデオカメラ10自体で撮影して取り込むことができる。そして、QRコードリーダ78がその取り込んだQRコードを識別して、識別したデータをCPU30に与える。あるいは、QRコードの識別に必要な参照データをたとえばフラッシュメモリ56に記憶しておき、CPU30がその参照データを使って、読み取ったQRコードを識別するようにしてもよい。この実施例の場合には、QRコードが位置データを表すので、その位置データを使ってゾーン判定することができる。ただし、QRコードがゾーン番号を示しているときには、現在位置に基づくゾーンの判定は不要になる。   In this embodiment, since a still image can be taken using the camera function, the QR code can be taken and captured by the video camera 10 itself. Then, the QR code reader 78 identifies the captured QR code, and provides the identified data to the CPU 30. Alternatively, reference data necessary for identifying the QR code may be stored in the flash memory 56, for example, and the CPU 30 may identify the read QR code using the reference data. In this embodiment, since the QR code represents position data, the zone can be determined using the position data. However, when the QR code indicates the zone number, it is not necessary to determine the zone based on the current position.

図10のビデオカメラ10を利用する地域ないし行楽地の一例が図11に示される。図11に示す地域ないし行楽地74には、各ゾーン741‐747の各々に、図12に示すようなQRポスト80を1つ以上設置しておく。QRポスト80の設置位置は、各ゾーンのメインストリート、アトラクションが行なわれる場所などの主要な場所であってよい。   FIG. 11 shows an example of an area or resort where the video camera 10 of FIG. 10 is used. In the area or resort area 74 shown in FIG. 11, one or more QR posts 80 as shown in FIG. 12 are installed in each of the zones 741-747. The installation position of the QR post 80 may be a main place such as a main street of each zone or a place where an attraction is performed.

QRポスト80は、図12に示すように、QRコード(図示せず)を表示したQRコード表示部82を有する。したがって、このQRコード表示部82を撮影してQRコードを取得するようにすればよい。QRポストはさらに、無線ユニット84を内蔵しており、この無線ユニット84によって近距離無線通信を無線ユニット76との間で実行して、そのQRポストが設置されているゾーンのゾーン特有動画像データをビデオカメラ10に送信する。無線ユニット76で取り込んだゾーン特有動画像データは、たとえばCPU30の内部メモリまたは他の内蔵メモリ(いずれも図示せず)に一時的に保存しておく。この場合には、1つのQRポスト80からは1つのゾーン特有動画像データだけをビデオカメラ10に与えるようにするので、ステップS13での選択が必要ではなくなる。   As shown in FIG. 12, the QR post 80 has a QR code display unit 82 that displays a QR code (not shown). Accordingly, the QR code may be acquired by photographing the QR code display unit 82. The QR post further incorporates a radio unit 84, and the radio unit 84 executes short-range radio communication with the radio unit 76, and the zone-specific moving image data of the zone in which the QR post is installed. Is transmitted to the video camera 10. The zone-specific moving image data captured by the wireless unit 76 is temporarily stored in, for example, the internal memory of the CPU 30 or other built-in memory (both not shown). In this case, since only one zone-specific moving image data is supplied to the video camera 10 from one QR post 80, the selection in step S13 is not necessary.

ただし、QRポスト80を利用する場合には、ユーザは当然ゾーン特有動画像を取り込む意思を持っている解釈できるので、ステップS7-S19を省略し、QRポスト80からゾーン特有動画像データの転送があったとき自動的にステップS21以降を実行するようにしてもよい。   However, when using the QR post 80, the user can understand that the user is willing to capture the zone-specific moving image. Therefore, the steps S7 to S19 are omitted, and the zone-specific moving image data is transferred from the QR post 80. If there is, it may be automatically executed after step S21.

さらに、ゾーン判定を行なう手段としては、GPSを使う方法、QRコードを使う方法の他、ゾーン毎に放送されている音声(テーマミュージック)によってゾーンを認識または判定するようにしてもよい。   Further, as means for performing zone determination, in addition to a method using GPS and a method using QR code, the zone may be recognized or determined by sound (theme music) broadcast for each zone.

なお、上述の実施例では、位置記号はユーザが移動可能に設定するようにしたが、たとえばリアルタイム動画像中の顔領域を検出し、その顔領域に重ならないように、位置記号を顔の部分以外の位置に表示することが考えられる。具体的には、リアルタイム動画像の各フレーム毎にたとえば肌色領域を検出することによって顔領域を判別し、それらの顔領域の位置および面積を検出し、フレーム毎に顔領域を外した位置に位置記号を設定するようにすればよい。   In the above-described embodiment, the position symbol is set to be movable by the user. However, for example, a face region in a real-time moving image is detected, and the position symbol is not a part of the face so as not to overlap the face region. It is conceivable to display at a position other than. Specifically, for example, by detecting a skin color area for each frame of the real-time moving image, the face area is determined, the position and area of those face areas are detected, and the face area is removed for each frame. What is necessary is just to set a symbol.

さらに、この位置記号として実施例では枠記号68(図6)を用いて、その枠記号68の中に合成すべきゾーン特有画像が配置されるように示したが、たとえば、その配置位置の中心だけを示す位置記号で配置位置をユーザに分からせるようにしてもよい。   Further, in this embodiment, the frame symbol 68 (FIG. 6) is used as the position symbol, and the zone-specific image to be synthesized is arranged in the frame symbol 68. For example, the center of the arrangement position is shown. The user may be made to know the arrangement position by a position symbol indicating only.

リアルタイム動画像に重ね合わせられるゾーン特有画像の配置位置は、上述の位置記号をモニタ上に表示することによってユーザに教えるようにしてもよいが、たとえばゾーン特有画像のサムネイルをそのまま表示することによって、ユーザに知らせるようにしてもよい。   The arrangement position of the zone-specific image to be superimposed on the real-time moving image may be taught to the user by displaying the above-described position symbol on the monitor, but for example, by displaying the thumbnail of the zone-specific image as it is, You may make it inform a user.

また、リアルタイム動画像と合成するゾーン特有画像として、実施例では動画像を例示したが、これは静止画像であってもよい。   In the embodiment, a moving image is exemplified as a zone-specific image to be combined with a real-time moving image. However, this may be a still image.

なお、図2に示す構成を有するビデオカメラ10に図10に示す無線ユニット76を設け、ゾーン判別はGPS回路52からの位置データに基づいて行なうものの、ゾーン特有画像は、フラッシュメモリ56に予め設定しておくのではなく、必要の都度、無線ユニット76を通して、近距離無線で配信されるゾーン特有画像データを取得し、それを使用するようにしてもよい。   Note that the video camera 10 having the configuration shown in FIG. 2 is provided with the wireless unit 76 shown in FIG. 10 and zone discrimination is performed based on position data from the GPS circuit 52, but zone-specific images are preset in the flash memory 56. Instead, the zone-specific image data distributed by short-range wireless may be acquired through the wireless unit 76 and used as needed.

上述のように、実施例では、撮影した合成画像データは、記憶媒体の一例である着脱自在のSDカード50に暗号化されて記録されるため、ユーザはSDカードのみを抜き取って持ち帰っても、任意に画像を再生することはできない。   As described above, in the embodiment, the captured composite image data is encrypted and recorded on the removable SD card 50, which is an example of a storage medium. Therefore, even if the user pulls out only the SD card and takes it home, Images cannot be played back arbitrarily.

しかしながら、記憶媒体の他の例としては、ビデオカメラに内蔵するメモリであってもよい。たとえば、実施例のようなムービーカメラ(ビデオカメラ)をレンタル専用機として開発し、カメラ本体に脱着不可能なメモリを記憶媒体として内蔵しておき、その内蔵メモリ(記憶媒体)に撮影した合成画像データを記録する。その場合は、専用の画像取り出し機器で、記録されている合成画像データを取り出してDVDやSDカードなどに書き込んで、それをユーザに渡すことになる。   However, another example of the storage medium may be a memory built in the video camera. For example, a movie camera (video camera) like the embodiment was developed as a rental-only machine, and a memory that cannot be attached to and detached from the camera body was built in as a storage medium, and a composite image taken in the built-in memory (storage medium) Record the data. In that case, the recorded image data is taken out by a dedicated image take-out device, written on a DVD or an SD card, etc., and passed to the user.

ただし、内蔵メモリ(記憶媒体)からの画像データの取り出し方法としては、
(i) ビデオカメラにたとえば図10で示す無線ユニットを設け、その無線ユニットによって、内蔵メモリから読み出した画像データを画像取り出し機器に無線送信することによって取り出す方法。
However, as a method of extracting image data from the built-in memory (storage medium),
(i) A method in which a wireless unit shown in FIG. 10 is provided in a video camera, for example, and image data read from the built-in memory is wirelessly transmitted to the image extracting device by the wireless unit.

(ii) 専用のプラグ形状をしたコードでカメラ本体と画像取り出し機器間とを結合することによって、カメラ本体から画像取り出し機器へ画像データを送信して取り出す方法。   (ii) A method of transmitting and retrieving image data from the camera body to the image retrieval device by coupling the camera body and the image retrieval device with a cord having a dedicated plug shape.

(iii) 充電台を兼ね備えた、専用のクレードル(送信用の専用形状プラグ付き)にビデオカメラをセットすることで、ビデオカメラを充電するとともに、ビデオカメラから画像取り出し機器へデータ送信をすることによって画像データを取り出す方法。
などが考えられる。
(iii) By setting the video camera in a dedicated cradle (with a dedicated plug for transmission) that also has a charging stand, charging the video camera and sending data from the video camera to the image retrieval device How to retrieve image data.
And so on.

このように、専用の画像取り出し機器や、専用プラグ形状を採用することによって、ユーザが不正にデータを抜き取ったり、カメラを持ち帰ったりすることを防止することができる。   As described above, by adopting a dedicated image extracting device or a dedicated plug shape, it is possible to prevent the user from illegally extracting data or bringing back the camera.

図1はこの発明の一実施例のレンタルムービーシステムに利用可能なビデオカメラの一例を示す図解図であり、図1(A)は或る姿勢を取るビデオカメラの外観を前方斜め上から眺めた状態を示す斜視図であり、図1(B)は他の姿勢を取るビデオカメラの外観を前方斜め上から眺めた状態を示す斜視図であり、図1(C)はその他の姿勢を取るビデオカメラの外観を前方斜め上から眺めた状態を示す斜視図であり、そして図1(C)は図1(D)と同じ姿勢を取るビデオカメラの外観を後方斜め上から眺めた状態を示す斜視図である。FIG. 1 is an illustrative view showing an example of a video camera that can be used in a rental movie system according to an embodiment of the present invention. FIG. 1A is an oblique view of the appearance of a video camera that takes a certain posture. FIG. 1B is a perspective view showing a state in which the appearance of a video camera in another posture is viewed from diagonally forward, and FIG. 1C is a video in another posture. FIG. 1C is a perspective view showing the appearance of the camera as viewed from obliquely upward from the front, and FIG. 1C is a perspective view of the appearance of the video camera taking the same posture as that of FIG. FIG. 図2は図1に示すビデオカメラの電気的構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the video camera shown in FIG. 図3は図2に示すフラッシュメモリのメモリマップの一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a memory map of the flash memory shown in FIG. 図4は実施例のレンタルムービーシステムが適用される地域ないし行楽地の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a region or a resort where the rental movie system of the embodiment is applied. 図5は図2実施例におけるゾーン特有動画像の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a zone-specific moving image in the embodiment of FIG. 図6はモニタ画面上に枠記号を表示した状態を示す図解図である。FIG. 6 is an illustrative view showing a state in which a frame symbol is displayed on the monitor screen. 図7はこの実施例の動作を示すフロー図である。FIG. 7 is a flowchart showing the operation of this embodiment. 図8は図8実施例に適用される画像合成動作の一例を示すフロー図である。FIG. 8 is a flowchart showing an example of the image composition operation applied to the embodiment in FIG. 図9は合成画像の一例を示す図解図である。FIG. 9 is an illustrative view showing one example of a composite image. 図10はレンタルムービーシステムに適用できるビデオカメラの他の実施例の電気的構成を示すブロック図である。FIG. 10 is a block diagram showing an electrical configuration of another embodiment of a video camera applicable to the rental movie system. 図11は図10実施例のビデオカメラが適用される地域ないし行楽地の一例を示す図解図である。FIG. 11 is an illustrative view showing one example of an area or resort where the video camera of FIG. 10 embodiment is applied. 図12は図11実施例におけるQRポストの一例を示す図解図である。FIG. 12 is an illustrative view showing one example of a QR post in the embodiment of FIG.

符号の説明Explanation of symbols

10 …ビデオカメラ
30 …CPU
36 …画像合成回路
40 …SDRAM
46 …符号化回路
50 …SDカード
52 …GPS回路
76,84 …無線ユニット
80 …QRポスト
10 ... Video camera 30 ... CPU
36 ... Image composition circuit 40 ... SDRAM
46 ... Coding circuit 50 ... SD card 52 ... GPS circuit 76, 84 ... Wireless unit 80 ... QR post

Claims (7)

複数のゾーンに区分された地域内で使用されるビデオカメラであって、
被写界を表すリアルタイム動画像のリアルタイム動画像データを出力するリアルタイム動画像データ出力手段、
撮影時にビデオカメラが前記複数のゾーンのいずれに存在するか判別するゾーン判別手段、
前記ゾーン判別手段で判別したゾーンに関連したゾーン特有画像を表すゾーン特有画像データを出力するゾーン特有画像データ出力手段、
前記ゾーン特有画像データと前記リアルタイム動画像データとを合成して合成画像データを出力する画像合成手段、および
前記合成画像データを記憶媒体に記録する記録手段を備える、ビデオカメラ。
A video camera used in an area divided into a plurality of zones,
Real-time moving image data output means for outputting real-time moving image data of a real-time moving image representing an object scene;
Zone discriminating means for discriminating in which of the plurality of zones the video camera is present at the time of shooting;
Zone-specific image data output means for outputting zone-specific image data representing a zone-specific image related to the zone determined by the zone determination means;
A video camera comprising: image combining means for combining the zone-specific image data and the real-time moving image data to output combined image data; and recording means for recording the combined image data on a storage medium.
前記ゾーン特有画像はゾーン特有動画像であり、前記ゾーン特有画像データ出力手段はゾーン特有動画像データを出力し、前記画像合成手段は、前記ゾーン特有動画像データと前記リアルタイム動画像データとを合成する、請求項1記載のビデオカメラ。   The zone-specific image is a zone-specific moving image, the zone-specific image data output means outputs zone-specific moving image data, and the image composition means synthesizes the zone-specific moving image data and the real-time moving image data. The video camera according to claim 1. 前記記録手段は、前記合成画像データを暗号化して前記記録媒体に記録する、請求項1または2記載のビデオカメラ。   The video camera according to claim 1, wherein the recording unit encrypts the composite image data and records the encrypted image data on the recording medium. ビデオカメラに固有の固有識別コードを記憶しておく固有識別コード記憶手段をさらに備え、
前記記憶手段は、前記固有識別コードを用いて前記合成画像データを暗号化して前記記憶媒体に記憶する、請求項3記載のビデオカメラ。
A unique identification code storage means for storing a unique identification code unique to the video camera;
The video camera according to claim 3, wherein the storage means encrypts the composite image data using the unique identification code and stores the encrypted image data in the storage medium.
前記リアルタイム動画像に前記ゾーン特有画像を合成するための該ゾーン特有画像の配置位置を表示する配置位置表示手段をさらに備える、請求項1ないし4のいずれかに記載のビデオカメラ。   5. The video camera according to claim 1, further comprising an arrangement position display unit that displays an arrangement position of the zone-specific image for synthesizing the zone-specific image with the real-time moving image. 前記ゾーン特有動画像データ出力手段は複数のゾーン特有動画像のデータを出力でき、
複数のゾーン特有動画像のどれかをユーザに選択させるための手段をさらに備える、請求項1ないし5のいずれかに記載のビデオカメラ。
The zone-specific moving image data output means can output a plurality of zone-specific moving image data,
6. The video camera according to claim 1, further comprising means for causing a user to select one of a plurality of zone-specific moving images.
ビデオカメラの存在する位置に関連する位置関連情報を取得する位置関連情報取得手段をさらに備え、前記ゾーン判定手段は、前記位置関連情報取得手段によって取得した位置関連情報に基づいて当該ビデオカメラが前記複数のゾーンのいずれに存在するか判別する、請求項1ないし6のいずれかに記載のビデオカメラ。   It further comprises position related information acquisition means for acquiring position related information related to the position where the video camera is present, and the zone determination means is configured such that the video camera is based on the position related information acquired by the position related information acquisition means. The video camera according to claim 1, wherein the video camera determines which of the plurality of zones is present.
JP2007187456A 2007-07-18 2007-07-18 Video camera Withdrawn JP2009027376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007187456A JP2009027376A (en) 2007-07-18 2007-07-18 Video camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007187456A JP2009027376A (en) 2007-07-18 2007-07-18 Video camera

Publications (1)

Publication Number Publication Date
JP2009027376A true JP2009027376A (en) 2009-02-05

Family

ID=40398782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007187456A Withdrawn JP2009027376A (en) 2007-07-18 2007-07-18 Video camera

Country Status (1)

Country Link
JP (1) JP2009027376A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090325A1 (en) 2009-02-09 2010-08-12 日本電気株式会社 Communication system, communication device, control device, control method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090325A1 (en) 2009-02-09 2010-08-12 日本電気株式会社 Communication system, communication device, control device, control method, and program

Similar Documents

Publication Publication Date Title
JP4649980B2 (en) Image editing apparatus, image editing method, and program
JP5457092B2 (en) Digital camera and composite image display method of digital camera
CN103842936A (en) Recording, editing and combining multiple live video clips and still photographs into a finished composition
JP6056664B2 (en) Image processing apparatus and imaging system
US20130322840A1 (en) Information processing device, information processing method, and program
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
JP2009027376A (en) Video camera
JP5045213B2 (en) Imaging device, playback device, and recording file creation method
JP6265621B2 (en) Display control apparatus and program
JP2009232114A (en) Image reproducing apparatus, its method and image reproducing program
KR20090121791A (en) Apparatus for recording tour images and method of providing thereof
JP5385596B2 (en) EDITING DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP7293991B2 (en) Server, playback device, content playback system, content playback method, and program
JP4358043B2 (en) Image display method and image display system
JP6248314B2 (en) Imaging apparatus, captured image processing method, and imaging system
JP7137287B2 (en) Image processing device and method
JP6799092B2 (en) Imaging device and imaging method
JP5058842B2 (en) Virtual landscape display device
JP2005142674A (en) Image recording apparatus and control method thereof
JP6469772B2 (en) Imaging device
JP5963921B2 (en) Digital camera and composite image display method of camera
JP5654148B2 (en) Digital camera and composite image display method of digital camera
JP6643081B2 (en) Album moving image generating apparatus, album moving image generating method, and program
JP5774731B2 (en) Digital camera and composite image display method of digital camera
JP5509159B2 (en) Image processing device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101005