JP4804141B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4804141B2
JP4804141B2 JP2005365210A JP2005365210A JP4804141B2 JP 4804141 B2 JP4804141 B2 JP 4804141B2 JP 2005365210 A JP2005365210 A JP 2005365210A JP 2005365210 A JP2005365210 A JP 2005365210A JP 4804141 B2 JP4804141 B2 JP 4804141B2
Authority
JP
Japan
Prior art keywords
photographing
image data
camera
shooting
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005365210A
Other languages
Japanese (ja)
Other versions
JP2007173963A (en
JP2007173963A5 (en
Inventor
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2005365210A priority Critical patent/JP4804141B2/en
Publication of JP2007173963A publication Critical patent/JP2007173963A/en
Publication of JP2007173963A5 publication Critical patent/JP2007173963A5/ja
Application granted granted Critical
Publication of JP4804141B2 publication Critical patent/JP4804141B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、通信機能を有する撮影装置に関し、特に動画撮影機能を有する通信機能を有する撮影装置に関する。   The present invention relates to a photographing apparatus having a communication function, and more particularly to a photographing apparatus having a communication function having a moving picture photographing function.

近年、高速にて画像を取得できる撮像素子、高速処理の画像処理回路、増大するメモリ容量等により、デジタルカメラの多機能化が進んでいる。このような流れの中で、動画撮影機能を搭載したデジタルカメラが、現在多く市場に出回っている。   In recent years, digital cameras have become more multifunctional due to an image sensor capable of acquiring images at high speed, an image processing circuit for high-speed processing, an increasing memory capacity, and the like. In this trend, many digital cameras equipped with video shooting functions are currently on the market.

ところで、デジタルカメラによる動画撮影に関連する技術として、特許文献1に、無線通信技術を利用することで、デジタルカメラにおける動画転送時の操作上の煩わしさを解消することができる無線通信システム及び無線通信方法が開示されている。   By the way, as a technique related to moving image shooting by a digital camera, Patent Document 1 discloses a wireless communication system and a wireless communication system that can eliminate troublesome operations during moving image transfer in a digital camera by using wireless communication technology. A communication method is disclosed.

すなわち、特許文献1に開示された技術では、撮像操作に伴って、撮像装置の記憶手段に複数の画像データが記憶されると、この複数記憶された画像データを電子機器へ一斉送信する。そして、上記電子機器側で、上記撮像機器より一斉送信された複数の画像データに基づいて動画データを作成する。このような方法により、ユーザーが単に撮影操作のみ行えば、上記電子機器側で自動的に動画データが作成されるので、撮影時に動画ファイルを外部機器へ転送させたい場合の操作性は改善する。
特開2003−250119号公報
That is, in the technique disclosed in Patent Document 1, when a plurality of image data is stored in the storage unit of the imaging apparatus in accordance with the imaging operation, the plurality of stored image data is transmitted to the electronic device all at once. Then, on the electronic device side, moving image data is created based on a plurality of image data simultaneously transmitted from the imaging device. By such a method, if the user simply performs a shooting operation, moving image data is automatically created on the electronic device side, so that the operability when moving a moving image file to an external device during shooting is improved.
JP 2003-250119 A

しかしながら、現在多く市場に出回っている動画撮影機能を有するデジタルカメラにおいて望まれているのは、上記のような操作性の向上よりも、実際の動画撮影で取得する動画データのクオリティの向上である。すなわち、動画撮影機能を有するデジタルカメラにおいて現在望まれているのは、一般のユーザーが、飽きの来ることのない鑑賞を楽しむことができる動画データを撮影して取得できるようにする技術である。なお、上記特許文献1に開示された技術では、この点が全く考慮されていない。   However, what is desired in digital cameras having a moving image shooting function that is currently on the market is more improved in the quality of moving image data acquired by actual moving image shooting than in the above-described improvement in operability. . In other words, what is currently desired for a digital camera having a moving image shooting function is a technology that enables a general user to shoot and acquire moving image data that can be enjoyed without getting bored. Note that this is not considered at all in the technique disclosed in Patent Document 1.

本発明は、上記の事情に鑑みて為されたものであり、バラエティに富んだ再生表示が可能な動画データをユーザーの撮影スキルの如何に関わらず容易に取得することができる通信機能を有する撮影装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and has a communication function capable of easily acquiring moving image data that can be reproduced and displayed in a variety of ways regardless of the shooting skill of the user. An object is to provide an apparatus.

上記の目的を達成するために、本発明の第1の態様によ撮影装置は、撮影動作を実行する撮影手段と、他の撮影装置に対して撮影動作を依頼する撮影依頼信号を形成する撮影依頼信号形成手段と、上記撮影依頼信号を上記他の撮影装置へ無線送信する送信手段と、上記撮影依頼信号の送信後に、上記他の撮影装置から撮影動作を起動した旨を示すデータを無線受信する受信手段と、上記撮影依頼信号を上記他の撮影装置へ無線送信した場合には、撮影依頼をした旨の表示を行い、且つ、上記他の撮影装置から撮影動作を起動した旨を示すデータを無線受信した場合には、上記他の撮影装置が撮影動作を起動した旨を表示する表示手段と、上記他の撮影装置において依頼した撮影が行われた場合には、当該撮影装置で撮影された画像データまたは動画データに、上記依頼により撮影が行われたことを示すデータを付加するデータ付加手段と、を具備することを特徴とする。 To achieve the above object, by that imaging device to a first aspect of the present invention includes a photographing means for performing photographing operations, to form an imaging request signal to request the photographing operation to other imaging devices Wireless transmission of data indicating that a photographing operation has been started from the other photographing apparatus after transmission of the photographing request signal after transmitting the photographing request signal, and a transmission means for wirelessly transmitting the photographing request signal to the other photographing apparatus When the receiving means for receiving and the above-mentioned photographing request signal are wirelessly transmitted to the other photographing device, a message indicating that the photographing request has been made is displayed and the photographing operation is started from the other photographing device. When the data is received wirelessly, display means for displaying that the other photographing device has started the photographing operation, and when photographing requested by the other photographing device is performed, photographing is performed by the photographing device. Image data The moving image data, characterized by comprising: a data adding means for adding data indicating that the image has been captured by the request.

本発明によれば、ユーザーは指示表示に従った撮影を行うことでバラエティに富んだ再生表示が可能な動画データを作成するのに使用可能な動画データを容易に取得でき、よってユーザーの撮影スキルの如何に関わらずバラエティに富んだ再生表示が可能な動画データを容易に取得することができる通信機能を有する撮影装置を提供することができる。   According to the present invention, the user can easily acquire moving image data that can be used to create moving image data that can be reproduced and displayed in a variety of ways by performing shooting according to the instruction display. It is possible to provide a photographing apparatus having a communication function capable of easily acquiring moving image data that can be reproduced and displayed in a variety of ways regardless of the above.

以下、図面を参照して、本発明の一実施形態に係る通信機能を有する撮影装置を説明する。なお、本実施形態においては、通信機能を有する撮影装置の一例としてカメラを例に以下説明する。図1は本実施形態に係るカメラのシステム構成の概念を示すブロック図である。   Hereinafter, an imaging apparatus having a communication function according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a camera will be described as an example of an imaging device having a communication function. FIG. 1 is a block diagram showing the concept of the system configuration of the camera according to this embodiment.

まず、参照符号2が付されているのは、マイクロコントローラ等から成る制御手段であるMPU(Micro Processing Unit)である。また、上記MPU2には、スイッチ2a,2b,2cが設けられている。そして、上記MPU2は、上記スイッチ2a,2b,2cの状態を検出することで、該検出の結果に基づき、後述するフローチャートの動作制御プログラム(ROM(Read Only Memory)4に格納)に従って、各構成部材を制御する。   First, reference numeral 2 denotes an MPU (Micro Processing Unit) which is a control means including a microcontroller. The MPU 2 is provided with switches 2a, 2b and 2c. The MPU 2 detects the states of the switches 2a, 2b, and 2c, and based on the detection result, each component is stored in accordance with an operation control program (stored in a ROM (Read Only Memory) 4) described later. Control members.

なお、上記スイッチ2a,2b,2cは、例えば当該カメラのレリーズ操作、撮影モードや再生モード等のモード切り換え、その他の各種操作等に用いられる操作部材である。   The switches 2a, 2b, and 2c are operation members used for, for example, a release operation of the camera, mode switching such as a shooting mode and a reproduction mode, and other various operations.

ところで、撮影時には、撮影レンズ6を介して当該カメラに入射した被写体8の像は、例えばCCDやCMOSセンサ等からなる撮像素子10aにより電気信号に変換される。そして、この電気信号は、AFE(Analogue Front End)回路10にて読み出され、A/D変換等が施されてデジタル画像信号である画像データとなり、信号処理回路12に入力される。その後、上記画像データは、上記信号処理回路12において、色補正及び信号圧縮処理等の所定の処理が施された後、メモリ14に記録される。なお、上記信号処理回路12内には、画像処理時における補正のかけ方の変更等や特定の信号の付加等を行う為の処理補助ブロック12aが設けられている。   By the way, at the time of photographing, an image of the subject 8 that has entered the camera via the photographing lens 6 is converted into an electric signal by an image pickup device 10a made of, for example, a CCD or a CMOS sensor. Then, this electric signal is read out by an AFE (Analogue Front End) circuit 10, subjected to A / D conversion or the like to become image data which is a digital image signal, and is input to the signal processing circuit 12. Thereafter, the image data is recorded in the memory 14 after being subjected to predetermined processing such as color correction and signal compression processing in the signal processing circuit 12. The signal processing circuit 12 is provided with a processing auxiliary block 12a for changing a correction method during image processing, adding a specific signal, or the like.

なお、上記のように撮影して取得した画像データは、プリント信号出力手段15aや、無線通信手段15bにて、当該カメラ外部へ送信することができる。なお、この無線通信手段15bは、本実施形態に係るカメラと同様又は類似のシステム構成(上記無線通信手段15bを含むシステム構成)を有するカメラ等との無線通信を可能にする部材である。したがって、例えば上記無線通信手段15bにより画像データ等の送受信が可能となる。   Note that the image data obtained by photographing as described above can be transmitted to the outside of the camera by the print signal output means 15a or the wireless communication means 15b. The wireless communication unit 15b is a member that enables wireless communication with a camera or the like having a system configuration similar to or similar to the camera according to the present embodiment (system configuration including the wireless communication unit 15b). Therefore, for example, image data and the like can be transmitted and received by the wireless communication unit 15b.

なお、本実施形態に係るカメラでは、マイク10bが更に設けられており、このマイク10bにより取得された音声信号である音声データも、上記画像データと同様に上記信号処理回路12にて信号圧縮処理等が行われ、メモリ14に記録される。   In the camera according to the present embodiment, a microphone 10b is further provided, and audio data that is an audio signal acquired by the microphone 10b is also subjected to signal compression processing by the signal processing circuit 12 in the same manner as the image data. And the like are recorded in the memory 14.

なお、上記画像データ及び上記音声データの処理時または記録時等においては、種々の演算を行うために、RAM(Random Access Memory)16に適宜データが格納される。   Note that data is appropriately stored in a RAM (Random Access Memory) 16 in order to perform various calculations during processing or recording of the image data and the audio data.

そして、画像データ等を表示させる手段として、LCD(Liquid Crystal Display)等からなる表示手段18が設けられている。すなわち、上記のように撮影して取得した画像データを、上記表示手段18に逐次再生表示させることが出来る。つまり、ユーザーは、上記表示手段18を参照して上記被写体8の変化状態を確認しながら撮影を行うことが出来る。また、上記音声データの音声再生を行う為のスピーカ18aも設けられている。   As a means for displaying image data or the like, a display means 18 including an LCD (Liquid Crystal Display) or the like is provided. That is, the image data obtained by photographing as described above can be sequentially reproduced and displayed on the display means 18. That is, the user can take a picture while checking the state of change of the subject 8 with reference to the display means 18. In addition, a speaker 18a for performing voice reproduction of the voice data is also provided.

すなわち、上記画像データの再生表示の際には、上記メモリ14内に圧縮して記録された上記画像データは、上記信号処理回路12に読み出され、更に伸張処理等が施された後、上記表示手段18に再生表示される。また、上記音声データの音声再生の際には、上記メモリ14内に記録された上記音声データは、上記信号処理回路12に読み出された後、スピーカ18aにより出力され音声再生される。   That is, at the time of reproducing and displaying the image data, the image data compressed and recorded in the memory 14 is read by the signal processing circuit 12 and further subjected to expansion processing and the like. Reproduced and displayed on the display means 18. When the audio data is reproduced, the audio data recorded in the memory 14 is read by the signal processing circuit 12 and then output from the speaker 18a for audio reproduction.

さらに、本実施形態に係るカメラには、日時を示す日時情報を取得する機能及び時間計測のタイマ機能を有する時計手段20が設けられている。この時計手段20に取得された日時情報は、例えば撮影により取得した画像データと対応付けされて、上記メモリ14に記録される。また、上記タイマ機能によれば、例えば撮影動作における露出の時間、動画の撮影時間、及び所定のタイミングの間隔等を計時することができる。   Further, the camera according to the present embodiment is provided with a clock unit 20 having a function of acquiring date / time information indicating the date / time and a timer function of time measurement. The date and time information acquired by the clock means 20 is recorded in the memory 14 in association with image data acquired by photographing, for example. Further, according to the timer function, for example, the exposure time, the moving image shooting time, and the predetermined timing interval in the shooting operation can be measured.

また、当該カメラの位置を示す位置情報を検出する為に、例えばGPS(Global Positioning System)等からなる位置検出手段22が設けられている。この位置検出手段22により、画像データ等の撮影位置を示す位置情報を取得することができる。また、上記画像データと上記位置情報とを対応付けして、上記メモリ14に記録することができる。   Further, in order to detect position information indicating the position of the camera, position detecting means 22 comprising, for example, a GPS (Global Positioning System) is provided. With this position detection means 22, position information indicating the shooting position such as image data can be acquired. Further, the image data and the position information can be associated with each other and recorded in the memory 14.

以上、説明の便宜の為に、静止画像の画像データの取得及び処理等を想定して本実施形態に係るカメラのシステム構成を説明したが、動画データも上述の構成により通常行われている手法を用いて取得できるのは勿論である。なお、動画データと音声データとは通常一体のデータとして扱われており、本実施形態においても、動画データに関する各種処理においては、該動画データに対応する音声データも適宜同様に処理されるものとする。   As described above, for convenience of explanation, the system configuration of the camera according to the present embodiment has been described assuming acquisition and processing of image data of still images, but moving image data is also normally performed by the above configuration. Of course, it can be obtained using Note that the moving image data and the audio data are normally handled as integral data, and in this embodiment, the audio data corresponding to the moving image data is also appropriately processed in various processes related to the moving image data. To do.

以下、図2乃至図5を参照して、図1に示すシステム構成である本実施形態に係るカメラを利用した撮影の一例を説明する。なお、図2は本実施形態に係るカメラを用いたカメラシステムの一例を示す図であり、図3及び図4はマルチアングル撮影時における本実施形態に係るカメラの表示手段18に表示される表示画面の一例を時系列的に示した図である。そして、図5は、図2乃至図4に示すマルチアングル撮影時におけるカメラの動作制御のタイムチャートを示す図である。   Hereinafter, with reference to FIGS. 2 to 5, an example of photographing using the camera according to the present embodiment having the system configuration shown in FIG. 1 will be described. 2 is a diagram showing an example of a camera system using the camera according to the present embodiment, and FIGS. 3 and 4 are displays displayed on the display unit 18 of the camera according to the present embodiment during multi-angle shooting. It is the figure which showed an example of the screen in time series. FIG. 5 is a time chart of camera operation control during multi-angle shooting shown in FIGS. 2 to 4.

ここでは、マルチアングル撮影を行う場面として、例えば図2に示すように運動会における徒競走の場面を想定する。なお、同図に示すように、スタート地点及びゴール地点に、それぞれ一台づつ本実施形態に係るカメラ(第1カメラ30a、第2カメラ30b)を配置する。すなわち、例えば第1カメラ30aは、スタート地点を含む第1カメラ30aによる撮影に適した範囲(以降、撮影適正範囲と称する)の撮影を担当する。一方、第2カメラ30bは、上記第1カメラ30aから撮影を引き継いだ地点から、ゴール地点までの撮影を担当する。このようなカメラ配置及び撮影範囲の割り振りと、以下に記す撮影方法とにより、常に最適なカメラアングルによる撮影が可能となる。   Here, as a scene where multi-angle shooting is performed, for example, a scene of an athlete race in an athletic meet is assumed as shown in FIG. In addition, as shown to the same figure, the camera (1st camera 30a, 2nd camera 30b) which concerns on this embodiment is arrange | positioned one each at a start point and a goal point. That is, for example, the first camera 30a is in charge of shooting in a range suitable for shooting by the first camera 30a including the start point (hereinafter referred to as a proper shooting range). On the other hand, the second camera 30b takes charge of shooting from the point where the shooting is taken over from the first camera 30a to the goal point. By such camera arrangement and shooting range allocation and the shooting method described below, it is possible to always perform shooting at an optimal camera angle.

まず、上記第1カメラ30aが、図3(a)に示すようなスタート地点における徒競走のスタート(時刻t=t)から撮影を始める。その後、上記第1カメラ30aは、当該徒競走序盤(図3(b))を撮影し、被写体が上記撮影適正範囲内から外へ出る境界付近へ来た時(図3(c))、上記第2カメラ30bに対して、撮影をするよう撮影起動依頼の信号(詳しくは後述)を送信する(時刻t=t)。 First, the first camera 30a starts shooting from the start of a race run at a start point as shown in FIG. 3A (time t = t 0 ). Thereafter, the first camera 30a photographs the first stage of the race (FIG. 3 (b)), and when the subject comes near the boundary where the subject exits from within the appropriate photographing range (FIG. 3 (c)), 2 Sends a shooting start request signal (details will be described later) to the camera 30b for shooting (time t = t 1 ).

ここで、図3(c)に示すように上記第1カメラ30aによる撮影起動依頼の信号を上記第2カメラ30bが受信すると(時刻t=t)、上記第2カメラ30bは、上記第2カメラ30bの表示手段18に、図4(a)に示すような表示が為され、該表示を確認した上記第2カメラ30bのユーザーが撮影動作を開始する。 Here, as shown in FIG. 3C, when the second camera 30b receives a shooting start request signal from the first camera 30a (time t = t 1 ), the second camera 30b receives the second camera 30b. A display as shown in FIG. 4A is made on the display means 18 of the camera 30b, and the user of the second camera 30b who confirms the display starts a photographing operation.

その後、上記第1カメラ30aのユーザーが上記第2カメラ30bの撮影動作の開始を確認できるよう、上記第2カメラ30bが、上記第1カメラ30aに対して、撮影動作を開始したことを示すセンテンス及び画像データ(または動画データ)を送信する(時刻t=t)。 Thereafter, a sentence indicating that the second camera 30b has started the shooting operation with respect to the first camera 30a so that the user of the first camera 30a can confirm the start of the shooting operation of the second camera 30b. And image data (or moving image data) are transmitted (time t = t 2 ).

そして、上記撮影動作を開始したことを示すセンテンス及び画像データ(または動画データ)を受信した上記第1カメラ30aは、図3(d)に示すように、上記第1カメラ30aにおける表示手段18に、上記第2カメラ30bが撮影動作を開始したことを示すセンテンス及び画像データ(動画データ)を表示する(時刻t=t)。 Then, the first camera 30a that has received the sentence and the image data (or moving image data) indicating that the photographing operation has started is displayed on the display means 18 in the first camera 30a as shown in FIG. Then, a sentence indicating that the second camera 30b has started a photographing operation and image data (moving image data) are displayed (time t = t 2 ).

このようにして、上記第1カメラ30aのユーザーは、上記第2カメラ30bにより撮影が引き継がれたか否かを確認することが出来る。なお、この確認後には、上記第1カメラ30aのユーザーは、勿論撮影を止めても良いし、続行してもよい。なお、上記時刻t以降は、図4(b)に示す当該徒競走のゴールシーン(時刻t=t)まで、上記第2カメラ30bが撮影を担当する。 In this way, the user of the first camera 30a can confirm whether or not shooting has been taken over by the second camera 30b. After this confirmation, the user of the first camera 30a may of course stop shooting or continue. Incidentally, the time t 2 later, until goals of the foot race shown in FIG. 4 (b) (time t = t 3), the second camera 30b is responsible for shooting.

以上説明したような上記第1カメラ30a及び上記第2カメラ30bの撮影タイムチャートは、図5に示すようになる。すなわち、上記第1カメラ30aに適した撮影範囲に撮影対象が居る間(上記時刻t=tから上記時刻t=tまで)は、上記第1カメラ30aが撮影を担当して、上記第2カメラ30bに適した撮影範囲に撮影対象が居る間(上記時刻t=tから上記時刻t=tまで)は、上記第2カメラ30bが撮影を担当する。 The shooting time charts of the first camera 30a and the second camera 30b as described above are as shown in FIG. That is, while the subject is in the photographing range suitable for the first camera 30a (from the time t = t 0 to the time t = t 1 ), the first camera 30a takes charge of the photographing, 2 (from the time t = t 1 to the time t = t 3) while shooting the shooting range suitable for the camera 30b subject is present, the second camera 30b is responsible for shooting.

そして、上記第1カメラ30aの撮影による動画データと、上記第2カメラ30bの撮影による動画データとを合成させる(詳細の説明は後述)ことで、当該徒競走を切れ目なく、且つ常にベストアングルで捉えた動画データを作成することが出来る。   Then, the moving image data captured by the first camera 30a and the moving image data captured by the second camera 30b are combined (details will be described later), so that the student race is always captured at the best angle. Video data can be created.

以下、本実施形態に係るカメラにおける動作制御を、図6A乃至図6Cに示すフローチャートを参照して説明する。なお、同フローチャートは、図1におけるMPU2による動作制御のフローチャートである。また、同フローチャートは、本実施形態に係るカメラのメインフローチャートであり、ユーザーにより不図示のPOWER SW(電源)がONされると自動的に起動される動作制御のフローチャートである。   Hereinafter, operation control in the camera according to the present embodiment will be described with reference to flowcharts shown in FIGS. 6A to 6C. The flowchart is a flowchart of operation control by the MPU 2 in FIG. The flowchart is a main flowchart of the camera according to the present embodiment, and is a flowchart of operation control that is automatically activated when a power switch (not shown) is turned on by a user.

なお、ここでは本実施形態に係るカメラに特有のマルチアングル撮影に焦点を当てるために、後述する“撮影モード”はマルチアングル撮影による動画撮影を行う撮影モードとし、通常の動画撮影及び静止画撮影を行う撮影モードについては図示及び説明を省略する。しかしながら、本実施形態に係るカメラによれば、従来より行われている通常の動画撮影及び静止画撮影を行うことができるのは勿論である。また、ここでは、本実施形態に係るカメラを二台使用するカメラシステムを想定して説明するが、二台のカメラの動作制御を示すフローチャートは同一である。   Here, in order to focus on the multi-angle shooting unique to the camera according to the present embodiment, the “shooting mode” to be described later is a shooting mode for moving image shooting by multi-angle shooting, and normal movie shooting and still image shooting are performed. Illustration and description of the shooting mode for performing the above are omitted. However, according to the camera according to the present embodiment, it is needless to say that normal moving image shooting and still image shooting that have been conventionally performed can be performed. Here, a description will be given assuming a camera system using two cameras according to the present embodiment, but the flowcharts showing the operation control of the two cameras are the same.

まず、ユーザーが上記スイッチ2a乃至2cを操作して、当該カメラを撮影モード及び再生/編集モードのうち何れかのモードに設定し、該設定を上記MPU2が判断する(ステップS1)。このステップS1にて、撮影モードであると判断した場合は、ユーザーによる上記スイッチ2a乃至2cの操作でレリーズ操作が行われたか否かを判断する(ステップS2)。   First, the user operates the switches 2a to 2c to set the camera to one of a shooting mode and a playback / editing mode, and the MPU 2 determines the setting (step S1). If it is determined in step S1 that the photographing mode is set, it is determined whether or not a release operation has been performed by the user's operation of the switches 2a to 2c (step S2).

上記ステップS2において、レリーズ操作が行われていないと判断した場合には、他方のカメラから、上記無線通信手段15bを介して、上述した撮影起動依頼の信号を受信しているか否かを判断する(ステップS3)。このステップS3において、上記撮影起動依頼の信号を受信したと判断した場合には、その旨を示す表示(例えば図4(a)に示す表示)を、表示手段18に表示させる(ステップS4)。このとき、図4(a)に示す表示画面中における右部に示されている表示画像のように、上記撮影起動依頼の信号送信時(またはその直前)に、他方のカメラで取得された画像データ(または動画データ)も、他方のカメラが当該カメラに送信することで、当該カメラの表示手段18に表示させることが出来る。   If it is determined in step S2 that the release operation has not been performed, it is determined whether or not the above-described shooting activation request signal is received from the other camera via the wireless communication unit 15b. (Step S3). If it is determined in step S3 that the signal for requesting activation of photography has been received, a display to that effect (for example, the display shown in FIG. 4A) is displayed on the display means 18 (step S4). At this time, like the display image shown in the right part of the display screen shown in FIG. 4A, the image acquired by the other camera at the time of transmission of the above-mentioned shooting activation request signal (or immediately before). Data (or moving image data) can also be displayed on the display means 18 of the camera by the other camera transmitting it to the camera.

なお、上記ステップS4における撮影起動依頼の表示は、他方のカメラにおいて、後述するステップS12の処理が行われた場合に該処理に対応して行う表示である(図3(c)参照)。その後、上記ステップS2へ戻り、ユーザーによりレリーズ操作が行われると、後述するステップS5へ進む。一方、上記ステップS3において上記撮影起動依頼の信号を受信していないと判断した場合は、上記ステップS2へ戻る。   Note that the display of the shooting start request in step S4 is a display corresponding to the process when the process of step S12 described later is performed in the other camera (see FIG. 3C). Thereafter, the process returns to step S2, and when a release operation is performed by the user, the process proceeds to step S5 described later. On the other hand, if it is determined in step S3 that the imaging activation request signal has not been received, the process returns to step S2.

ところで、上記ステップS2において、ユーザーによりレリーズ操作が行われたと判断した場合、撮影のステップを開始する。すなわち、ピント及び露出の調整を行い(ステップS5)、通常行われている所定の撮影動作(詳細は省略する)を開始させる(ステップS6)。そして、この撮影により最初に取得した画像データ等を他方のカメラに送信する(ステップS7)。このステップS7は、他方のカメラから送信された撮影起動依頼(他方のカメラにおける、後述するステップS11に対応)を受信(図4(a)参照)後、当該カメラの撮影を開始した場合に行う処理のステップであるが、任意のステップであるので省略してもよい。つづいて、ピント及び露出の調整を行う(ステップS8)。   If it is determined in step S2 that the release operation has been performed by the user, a shooting step is started. That is, the focus and exposure are adjusted (step S5), and a predetermined normal photographing operation (details are omitted) is started (step S6). And the image data etc. which were acquired initially by this imaging | photography are transmitted to the other camera (step S7). This step S7 is performed when shooting of the camera is started after receiving a shooting start request (corresponding to step S11 described later in the other camera) transmitted from the other camera (see FIG. 4A). Although it is a process step, it is an optional step and may be omitted. Subsequently, focus and exposure are adjusted (step S8).

以下説明するステップS9及びステップS17も、他方のカメラから送信された撮影起動依頼(他方のカメラにおける、後述するステップS11に対応)を受信(図4(a)参照)後、当該カメラの撮影を開始した場合に行う処理のステップである。   Steps S9 and S17 to be described below also receive a shooting start request (corresponding to step S11 described later in the other camera) transmitted from the other camera (see FIG. 4A), and then perform shooting of the camera. It is a step of processing performed when it is started.

上記ステップS8における処理の後、当該カメラのユーザーは、上記表示手段18を参照して、撮影が適正なフレーミングにて行われているか否かを判定する(ステップS9)。このステップS9において、当該カメラのユーザーが、適正なフレーミングにて撮影が行われていると判定した場合は、他方のカメラに対して、その旨を示すセンテンス及び画像データ(または動画データ)を送信する操作を行う(ステップS17)。このとき、他方のカメラにおける表示手段18には、例えば図3(d)に示すような表示が為される。なお、上記ステップS9にて当該カメラのユーザーが、適正なフレーミングにて撮影が行われていると判定するまで次の処理には進まない。   After the process in step S8, the user of the camera refers to the display unit 18 and determines whether or not shooting is performed with proper framing (step S9). If it is determined in step S9 that the user of the camera is shooting with proper framing, a sentence and image data (or moving image data) indicating that are transmitted to the other camera. An operation is performed (step S17). At this time, for example, the display shown in FIG. 3D is performed on the display means 18 in the other camera. It should be noted that the process does not proceed to the next process until the user of the camera determines in step S9 that shooting has been performed with proper framing.

言い換えれば、上記ステップS9における処理は、上記ステップS3において他方のカメラから送信された撮影起動依頼の信号を受信した後に、当該カメラのユーザーがレリーズ操作を行った場合、他方のカメラに対して、当該カメラが撮影動作を適切に起動した旨を示すセンテンス及び画像データ(または動画データ)を送信する処理であると言える。   In other words, the processing in step S9 is performed when the user of the camera performs a release operation after receiving the shooting start request signal transmitted from the other camera in step S3. It can be said that this is a process of transmitting a sentence and image data (or moving image data) indicating that the camera has appropriately started the photographing operation.

なお、上記ステップS3において他方のカメラから送信された撮影起動依頼の信号を受信した後にユーザーがレリーズ操作を行った場合でない場合には、上記ステップS9及び上記ステップS17の処理を省略して、上記ステップS8から直接後述するステップS10へ進むような制御を行う。   If the user does not perform the release operation after receiving the shooting start request signal transmitted from the other camera in step S3, the processes in steps S9 and S17 are omitted, and Control is performed so as to proceed directly from step S8 to step S10 described later.

上記ステップS8または上記ステップS17を経た後、ユーザーによる上記スイッチ2a乃至2cの操作にて、撮影動作を終了させる操作が行われたか否かを判断する(ステップS10)。このステップS10において、撮影動作を終了させる操作が行われたと判断した場合には、撮影動作を終了させる(ステップS18)。このステップS18の後、ユーザーにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS19)。このステップS19で、不図示のPOWER SWがOFFされたと判断した場合は、当該カメラをシャットダウンする。一方、上記ステップS19で、不図示のPOWER SWがOFFされていないと判断した場合は、上記ステップS1へ戻る。   After step S8 or step S17, it is determined whether or not an operation for ending the photographing operation has been performed by the user's operation of the switches 2a to 2c (step S10). If it is determined in step S10 that an operation for ending the shooting operation has been performed, the shooting operation is ended (step S18). After this step S18, it is determined whether or not a power switch (not shown) is turned off by the user (step S19). If it is determined in step S19 that a power switch (not shown) has been turned off, the camera is shut down. On the other hand, if it is determined in step S19 that the power switch (not shown) is not turned off, the process returns to step S1.

ところで、上記ステップS10において撮影動作を終了させる操作が行われていないと判断した場合には、他方のカメラに、上述した撮影起動依頼を送信する旨の操作が、ユーザーによる上記スイッチ2a乃至2cの操作で行われたか否かを判断する(ステップS11)。このステップS11において、他方のカメラに、撮影起動依頼を送信する旨の操作が為されたと判断した場合には、上述した撮影起動依頼を、他方のカメラに送信する(ステップS12)。このとき、上記撮影起動依頼の送信と共に、当該送信時またはその直前に取得した画像データを送信しても勿論よい。   By the way, when it is determined in step S10 that the operation for ending the shooting operation has not been performed, an operation for transmitting the above-described shooting start request to the other camera is performed by the user of the switches 2a to 2c. It is determined whether or not the operation has been performed (step S11). If it is determined in step S11 that an operation for transmitting a shooting start request is performed to the other camera, the above-described shooting start request is transmitted to the other camera (step S12). At this time, it is of course possible to transmit the image data acquired at or just before the transmission together with the transmission of the imaging activation request.

なお、上記ステップS11において、ユーザーが撮影起動依頼を送信する旨の操作を行うのは、例えば図3乃至図5に示す例における時刻t=tのような場合、すなわち他方のカメラに撮影を引き継いだほうが適切な撮影が出来るとユーザーが判断した場合である。したがって、上記ステップS12における処理時においては、当該カメラにおける表示手段18には、図3(c)に示す画面が表示される(時刻t=t)。また、この時、他方のカメラにおける表示手段18には、図4(a)に示す画面が表示される(他方のカメラにおける上記ステップS4)。 Note that in step S11, the user performs an operation to send a shooting activation request in the case of time t = t 1 in the examples shown in FIGS. 3 to 5, for example, shooting on the other camera. This is a case where the user determines that proper shooting can be performed by taking over. Accordingly, during the processing in step S12, the screen shown in FIG. 3C is displayed on the display means 18 in the camera (time t = t 1 ). At this time, the screen shown in FIG. 4A is displayed on the display means 18 in the other camera (step S4 in the other camera).

その後、図3(d)を参照して説明したように、起動依頼信号を受信し、撮影動作の起動を行った他方のカメラから、撮影動作を起動した旨を示す画像データ(または動画データ)が自動的に送信されてくる(他方のカメラにおける上記ステップS7)。ここで、上記ステップS11または上記ステップS12を経た後、撮影動作を起動した旨を示すセンテンス及び画像データ(または動画データ)を受信したか否かを判断する(ステップS13)。なお、上記ステップS11をNOに分岐して上記ステップS13へ進んだ場合、上記ステップS13においては当然NOに分岐することになる。   Thereafter, as described with reference to FIG. 3D, image data (or moving image data) indicating that the shooting operation has been started from the other camera that has received the start request signal and started the shooting operation. Is automatically transmitted (step S7 in the other camera). Here, after the step S11 or the step S12, it is determined whether or not a sentence and image data (or moving image data) indicating that the photographing operation is started are received (step S13). If step S11 is branched to NO and the process proceeds to step S13, the process naturally branches to NO in step S13.

上記ステップS13において、撮影動作を起動した旨を示すセンテンス及び画像データ(または動画データ)を受信していないと判断した場合は、上記ステップS8へ戻る。一方、上記ステップS13において、撮影動作を起動した旨を示すセンテンス及び画像データ(または動画データ)を受信したと判断した場合には、撮影動作を起動した旨を示すセンテンス及び画像データ(または動画データ)を、表示手段18に表示させる(ステップS14)。なお、この時(時刻t=t)の表示は、例えば図3(d)に示すような表示となる。 If it is determined in step S13 that the sentence and the image data (or moving image data) indicating that the photographing operation has been started have not been received, the process returns to step S8. On the other hand, if it is determined in step S13 that the sentence and image data (or moving image data) indicating that the shooting operation has been started have been received, the sentence and image data (or moving image data) indicating that the shooting operation has been started. ) Is displayed on the display means 18 (step S14). The display at this time (time t = t 2 ) is, for example, as shown in FIG.

当該カメラのユーザーは、上記ステップS14における表示を参照して、他方のカメラにより撮影が適正に為されているか否かを確認して、該確認結果を上記スイッチ2a乃至2cを操作して入力する。そして、この入力を上記MPU2が判断する(ステップS15)。   The user of the camera refers to the display in step S14, confirms whether or not the other camera is shooting properly, and inputs the confirmation result by operating the switches 2a to 2c. . The MPU 2 determines this input (step S15).

上記ステップS15において、確認結果が適正でないと判断した場合には、上記ステップS8へ戻る。一方、上記ステップS15において、適正であると判断した場合には、当該動画データ(図3乃至図5に示す例における時刻t=t〜時刻t=tの間に取得した動画データ)に対して、代替となる動画データを他方のカメラが取得しているという情報を付加する(ステップS16)。その後、上記ステップS8へ戻る。 If it is determined in step S15 that the confirmation result is not appropriate, the process returns to step S8. On the other hand, if it is determined in step S15 that it is appropriate, the moving image data (moving image data acquired between time t = t 1 and time t = t 2 in the examples shown in FIGS. 3 to 5) is included. On the other hand, information that the other camera has acquired alternative moving image data is added (step S16). Thereafter, the process returns to step S8.

なお、上記代替となる動画データの活用方法については、詳しくは後述する。上記ステップS8へ戻った後に、再び上記ステップS10へ進んだとき、撮影終了操作が、ユーザーのスイッチ2a乃至2cの操作により為されたと判断すると、当該カメラにおける動画撮影を終了させる。上記ステップS10において撮影終了操作が、ユーザーのスイッチ2a乃至2cの操作により為されていないと判断した場合は、そのまま動画撮影を続行させることとなる。   In addition, the utilization method of the moving image data as an alternative will be described later in detail. After returning to step S8 and proceeding to step S10 again, if it is determined that the shooting end operation has been performed by the user's operation of the switches 2a to 2c, the moving image shooting in the camera is ended. If it is determined in step S10 that the shooting end operation has not been performed by the user's operation of the switches 2a to 2c, the moving image shooting is continued as it is.

ところで、上記ステップS1において、当該カメラが再生/編集モードに設定されていると判断した場合は、再生ステップに入る(ステップS21)。具体的には、この再生ステップにおいては、ユーザーがスイッチ2a乃至2cを操作することで所望の動画データを選択し、該動画データを、上記表示手段18に再生表示させる。   If it is determined in step S1 that the camera is set to the playback / editing mode, the playback step is entered (step S21). Specifically, in this reproduction step, the user selects desired moving image data by operating the switches 2a to 2c, and the moving image data is reproduced and displayed on the display means 18.

その後、上記動画データを編集する旨の操作が、上記スイッチ2a乃至2cを用いてユーザーにより為されか否かを判断する(ステップS22)。ここで、上記動画データを編集する旨の操作が行われていないと判断した場合は、ユーザーにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS34)。このステップS34で、不図示のPOWER SWがOFFされたと判断した場合は、当該カメラをシャットダウンする。一方、上記ステップS34で、不図示のPOWER SWがOFFされていないと判断した場合は、上記ステップS21へ戻る。   Thereafter, it is determined whether or not an operation for editing the moving image data is performed by the user using the switches 2a to 2c (step S22). If it is determined that the operation for editing the moving image data has not been performed, it is determined whether or not a power switch (not shown) is turned off by the user (step S34). If it is determined in step S34 that the POWER SW (not shown) has been turned off, the camera is shut down. On the other hand, if it is determined in step S34 that the power switch (not shown) is not turned off, the process returns to step S21.

一方、上記ステップS22において、動画データを編集する旨の操作が行われていると判断した場合は、上記ステップS16にて、当該動画データの代替となる動画データを他方のカメラが取得しているか否かを、当該動画データにその旨の情報が付加されているか否かを判定することで判断する(ステップS23)。このステップS23において、当該動画データの代替となる動画データを他方のカメラが取得していないと判断した場合は、後述するステップS31へ進む。   On the other hand, if it is determined in step S22 that an operation for editing the moving image data has been performed, in step S16, whether the other camera has acquired moving image data as a substitute for the moving image data. It is determined by determining whether or not information to that effect is added to the moving image data (step S23). If it is determined in step S23 that the other camera has not acquired moving image data as a substitute for the moving image data, the process proceeds to step S31 described later.

一方、上記ステップS23において、当該動画データの代替となる動画データを他方のカメラが取得していると判断した場合は、その“他方のカメラ”及び当該カメラにおける無線通信手段15bの通信準備をし、他方のカメラと当該カメラとを、所定の通信フォーマットによる無線通信を開始させる。すなわち、他方のカメラから、無線通信にて当該動画データの代替となる動画データのファイルを取得する(ステップS24)。なお、このステップS24のサブルーチンについては、後に図9に示すフローチャートを参照して詳述する。   On the other hand, if it is determined in step S23 that the other camera has acquired moving image data that is an alternative to the moving image data, the "other camera" and the wireless communication means 15b in the camera are prepared for communication. The wireless communication between the other camera and the camera is started using a predetermined communication format. That is, a moving image data file that substitutes for the moving image data is acquired from the other camera by wireless communication (step S24). The subroutine of step S24 will be described in detail later with reference to the flowchart shown in FIG.

上記ステップS24において、当該動画データの代替となる動画データのファイルを取得し、当該カメラ内のメモリ14に記録した後、所定の画像処理により、当該動画データのファイルと当該動画データの代替となる動画データのファイルとを繋ぎ合わせる(ステップS25)。この繋ぎ合わせの処理は、例えば、上述した図5に示すように、“第1カメラ”及び“第2カメラ”が取得した動画データを編集して、“合成”に示すような動画データ(以降、繋ぎ合わせ動画データと称する)を取得する処理である。   In step S24, a moving image data file that replaces the moving image data is acquired and recorded in the memory 14 in the camera, and then the predetermined moving image data file and the moving image data are replaced by predetermined image processing. The moving image data file is connected (step S25). For example, as shown in FIG. 5 described above, the joining process is performed by editing the moving image data acquired by the “first camera” and the “second camera” and moving image data (hereinafter referred to as “compositing”). , Referred to as connected moving image data).

なお、上記ステップS25においては、上記のような繋ぎ合わせの前処理として、実際には当該動画データ及び当該動画データの代替となる動画データを、4つのファイルに切り分ける処理を行う。この処理を含む上記ステップS25の詳細は、図10A及び図10Bに示すフローチャートを参照して後述する。   Note that in step S25, as the pre-processing for the above-described connection, actually, the moving image data and moving image data to be substituted for the moving image data are divided into four files. Details of step S25 including this processing will be described later with reference to the flowcharts shown in FIGS. 10A and 10B.

また、上記ステップS25における処理では、単純に動画データの切り貼りを行うだけではなく、例えばフェイドインフェイドアウトを用いても勿論よいし、図7に示すように、2つのファイルの重複する撮影時間すなわちM(時刻t〜時刻t)は、双方の動画データをマルチ画面にて表示するような編集も考えられる。ここで、図7における時刻t及びtは、図3乃至図5における時刻t及びtと対応している。 Further, in the processing in step S25, not only the moving image data is simply cut and pasted, but it is of course possible to use, for example, fade-in / fade-out, and as shown in FIG. For (time t 1 to time t 2 ), editing that displays both moving image data on a multi-screen is also conceivable. Here, times t 1 and t 2 in FIG. 7 correspond to times t 1 and t 2 in FIGS. 3 to 5.

つづいて、上記ステップS25で取得した上記繋ぎ合わせ動画データを基に、図8(a)に示すように上記繋ぎ合わせ動画データを構成する静止画像データのコマ列から、コマ数を間引いて所定のコマ数のみを残存させて、図8(b)に示すように静止画像データマルチ画面表示を、当該カメラの表示手段18に表示させる(ステップS31)。なお、上記ステップS23において、当該動画データの代替となる動画データを他方のカメラが取得していないと判断して上記ステップS31へ進んだ場合には、上記ステップS31の説明における“上記繋ぎ合わせ動画データ”を“上記ステップS21にて選択した当該動画データ”と読み替える。   Subsequently, based on the stitched moving image data acquired in step S25, a predetermined number of frames is thinned out from a frame sequence of still image data constituting the stitched moving image data as shown in FIG. 8A. Only the number of frames is left, and a still image data multi-screen display is displayed on the display means 18 of the camera as shown in FIG. 8B (step S31). If it is determined in step S23 that the other camera has not acquired moving image data as a substitute for the moving image data, and the process proceeds to step S31, “the linked moving image” in the description of step S31. “Data” is read as “the moving image data selected in step S21”.

このステップS31により、当該動画データまたは当該繋ぎ合わせ動画データの概略的な全容を、ユーザーが直感的に瞬時に把握することができる。なお、上記ステップS31のサブルーチンについては、図12に示すフローチャートを参照して後述する。   By this step S31, the user can intuitively grasp the entire outline of the moving image data or the combined moving image data intuitively and instantaneously. The subroutine of step S31 will be described later with reference to the flowchart shown in FIG.

次に、上記ステップS31における静止画像データマルチ画面表示を確認したユーザーは、当該コマ及びその前後のコマが不要と考えられるコマ、すなわち当該動画データまたは当該繋ぎ合わせ動画データの中で削除したほうがよいと思われるコマを、上記スイッチ2a乃至2cを操作(後述)することで選択する(ステップS32)。このステップS32において、ユーザーにより選択される部分は、例えば運動会における徒競走では、競争前の整列シーンや準備シーン等である。   Next, the user who has confirmed the still image data multi-screen display in step S31 should delete the frame and the frames before and after that frame, that is, the moving image data or the linked moving image data. Is selected by operating the switches 2a to 2c (described later) (step S32). In this step S32, the part selected by the user is, for example, an alignment scene or a preparation scene before the competition in the athletic competition.

ここで、上記ステップS32におけるユーザーの操作方法としては、図8(c)に示すように、上記静止画像データマルチ画面表示上で、所望のコマに枠を重ね合わせて選択操作をする。その後、所定の削除操作をすることで、上記枠が重ね合わせられたコマが削除される。   Here, as a user operation method in step S32, as shown in FIG. 8C, a selection operation is performed by overlaying a frame on a desired frame on the still image data multi-screen display. Thereafter, by performing a predetermined deletion operation, the frame on which the frame is superimposed is deleted.

なお、上述した図8(b),(c)に示す静止画像データマルチ画面表示は、説明の便宜上簡略化して描かれているが、静止画像データマルチ画面表示の詳細は、図13を参照して後述する。   Note that the still image data multi-screen display shown in FIGS. 8B and 8C is illustrated in a simplified manner for convenience of explanation. For details of the still image data multi-screen display, refer to FIG. Will be described later.

そして、上記ステップS32においてユーザーに選択されたコマ及びその前後の所定数のコマの削除を行う(ステップS33)。このステップS33により、動画データの容量のスリム化、及び鑑賞時間を短縮することによる鑑賞効率を改善させることができる。   Then, the frame selected by the user in step S32 and a predetermined number of frames before and after the frame are deleted (step S33). By this step S33, it is possible to improve the viewing efficiency by reducing the capacity of the moving image data and shortening the viewing time.

以下、図9に示すフローチャートを参照して、図6に示すフローチャートのステップS24、すなわちファイル無線通信ステップのサブルーチンについて説明する。なお、本実施形態に係るカメラでは、上述したように時計手段20を用いることで、撮影した動画データ等と撮影時刻とを対応付けして記録でき、ここでは該撮影時刻を参照した処理を行う。   Hereinafter, with reference to the flowchart shown in FIG. 9, step S24 of the flowchart shown in FIG. 6, that is, a subroutine of the file wireless communication step will be described. In the camera according to the present embodiment, by using the clock means 20 as described above, the captured moving image data and the like can be recorded in association with each other, and here, processing with reference to the shooting time is performed. .

また、説明の便宜上、当該カメラ(前半の撮影担当)を第1カメラと称し、他方のカメラ(後半の撮影担当)を第2カメラと称する。さらに、上記第1カメラによる撮影で取得した動画データを第1動画データと称し、上記第2カメラによる撮影で取得した動画データを第2動画データと称する。   For convenience of explanation, the camera (first half shooting person) is referred to as a first camera, and the other camera (second half shooting person) is referred to as a second camera. Furthermore, the moving image data acquired by shooting with the first camera is referred to as first moving image data, and the moving image data acquired by shooting with the second camera is referred to as second moving image data.

まず、第1カメラのMPU2が、第1動画データの撮影終了時刻を検出し、これをte1とする(ステップS41)。つづいて、上記時刻te1を、撮影開始時刻から撮影終了時刻までの間に含む動画データを、上記第2カメラのメモリ14の中から(第2動画データの中から)検索するよう、第1カメラのMPU2が、第2カメラに対して指示を出す。(ステップS42)。 First, MPU 2 of the first camera detects the photographing end time of the first video data, which is referred to as t e1 (step S41). Subsequently, the first time is set so that the moving image data including the time t e1 from the shooting start time to the shooting end time is searched from the memory 14 of the second camera (from the second moving image data). The MPU 2 of the camera issues an instruction to the second camera. (Step S42).

これに応じて、第2カメラのMPU2は、上記ステップS42において出された指示に従って、第2カメラのメモリ14を検索し、撮影開始時刻から撮影終了時刻までの間に、上記時刻te1を含む動画データのファイルが存在するか否かを判断する。 In response to this, the MPU 2 of the second camera searches the memory 14 of the second camera in accordance with the instruction issued in step S42, and includes the time t e1 between the shooting start time and the shooting end time. It is determined whether a moving image data file exists.

ここで、第2カメラのメモリ14内に撮影開始時刻から撮影終了時刻までの間に、上記時刻te1を含む動画データのファイルが存在しないと判断した場合は、例えば以下のような場合が考えられる。すなわち、第2カメラの撮影が開始した後も、第1カメラによる撮影が続行され、結局第2カメラの撮影の方が、第1カメラの撮影よりも先に終了した場合である。 Here, when it is determined that there is no moving image data file including the time t e1 between the shooting start time and the shooting end time in the memory 14 of the second camera, for example, the following cases are considered. It is done. That is, even when the second camera starts shooting, shooting by the first camera is continued. Eventually, shooting by the second camera ends before shooting by the first camera.

ところで、第2カメラは、上記検索の結果を第1カメラへ通知する。そして、第1カメラでは、第2カメラからの上記通知により、該当ファイルが存在するか否かを判別する(ステップS43)。   Incidentally, the second camera notifies the first camera of the search result. Then, the first camera determines whether or not the corresponding file exists based on the notification from the second camera (step S43).

一方、上記ステップS43において、第2カメラのメモリ14内に撮影開始時刻から撮影終了時刻までの間に、上記時刻te1を含む動画データのファイルが存在しないと判断した場合には、メモリ14に記録された第1動画データの撮影開始時刻を検出してts1とする(ステップS44)。 On the other hand, if it is determined in step S43 that there is no moving image data file including the time t e1 between the shooting start time and the shooting end time in the memory 14 of the second camera, The shooting start time of the recorded first moving image data is detected and set as t s1 (step S44).

つづいて、撮影開始時刻から撮影終了時刻までの間に、上記時刻ts1からte1までの時刻を含む動画データのファイルを、上記第2カメラのメモリ14の中から(第2動画データの中から)検索するよう、第1カメラのMPU2が、第2カメラに対して指示を出し、第2カメラのMPU2は上記ファイルを検索する(ステップS45)。 Subsequently, between the shooting start time and the shooting end time, a file of moving image data including the time from the time t s1 to t e1 is stored in the memory 14 of the second camera (in the second moving image data). The MPU 2 of the first camera issues an instruction to the second camera to search, and the MPU 2 of the second camera searches the file (step S45).

そして、上記ステップS43において撮影開始時刻から撮影終了時刻までの間に上記時刻te1を含むとされた動画データのファイル、または上記ステップS45において撮影開始時刻から撮影終了時刻までの間に上記時刻ts1からte1までの時刻を含むとされた動画データのファイルを、第1カメラに送信するよう、第1カメラは第2カメラに送信依頼をする(ステップS46)。 Then, in step S43, the moving image data file including the time t e1 between the shooting start time and the shooting end time, or the time t between the shooting start time and the shooting end time in step S45. the file of the moving image data and including the time from s1 to t e1, to transmit to the first camera, the first camera is a transmission request to the second camera (step S46).

これに応じて、上記第2カメラは、上記ファイルを、上記無線通信手段15bにより上記第1カメラに送信するので、第1カメラはそれを受信し、メモリ14に保存する(ステップS47)。その後、図6Bに示すフローチャートへ戻る。本実施形態においては、上述のようにして、編集に使用する動画データが、一つのカメラ(ここでは、上記第1カメラ)に集められる。   In response to this, the second camera transmits the file to the first camera by the wireless communication means 15b, so that the first camera receives it and stores it in the memory 14 (step S47). Thereafter, the process returns to the flowchart shown in FIG. 6B. In the present embodiment, as described above, moving image data used for editing is collected in one camera (here, the first camera).

以下、図10A及び図10Bに示すフローチャートを参照して、図6Cに示すフローチャートのステップS25、すなわちファイル繋ぎ合わせステップのサブルーチンについて説明する。   Hereinafter, with reference to the flowcharts shown in FIGS. 10A and 10B, step S25 of the flowchart shown in FIG. 6C, that is, the subroutine of the file joining step will be described.

まず、編集中の第1動画データの撮影開始時刻を検出し、該撮影開始時刻をts1と設定する(ステップS51)。次に、上記第1動画データの撮影終了時刻を検出し、該撮影終了時刻をte1と設定する(ステップS52)。つづいて、編集中の第2動画データの撮影開始時刻を検出し、該撮影開始時刻をts2と設定する(ステップS53)。そして、上記第2動画データの撮影終了時刻を検出し、該撮影終了時刻をte2と設定する(ステップS54)。 First, the shooting start time of the first moving image data being edited is detected, and the shooting start time is set to t s1 (step S51). Next, the shooting end time of the first moving image data is detected, and the shooting end time is set as t e1 (step S52). Subsequently, detecting the photographing start time of the second video data being edited, the photographing start time is set as t s2 (step S53). Then, detecting the photographing end time of the second video data, the photographing end time is set to t e2 (step S54).

ここで、上記第1動画データのみしか動画データが存在しない上記時刻ts1〜時刻ts2の期間については、該期間の第1動画データをファイルAと設定する(ステップS55)。 Here, for the period from the time t s1 to the time t s2 in which only the first moving image data exists, the first moving image data of the period is set as the file A (step S55).

つづいて、ファイルB乃至ファイルDを設定する為に、上記第1カメラと上記第2カメラとについて、どちらが先に撮影を終了したかを判断する(ステップS56)。なお、上記第1カメラが先に撮影を終了する場合を第1のケースと称し、上記第2カメラが先に撮影を終了する場合を第2のケースと称する。   Subsequently, in order to set the file B to the file D, it is determined which of the first camera and the second camera has finished photographing first (step S56). The case where the first camera finishes shooting first is referred to as a first case, and the case where the second camera finishes shooting first is referred to as a second case.

上記ステップS56においては、具体的には、上記時刻te2と上記時刻te1との前後関係を、下式にて判断する。 In step S56, specifically, the front-rear relationship between the time t e2 and the time t e1 is determined by the following equation.

e2>te1
e2とte1とが上式を満たす場合、すなわち上記第1カメラが、上記第2カメラよりも先に撮影を終了した場合(図11に示すタイムチャートの“第1のケース”参照)には、上記ステップS56をYESに分岐して、以下のようにステップS57乃至ステップS59にてファイルB乃至ファイルDを設定する。
t e2 > t e1
When t e2 and t e1 satisfy the above equation, that is, when the first camera finishes shooting before the second camera (see “first case” in the time chart shown in FIG. 11). Branches step S56 to YES, and sets files B to D in steps S57 to S59 as follows.

すなわち、上記第1カメラが、上記第2カメラよりも先に撮影を終了した場合には、上記時刻te1〜時刻te2における上記第2動画データをファイルBと設定する(ステップS57)。次に、上記時刻ts2〜時刻te1における上記第1動画データをファイルCと設定する(ステップS58)。つづいて、上記時刻ts2〜時刻te2における上記第2動画データをファイルDと設定する(ステップS59)。 That is, when the first camera finishes shooting before the second camera, the second moving image data from the time t e1 to the time t e2 is set as the file B (step S57). Next, the first moving image data from time ts2 to time te1 is set as file C (step S58). Subsequently, setting the second moving image data at the time t s2 ~ time t e2 and file D (step S59).

一方、上記時刻te2と時刻te1との前後関係が、上式を満たさない場合、すなわち上記第2カメラが、上記第1カメラよりも先に撮影を終了した場合(図11に示すタイムチャートの“第2のケース”参照)には、上記ステップS56をNOに分岐して、以下のようにステップS61乃至ステップS63にてファイルB乃至ファイルDを設定する。 On the other hand, when the context between the time t e2 and the time t e1 does not satisfy the above equation, that is, when the second camera finishes shooting before the first camera (time chart shown in FIG. 11). Step S56 is branched to NO, and files B to D are set in steps S61 to S63 as follows.

すなわち、上記第2カメラが、上記第1カメラよりも先に撮影を終了した場合には、上記時刻te2〜時刻te1における上記第1動画データをファイルBと設定する(ステップS61)。次に、上記時刻ts2〜時刻te2における上記第1動画データをファイルCと設定する(ステップS62)。つづいて、上記時刻ts2〜時刻te2における上記第2動画データをファイルDと設定する(ステップS63)。 That is, when the second camera finishes shooting before the first camera, the first moving image data from the time t e2 to the time t e1 is set as the file B (step S61). Then, setting the first moving image data in the time t s2 ~ Time t e2 and file C (step S62). Subsequently, setting the second moving image data at the time t s2 ~ time t e2 and file D (step S63).

そして、上記ステップS57乃至上記ステップS59、または上記ステップS61乃至上記ステップS63の一連のステップにおいて、ファイルB乃至ファイルDを設定した後、所定の画像処理により、ファイルA乃至ファイルDを、上記ステップS25で説明したように時系列に沿って繋ぎ合わせる処理を行う(ステップS60)。   Then, after setting the files B to D in the series of steps from the step S57 to the step S59 or the step S61 to the step S63, the file A to the file D is converted into the step S25 by a predetermined image processing. As described in (4), the process of joining in time series is performed (step S60).

なお、以上の説明から分かるように、上記ファイルC及び上記ファイルDは、上記第1カメラ及び上記第2カメラ、すなわち二台のカメラにより撮影された時間の動画データである。   As can be seen from the above description, the file C and the file D are moving image data of time taken by the first camera and the second camera, that is, two cameras.

以下、上記ステップS31における静止画像データマルチ画面表示のサブルーチンを、図12に示すフローチャートを参照して説明する。なお、同フローチャートに基づく表示によれば、図13に示すような画面構成、すなわち、上下方向及び左右方向に三分割した画面構成の静止画像データマルチ画面表示となる(以降、この画面分割により生じる最小単位、すなわち画面全体の1/9の画面を最小画面単位と称する)。   Hereinafter, the still image data multi-screen display subroutine in step S31 will be described with reference to the flowchart shown in FIG. According to the display based on the flowchart, a still image data multi-screen display having a screen configuration as shown in FIG. 13, that is, a screen configuration divided into three in the vertical direction and the horizontal direction is obtained (hereinafter, this screen division causes The smallest unit, that is, 1/9 of the entire screen is called the smallest screen unit).

上記ファイルAは、図13に示すように、表示画面を上下方向に三分割した場合の上部において、左右方向に三分割して表示させる(ステップS71)。つづいて、上記ファイルC及び上記ファイルDは、二台のカメラにより撮影されている時間の動画データであるので、図13に示すように、表示画面を上下方向に三分割した場合の中央部において、一つの上記最小画面単位内に二つの静止画像データを適当なレイアウトにて配置して同時に表示させる(ステップS72)。そして、上記ファイルBは、図13に示すように、表示画面を上下方向に三分割した場合の下部において、左右方向に三分割して表示させる(ステップS73)。その後、図6Bに示すフローチャートに戻る。   As shown in FIG. 13, the file A is displayed by being divided into three parts in the left-right direction at the upper part when the display screen is divided into three parts in the up-down direction (step S71). Subsequently, since the file C and the file D are moving image data of time taken by two cameras, as shown in FIG. 13, in the central portion when the display screen is divided into three in the vertical direction. Then, two still image data are arranged in an appropriate layout within one minimum screen unit and displayed simultaneously (step S72). Then, as shown in FIG. 13, the file B is displayed by being divided into three in the left-right direction at the lower part when the display screen is divided into three in the up-down direction (step S73). Thereafter, the process returns to the flowchart shown in FIG. 6B.

なお、図13に示す時刻t及び時刻tから分かるように、以上の静止画像データの表示は、画面左から画面右へ時系列的に配置されるものとするが、その他の並びによる配置としても勿論よい。ここで、図13における時刻t及びtは、図3乃至図5及び図7における時刻t及びtと対応している。 As can be seen from time t 1 and time t 2 shown in FIG. 13, the display of the above still image data is time-sequentially arranged from the left side of the screen to the right side of the screen. Of course. Here, the time t 1 and t 2 in Figure 13, and corresponds to the time t 1 and t 2 in FIG. 3 to FIGS. 5 and 7.

以上説明したように、本実施形態によれば、ユーザーは指示表示に従った撮影を行うことでバラエティに富んだ再生表示が可能な動画データを作成するのに使用可能な動画データを容易に取得でき、よってユーザーの撮影スキルの如何に関わらずバラエティに富んだ再生表示が可能な動画データを容易に取得することができる通信機能を有する撮影装置を提供することができる。   As described above, according to the present embodiment, the user can easily acquire moving image data that can be used to create moving image data that can be displayed in a variety of ways by performing shooting according to the instruction display. Therefore, it is possible to provide a photographing apparatus having a communication function that can easily acquire moving image data that can be reproduced and displayed in a variety of ways regardless of the photographing skill of the user.

以上、一実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形及び応用が可能なことは勿論である。   As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to embodiment mentioned above, Of course, a various deformation | transformation and application are possible within the range of the summary of this invention. is there.

例えば、本実施形態によれば、上記第1カメラ及び上記第2カメラの双方で撮影している時間の動画データに関しては、上記第1動画データと上記第2動画データとを、図14に示すように同時に並列して表示させることも勿論可能である。このような表示によれば、例えば、お父さんが上記第1カメラ、お母さんが上記第2カメラを用いて子供を撮影した場合には、お父さんとお母さんの子供を見る視点の違い等を知ることができ、親子にとってより興味深い鑑賞を行うことができる。   For example, according to the present embodiment, the first moving image data and the second moving image data are shown in FIG. 14 for moving image data of time taken by both the first camera and the second camera. Of course, it is possible to display in parallel at the same time. According to such a display, for example, when the father photographs the child using the first camera and the mother uses the second camera, it is possible to know the difference in the viewpoint of viewing the child of the father and the mother. , You can enjoy more interesting appreciation for parents and children.

また、例えば上記第1カメラのユーザーが、撮影を終えた後に位置を移動することで、以下のような撮影を行うことができる。すなわち、第1撮影ポイントで撮影を行っている第1カメラのユーザーが、第2撮影ポイントに位置する第2カメラのユーザーに撮影を引き継がせた後に、第3撮影ポイントに移動し、上記第2カメラのユーザーから更に撮影を引き継ぐ。このようにして取得した動画データの編集は、上述した実施形態における編集に準じて行うことができるのは勿論である。   Further, for example, the user of the first camera can perform the following shooting by moving the position after shooting. That is, after the user of the first camera who is shooting at the first shooting point has taken over the shooting of the user of the second camera located at the second shooting point, the user moves to the third shooting point and moves to the second shooting point. Take over shooting from camera users. Of course, editing of the moving image data acquired in this way can be performed in accordance with the editing in the above-described embodiment.

このような場合の撮影タイミングチャートは図15に示すようになる。すなわち、時刻t10から第1撮影ポイントにて第1カメラによる撮影が行われ、該撮影は時刻t20から第2撮影ポイントにて第2カメラにより引き継がれる。そして、この第2カメラによる撮影が行われている間に、上記第1カメラのユーザーが第3撮影ポイントに移動し、時刻t30から上記第2カメラから、撮影を引き継ぐ。 An imaging timing chart in such a case is as shown in FIG. That is, taken from the time t 10 of the first camera at the first shot point is performed, the photographing is taken over by the second camera from the time t 20 in the second photographic point. Then, while the shooting by the second camera being performed, the user of the first camera is moved to the third shot point, from the second camera from the time t 30, take over the shooting.

以上説明したように、本実施形態によれば、撮影方法のバリエーションは豊富に生み出されるので、バラエティに富んだ鑑賞が可能な動画データを作成する為の動画データを、ユーザーの撮影スキルの如何に関わらず容易に取得することができる通信機能を有する撮影装置を提供することができる。   As described above, according to the present embodiment, since a variety of shooting methods are created, the video data for creating video data that can be viewed in a wide variety of ways can be used regardless of the shooting skill of the user. Regardless, it is possible to provide a photographing apparatus having a communication function that can be easily acquired.

さらに、上述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の一実施形態に係るカメラのシステム構成の概念を示すブロック図。1 is a block diagram showing a concept of a system configuration of a camera according to an embodiment of the present invention. 本発明の一実施形態に係るカメラのマルチアングル撮影における使用例を示す図。The figure which shows the usage example in the multi-angle imaging | photography of the camera which concerns on one Embodiment of this invention. マルチアングル撮影時における本実施形態に係るカメラ(第1)の表示手段に表示される表示画面の一例を時系列的に示した図。The figure which showed in time series an example of the display screen displayed on the display means of the camera (1st) based on this embodiment at the time of multi-angle imaging | photography. マルチアングル撮影時における本実施形態に係るカメラ(第2)の表示手段に表示される表示画面の一例を時系列的に示した図。The figure which showed an example of the display screen displayed on the display means of the camera (2nd) based on this embodiment at the time of multi-angle imaging | photography in time series. マルチアングル撮影時における動作制御のタイムチャートを示す図。The figure which shows the time chart of the operation control at the time of multi-angle imaging | photography. 本発明の一実施形態に係るカメラにおけるMPUによる動作制御のフローチャートの第1部分を示す図。The figure which shows the 1st part of the flowchart of the operation control by MPU in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおけるMPUによる動作制御のフローチャートの第2部分を示す図。The figure which shows the 2nd part of the flowchart of the operation control by MPU in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおけるMPUによる動作制御のフローチャートの第3部分を示す図。The figure which shows the 3rd part of the flowchart of the operation control by MPU in the camera which concerns on one Embodiment of this invention. 2つのファイルの重複する撮影時間の動画データをマルチ画面にて表示するような編集の概念を示す図。The figure which shows the concept of an edit which displays the moving image data of the imaging | photography time which two files overlap on a multiscreen. 動画データの編集の概念を示す図。The figure which shows the concept of edit of moving image data. 図6Bに示すフローチャートにおけるファイル無線通信のサブルーチンを示す図。The figure which shows the subroutine of file radio | wireless communication in the flowchart shown to FIG. 6B. 図6Bに示すフローチャートのファイル繋ぎ合わせのサブルーチンを示すフローチャートの第1部分を示す図。The figure which shows the 1st part of the flowchart which shows the file joining subroutine of the flowchart shown to FIG. 6B. ファイル繋ぎ合わせのサブルーチンを示すフローチャートの第2部分を示す図。The figure which shows the 2nd part of the flowchart which shows the subroutine of file joining. 第1のケース及び第2のケースにおける撮影開始時刻及び撮影とファイルとの関係を表すタイムチャートに示す図。The figure shown in the time chart showing the relationship between imaging | photography start time and imaging | photography and a file in a 1st case and a 2nd case. 図6Bに示すフローチャートの静止画像データマルチ画面表示のサブルーチンを示す図。The figure which shows the subroutine of the still image data multiscreen display of the flowchart shown to FIG. 6B. 図12に示すフローチャートに基づく表示画面の画面構成を示す図。The figure which shows the screen structure of the display screen based on the flowchart shown in FIG. 動画データの再生表示の一変形例を示す図。The figure which shows the modification of the reproduction | regeneration display of moving image data. 一実施形態に係るカメラの一使用変形例の撮影タイミングチャートを示す図。The figure which shows the imaging | photography timing chart of the one use modification of the camera which concerns on one Embodiment.

符号の説明Explanation of symbols

2…MPU、 2a,2b,2c…スイッチ、 4…動作制御プログラム、 6…撮影レンズ、 8…被写体、 10a…撮像素子、 10…AFE回路、 10b…マイク、 12…信号処理回路、 12a…処理補助ブロック、 14…メモリ、 15a…プリント信号出力手段、 15b…無線通信手段、 16…RAM、 18…表示手段、 18a…スピーカ、 20…時計手段、 22…位置検出手段、 30a,30b…カメラ。     2 ... MPU, 2a, 2b, 2c ... switch, 4 ... operation control program, 6 ... photographing lens, 8 ... subject, 10a ... imaging device, 10 ... AFE circuit, 10b ... microphone, 12 ... signal processing circuit, 12a ... processing Auxiliary block, 14 ... Memory, 15a ... Print signal output means, 15b ... Wireless communication means, 16 ... RAM, 18 ... Display means, 18a ... Speaker, 20 ... Clock means, 22 ... Position detection means, 30a, 30b ... Camera.

Claims (5)

撮影動作を実行する撮影手段と、
他の撮影装置に対して撮影動作を依頼する撮影依頼信号を形成する撮影依頼信号形成手段と、
上記撮影依頼信号を上記他の撮影装置へ無線送信する送信手段と、
上記撮影依頼信号の送信後に、上記他の撮影装置から撮影動作を起動した旨を示すデータを無線受信する受信手段と、
上記撮影依頼信号を上記他の撮影装置へ無線送信した場合には、撮影依頼をした旨の表示を行い、且つ、上記他の撮影装置から撮影動作を起動した旨を示すデータを無線受信した場合には、上記他の撮影装置が撮影動作を起動した旨を表示する表示手段と、
上記他の撮影装置において依頼した撮影が行われた場合には、当該撮影装置で撮影された画像データまたは動画データに、上記依頼により撮影が行われたことを示すデータを付加するデータ付加手段と、
を具備することを特徴とする撮影装置。
Photographing means for performing photographing operation;
Photographing request signal forming means for forming a photographing request signal for requesting a photographing operation to another photographing device ;
Transmitting means for wirelessly transmitting the imaging request signal to the other imaging device;
Receiving means for wirelessly receiving data indicating that a photographing operation has been started from the other photographing device after transmission of the photographing request signal;
When wirelessly transmitting the shooting request signal to the other imaging device, a message indicating that a shooting request has been made is displayed, and data indicating that a shooting operation has been started is received wirelessly from the other imaging device. Includes a display means for displaying that the other photographing apparatus has started the photographing operation;
A data adding means for adding, to the image data or moving image data photographed by the photographing apparatus, data indicating that photographing was performed by the request, when photographing requested by the other photographing apparatus is performed; ,
An imaging apparatus comprising:
上記撮影依頼信号は、少なくとも撮影起動またはフレーミングのうち何れかひとつの動作依頼を示す信号であることを特徴とする請求項1に記載の撮影装置。 The imaging apparatus according to claim 1, wherein the imaging request signal is a signal indicating at least one operation request of imaging activation or framing . 上記表示手段は、上記撮影手段による撮影で取得された画像データと、上記他の撮影装置から取得した動画データとを同時に表示することを特徴とする請求項1に記載の撮影装置。 2. The photographing apparatus according to claim 1, wherein the display means simultaneously displays image data acquired by photographing by the photographing means and moving image data obtained from the other photographing apparatus. 上記受信手段は、上記他の撮影装置からの撮影依頼信号を無線受信し、
上記送信手段は、上記他の撮影装置へ、撮影動作を起動した旨を示すデータと、画像データ或いは動画データとを無線送信し、
上記表示手段は、上記撮影依頼信号を上記他の撮影装置から無線受信した場合には、撮影依頼をされた旨の表示を行うことを特徴とする請求項1に記載の撮影装置
The receiving means wirelessly receives a shooting request signal from the other shooting device,
The transmission means wirelessly transmits data indicating that a shooting operation has been started and image data or moving image data to the other imaging device,
2. The photographing apparatus according to claim 1, wherein the display means displays that the photographing request has been made when the photographing request signal is wirelessly received from the other photographing apparatus .
上記依頼撮影が行われたことを示すデータは、当該撮影装置の撮影により取得された画像データまたは動画データの撮影時間に関連付けされたデータであることを特徴とする請求項1に記載の撮影装置。2. The photographing apparatus according to claim 1, wherein the data indicating that the requested photographing has been performed is data associated with photographing time of image data or moving image data acquired by photographing of the photographing apparatus. .
JP2005365210A 2005-12-19 2005-12-19 Imaging device Expired - Fee Related JP4804141B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005365210A JP4804141B2 (en) 2005-12-19 2005-12-19 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005365210A JP4804141B2 (en) 2005-12-19 2005-12-19 Imaging device

Publications (3)

Publication Number Publication Date
JP2007173963A JP2007173963A (en) 2007-07-05
JP2007173963A5 JP2007173963A5 (en) 2009-02-12
JP4804141B2 true JP4804141B2 (en) 2011-11-02

Family

ID=38299989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005365210A Expired - Fee Related JP4804141B2 (en) 2005-12-19 2005-12-19 Imaging device

Country Status (1)

Country Link
JP (1) JP4804141B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011188210A (en) 2010-03-08 2011-09-22 Olympus Imaging Corp Photographing apparatus and photographing system
US8692666B2 (en) 2010-08-09 2014-04-08 Olympus Imaging Corp. Communication system and communication terminal
WO2017098681A1 (en) 2015-12-11 2017-06-15 パナソニックIpマネジメント株式会社 Imaging apparatus, electronic device and imaging system
JP6754953B2 (en) 2016-03-07 2020-09-16 パナソニックIpマネジメント株式会社 Imaging equipment, electronic devices and imaging systems

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003283976A (en) * 2002-03-26 2003-10-03 Toshiba Corp Medium information recording apparatus and its method
JP3937332B2 (en) * 2003-03-11 2007-06-27 ソニー株式会社 Shooting system

Also Published As

Publication number Publication date
JP2007173963A (en) 2007-07-05

Similar Documents

Publication Publication Date Title
JP5235798B2 (en) Imaging apparatus and control method thereof
JP4148228B2 (en) Image recording apparatus, image reproduction control apparatus, image recording / reproduction control apparatus, processing method of these apparatuses, and program causing computer to execute the method
JP4730667B2 (en) Automatic regeneration method and apparatus
JP4949709B2 (en) Camera, camera determination method, camera control method
JP2011071968A (en) Data structure of still image file, image file generating device, image reproducing unit, and electronic camera
JP2004304642A (en) Electronic camera and image reproducing device
JP2004312495A (en) Image processing program and image processor
JP5253725B2 (en) Mobile communication terminal with video shooting function and operation method thereof
JP2006303961A (en) Imaging apparatus
JP4804141B2 (en) Imaging device
JP4208613B2 (en) Imaging device
JP6229356B2 (en) Imaging apparatus, imaging method, and program
JP4239997B2 (en) Imaging device, still image shooting method during movie shooting, and program
JP5249078B2 (en) Imaging device
JP4243844B2 (en) Image capturing apparatus and image capturing method
JP5715179B2 (en) Reproduction display device and reproduction display method
JP2009071464A (en) Camera
JP4022688B2 (en) Electronic camera capable of shooting movies
JP2006222550A (en) Video recording system and moving picture recording apparatus
JP4714053B2 (en) camera
JP2007072210A (en) Imaging apparatus, its control method, and program
JP2017085338A (en) Imaging apparatus, control method, and program
JP6521734B2 (en) Movie recording system, movie recording method
JP5613285B2 (en) IMAGING DEVICE, IMAGING METHOD, DISPLAY DEVICE, AND DISPLAY METHOD
JP2018038058A (en) Sound output device, imaging system, sound output method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110809

R151 Written notification of patent or utility model registration

Ref document number: 4804141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees