JP4920295B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP4920295B2
JP4920295B2 JP2006121070A JP2006121070A JP4920295B2 JP 4920295 B2 JP4920295 B2 JP 4920295B2 JP 2006121070 A JP2006121070 A JP 2006121070A JP 2006121070 A JP2006121070 A JP 2006121070A JP 4920295 B2 JP4920295 B2 JP 4920295B2
Authority
JP
Japan
Prior art keywords
camera
image data
user
image
date
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006121070A
Other languages
Japanese (ja)
Other versions
JP2007295289A (en
JP2007295289A5 (en
Inventor
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2006121070A priority Critical patent/JP4920295B2/en
Publication of JP2007295289A publication Critical patent/JP2007295289A/en
Publication of JP2007295289A5 publication Critical patent/JP2007295289A5/ja
Application granted granted Critical
Publication of JP4920295B2 publication Critical patent/JP4920295B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P20/00Technologies relating to chemical industry
    • Y02P20/50Improvements relating to the production of bulk chemicals
    • Y02P20/52Improvements relating to the production of bulk chemicals using catalysts, e.g. selective catalysts

Description

本発明は、カメラに関し、特に複数のカメラによる画像データの表示制御をするカメラに関する。   The present invention relates to a camera, and more particularly to a camera that controls display of image data by a plurality of cameras.

従来より、カメラで撮影して取得した膨大な量の写真の整理は、カメラユーザーにとって重要なテーマとなっている。例えばフィルムカメラにおいては、撮影後のフィルムを実際に現像して写真を取得し、それら写真を自分で並べ替える等してアルバムを作成する。一方、近年幅広く普及しているデジタルカメラでは、デジタルデータである画像データを撮影により取得する為、フィルムカメラに比べて、より多様なアルバム作成方法が考えられる。   Traditionally, the organization of a huge amount of photos taken and captured by a camera has been an important theme for camera users. For example, in a film camera, the photographed film is actually developed to obtain photos, and an album is created by rearranging the photos by oneself. On the other hand, since digital cameras that have been widely used in recent years acquire image data as digital data by photographing, more various album creation methods are conceivable than film cameras.

なお、撮影により取得した画像データを整理する技術として、例えば特許文献1に以下のような技術が開示されている。すなわち、上記特許文献1に開示された技術は、時計情報またはカレンダ情報と、画像データとを連動させて表示手段に表示させる技術である。上記特許文献1に開示された技術によれば、同一期間内に多数の画像データがある場合であっても、これら画像データを一覧することができ、画像データの検索性を向上させることができる。
特開2005−130275号公報
For example, Patent Document 1 discloses the following technique as a technique for organizing image data acquired by photographing. That is, the technique disclosed in Patent Document 1 is a technique for displaying clock information or calendar information and image data on a display unit in conjunction with each other. According to the technique disclosed in Patent Document 1, even when there are a large number of image data within the same period, these image data can be listed, and the searchability of the image data can be improved. .
JP 2005-130275 A

ところで、電子機器間における通信技術は現在目覚しく発達しており、今後も更に発達すると見込まれている。すなわち、カメラ等の撮像手段同士が通信により画像データをやり取りする場面が今後多くなると考えられる。   By the way, communication technology between electronic devices has been remarkably developed at present and is expected to be further developed in the future. That is, it is considered that there will be more scenes in the future in which image data such as cameras exchange image data by communication.

このような事実を鑑みると、より多数の画像データを一覧表示でき、かつその検索性等の向上を図る場合には、一つの撮像手段のみにより撮影された画像データを想定するのではなく、複数のカメラにより撮影された画像データを、統合して整理する技術が望まれると考えられる。なお、上記特許文献1に開示された技術では、この点は全く考慮されていない。   In view of such facts, when a larger number of image data can be displayed in a list and the searchability is improved, image data captured by only one imaging unit is not assumed, but a plurality of image data is assumed. It is considered that a technique for integrating and organizing image data photographed by these cameras is desired. Note that this technique is not considered at all in the technique disclosed in Patent Document 1.

本発明は、上記の事情に鑑みてなされたもので、複数のカメラによる多数の画像データを、一台のカメラでまとめて且つ鑑賞効果を考慮して整理するカメラを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a camera that organizes a large number of image data from a plurality of cameras with a single camera and organizes them in consideration of viewing effects. .

上記の目的を達成するために、本発明の第1の態様によるカメラは、画像を表示する表示部と、日時情報を生成する計時部と、撮影により上記画像を取得した際に、上記画像と、上記撮影時点の日時情報である撮影日時情報と、を対応付けする撮影日時情報対応付け部と、撮影により上記画像を取得した際に、上記画像と、当該カメラに係る情報であるカメラ情報と、を対応付けするカメラ情報対応付け部と、当該カメラとは異なるカメラである第二のカメラと通信により画像の送受信を行う通信部と、上記第二のカメラによって送信され、当該カメラの上記通信部によって受信した画像のうち、当該カメラのユーザを被写体とする画像であるユーザ画像データを取得したか否かを、当該カメラにおけるユーザ画像データの設定の有無に基づいて判断する判断部と、上記第二のカメラのユーザを被写体とする画像を、当該カメラの操作部材の操作に基づいて、第二のカメラユーザ画像データとして特定する特定部と、上記判断部によって上記画像が当該カメラのユーザを被写体とする画像であると判断された場合には、当該画像を、当該カメラのユーザを被写体とする画像であるユーザ画像データとして設定し、上記判断部によって上記画像が当該カメラのユーザを被写体とする画像ではないと判断された場合には、当該画像を、上記撮影日時情報及び上記カメラ情報に基づいて、上記ユーザ画像データとは別に並べ替えて上記表示部に表示させ、且つ、上記特定部によって上記第二のカメラユーザ画像データであると特定された画像の、上記表示部における表示位置を基準として、上記第二のカメラから受信した画像の並べ替えを行う表示制御部と、を具備することを特徴とする。 In order to achieve the above object, a camera according to a first aspect of the present invention includes a display unit that displays an image, a time measuring unit that generates date and time information, and the image when the image is acquired by photographing. A shooting date and time information associating with shooting date and time information that is date and time information at the time of shooting, and when the image is acquired by shooting, the image and camera information that is information relating to the camera; , A communication unit that communicates images with a second camera that is a camera different from the camera, and the communication of the camera that is transmitted by the second camera. of the received image by parts, based the user of the camera whether it has acquired the user image data is an image of the subject, the presence or absence of the setting of the user image data in the camera A determination unit for determining Te, an image as a subject user of the second camera, on the basis of the operation of the operation member of the camera, and a specifying unit configured to specify a second camera user's image data, by the determination unit When it is determined that the image is an image having the camera user as a subject, the image is set as user image data that is an image having the camera user as a subject. Is determined not to be an image of the user of the camera as a subject, the image is rearranged separately from the user image data based on the shooting date / time information and the camera information and displayed on the display unit. it is displayed, and, of images that have been identified as the second camera user image data by the identification unit, the display position on the display unit as a reference Characterized by comprising a display control unit that performs reordering of the image received from the second camera.

本発明によれば、複数のカメラにより撮影して取得された多数の画像データを、一台のカメラにてまとめて且つ鑑賞効果を考慮して整理した表示制御を行うカメラを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the camera which performs the display control which arranged many image data acquired by image | photographing with several cameras in one camera, and considered the appreciation effect can be provided. .

以下、図面を参照して、本発明の一実施形態に係るカメラを説明する。図1は本実施形態に係るカメラのシステム構成の概念を示すブロック図である。   A camera according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the concept of the system configuration of the camera according to this embodiment.

まず、参照符号2が付されているのは、マイクロコントローラ等から成る制御手段であるMPU(Micro Processing Unit)である。また、上記MPU2には、操作部材2aが接続されて設けられている。なお、該操作部材2aは、例えばタッチパネル式や十字キー等の操作部材が考えられる。より具体的には、レリーズ操作を行うためのレリーズボタン、当該カメラの動作モードを撮影モード、第一再生モード、第二再生モード、及び画像交換モードの間で変更するための操作部材、各種モードにおいて画像の選択操作や決定操作等を行うための操作部材等が考えられる。   First, reference numeral 2 denotes an MPU (Micro Processing Unit) which is a control means including a microcontroller. The MPU 2 is provided with an operation member 2a connected thereto. The operation member 2a may be an operation member such as a touch panel type or a cross key. More specifically, a release button for performing a release operation, an operation member for changing the operation mode of the camera among a shooting mode, a first playback mode, a second playback mode, and an image exchange mode, various modes An operation member for performing an image selection operation, a determination operation, or the like can be considered.

そして、上記MPU2は、上記操作部材2aの状態を検出することで、該検出の結果に基づき、後述するフローチャートに示す動作制御プログラム(フラッシュROM4に格納されている)に従って、各構成部材を制御する。   Then, the MPU 2 detects the state of the operation member 2a, and controls each component according to an operation control program (stored in the flash ROM 4) shown in a flowchart described later based on the detection result. .

ところで、撮影時には、撮影レンズ6を介して当該カメラに入射した被写体8の像は、例えばCCDやCMOSセンサ等からなる撮像素子10aにより電気信号に変換される。そして、この電気信号は、AFE(Analogue Front End)回路10に読み出され、A/D変換等が施されてデジタル画像信号である画像データとなり、信号処理回路12に入力される。その後、上記画像データは、上記信号処理回路12において、色補正及び信号圧縮処理等の所定の処理が施された後、メモリ14に記録される。なお、上記信号処理回路12内には、画像処理時における補正のかけ方の変更等や特定の信号の付加等を行う為の処理補助ブロック12aが設けられている。   By the way, at the time of photographing, an image of the subject 8 that has entered the camera via the photographing lens 6 is converted into an electric signal by an image pickup device 10a made of, for example, a CCD or a CMOS sensor. Then, this electrical signal is read out to an AFE (Analogue Front End) circuit 10, subjected to A / D conversion and the like to become image data which is a digital image signal, and is input to the signal processing circuit 12. Thereafter, the image data is recorded in the memory 14 after being subjected to predetermined processing such as color correction and signal compression processing in the signal processing circuit 12. The signal processing circuit 12 is provided with a processing auxiliary block 12a for changing a correction method during image processing, adding a specific signal, or the like.

なお、上記のように撮影して取得した画像データは、プリント信号出力手段15aや、無線通信部15bにて、当該カメラ外部へ送信することができる。なお、無線通信部15bは、本実施形態に係るカメラと同様又は類似のシステム構成(上記無線通信部15bを含むシステム構成)を有するカメラ等との無線通信を可能にする通信手段を有する部材である。したがって、例えば上記無線通信部15bにより画像データ等の送受信が可能となる。なお、実際の通信においては、例えばワイヤレスLAN等で定められた規格に基づいて行う。   Note that image data acquired by photographing as described above can be transmitted to the outside of the camera by the print signal output means 15a or the wireless communication unit 15b. The wireless communication unit 15b is a member having a communication unit that enables wireless communication with a camera or the like having a system configuration similar to or similar to the camera according to the present embodiment (system configuration including the wireless communication unit 15b). is there. Therefore, for example, the wireless communication unit 15b can transmit and receive image data and the like. Note that actual communication is performed based on, for example, a standard defined by a wireless LAN or the like.

なお、本実施形態に係るカメラでは、マイク10bが更に設けられており、このマイク10bにより取得された音声信号である音声データも、上記画像データと同様に上記信号処理回路12にて信号圧縮処理等が行われ、メモリ14に記録される。なお、このメモリ14は、送信用メモリ14b(詳細は後述)を含む。   In the camera according to the present embodiment, a microphone 10b is further provided, and audio data that is an audio signal acquired by the microphone 10b is also subjected to signal compression processing by the signal processing circuit 12 in the same manner as the image data. And the like are recorded in the memory 14. The memory 14 includes a transmission memory 14b (details will be described later).

なお、上記画像データ及び上記音声データの処理時または記録時等においては、種々の演算を行うために、RAM(Random Access Memory)16に適宜データが格納される。   Note that data is appropriately stored in a RAM (Random Access Memory) 16 in order to perform various calculations during processing or recording of the image data and the audio data.

そして、画像データ等を表示させる手段として、LCD(Liquid Crystal Display)等からなる表示手段18が設けられている。すなわち、上記のように撮像素子10aで取得した画像データを、上記表示手段18に逐次再生表示させることが出来る。つまり、ユーザーは、上記表示手段18を参照して上記被写体8の変化状態を確認しながら撮影を行うことが出来る。また、上記音声データの音声再生を行う為のスピーカ18aも設けられている。さらに、上記音声データの音声再生の際には、上記メモリ14内に記録された上記音声データは、上記信号処理回路12に読み出された後、スピーカ18aにより出力され音声再生される。   As a means for displaying image data or the like, a display means 18 including an LCD (Liquid Crystal Display) or the like is provided. That is, the image data acquired by the image sensor 10a as described above can be sequentially reproduced and displayed on the display means 18. That is, the user can take a picture while checking the state of change of the subject 8 with reference to the display means 18. In addition, a speaker 18a for performing voice reproduction of the voice data is also provided. Furthermore, when the audio data is reproduced, the audio data recorded in the memory 14 is read out by the signal processing circuit 12 and then output from the speaker 18a to be reproduced.

また、上記画像データの再生表示の際には、上記メモリ14内に圧縮して記録された上記画像データは、上記信号処理回路12に読み出され、更に伸張処理等が施された後、上記表示手段18に再生表示される。   When the image data is reproduced and displayed, the image data compressed and recorded in the memory 14 is read out by the signal processing circuit 12 and further subjected to expansion processing, etc. Reproduced and displayed on the display means 18.

さらに、本実施形態に係るカメラには、撮影日時を示す日時情報を取得する機能及び時間計測のタイマ機能を有する時計手段20が設けられている。この時計手段20によって取得された日時情報は、例えば撮影により取得した画像データと対応付けされて、上記メモリ14に記録される。また、上記タイマ機能によれば、例えば撮影動作における露出の時間、動画の撮影時間、及び所定のタイミングの間隔等を計時することができる。   Furthermore, the camera according to the present embodiment is provided with a clock means 20 having a function of acquiring date / time information indicating the shooting date / time and a timer function of time measurement. The date and time information acquired by the clock means 20 is recorded in the memory 14 in association with image data acquired by photographing, for example. Further, according to the timer function, for example, the exposure time, the moving image shooting time, and the predetermined timing interval in the shooting operation can be measured.

また、当該カメラの位置を示す位置情報を検出する為に、例えばGPS(Global Positioning System)等からなる位置検出手段22が設けられている。この位置検出手段22により、画像データ等の撮影位置を示す位置情報を取得することができる。また、上記画像データと上記位置情報とを対応付けして、上記メモリ14に記録することができる。   Further, in order to detect position information indicating the position of the camera, position detecting means 22 comprising, for example, a GPS (Global Positioning System) is provided. With this position detection means 22, position information indicating the shooting position such as image data can be acquired. Further, the image data and the position information can be associated with each other and recorded in the memory 14.

以上、説明の便宜の為に、静止画像の画像データの取得及び処理等を想定して本実施形態に係るカメラのシステム構成を説明したが、動画データも上述の構成により通常行われている手法を用いて取得できるのは勿論である。なお、動画データと音声データとは通常一体のデータとして扱われており、本実施形態においても、動画データに関する各種処理においては、該動画データに対応する音声データも適宜同様に処理されるものとする。   As described above, for convenience of explanation, the system configuration of the camera according to the present embodiment has been described assuming acquisition and processing of image data of still images, but moving image data is also normally performed by the above configuration. Of course, it can be obtained using Note that the moving image data and the audio data are normally handled as integral data, and in this embodiment, the audio data corresponding to the moving image data is also appropriately processed in various processes related to the moving image data. To do.

以下、図2乃至図5を参照して、従来の画像データ整理の手法と比較して、本実施形態に係るカメラによる画像データ整理の手法の概略を説明する。なお、図2は従来の画像データ整理の手法を示すフローチャートであり、図3は該フローチャートにおけるステップS104における実際の作業場面を示す図である。また、図4は本実施形態に係るカメラによる画像データ整理の手法の概略を示すフローチャートであり、図5(a)は該フローチャートにおけるステップS111における実際の作業場面、図5(b)は画像データ整理における画像データ並び替えの概念、図5(c)は画像データ並び替え後の表示の一例を示す図である。   Hereinafter, an outline of a method for organizing image data by the camera according to the present embodiment will be described with reference to FIGS. 2 to 5 in comparison with a conventional method for organizing image data. 2 is a flowchart showing a conventional image data organizing method, and FIG. 3 is a diagram showing an actual work scene in step S104 in the flowchart. 4 is a flowchart showing an outline of a method for organizing image data by the camera according to the present embodiment. FIG. 5A is an actual work scene in step S111 in the flowchart, and FIG. 5B is image data. The concept of rearranging image data in organizing, FIG. 5C is a diagram showing an example of display after rearranging image data.

例えば、二人のユーザー(ユーザーAさん30a、ユーザーBさん32b)が、それぞれカメラを一台づつ持って旅行に出かけ、旅先においてそれぞれが写真を撮る場合を考える。この場合に生じる問題点としては、第一に、ユーザーBさん32bはユーザーAさん30aの撮影した写真に写っており、同様にユーザーAさん30aはユーザーBさん32bの撮影した写真に写っている確率が高いという点である。そして第二に、例えばユーザーAさん30aが撮影した写真とユーザーBさん32bが撮影した写真とを、一つにまとめて時間の流れに沿って並べ替えてアルバムを作成しようとすると、日付けや時間等を参照したり、記憶を辿ったりしながら順次写真を並べ替えていかなければならなく、非常に時間が掛かる作業となる点である。   For example, consider a case where two users (user A 30a and user B 32b) go on a trip with one camera each and take a picture at the destination. As problems that occur in this case, first, the user B 32b is reflected in the photograph taken by the user A 30a, and similarly, the user A 30a is reflected in the photograph taken by the user B 32b. The probability is high. Secondly, for example, if an album is created by arranging the photos taken by the user A 30a and the photos taken by the user B 32b into one, and arranging them according to the flow of time, It is a very time consuming work because it is necessary to rearrange the pictures sequentially while referring to the time and the like and following the memory.

具体的には、従来の手法によれば、写真の整理(画像データの整理)においては図2に示すフローチャートの作業を行わなければならなかった。   Specifically, according to the conventional method, the operation of the flowchart shown in FIG. 2 has to be performed in organizing photographs (organizing image data).

すなわち、まずユーザーAさん30aとユーザーBさん32bは、それぞれ自分の撮影により取得した画像データをプリントアウトする(ステップS101)。つづいて、プリントアウトにより取得したお互いの写真を必要に応じて交換等の遣り取りをする(ステップS102)。次に、上記ステップS102により追加のプリントアウトの必要性が生じた画像データについては、更に追加のプリントアウトを行う(ステップS103)。その後、図3に示すようにユーザーAさん30a及びユーザーBさん32bが、それぞれ写真を並べ替える(ステップS104)ことでアルバムを作成する(ステップS105)。   That is, first, the user A 30a and the user B 32b print out the image data acquired by their own photography (step S101). Subsequently, exchanges are made as necessary between the photographs obtained by the printout (step S102). Next, additional printout is further performed for the image data in which the need for additional printout has occurred in step S102 (step S103). Thereafter, as shown in FIG. 3, user A 30a and user B 32b rearrange the photos (step S104) to create an album (step S105).

一方、本実施形態に係るカメラによる画像データ整理の手法は、その概略を示すと図4に示すフローチャートのような手法である。   On the other hand, the method of organizing image data by the camera according to the present embodiment is a method like the flowchart shown in FIG.

すなわち、図5(a)に示すように、まずユーザーAさん30aとユーザーBさん32bさんとが、それぞれ本実施形態に係るカメラA30,カメラB32に搭載された無線通信部15b(図1参照)を利用して、所望の画像データに対し、デジタルデータのまま交換等の遣り取りを行う(ステップS111)。その後、ユーザーAさん30a及びユーザーBさん32bが、それぞれ不要な画像データを削除し、且つ所望の順番に並び替える(ステップS112)。そして、上記ステップS112で並び替えた画像データを、適当なレイアウトで配置し、プリントアウト等してアルバムとする(ステップS113)。   That is, as shown in FIG. 5A, first, the user A 30a and the user B 32b are respectively connected to the wireless communication unit 15b (see FIG. 1) mounted on the camera A30 and the camera B32 according to the present embodiment, respectively. Is used to exchange the desired image data as digital data as it is (step S111). Thereafter, user A 30a and user B 32b delete unnecessary image data and rearrange them in a desired order (step S112). Then, the image data rearranged in step S112 is arranged in an appropriate layout, printed out, etc., to form an album (step S113).

以下、上述した図4のような処理を実現するための本実施形態に係るカメラにおける動作制御を、図6A乃至図6Fに示すフローチャートを参照して説明する。なお、同フローチャートは、図1におけるMPU2による動作制御のフローチャートである。また、同フローチャートは、本実施形態に係るカメラのメインフローチャートであり、ユーザーにより不図示のPOWER SW(電源)がONされると自動的に起動される動作制御のフローチャートである。なお、ここでは、本実施形態に係るカメラを二台使用するカメラシステムを想定して説明するが、二台のカメラ(当該カメラでありユーザーAさんが使用するカメラA、及び他方のカメラでありユーザーBさんが使用するカメラB)の動作制御を示すフローチャートは同一であり、図6A乃至図6Fで示すフローチャートの処理が状況に応じて二台のカメラでそれぞれ行われるものである。そして、本実施形態においては、カメラAが撮影して取得する画像データを第一の画像データとし、カメラBが撮影して取得する画像データを第二の画像データとすると、これら第一の画像データ及び第二の画像データを以下のような表示制御により表示手段18に表示させる。   Hereinafter, operation control in the camera according to the present embodiment for realizing the processing as shown in FIG. 4 will be described with reference to the flowcharts shown in FIGS. 6A to 6F. The flowchart is a flowchart of operation control by the MPU 2 in FIG. The flowchart is a main flowchart of the camera according to the present embodiment, and is a flowchart of operation control that is automatically activated when a power switch (not shown) is turned on by a user. Here, the description will be made assuming a camera system using two cameras according to the present embodiment, but two cameras (the camera A used by the user A and the other camera, and the other camera). The flowcharts showing the operation control of the camera B) used by the user B are the same, and the processes of the flowcharts shown in FIGS. 6A to 6F are respectively performed by the two cameras depending on the situation. In the present embodiment, if the image data captured and acquired by the camera A is the first image data, and the image data captured and acquired by the camera B is the second image data, these first images Data and second image data are displayed on the display means 18 by the following display control.

まず、ユーザーAさんが上記操作部材2aを操作して、当該カメラAを撮影モード、画像交換モード、第一再生モード(詳しくは後述)、及び第二再生モード(詳しくは後述)のうち何れかのモードに設定する。   First, the user A operates the operation member 2a to change the camera A to any one of a shooting mode, an image exchange mode, a first playback mode (details will be described later), and a second playback mode (details will be described later). Set the mode.

その後、上記MPU2は、設定されたモードが撮影モードであるか否かを判断する(ステップS1)。このステップS1にて、設定されたモードが撮影モードであると判断した場合は、ユーザーAさんによる上記操作部材2aの操作でレリーズ操作が行われたか否かを判断する(ステップS2)。   Thereafter, the MPU 2 determines whether or not the set mode is the shooting mode (step S1). If it is determined in step S1 that the set mode is the shooting mode, it is determined whether or not a release operation is performed by the operation of the operation member 2a by the user A (step S2).

上記ステップS2において、レリーズ操作が行われていないと判断した場合には、NOに分岐して上記ステップS1へ戻る。他方、上記ステップS2において、ユーザーAさんによりレリーズ操作が行われたと判断した場合、YESに分岐して撮影のステップを開始する。すなわち、ピント及び露出の調整を行い、通常行われている所定の撮影動作(詳細は省略する)を開始させる(ステップS3)。   If it is determined in step S2 that the release operation has not been performed, the process branches to NO and returns to step S1. On the other hand, if it is determined in step S2 that the release operation has been performed by the user A, the process branches to YES and the shooting step is started. That is, the focus and exposure are adjusted, and a predetermined normal photographing operation (details are omitted) is started (step S3).

そして、時計手段20を参照して日時情報を取得する(ステップS4)。つづいて、位置検出手段22にGPS情報を取得させる(ステップS5)。その後、上記ステップS3における撮影動作にて取得した画像データと、上記ステップS4で取得した日時情報及び上記ステップS5で取得したGPS情報とを対応付けして、例えば上記RAM16に記録する(ステップS6)。そして、メモリ14に上記各データを保存する。   Then, the date and time information is acquired with reference to the clock means 20 (step S4). Subsequently, the position detection means 22 is made to acquire GPS information (step S5). Thereafter, the image data acquired by the photographing operation in step S3, the date / time information acquired in step S4 and the GPS information acquired in step S5 are associated with each other and recorded in, for example, the RAM 16 (step S6). . Then, each data is stored in the memory 14.

その後、当該カメラAと画像データを無線通信により遣り取りするカメラBを利用しているユーザーBさんが写っている画像データである“カメラBユーザー画像データ(第二のカメラユーザー画像データ)”を設定する旨の操作が、ユーザーにより上記操作部材2aを用いて為されたか否かを判断する(ステップS7)。このステップS7をYESに分岐する場合は、当該画像データを上記カメラBユーザー画像データに設定する(ステップS8)。   After that, “Camera B user image data (second camera user image data)”, which is image data of user B who uses camera B that exchanges image data with camera A by wireless communication, is set. It is determined whether or not the user has performed an operation to do so using the operation member 2a (step S7). When step S7 is branched to YES, the image data is set as the camera B user image data (step S8).

上記ステップS7をNOに分岐する場合または上記ステップS8を経た後、ユーザーAさんによる上記操作部材2aの操作にて、撮影動作を終了させる操作が行われたか否かを判断する(ステップS9)。このステップS9において、撮影動作を終了させる操作が行われていないと判断した場合には、NOに分岐して上記ステップS2へ戻る。   When step S7 is branched to NO or after step S8, it is determined whether or not an operation for ending the photographing operation is performed by the operation of the operation member 2a by the user A (step S9). If it is determined in step S9 that an operation for ending the photographing operation has not been performed, the process branches to NO and returns to step S2.

上記ステップS9において、撮影動作を終了させる操作が行われたと判断した場合にはYESに分岐し、撮影動作を終了させる(ステップS10)。このステップS10の後、ユーザーAさんにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS11)。このステップS11で、不図示のPOWER SWがOFFされたと判断した場合は、当該カメラAをシャットダウンする。一方、上記ステップS11で、不図示のPOWER SWがOFFされていないと判断した場合はNOに分岐し、上記ステップS1へ戻る。   If it is determined in step S9 that an operation for ending the shooting operation has been performed, the process branches to YES and the shooting operation is ended (step S10). After step S10, it is determined whether or not a power switch (not shown) is turned off by the user A (step S11). If it is determined in step S11 that the power switch (not shown) has been turned off, the camera A is shut down. On the other hand, if it is determined in step S11 that the power switch (not shown) is not turned off, the process branches to NO and returns to step S1.

なお、以後の説明においては、上記したステップS1からステップS11までの処理はカメラB側においても実行されているものとする。   In the following description, it is assumed that the processing from step S1 to step S11 is also performed on the camera B side.

ところで、上記ステップS1において、当該カメラAが撮影モードに設定されていないと判断した場合は、再生モード(ここでは第一再生モード及び第二再生モードの総称とする)に設定されているか否かを判断する(ステップS20)。このステップS20で再生モードに設定されていないと判断した場合にはNOに分岐し、画像交換モードに入る。   By the way, if it is determined in step S1 that the camera A is not set to the shooting mode, it is determined whether or not the camera A is set to the playback mode (generally referred to here as the first playback mode and the second playback mode). Is determined (step S20). If it is determined in step S20 that the playback mode is not set, the process branches to NO and enters the image exchange mode.

上記ステップS20において、再生モードに設定されていないと判断した場合には、まず上記カメラBに画像データを送信する旨の操作が、ユーザーAさんによる上記操作部材2aの操作で行われたか否かを判断する(ステップS21)。   If it is determined in step S20 that the playback mode is not set, whether or not an operation for transmitting image data to the camera B is first performed by the user A operating the operation member 2a. Is determined (step S21).

上記ステップS21において、上記カメラBに画像データを送信する旨の操作が行われたと判断した場合はYESに分岐し、送信に先立ってユーザーAさんが所望の画像データを選択する為の選択画面を表示手段18に表示させ、ユーザーAさんが、表示手段18に表示される上記選択画面を参照しながら、カメラBに送信したい画像データを選択する(ステップS22)。なお、このステップS22における処理については、図9に示すフローチャートを参照して詳述する。   If it is determined in step S21 that an operation for transmitting image data to the camera B has been performed, the process branches to YES, and a selection screen for user A to select desired image data prior to transmission is displayed. Displayed on the display means 18, the user A selects image data to be transmitted to the camera B while referring to the selection screen displayed on the display means 18 (step S22). The process in step S22 will be described in detail with reference to the flowchart shown in FIG.

次に、画像データと共に送信すべき種々の情報、例えば実際に無線通信を行う際の時刻情報(現在時刻)や当該カメラAの機器に関する情報等を設定する(ステップS23)。   Next, various information to be transmitted together with the image data, for example, time information (current time) when actually performing wireless communication, information on the device of the camera A, and the like are set (step S23).

その後、ユーザーAさんによる上記操作部材2aの操作で、無線通信を開始させる旨の操作が行われたか否かを判断する(ステップS24)。このステップS24にて、無線通信を開始させる旨の操作が行われていないと判断した場合にはNOに分岐し、上記ステップS22へ戻る。   Thereafter, it is determined whether or not an operation for starting wireless communication has been performed by the operation of the operation member 2a by the user A (step S24). If it is determined in step S24 that an operation for starting wireless communication has not been performed, the process branches to NO, and the process returns to step S22.

上記ステップS24において、無線通信を開始させる旨の操作が行われたと判断した場合にはYESに分岐し、無線通信部15bによってカメラBとの無線通信を開始させ、その後通信状態が確立したか否かを判断する(ステップS25)。このステップS25において、通信状態が確立したと判断した場合はYESに分岐し、上記ステップS22で選択された画像データ、及び上記ステップS23で設定された各種データを、無線通信部15bにて、カメラBへ無線送信する(ステップS26)。   If it is determined in step S24 that an operation for starting wireless communication has been performed, the process branches to YES, wireless communication with the camera B is started by the wireless communication unit 15b, and then the communication state is established. Is determined (step S25). If it is determined in step S25 that the communication state has been established, the process branches to YES, and the image data selected in step S22 and the various data set in step S23 are transmitted to the camera by the wireless communication unit 15b. Wirelessly transmit to B (step S26).

一方、上記ステップS25において、通信状態が確立していないと判断した場合にはNOに分岐し、所定時間の経過を待って再び通信状態が確立したか否かを判断する(ステップS27)。このステップS27において通信状態が確立したと判断した場合にはYESに分岐し、上記ステップS26に進む。他方、上記ステップS27において通信状態が確立していないと判断した場合にはNOに分岐し、例えば表示手段18に、通信状態を確立できない旨の警告表示を表示させる(ステップS28)。   On the other hand, if it is determined in step S25 that the communication state has not been established, the process branches to NO, and it is determined whether the communication state has been established again after a predetermined time has elapsed (step S27). If it is determined in step S27 that the communication state has been established, the process branches to YES and proceeds to step S26. On the other hand, if it is determined in step S27 that the communication state has not been established, the process branches to NO, and for example, a warning display indicating that the communication state cannot be established is displayed on the display means 18 (step S28).

このステップS28の後、ユーザーAさんにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS29)。このステップS29で、不図示のPOWER SWがOFFされたと判断した場合はYESに分岐し、当該カメラAをシャットダウンする。一方、上記ステップS29で、不図示のPOWER SWがOFFされていないと判断した場合はNOに分岐し、上記ステップS1へ戻る。   After this step S28, it is determined whether or not the POWER SW (not shown) is turned off by the user A (step S29). If it is determined in this step S29 that a power switch (not shown) has been turned off, the process branches to YES and the camera A is shut down. On the other hand, if it is determined in step S29 that the power switch (not shown) is not turned off, the process branches to NO and returns to step S1.

ところで、上記ステップS21においてカメラBに画像データを送信する旨の操作が行われていないと判断した場合、または上記ステップS26における無線送信の処理を終えた後、上記カメラBへ、画像データの送信要求信号を送信するか否かを、ユーザーAさんによる上記操作部材2aの操作を検出して判断する(ステップS30)。このステップS30をNOに分岐する場合は、上記ステップS29へ進む。   By the way, when it is determined in step S21 that the operation for transmitting the image data to the camera B is not performed, or after the wireless transmission process in the step S26 is finished, the image data is transmitted to the camera B. Whether or not to transmit a request signal is determined by detecting the operation of the operation member 2a by the user A (step S30). When step S30 is branched to NO, the process proceeds to step S29.

一方、上記ステップS30をYESに分岐する場合は、カメラBへ送信要求信号を送信する(ステップS31)。そして、カメラBから送信されて来る画像データを受信する(ステップS32)。   On the other hand, when step S30 is branched to YES, a transmission request signal is transmitted to the camera B (step S31). Then, the image data transmitted from the camera B is received (step S32).

なお、カメラB側においては、上記ステップS31にて当該カメラAが送信した送信要求信号に従って所定の画像データを当該カメラAに送信する。ここで、カメラBのユーザーであるユーザーBさんは、特にカメラBの操作は行わないとする。   On the camera B side, predetermined image data is transmitted to the camera A according to the transmission request signal transmitted by the camera A in step S31. Here, it is assumed that the user B who is the user of the camera B does not particularly operate the camera B.

次に、上記ステップS32における受信が成功したか否かを判断する(ステップS33)。このステップS33において、受信が失敗したと判断した場合はNOに分岐し、所定時間の経過を待って受信処理を行い、再び受信できたか否かを判断する(ステップS34)。このステップS34をNOに分岐する場合は、受信不能の旨を示す警告表示を表示手段18に表示させ(ステップS35)、後述するステップS40へ進む。   Next, it is determined whether or not the reception in step S32 is successful (step S33). If it is determined in step S33 that the reception has failed, the process branches to NO, a reception process is performed after a lapse of a predetermined time, and it is determined whether or not the signal has been received again (step S34). When this step S34 is branched to NO, a warning display indicating that reception is impossible is displayed on the display means 18 (step S35), and the process proceeds to step S40 described later.

上記ステップS33または上記ステップS34において、受信が成功したと判断した場合には、当該カメラAにおいて画像データが受信されたときの受信時刻とカメラBから画像データが送信されたときの送信時刻とが略一致しているか否かを判断する(ステップS36)。なお、このステップS36における判断は、カメラBから画像データと共に送信されてきた送信時刻情報と、当該カメラAの時計手段20の出力とを比較参照して行う。   If it is determined in step S33 or step S34 that the reception is successful, the reception time when the image data is received by the camera A and the transmission time when the image data is transmitted from the camera B are determined. It is determined whether or not they substantially match (step S36). The determination in step S36 is made by comparing and referring to the transmission time information transmitted together with the image data from the camera B and the output of the clock means 20 of the camera A.

上記ステップS36において、受信時刻と送信時刻とが略一致していないと判断した場合にはNOに分岐し、カメラBから送信されてきた画像データに対応付けされた日時情報を補正する(ステップS37)。つまり、受信時刻と送信時刻とが略一致していない場合には、カメラAの時計手段で計時された時刻とカメラBの時計手段で計時された時刻とにずれがある場合である。この場合、当該カメラAにおける日時情報とカメラBにおける日時情報とにずれが生じるため、後述する画像データの並び替えの際に画像の順序が正しくなくなるおそれがあるので、受信した画像データに対応付けられた日時情報を受信時刻と送信時刻とのずれ量分だけ補正する。   If it is determined in step S36 that the reception time and the transmission time do not substantially match, the process branches to NO, and the date / time information associated with the image data transmitted from the camera B is corrected (step S37). ). That is, when the reception time and the transmission time do not substantially match, there is a difference between the time measured by the clock means of camera A and the time measured by the clock means of camera B. In this case, since the date and time information in the camera A and the date and time information in the camera B are misaligned, the order of the images may be incorrect when rearranging the image data to be described later. The received date / time information is corrected by the amount of deviation between the reception time and the transmission time.

上記ステップS36をYESに分岐する場合、または上記ステップS37における処理を経た後、カメラBから送信されてきた画像データを、表示手段18に表示させる(ステップS38)。このステップS38により、ユーザーAさんはカメラBから送信されてきた画像データを確認する。   When step S36 is branched to YES, or after the processing in step S37, the image data transmitted from the camera B is displayed on the display unit 18 (step S38). By this step S38, the user A confirms the image data transmitted from the camera B.

その後、ユーザーAさんは、操作部材2aにより上記ステップS38にて表示された画像データの中から、不要と思われる画像データを削除する操作を行う。この操作を受けてMPU2はユーザーAさんにより選択された不要な画像データをメモリ14から削除する(ステップS39)。このステップS39の後、ユーザーAさんにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS40)。このステップS40で、不図示のPOWER SWがOFFされたと判断した場合はYESに分岐し、当該カメラAをシャットダウンする。一方、上記ステップS40で、不図示のPOWER SWがOFFされていないと判断した場合は、上記ステップS1へ戻る。   Thereafter, the user A performs an operation of deleting image data that is considered unnecessary from the image data displayed in step S38 by the operation member 2a. In response to this operation, the MPU 2 deletes unnecessary image data selected by the user A from the memory 14 (step S39). After step S39, it is determined whether or not a power switch (not shown) is turned off by the user A (step S40). If it is determined in step S40 that a power switch (not shown) has been turned off, the process branches to YES and the camera A is shut down. On the other hand, if it is determined in step S40 that the power switch (not shown) is not turned off, the process returns to step S1.

ところで、上記ステップS20において再生モードに設定されていると判断した場合はYESに分岐し、第一再生モードに設定されているか否かを判断する(ステップS41)。このステップS41において第一再生モードに設定されていると判断した場合にはYESに分岐し、画像データを表示手段18に表示させる(ステップS42)。なお、このステップS42における画像データの表示形式は、例えば図7(b)に示すように、当該カメラA及びカメラBの二台のカメラで撮影された画像データを、撮影された時刻に合わせて時系列に順番に並べて表示させる。   If it is determined in step S20 that the playback mode is set, the process branches to YES, and it is determined whether the first playback mode is set (step S41). If it is determined in step S41 that the first reproduction mode is set, the process branches to YES, and the image data is displayed on the display means 18 (step S42). Note that the display format of the image data in step S42 is, for example, as shown in FIG. 7B, in accordance with the time when the image data captured by the two cameras A and B are captured. Display in chronological order.

その後、画像データの表示形式を切り換えるか否かを、ユーザーAさんによる上記操作部材2aの操作を検出して判断する(ステップS43)。このステップS43において、画像データの表示形式を切り換えると判断した場合にはYESに分岐し、例えば図7(a)に示すようなフル画面表示に切り換える。このフル画面表示は所定時間が経過する毎に、例えば時系列的に前の時刻に遡っていくように、次々と表示させる画像データを切り換えていくようにして行う(ステップS44)。このステップS44の後、全ての画像データについて表示を行ったか否かを判断する(ステップS45)。このステップS45をNOに分岐する場合は、上記ステップS43へ戻る。一方、上記ステップS45をYESに分岐する場合は、ユーザーAさんにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS46)。このステップS46で、不図示のPOWER SWがOFFされたと判断した場合はYESに分岐し、当該カメラAをシャットダウンする。一方、上記ステップS45で、不図示のPOWER SWがOFFされていないと判断した場合はNOに分岐し、上記ステップS42へ戻る。   Thereafter, whether or not to switch the display format of the image data is determined by detecting the operation of the operation member 2a by the user A (step S43). If it is determined in step S43 that the display format of the image data is to be switched, the process branches to YES, for example, to switch to a full screen display as shown in FIG. This full screen display is performed by switching the image data to be displayed one after another so as to go back to the previous time in time series, for example, every time a predetermined time elapses (step S44). After this step S44, it is determined whether or not all image data have been displayed (step S45). When step S45 is branched to NO, the process returns to step S43. On the other hand, when step S45 is branched to YES, it is determined whether or not a power switch (not shown) is turned off by the user A (step S46). If it is determined in step S46 that the POWER SW (not shown) has been turned off, the process branches to YES and the camera A is shut down. On the other hand, if it is determined in step S45 that the power switch (not shown) is not turned off, the process branches to NO and returns to step S42.

ところで、上記ステップS41において第一再生モードに設定されていないと判断した場合は第二再生モードに設定されていると判断してNOに分岐し、上記ステップS8のカメラBユーザー画像データの設定が既に行われているか否かを判断する(ステップS51)。   If it is determined in step S41 that the first playback mode is not set, it is determined that the second playback mode is set, and the process branches to NO, and the setting of the camera B user image data in step S8 is performed. It is determined whether it has already been performed (step S51).

なお、上記第二再生モードとは、例えば図8(a),(b)に示すように、どの画像データがどのカメラにより撮影して取得されたかを示して表示する再生モードである。ここで、図8(a)に示す表示形式は、撮影者を示す画像データ(それぞれのカメラで取得されるそれぞれのカメラのユーザーを写した画像データ)を、該撮影者の撮影した画像データと横並びにして表示させた表示形式である。また、図8(b)に示す表示形式は、撮影者を示す画像データを、該撮影者の撮影した画像データと横並びにし、且つ時系列に沿って並べた表示形式であり、どのユーザーがどの画像をいつ撮影したかを明示するような表示形式であるとも言える。   Note that the second reproduction mode is a reproduction mode in which, for example, as shown in FIGS. 8A and 8B, which image data is captured and acquired by which camera and displayed. Here, the display format shown in FIG. 8A is that the image data indicating the photographer (image data obtained by capturing the user of each camera acquired by each camera) is used as the image data captured by the photographer. This is a display format displayed side by side. The display format shown in FIG. 8B is a display format in which image data indicating a photographer is arranged side by side with the image data photographed by the photographer and arranged in time series. It can be said that the display format clearly shows when the image was taken.

ここで、図8(a),(b)に示す表示形式で特徴的なのは、それぞれのカメラのユーザーを示す画像データ(カメラAユーザー画像データ及びカメラBユーザー画像データ)と、それらの横に並ぶ画像データとは、同じ列に並んでいるのにも関わらず、それぞれの画像データを撮影して取得したカメラが異なるという点である。すなわち、図8(a),(b)に示すような表示を行う為には、上述したような本実施形態に係るカメラに特有の動作制御を行うことで、当該カメラAのユーザーであるユーザーAさん及びカメラBのユーザーであるユーザーBさんを示す画像データを予め取得しておく必要がある。   Here, what is characteristic of the display formats shown in FIGS. 8A and 8B are image data (camera A user image data and camera B user image data) indicating users of the respective cameras, and the images arranged side by side. The image data is that the cameras obtained by photographing each image data are different although they are arranged in the same column. That is, in order to perform the display as shown in FIGS. 8A and 8B, the user who is the user of the camera A by performing the operation control specific to the camera according to the present embodiment as described above. It is necessary to acquire in advance image data indicating the user A and the user B who is the user of the camera B.

すなわち、上記ステップS51においてカメラBユーザー画像データの設定が未だ行われていないと判断した場合にはNOに分岐し、その旨の警告表示を表示手段18に表示し、上記ステップS1へ戻る。なお、カメラBユーザー画像データの設定を行わせるための画面を表示させるようにしても良い。一方、上記ステップS51においてカメラBユーザー画像データの設定が既に行われたと判断した場合にはYESに分岐し、つづいて当該カメラAのユーザーである自分自身を示す画像データであるカメラAユーザー画像データ(第一のカメラユーザー画像データ。つまり、カメラBから送信されるカメラAのユーザーを写した画像データ)が取得されているか否かを判断する(ステップS53)。   That is, if it is determined in step S51 that the setting of the camera B user image data has not yet been performed, the process branches to NO, a warning display to that effect is displayed on the display means 18, and the process returns to step S1. A screen for setting the camera B user image data may be displayed. On the other hand, if it is determined in step S51 that the setting of the camera B user image data has already been performed, the process branches to YES, and then the camera A user image data, which is image data indicating itself as the user of the camera A. It is determined whether or not (first camera user image data. That is, image data showing the user of camera A transmitted from camera B) has been acquired (step S53).

上記ステップS53において、上記カメラAユーザー画像データが未だ設定されていないと判断した場合にはNOに分岐し、当該カメラAのユーザーAさんが操作部材2aを用いて行うカメラAユーザー画像データの設定の操作を検出し(ステップS54)、カメラAユーザー画像データの設定を行うか否かを判断する。   If it is determined in step S53 that the camera A user image data has not yet been set, the process branches to NO, and camera A user image data setting performed by the user A of the camera A using the operation member 2a. Is detected (step S54), and it is determined whether or not to set the camera A user image data.

上記ステップS54においてカメラAユーザー画像データの設定を行うと判断した場合にはYESに分岐し、ユーザーの操作に基づいてカメラAユーザー画像データの設定を行う(ステップS56)。一方、上記ステップS54においてカメラAユーザー画像データの設定を行わないと判断した場合にはNOに分岐し、カメラAユーザー画像データを送信するよう要請する旨の警告をカメラBに対して送信し(ステップS55)、上記ステップS1へ戻る。これにより、ユーザーBさんがカメラAユーザ画像データの設定をし忘れても、カメラAユーザ画像データの設定をするように促すことが可能である。   If it is determined in step S54 that camera A user image data is set, the process branches to YES, and camera A user image data is set based on a user operation (step S56). On the other hand, if it is determined in step S54 that the setting of the camera A user image data is not performed, the process branches to NO, and a warning requesting that the camera A user image data be transmitted is sent to the camera B ( Step S55), the process returns to step S1. Thus, even if the user B forgets to set the camera A user image data, it is possible to prompt the user to set the camera A user image data.

カメラAユーザー画像データ及びカメラAユーザー画像データの設定を終えた後、図8(a),(b)に示すように、カメラBユーザー画像データを表示画面中の左側上部に表示し(ステップS57)、カメラAユーザー画像データを表示画面中の左側下部に表示する(ステップS58)。   After setting the camera A user image data and the camera A user image data, as shown in FIGS. 8A and 8B, the camera B user image data is displayed on the upper left portion of the display screen (step S57). ), The camera A user image data is displayed in the lower left part of the display screen (step S58).

そして、図8(a),(b)に示すように、上記カメラBユーザー画像データの右側に、カメラBにて撮影して取得された画像データを並べて表示し(ステップS59)、上記カメラAユーザー画像データの右側に、当該カメラAにて撮影して取得された画像データを並べて表示する(ステップS60)。   Then, as shown in FIGS. 8A and 8B, the image data acquired by the camera B is displayed side by side on the right side of the camera B user image data (step S59). On the right side of the user image data, the image data acquired by the camera A is displayed side by side (step S60).

その後、図8(b)に示すように表示するか否か、すなわち時系列順に画像データを配置して表示するか否かを、ユーザーAさんが上記操作部材2aを操作して入力する。そして、該入力をMPU2が検出して、時系列順に画像データを配置して表示するか否かを判断する(ステップS61)。このステップS61において時系列順に画像データを配置して表示すると判断した場合にはYESに分岐し、時系列順に画像データを配置し直して、表示手段18に表示する(ステップS62)。   After that, the user A operates the operation member 2a to input whether or not to display as shown in FIG. 8B, that is, whether or not to display the image data in chronological order. Then, the MPU 2 detects the input, and determines whether or not the image data is arranged and displayed in chronological order (step S61). If it is determined in step S61 that the image data is arranged and displayed in chronological order, the process branches to YES, and the image data is rearranged in chronological order and displayed on the display means 18 (step S62).

上記ステップS61をNOに分岐する場合または上記ステップS62を経た後、次の表示候補画像データに表示切り換えを行うか否かをユーザーAさんが上記操作部材2aを操作して入力する。そして、該入力をMPU2が検出して、未だ表示手段18に表示がなされていない次の表示候補画像データに表示切り換えを行うか否かを判断する(ステップS71)。このステップS71において次の表示候補画像データに表示切り換えを行うと判断した場合にはYESに分岐し、どのような画像データを次の表示候補画像データとするかを、ユーザーAさんが上記操作部材2aを操作して選択する。そして、該入力をMPU2が検出して、次の表示候補画像データを指定する(ステップS72)。このステップS72を経た後は、上記ステップS59へ戻る。   When step S61 is branched to NO or after step S62, the user A operates the operation member 2a to input whether or not to switch display to the next display candidate image data. Then, the MPU 2 detects the input, and determines whether or not to switch the display to the next display candidate image data not yet displayed on the display means 18 (step S71). If it is determined in step S71 that the display is switched to the next display candidate image data, the process branches to YES, and the user A determines what image data is the next display candidate image data. Operate 2a to select. The MPU 2 detects the input and designates the next display candidate image data (step S72). After step S72, the process returns to step S59.

また、上記ステップS71において次の表示候補画像データに表示切り換えを行わないと判断した場合にはNOに分岐し、ユーザーAさんにより不図示のPOWER SWがOFFされたか否かを判断する(ステップS73)。このステップS73で、不図示のPOWER SWがOFFされたと判断した場合はYESに分岐し、当該カメラAをシャットダウンする。一方、上記ステップS73で、不図示のPOWER SWがOFFされていないと判断した場合はNOに分岐し、上記ステップS59へ戻る。   If it is determined in step S71 that display switching is not performed for the next display candidate image data, the process branches to NO, and it is determined whether or not a power switch (not shown) is turned off by the user A (step S73). ). If it is determined in step S73 that a power switch (not shown) has been turned off, the process branches to YES and the camera A is shut down. On the other hand, if it is determined in step S73 that the power switch (not shown) is not turned off, the process branches to NO and returns to step S59.

以下、図9に示すフローチャートを参照して、上記ステップS22における画像選択の処理のサブルーチンを説明する。   Hereinafter, the subroutine of the image selection process in step S22 will be described with reference to the flowchart shown in FIG.

まず、図10に示すように、画像データを表示手段18に一覧表示させる(ステップS81)。このとき、図10に示すように表示画面を“候補の画像データ表示部18A”と“選択された画像データ表示部18B”とに分けて表示させる。   First, as shown in FIG. 10, a list of image data is displayed on the display means 18 (step S81). At this time, as shown in FIG. 10, the display screen is divided into “candidate image data display portion 18A” and “selected image data display portion 18B”.

その後、ユーザーAさんによる操作部材2aの操作で、画面切り換えの操作が行われたか否かを判断する(ステップS82)。なお、この“画面切り換え”とは、上記候補の画像データ表示部18Aに表示された画像データの中に、選択したい画像データがない場合に、ユーザーにより行われる操作である。   Thereafter, it is determined whether or not a screen switching operation has been performed by the operation of the operation member 2a by the user A (step S82). The “screen switching” is an operation performed by the user when there is no image data to be selected in the image data displayed on the candidate image data display unit 18A.

上記ステップS82をYESに分岐する場合、次の候補の画像データを、表示手段18における上記候補の画像データ表示部18Aに表示させる(ステップS83)。上記次の候補の画像データは、どのような基準で選択してもよい。他方、上記ステップS82をNOに分岐する場合、下記のステップS85へ進む。   When step S82 is branched to YES, the next candidate image data is displayed on the candidate image data display unit 18A of the display means 18 (step S83). The next candidate image data may be selected by any criteria. On the other hand, when the step S82 is branched to NO, the process proceeds to the following step S85.

上述のようにして表示手段18における上記候補の画像データ表示部18Aの一覧表示を参照しながら、ユーザーAさんは、上記操作部材2aを操作して、例えば図10に示すように枠表示(同図における最上段及び最下段における左端の表示画像参照)、を所望の画像データに重ね合わせて、カメラBに送信したい画像データを選択する。そして、MPU2は、ユーザーAさんにより画像データ選択の操作が行われたか否かを判断する(ステップS85)。   While referring to the list display of the candidate image data display unit 18A on the display unit 18 as described above, the user A operates the operation member 2a to display a frame (for example, as shown in FIG. 10). The image data to be transmitted to the camera B is selected by superimposing the uppermost image and the leftmost display image in the lower image in FIG. Then, the MPU 2 determines whether or not an operation for selecting image data has been performed by the user A (step S85).

上記ステップS85において、ユーザーAさんにより画像データ選択の操作が行われたと判断した場合は上記ステップS85をYESに分岐し、上記ステップS85にて選択された画像データを、カメラBに送信する画像データのみを記録する上記送信用メモリ14bに記録する(ステップS86)。そして、上記ステップS85において、ユーザーAさんにより選択された画像データを、上記選択された画像データ表示部18Bへ表示させる(ステップS87)。   If it is determined in step S85 that the user A has performed an image data selection operation, step S85 is branched to YES, and the image data selected in step S85 is transmitted to the camera B. Is recorded in the transmission memory 14b for recording only (step S86). In step S85, the image data selected by the user A is displayed on the selected image data display unit 18B (step S87).

一方、上記ステップS85において、ユーザーAさんにより画像データ選択の操作が行われていないと判断した場合にはNOに分岐し、ユーザーAさんにより選択操作を終了させる操作が行われたか否かを、上記操作部材2aの操作状態を検出して判断し(ステップS88)、選択操作を終了させないと判断した場合にはステップS88をNOに分岐し、上記ステップS81へ戻る。また、上記ステップS88において、選択操作を終了させると判断した場合にはYESに分岐し、それまでに選択された画像データを表示手段18に一覧表示させた(ステップS89)後、図6Bに示すフローチャートへ戻る。   On the other hand, if it is determined in step S85 that the operation for selecting image data is not performed by the user A, the process branches to NO, and whether or not the operation for ending the selection operation is performed by the user A. The operation state of the operation member 2a is detected and determined (step S88). If it is determined not to end the selection operation, step S88 is branched to NO, and the process returns to step S81. If it is determined in step S88 that the selection operation is to be terminated, the process branches to YES, and the image data selected so far is displayed as a list on the display means 18 (step S89), and then shown in FIG. 6B. Return to the flowchart.

なお、例えば上記ステップS86においてカメラBに送信する画像データのみを記録する上記送信用メモリ14bに記録する際に、画像データの圧縮率を上げたり、または間引き処理等を行って、通信における負荷を軽減させる措置をとっても勿論よい。更に、オリジナルの画像データではない旨を、当該画像データに電子透かしの技術等にて入れ込むことも可能である。いずれにしろ、カメラBに送信する画像データは、上記ステップS86において上記送信用メモリ14bに記録する為、送信処理を失敗した場合には、送信用メモリ14bに記録されている画像データを送信すれば良く、再度、上記ステップS81乃至上記ステップS89の処理を行う必要はなくなる。   For example, when recording in the transmission memory 14b, which records only the image data to be transmitted to the camera B in the step S86, the compression rate of the image data is increased or a thinning process is performed to reduce the communication load. Of course, measures to reduce this may be taken. Furthermore, it is possible to insert information indicating that the image data is not original image data into the image data using a digital watermark technique or the like. In any case, since the image data to be transmitted to the camera B is recorded in the transmission memory 14b in the step S86, if the transmission processing fails, the image data recorded in the transmission memory 14b is transmitted. There is no need to perform the processing from step S81 to step S89 again.

以上説明したように、本実施形態によれば、複数のカメラによる多数の画像データを、当該カメラAでまとめて且つ鑑賞効果を考慮して整理するカメラを提供することができる。   As described above, according to the present embodiment, it is possible to provide a camera that organizes a large number of image data obtained by a plurality of cameras by the camera A and considering the viewing effect.

例えば、二人がそれぞれ本実施形態に係るカメラを持って旅行に行ったときに撮影して取得した画像データを、撮影者毎に整理してまとめて一覧表示させることができる。   For example, it is possible to organize and display a list of image data obtained by photographing when two persons travel with a camera according to the present embodiment.

すなわち、例えば複数のユーザーがグループ旅行に行った場合、帰りの移動中にそれぞれのユーザーが取得した画像データを1つの電子アルバムとして整理してまとめることが出来る。したがって、現在行われているように、旅行から帰ってから改めてプリントアウトした画像データを見ながら順番を考えてアルバムに整理するようなことは必要なくなる。   That is, for example, when a plurality of users go on a group trip, the image data acquired by each user during the return trip can be organized as one electronic album. Therefore, as is currently done, it is not necessary to organize the album into an album considering the order while looking at the image data printed out after returning from the trip.

また、複数のユーザーにより取得された画像データは、上述のようにユーザー別に表示される為、画像データの表示時に画像データが誰により撮影された画像データであるかが分かるので、撮影技術を競い合ったり表現力を高める為に切磋琢磨することができ、また互いの視点の違いを確認することもできる。これにより、例えば子供の運動会で、父親と母親とがそれぞれ本実施形態に係るカメラを一台づつ使用して撮影した場合、画像データの再生表示の際に自分の子供を見る視点の違いを知って楽しむことができる。   In addition, since image data acquired by a plurality of users is displayed for each user as described above, it is possible to know who the image data was captured when displaying the image data. You can work hard to improve your expressive power, and you can also check the differences between each other's viewpoints. As a result, for example, when a father and his mother photograph each camera according to the present embodiment at a children's athletic meet, they know the difference in the viewpoint of viewing their children when playing back and displaying image data. Can enjoy.

なお、説明の便宜上、本実施形態に係るカメラを二台使用した場合を例にこれまで説明したが、本実施形態に係るカメラを三台以上使用してもよいことは勿論である。その場合の動作制御等は、上述した本実施形態に係るカメラを二台使用した場合の動作制御等から容易に推測可能であることは言うまでも無い。   For convenience of explanation, the case where two cameras according to this embodiment are used has been described as an example, but it is needless to say that three or more cameras according to this embodiment may be used. Needless to say, the operation control and the like in that case can be easily estimated from the operation control and the like when two cameras according to the present embodiment are used.

以上、一実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形及び応用が可能なことは勿論である。例えば、上述した例は画像データの並び換えを撮影日時情報の順に行っているが、位置検出手段22で検出したGPS情報を利用して並び換えを行うようにしても良い。   As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to embodiment mentioned above, Of course, a various deformation | transformation and application are possible within the range of the summary of this invention. is there. For example, in the above-described example, rearrangement of image data is performed in the order of shooting date and time information. However, rearrangement may be performed using GPS information detected by the position detection unit 22.

[第一変形例]
例えば、図6Aに示すフローチャートにおける上記ステップS1の前に、図11に示すフローチャート(後述するステップS91乃至ステップS99)を挿入することで、上記カメラAユーザー画像データ及び上記カメラBユーザー画像データを確実に設定しておくことが出来る。
[First modification]
For example, by inserting the flowchart shown in FIG. 11 (steps S91 to S99 described later) before the step S1 in the flowchart shown in FIG. 6A, the camera A user image data and the camera B user image data are surely obtained. Can be set.

まず、上記カメラAユーザー画像データ及び上記カメラBユーザー画像データの設定が済んでいるか否かを判断する(ステップS91)。このステップS91において上記カメラAユーザー画像データ及び上記カメラBユーザー画像データが設定済みであると判断した場合にはYESに分岐し、図6Aに示すフローチャートにおける上記ステップS1へ戻る。   First, it is determined whether the camera A user image data and the camera B user image data have been set (step S91). If it is determined in step S91 that the camera A user image data and the camera B user image data have been set, the process branches to YES, and the process returns to step S1 in the flowchart shown in FIG. 6A.

上記ステップS91で上記カメラAユーザー画像データ及び上記カメラBユーザー画像データが設定済みでないと判断した場合にはNOに分岐し、上記無線通信部15bに、上記カメラBとの無線通信を開始させる(ステップS92)。   If it is determined in step S91 that the camera A user image data and the camera B user image data have not been set, the process branches to NO, and the wireless communication unit 15b starts wireless communication with the camera B ( Step S92).

その後、通信状態が確立したか否かを判断する(ステップS93)。このステップS93において通信状態が確立したと判断した場合はYESに分岐し、“撮影&送受信処理”を行う(ステップS96)。この“撮影&送受信処理”では、図12に示すようにユーザーAさん30aとユーザーBさん32bとが、互いを撮影しあう。そして、当該カメラA30では、この撮影により取得した画像データを上記送信用メモリ14bに記録した後、該画像データをカメラB32に送信する。そして、さらにカメラB32では、カメラB32が撮影した当該カメラA30のカメラAユーザー画像データを当該カメラA30に送信し、当該カメラA30はこのカメラAユーザー画像データを受信する。   Thereafter, it is determined whether or not a communication state has been established (step S93). If it is determined in step S93 that the communication state has been established, the process branches to YES, and "shooting & transmission / reception processing" is performed (step S96). In this “photographing & transmission / reception process”, as shown in FIG. 12, user A 30a and user B 32b shoot each other. Then, the camera A30 records the image data acquired by the shooting in the transmission memory 14b, and then transmits the image data to the camera B32. Further, the camera B32 transmits the camera A user image data of the camera A30 taken by the camera B32 to the camera A30, and the camera A30 receives the camera A user image data.

一方、上記ステップS93において、通信状態が確立していないと判断した場合にはNOに分岐し、所定時間の経過を待って再び通信状態が確立したか否かを判断する(ステップS94)。このステップS94において通信状態が確立したと判断した場合にはYESに分岐し、上記ステップS96に進む。他方、上記ステップS94において通信状態が確立していないと判断した場合にはNOに分岐し、表示手段18に、通信状態を確立できない旨の警告表示を表示させる(ステップS95)。そして、図6AのフローチャートにおけるステップS1に戻る。   On the other hand, if it is determined in step S93 that the communication state has not been established, the process branches to NO, and it is determined whether the communication state has been established again after a predetermined time has elapsed (step S94). If it is determined in step S94 that the communication state has been established, the process branches to YES and proceeds to step S96. On the other hand, if it is determined in step S94 that the communication state is not established, the process branches to NO, and a warning display indicating that the communication state cannot be established is displayed on the display unit 18 (step S95). And it returns to step S1 in the flowchart of FIG. 6A.

上記ステップS96における処理の後、表示手段18に、図13に示すような“マルチ表示画面”を表示させる(ステップS97)。この“マルチ表示画面”とは、上記ステップS96において撮影して取得したカメラBユーザー画像データと、カメラB32から送信されて取得したカメラAユーザー画像データとを、例えば図13に示すように表示手段18に同時に表示させる表示画面のことである。   After the processing in step S96, a “multi-display screen” as shown in FIG. 13 is displayed on the display means 18 (step S97). The “multi-display screen” is a display means for displaying the camera B user image data acquired by photographing in step S96 and the camera A user image data transmitted and acquired from the camera B32 as shown in FIG. 18 is a display screen that is simultaneously displayed on the screen.

ここで、上記ステップS97における“マルチ表示画面”の表示中において、例えばユーザーAさん30aが適当なタイミングでレリーズ操作を行うと、上記ステップS96において撮影して取得したカメラBユーザー画像データをカメラBユーザー画像データとして、且つカメラB32から送信されて取得したカメラAユーザー画像データをカメラAユーザー画像データとして設定して記録する処理である“カメラAユーザー画像データ及びカメラBユーザー画像データ設定処理”が開始される。   Here, for example, when the user A 30a performs a release operation at an appropriate timing while the “multi-display screen” is displayed in step S97, the camera B user image data captured and acquired in step S96 is captured by the camera B. “Camera A user image data and camera B user image data setting process”, which is a process for setting and recording camera A user image data acquired as a user image data and transmitted from camera B 32 as camera A user image data, Be started.

したがって、上記ステップS97における処理の後、ユーザーによりレリーズ操作が行われたか否かを判断し(ステップS98)、ここでレリーズ操作が行われたと判断した場合にはYESに分岐し、上記“カメラAユーザー画像データ及びカメラBユーザー画像データ設定処理”を行う(ステップS99)。   Therefore, after the process in step S97, it is determined whether or not the release operation has been performed by the user (step S98). If it is determined that the release operation has been performed, the process branches to YES, and the “camera A” "User image data and camera B user image data setting process" is performed (step S99).

上記ステップS98において、ユーザーによりレリーズ操作が行われていないと判断した場合にはNOに分岐し、及び上記ステップS99において上記“カメラAユーザー画像データ及びカメラBユーザー画像データ設定処理”を行った後、無線通信部15bにカメラB32との無線通信を終了させる操作が、ユーザーによる上記操作部材2aの操作で行われたか否かを判断する(ステップS100)。このステップS100において、カメラB32との無線通信を終了させる操作が行われたと判断した場合は、図6Aに示すフローチャートのステップS1へ戻る。一方、ステップS100において、カメラB32との無線通信を終了させる操作が行われていないと判断した場合には、上記ステップS96へ戻る。   If it is determined in step S98 that the release operation is not performed by the user, the process branches to NO, and after performing the “camera A user image data and camera B user image data setting process” in step S99. Then, it is determined whether or not the operation for causing the wireless communication unit 15b to end the wireless communication with the camera B32 is performed by the operation of the operation member 2a by the user (step S100). If it is determined in step S100 that an operation for ending wireless communication with the camera B32 has been performed, the process returns to step S1 of the flowchart shown in FIG. 6A. On the other hand, if it is determined in step S100 that the operation for ending the wireless communication with the camera B32 has not been performed, the process returns to step S96.

以上説明したように、本第一変形例によれば上記一実施形態に係るカメラと同様の効果を奏する上に、以下のような効果を奏する。すなわち、本変形例では予めカメラAユーザー画像データ及びカメラBユーザー画像データを確実に設定しておく為、その後の動作制御をよりスムーズに行うことができる。また、上述したように、非常に容易な操作にて、カメラAユーザー画像データ及びカメラBユーザー画像データをまとめて設定できる。   As described above, according to the first modification, in addition to the same effects as those of the camera according to the one embodiment, the following effects can be obtained. That is, in this modified example, since the camera A user image data and the camera B user image data are reliably set in advance, the subsequent operation control can be performed more smoothly. Further, as described above, the camera A user image data and the camera B user image data can be set together by a very easy operation.

[第二変形例]
本変形例においては、例えば図15に示すように、ユーザー100は、例えばタッチパネル形式にて、表示手段18に表示させた所望の画像データに対して、コメント等を書き込むことができる。このことは、図9に示す上記ステップS22における画像選択の処理のサブルーチンを、図14に示すフローチャートのように変形することにより可能となる。
[Second modification]
In this modification, for example, as shown in FIG. 15, the user 100 can write a comment or the like on the desired image data displayed on the display unit 18 in a touch panel format, for example. This can be achieved by modifying the image selection processing subroutine in step S22 shown in FIG. 9 as shown in the flowchart of FIG.

なお、図9に示すフローチャートにおける処理のうち、ステップS81乃至ステップS85は、図9に示すフローチャートにおけるステップS81乃至ステップS85と同様の処理である為、ここでは説明を省略する。   Of the processes in the flowchart shown in FIG. 9, steps S81 to S85 are the same processes as steps S81 to S85 in the flowchart shown in FIG.

まず、上記ステップS85において、ユーザーAさんにより画像データ選択の操作が行われていないと判断した場合はNOに分岐し、ユーザーAさんにより選択操作を終了させる操作が行われたか否かを、上記操作部材2aの操作状態を検出して判断し(ステップS206)、選択操作を終了させないと判断した場合には、上記ステップS81へ戻る。また、上記ステップS206において、選択操作を終了させると判断した場合にはYESに分岐し、図6Bに示すフローチャートへ戻る。   First, in step S85, if it is determined that the operation for selecting image data is not performed by the user A, the process branches to NO, and whether or not the operation for ending the selection operation is performed by the user A. The operation state of the operation member 2a is detected and determined (step S206). If it is determined not to end the selection operation, the process returns to step S81. If it is determined in step S206 that the selection operation is to be terminated, the process branches to YES and returns to the flowchart shown in FIG. 6B.

一方、上記ステップS85において、ユーザーAさんにより画像データ選択の操作が行われたと判断した場合にはYESに分岐し、上記ステップS85で選択された画像データを表示手段18に拡大表示させる(ステップS207)。   On the other hand, if it is determined in step S85 that the user A has performed an image data selection operation, the process branches to YES, and the image data selected in step S85 is enlarged and displayed on the display unit 18 (step S207). ).

その後、例えば図15に示すようにユーザーAさん30aによりタッチパネル形式にて書き込まれたコメントを、上記ステップS207にて拡大表示されている画像データに合成する(ステップS208)。なお、タッチパネルとしては、例えば既に広く利用されている、ペン先が発光するタッチペン50を用いて、受光素子を多数埋め込んだ光検知パネルを有する表示手段18上に書き込む形式等が挙げられる。   Thereafter, for example, as shown in FIG. 15, the comment written by the user A 30a in the touch panel format is combined with the image data enlarged and displayed in step S207 (step S208). As the touch panel, for example, a format that is already widely used and written on the display means 18 having a light detection panel in which a large number of light receiving elements are embedded using the touch pen 50 that emits light from the pen tip can be used.

そして、このステップS208で合成した画像データを、送信用メモリ14bに記録する(ステップS209)。その後、図6Bに示すフローチャートへ戻る。   Then, the image data synthesized in step S208 is recorded in the transmission memory 14b (step S209). Thereafter, the process returns to the flowchart shown in FIG. 6B.

以上説明したように、本変形例によれば、上記一実施形態に係るカメラと同様の効果を奏する上に、以下の効果を奏する。すなわち、本変形例によれば画像データに対してユーザーAさんによるコメントが付加される為、画像データの鑑賞をより楽しいものにすることができる。また、上記コメントは、画像データが誰により撮影されたかを判断する指標ともなり得る。   As described above, according to this modification, in addition to the same effects as the camera according to the above-described embodiment, the following effects can be obtained. That is, according to the present modification, the comment by the user A is added to the image data, so that viewing of the image data can be made more enjoyable. In addition, the comment can be an index for determining who imaged the image data.

さらに、上記ステップS208において、ユーザーAさんがコメントとして、画像データの送信先の人(例えば上記ユーザーBさん)の名前等を書くとそれをMPU2が識別して候補となる送信先を選択し、画像データ送信時の送信先設定等を簡単にすることも考えられる。   Furthermore, in the above step S208, when the user A writes the name of the person to whom the image data is transmitted (for example, the user B) as a comment, the MPU 2 identifies it and selects a candidate transmission destination. It may be possible to simplify the transmission destination setting at the time of image data transmission.

なお、上記ステップS208におけるコメントの入力は、上述したようにタッチパネル形式を採らなくとも、図16に示すように紙等にユーザーAさんが手書きで書いたコメント110を当該カメラA30にて撮影し、この撮影によって入力された手書きコメントを画像データに合成することで行ってもよい。   Note that the input of the comment in step S208 does not take the touch panel format as described above, and the camera 110 captures the comment 110 handwritten by the user A on paper or the like as shown in FIG. You may carry out by combining the handwritten comment input by this imaging | photography with image data.

また、上述した実施形態においてカメラ間の通信は、撮影及び再生処理を行う為の回路である上記信号処理回路12を用いて上記無線通信部15bによって行っているが、用いる回路としては上記信号処理回路12に限られない。すなわち、通信処理を行う為の回路を別途設けて、通信処理とその他の処理とを並行して実行できるようにしても良い。このような構成とした場合、回路の規模は大きくなるが、より高速且つ使用状況によらずに常時通信要求に対応する構成とすることができる。   In the above-described embodiment, communication between cameras is performed by the wireless communication unit 15b using the signal processing circuit 12 which is a circuit for performing shooting and reproduction processing. The circuit 12 is not limited. That is, a circuit for performing communication processing may be provided separately so that communication processing and other processing can be executed in parallel. In such a configuration, the circuit scale increases, but it is possible to have a configuration that responds to a constant communication request at a higher speed and irrespective of the usage status.

さらには、上記メモリ14は、カメラに着脱可能に構成されたメモリカードでもよく、またカメラに内蔵されたメモリとしても勿論よい。なお、上述した実施形態においては、受信により取得した画像データは上記メモリ14に保存したが、SDRAMに保存するようにしても構わない。このようにする場合、保存期間は限られてしまうが、撮影後すぐに送受信を行う場合には支障がなく、メモリアクセス時間を高速にすることができる。   Furthermore, the memory 14 may be a memory card configured to be detachable from the camera, or may be a memory built in the camera. In the above-described embodiment, the image data acquired by reception is stored in the memory 14, but may be stored in the SDRAM. In this case, the storage period is limited, but there is no problem when transmission / reception is performed immediately after shooting, and the memory access time can be increased.

なお、通信状態が確立したか否かの確認は、単純な通信プロトコルの確認のみでもよく、各機種の識別情報やセキュリティ情報に応じて判断するように既知の通信技術を利用しても良い。   Note that the confirmation of whether or not the communication state has been established may be only a simple confirmation of the communication protocol, or a known communication technique may be used so as to make a determination according to the identification information and security information of each model.

さらに、上述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の一実施形態に係るカメラのシステム構成を示すブロック図。1 is a block diagram showing a system configuration of a camera according to an embodiment of the present invention. 従来の画像データ整理の手法を示すフローチャート。The flowchart which shows the method of the conventional image data rearrangement. 図2に示すフローチャートにおける一場面を示す図。The figure which shows the one scene in the flowchart shown in FIG. 本発明の一実施形態に係るカメラによる画像データ整理の手法の概略を示すフローチャート。2 is a flowchart showing an outline of a technique for organizing image data by a camera according to an embodiment of the present invention. (a)は図4に示すフローチャートにおける一場面、(b)は画像データ整理における画像データ並び替えの概念、(c)は画像データ並び替え後の表示の一例を示す図。(A) is one scene in the flowchart shown in FIG. 4, (b) is a concept of image data rearrangement in image data arrangement, and (c) is a diagram showing an example of display after image data rearrangement. 本発明の一実施形態に係るカメラのメインフローチャートの第一部分。The 1st part of the main flowchart of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラのメインフローチャートの第二部分。The 2nd part of the main flowchart of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラのメインフローチャートの第三部分。The 3rd part of the main flowchart of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラのメインフローチャートの第四部分。The 4th part of the main flowchart of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラのメインフローチャートの第五部分。The 5th part of the main flowchart of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラのメインフローチャートの第六部分。The 6th part of the main flowchart of the camera which concerns on one Embodiment of this invention. (a)は、フル画面表示にて画像データを表示する表示手段を示す図。(b)は、当該カメラ及びカメラB32の二台のカメラで撮影された画像データを、撮影された時刻に合わせて時系列に順番に並べて表示する表示手段を示す図。(A) is a figure which shows the display means which displays image data by a full screen display. (B) is a figure which shows the display means which arranges and displays the image data image | photographed with the two cameras of the said camera and camera B32 in order in time series according to the image | photographed time. (a)は撮影者を示す画像データを、該撮影者の撮影した画像データと横並びにして表示させた表示形式で表示する表示手段を示す図。(b)は撮影者を示す画像データを、該撮影者の撮影した画像データと横並びにし、且つ時系列に沿って並べた表示形式で表示する表示手段を示す図。(A) is a figure which shows the display means which displays the image data which shows a photographer in the display format displayed alongside the image data which this photographer imaged. FIG. 6B is a diagram showing display means for displaying image data indicating a photographer in a display format that is arranged side by side with the image data photographed by the photographer and arranged in time series. 画像選択の処理のサブルーチンを示すフローチャート。The flowchart which shows the subroutine of the process of an image selection. 画像データを一覧表示する表示手段を示す図。The figure which shows the display means which displays a list of image data. カメラAユーザー画像データ及びカメラBユーザー画像データを確実に設定しておく為の動作制御を示すフローチャート。The flowchart which shows the operation control for setting camera A user image data and camera B user image data reliably. 互いを撮影しあう様子を示す図。The figure which shows a mode that mutually image | photographs each other. マルチ表示画面時の表示手段の一例を示す図。The figure which shows an example of the display means at the time of a multi display screen. 画像選択の処理の変形例のサブルーチン示すフローチャート。The flowchart which shows the subroutine of the modification of the process of an image selection. タッチパネル形式にて表示手段上に書き込みを行う様子を示す図。The figure which shows a mode that it writes in on a display means in a touchscreen format. 紙等にユーザーが手書きで書いたコメントを当該カメラにて撮影する様子を示す図。The figure which shows a mode that the comment which the user wrote on paper etc. by handwriting is image | photographed with the said camera.

符号の説明Explanation of symbols

2…MPU、 4…動作制御プログラム、 6…撮影レンズ、 8…被写体、 10…AFE回路、 10a…撮像素子、 10b…マイク、 12…信号処理回路、 12a…処理補助ブロック、 14…メモリ、 14b…送信用メモリ、 15a…プリント信号出力手段、 15b…無線通信部、 16…RAM、 18…表示手段、 18a…スピーカ、 18A,18B…画像データ表示部、 20…時計手段、 22…位置検出手段。     DESCRIPTION OF SYMBOLS 2 ... MPU, 4 ... Operation control program, 6 ... Shooting lens, 8 ... Subject, 10 ... AFE circuit, 10a ... Image sensor, 10b ... Microphone, 12 ... Signal processing circuit, 12a ... Processing auxiliary block, 14 ... Memory, 14b ... Memory for transmission, 15a ... Print signal output means, 15b ... Wireless communication section, 16 ... RAM, 18 ... Display means, 18a ... Speaker, 18A, 18B ... Image data display section, 20 ... Clock means, 22 ... Position detection means .

Claims (3)

画像を表示する表示部と、
日時情報を生成する計時部と、
撮影により上記画像を取得した際に、上記画像と、上記撮影時点の日時情報である撮影日時情報と、を対応付けする撮影日時情報対応付け部と、
撮影により上記画像を取得した際に、上記画像と、当該カメラに係る情報であるカメラ情報と、を対応付けするカメラ情報対応付け部と、
当該カメラとは異なるカメラである第二のカメラと通信により画像の送受信を行う通信部と、
上記第二のカメラによって送信され、当該カメラの上記通信部によって受信した画像のうち、当該カメラのユーザを被写体とする画像であるユーザ画像データを取得したか否かを、当該カメラにおけるユーザ画像データの設定の有無に基づいて判断する判断部と、
上記第二のカメラのユーザを被写体とする画像を、当該カメラの操作部材の操作に基づいて、第二のカメラユーザ画像データとして特定する特定部と、
上記判断部によって上記画像が当該カメラのユーザを被写体とする画像であると判断された場合には、当該画像を、当該カメラのユーザを被写体とする画像であるユーザ画像データとして設定し、上記判断部によって上記画像が当該カメラのユーザを被写体とする画像ではないと判断された場合には、当該画像を、上記撮影日時情報及び上記カメラ情報に基づいて、上記ユーザ画像データとは別に並べ替えて上記表示部に表示させ、且つ、上記特定部によって上記第二のカメラユーザ画像データであると特定された画像の、上記表示部における表示位置を基準として、上記第二のカメラから受信した画像の並べ替えを行う表示制御部と、
を具備することを特徴とするカメラ。
A display for displaying an image;
A timekeeping unit that generates date and time information;
A shooting date and time information associating unit that associates the image with shooting date and time information that is date and time information at the time of shooting when the image is acquired by shooting;
A camera information associating unit for associating the image with camera information that is information related to the camera when the image is acquired by photographing;
A communication unit that transmits and receives images by communication with a second camera that is a camera different from the camera;
The user image data in the camera is acquired from the image transmitted by the second camera and received by the communication unit of the camera. A determination unit that makes a determination based on the presence or absence of the setting ,
A specifying unit that specifies an image of a user of the second camera as a subject based on an operation of an operation member of the camera as second camera user image data;
When the determination unit determines that the image is an image having the user of the camera as a subject, the image is set as user image data that is an image having the user of the camera as a subject. If the image is determined not to be an image having the user of the camera as the subject, the image is rearranged separately from the user image data based on the shooting date / time information and the camera information. The image received from the second camera on the basis of the display position on the display unit of the image displayed on the display unit and specified by the specifying unit as the second camera user image data. A display control unit for sorting,
A camera comprising:
上記第二のカメラは、上記送信時には、上記画像と共に送信時刻の日時情報を送信し、
上記表示制御部は、上記通信部による画像の受信時に、上記送信時刻の日時情報と、上記受信時の日時情報と、が略一致しているか否かを判定し、略一致していなければ、日時情報のズレを補正する日時情報補正部を含む
ことを特徴とする請求項1に記載のカメラ。
The second camera transmits date and time information of the transmission time together with the image during the transmission,
The display control unit determines whether the date and time information of the transmission time and the date and time information at the time of reception substantially match when the image is received by the communication unit. The camera according to claim 1, further comprising a date / time information correction unit that corrects a deviation of the date / time information .
上記日時情報補正部は、上記通信部による上記画像の受信時に、上記送信時刻の日時情報と、上記受信時の日時情報と、のズレに基づいて、上記第二のカメラから送信された上記画像に対応付けされた日時情報を補正する
ことを特徴とする請求項に記載のカメラ。
The date and time information correction unit is configured to transmit the image transmitted from the second camera based on a difference between the date and time information of the transmission time and the date and time information of the reception when the image is received by the communication unit. The camera according to claim 2 , wherein date and time information associated with the camera is corrected .
JP2006121070A 2006-04-25 2006-04-25 camera Expired - Fee Related JP4920295B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006121070A JP4920295B2 (en) 2006-04-25 2006-04-25 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006121070A JP4920295B2 (en) 2006-04-25 2006-04-25 camera

Publications (3)

Publication Number Publication Date
JP2007295289A JP2007295289A (en) 2007-11-08
JP2007295289A5 JP2007295289A5 (en) 2009-04-23
JP4920295B2 true JP4920295B2 (en) 2012-04-18

Family

ID=38765461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006121070A Expired - Fee Related JP4920295B2 (en) 2006-04-25 2006-04-25 camera

Country Status (1)

Country Link
JP (1) JP4920295B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523122B2 (en) 2009-03-16 2014-06-18 キヤノン株式会社 Image management apparatus, method and program
JP5289151B2 (en) * 2009-04-09 2013-09-11 キヤノン株式会社 Data management apparatus, control method thereof, and program
JP5634910B2 (en) * 2011-02-14 2014-12-03 シャープ株式会社 Portable information terminal device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209796A (en) * 2002-01-16 2003-07-25 Canon Inc Imaging apparatus, control method thereof, program and storage medium
JP2005260441A (en) * 2004-03-10 2005-09-22 Canon Inc Photographing apparatus
JP2006080670A (en) * 2004-09-07 2006-03-23 Canon Inc Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2007295289A (en) 2007-11-08

Similar Documents

Publication Publication Date Title
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP5235798B2 (en) Imaging apparatus and control method thereof
JP5265417B2 (en) Imaging apparatus and imaging control method
JP5401420B2 (en) Imaging device
JP2011071968A (en) Data structure of still image file, image file generating device, image reproducing unit, and electronic camera
US20130100329A1 (en) Image pickup apparatus
JP2005110097A (en) Imaging apparatus and image pickup method
US20070242149A1 (en) Image display control apparatus, method of controlling the same, and control program therefor
JP2006345296A (en) Image display device and sorting method
JP2011170194A (en) Photographing device and photographing control method
JP4986264B2 (en) External recording medium management apparatus, external recording medium management method, and program
JP2007159095A (en) Imaging apparatus
WO2007142237A1 (en) Image reproduction system, digital camera, and image reproduction device
JP4920295B2 (en) camera
JP4804141B2 (en) Imaging device
JP2009239486A (en) Imaging apparatus and method, program, and system
JP2004312218A (en) Digital camera and image reproducing apparatus
JP2011172092A (en) Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus
JP5369606B2 (en) Imaging device
JP2004363935A (en) Digital camera
JP6289037B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2007060432A (en) Digital camera
JP2010114708A (en) Camera device, photographing method, photographing control program
JP2010183216A (en) Photographing device, image reproducing device, and photographing result notifying method
JP2008005240A (en) Camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120201

R151 Written notification of patent or utility model registration

Ref document number: 4920295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees