JP2011172092A - Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus - Google Patents

Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus Download PDF

Info

Publication number
JP2011172092A
JP2011172092A JP2010035014A JP2010035014A JP2011172092A JP 2011172092 A JP2011172092 A JP 2011172092A JP 2010035014 A JP2010035014 A JP 2010035014A JP 2010035014 A JP2010035014 A JP 2010035014A JP 2011172092 A JP2011172092 A JP 2011172092A
Authority
JP
Japan
Prior art keywords
image
images
reproduction
imaging device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010035014A
Other languages
Japanese (ja)
Other versions
JP2011172092A5 (en
Inventor
Nobuhiro Fujinawa
展宏 藤縄
Setsu Mihashi
説 三橋
Masaichi Sekiguchi
政一 関口
Koji Kuriyama
孝司 栗山
Hiroto Nagamine
洋人 長嶺
Masao Takemoto
正生 竹本
Miki Sotoyama
幹 外山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010035014A priority Critical patent/JP2011172092A/en
Priority to US13/509,740 priority patent/US9055171B2/en
Priority to CN201410181952.8A priority patent/CN103945131B/en
Priority to PCT/JP2011/052282 priority patent/WO2011102232A1/en
Priority to CN201410199200.4A priority patent/CN103957356B/en
Priority to CN201911094088.7A priority patent/CN110825905A/en
Priority to CN201410462966.7A priority patent/CN104320571B/en
Priority to CN201410181935.4A priority patent/CN103945130B/en
Priority to CN201410181953.2A priority patent/CN103945132B/en
Priority to CN2011800101685A priority patent/CN102792672A/en
Priority to CN201911098602.4A priority patent/CN110798586A/en
Priority to CN201911039373.9A priority patent/CN110708466B/en
Publication of JP2011172092A publication Critical patent/JP2011172092A/en
Publication of JP2011172092A5 publication Critical patent/JP2011172092A5/en
Priority to US14/473,355 priority patent/US9167108B2/en
Priority to US14/621,971 priority patent/US9462141B2/en
Priority to US15/171,533 priority patent/US9888136B2/en
Priority to US15/852,750 priority patent/US10264146B2/en
Priority to US16/294,462 priority patent/US10764447B2/en
Priority to US16/932,158 priority patent/US11343387B2/en
Priority to US17/751,309 priority patent/US11882249B2/en
Priority to US18/386,928 priority patent/US20240064246A1/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To effectively reproduce a plurality of images which are cooperatively photographed. <P>SOLUTION: An image reproducing method executes: integration processing (S4) which, when reproducing a plurality of images which are photographed by a plurality of imaging apparatuses and in which information concerned with a photographing subject and photographing time information are recorded in each image, integrates the plurality of images photographed by the plurality of imaging apparatuses as an image group based on the information concerned with the photographing subject and the photographing time information; and reproduction processing (S6, S7) for reproducing the plurality of images included in the image group in the order of photographing time in accordance with the photographing time information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置に関する。   The present invention relates to an imaging apparatus, an image reproduction method, an image reproduction program, a recording medium on which an image reproduction program is recorded, and an image reproduction apparatus.

複数のカメラで協調撮影を行うようにしたカメラシステムが知られている(例えば、特許文献1参照)。   There is known a camera system that performs coordinated shooting with a plurality of cameras (for example, see Patent Document 1).

特開2001−008089号公報JP 2001-008089 A

しかしながら、上述した従来のカメラシステムでは、複数台のカメラで協調撮影した複数の画像を再生する方法についての開示はなく、協調撮影した複数の画像を効果的に再生することが望まれる。   However, in the conventional camera system described above, there is no disclosure of a method for reproducing a plurality of images photographed cooperatively by a plurality of cameras, and it is desired to effectively reproduce the plurality of images photographed cooperatively.

(1) 請求項1の発明は、撮像を行う撮像手段と、撮像を行う他の撮像機器と通信する通信手段と、通信手段を介して、他の撮像機器に撮影依頼を行うとともに、少なくとも撮影依頼により撮影した画像を保存する保存部作成依頼を行う依頼手段と、保存部作成依頼に関連して、撮像手段が撮像した画像を保存する保存部を作成する作成手段と、通信手段を介して、他の撮像装置が保存部作成依頼により作成した保存部に保存されている画像を取得する取得手段と、を備える撮像装置である。
(2) 請求項2の発明は、請求項1に記載の撮像装置において、取得手段は、取得した画像を作成手段が作成した保存部に保存する。
(3) 請求項3の発明は、請求項1または請求項2に記載の撮像装置において、取得手段は、画像を取得するときに、当該画像が撮影された時間情報を取得する。
(4) 請求項4の発明は、請求項3に記載の撮像装置において、画像を表示する表示部を有し、保存部に保存された画像を当該画像が撮像された時系列順に表示部に表示する制御部を備えた。
(5) 請求項5の発明は、請求項1から3のいずれか一項に記載の撮像装置において、画像を表示する表示部を有し、保存部に保存された画像を撮像手段により撮像された画像と、他の撮像機器により撮像された画像とに分別して表示部に表示する制御部を備えた。
(6) 請求項6の発明は、請求項1から3のいずれか一項に記載の撮像装置において、画像を表示する表示部と、保存部に保存された画像が人物画像かどうかを判定する判定手段と、判定手段の判定結果に応じて、表示部に画像を表示する。
(7) 請求項7の発明は、請求項1から3のいずれか一項に記載の撮像装置において、画像を表示する表示部と、保存部に保存された画像が風景画像かどうかを判定する判定手段と、判定手段の判定結果に応じて、表示部に画像を表示する。
(8) 請求項8の発明は、請求項1から7のいずれか一項に記載の撮像装置において、撮像手段と、他の撮像機器がほぼ同時刻に撮影した画像が保存部に保存されているときに、いずれか一方の画像を選択して表示部に表示させる選択手段を備えた。
(9) 請求項9の発明は、請求項8に記載の撮像装置において、ほぼ同時刻に撮影された画像を解析して輪郭抽出を行う輪郭抽出手段を備え、選択手段は、ほぼ同時刻に撮影された画像のうち、輪郭抽出手段により輪郭抽出量が多い画像を選択する。
(10) 請求項10の発明は、請求項8に記載の撮像装置において、ほぼ同時刻に撮影された画像を解析して笑顔度合いを検出する笑顔検出手段を備え、選択手段は、ほぼ同時刻に撮影された画像のうち、笑顔検出手段により笑顔度合いが多い画像を選択する。
(11) 請求項11の発明は、複数の撮像装置により撮影され、画像ごとに撮影相手に関する情報と撮影時刻情報とが記録された複数の画像を再生する画像再生方法であって、撮影相手に関する情報および撮影時刻情報に基づいて、複数の撮像装置により撮影された複数の画像を画像グループとして集約する集約処理と、撮影時刻情報にしたがって画像グループに含まれる複数の画像を撮影時刻の順に再生する再生処理とを実行する。
(12) 請求項12の発明は、請求項11に記載の画像再生方法において、再生処理は、画像グループに含まれる複数の画像の内、第1の撮像装置により撮像された画像を撮影時刻の順に再生した後、第2の撮像装置により撮像された画像を撮影時刻の順に再生する。
(13) 請求項13の発明は、請求項11に記載の画像再生方法において、画像グループに含まれる複数の画像が人物を対象として撮影された画像か否かを判定する判定処理を含み、再生処理は、判定処理において人物を対象として撮影された画像であると判定された場合は、画像グループに含まれる複数の画像の内、第1の撮像装置により撮像された画像を撮影時刻の順に再生した後、第2の撮像装置により撮像された画像を撮影時刻の順に再生し、判定処理において人物を対象として撮影された画像でないと判定された場合には、画像グループに含まれるすべての画像を撮影時刻の順に再生する。
(14) 請求項14の発明は、請求項11〜13のいずれか一項に記載の画像再生方法において、画像グループに含まれる複数の画像の中に略同時刻に撮影された画像が複数ある場合に、それらの内のいずれかを再生画像として選択する選択処理を含み、再生処理は、選択処理により選択された画像を再生する。
(15) 請求項15の発明は、請求項14に記載の画像再生方法において、画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して輪郭抽出を行う輪郭抽出処理を含み、選択処理は、略同時刻に撮影された複数の画像の内の輪郭抽出処理により輪郭抽出量が最多であるとされた画像を再生画像として選択する。
(16) 請求項16の発明は、請求項14に記載の画像再生方法において、画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して笑顔度合いを検出する笑顔検出処理を含み、選択処理は、略同時刻に撮影された複数の画像の内の笑顔検出処理により笑顔度合いが最高であるとされた画像を再生画像として選択する。
(17) 請求項17の発明は、請求項11〜16のいずれか一項に記載の画像再生方法におけるすべての処理をコンピューターに実行させる画像再生プログラムである。
(18) 請求項18の発明は、請求項17に記載の画像再生プログラムを記録した記録媒体である。
(19) 請求項19の発明は、請求項17に記載の画像再生プログラムを記録するメモリと、画像再生プログラムを実行するマイクロコンピューターとを備える画像再生装置である。
(1) According to the first aspect of the present invention, an imaging unit that performs imaging, a communication unit that communicates with another imaging device that performs imaging, and a photographing request to another imaging device via the communication unit, and at least imaging Via a requesting means for requesting creation of a storage unit for saving an image photographed by the request, a creation means for creating a storage unit for saving an image taken by the imaging means in relation to the request for creation of the saving part, and a communication means And an acquisition unit that acquires an image stored in a storage unit created by another storage device in response to a storage unit creation request.
(2) In the image pickup apparatus according to claim 1, the acquisition unit stores the acquired image in the storage unit generated by the generation unit.
(3) According to a third aspect of the present invention, in the imaging device according to the first or second aspect, when the acquisition unit acquires an image, the acquisition unit acquires time information when the image is captured.
(4) According to a fourth aspect of the present invention, in the imaging apparatus according to the third aspect, the image capturing apparatus includes a display unit that displays an image, and the images stored in the storage unit are displayed in the display unit in time series in which the images are captured. A control unit for displaying was provided.
(5) The invention of claim 5 is the imaging apparatus according to any one of claims 1 to 3, further comprising a display unit for displaying an image, wherein the image stored in the storage unit is captured by the imaging unit. And a control unit that separately displays the image and the image captured by another imaging device and displays the image on the display unit.
(6) The invention of claim 6 is the imaging device according to any one of claims 1 to 3, wherein a display unit for displaying an image and whether the image stored in the storage unit is a human image are determined. An image is displayed on the display unit according to the determination unit and the determination result of the determination unit.
(7) The invention according to claim 7 is the imaging device according to any one of claims 1 to 3, wherein the display unit that displays the image and whether the image stored in the storage unit is a landscape image are determined. An image is displayed on the display unit according to the determination unit and the determination result of the determination unit.
(8) According to an eighth aspect of the present invention, in the imaging apparatus according to any one of the first to seventh aspects, an image captured by the imaging means and another imaging device at approximately the same time is stored in the storage unit. Selection means for selecting one of the images and displaying the selected image on the display unit.
(9) The invention according to claim 9 is the imaging apparatus according to claim 8, further comprising contour extracting means for extracting a contour by analyzing an image photographed at substantially the same time, wherein the selecting means is substantially at the same time. Among the captured images, an image having a large contour extraction amount is selected by the contour extracting means.
(10) The invention according to claim 10 is the imaging apparatus according to claim 8, further comprising smile detection means for detecting a smile degree by analyzing an image photographed at substantially the same time, and the selection means is provided at substantially the same time. Among the images photographed at the same time, an image with a high smile level is selected by the smile detection means.
(11) The invention of claim 11 is an image reproduction method for reproducing a plurality of images which are photographed by a plurality of imaging devices and in which information relating to a photographing partner and photographing time information are recorded for each image, and relates to the photographing partner. Based on the information and the shooting time information, an aggregation process for aggregating a plurality of images shot by a plurality of imaging devices as an image group, and reproducing a plurality of images included in the image group in the order of the shooting time according to the shooting time information. Perform playback processing.
(12) In the image reproduction method according to claim 11, in the image reproduction method according to claim 11, in the reproduction process, an image captured by the first imaging device among a plurality of images included in the image group is set at a shooting time. After sequentially reproducing the images, the images captured by the second imaging device are reproduced in the order of the photographing times.
(13) The invention according to claim 13 includes the determination processing for determining whether or not the plurality of images included in the image group are images taken for a person in the image reproduction method according to claim 11. If it is determined in the determination process that the image is a photographed image of a person, images captured by the first image capturing device are reproduced in order of shooting time among a plurality of images included in the image group. After that, the images captured by the second imaging device are reproduced in the order of the shooting times, and when it is determined in the determination process that the images are not captured for a person, all the images included in the image group are displayed. Play back in order of shooting time.
(14) In the image reproduction method according to any one of claims 11 to 13, the invention according to claim 14 includes a plurality of images taken at substantially the same time among a plurality of images included in the image group. In some cases, it includes a selection process for selecting one of them as a reproduction image, and the reproduction process reproduces the image selected by the selection process.
(15) In the image reproduction method according to claim 14, the contour extraction is performed by analyzing a plurality of images photographed at substantially the same time among the plurality of images included in the image group. In the selection process, which includes a contour extraction process, an image having the largest amount of contour extraction by a contour extraction process among a plurality of images taken at substantially the same time is selected as a reproduction image.
(16) In the image reproduction method according to claim 14, the smile degree is detected by analyzing a plurality of images taken at substantially the same time among a plurality of images included in the image group. In the selection process, an image determined to have the highest smile degree by the smile detection process among a plurality of images photographed at approximately the same time is selected as a reproduced image.
(17) The invention according to claim 17 is an image reproduction program for causing a computer to execute all the processes in the image reproduction method according to any one of claims 11 to 16.
(18) The invention according to claim 18 is a recording medium on which the image reproduction program according to claim 17 is recorded.
(19) An invention according to claim 19 is an image reproducing device including a memory for recording the image reproducing program according to claim 17 and a microcomputer for executing the image reproducing program.

本発明によれば、複数の撮像装置で協調撮影した複数の画像を効果的に連続再生することができる。   According to the present invention, it is possible to effectively continuously reproduce a plurality of images that are cooperatively photographed by a plurality of imaging devices.

一実施の形態の電子カメラの構成を示すブロック図1 is a block diagram illustrating a configuration of an electronic camera according to an embodiment 一実施の形態の電子カメラの背面図Rear view of electronic camera of one embodiment 一実施の形態の電子カメラの操作メニュー画面例を示す図The figure which shows the example of an operation menu screen of the electronic camera of one embodiment 一実施の形態の電子カメラのペアリング成立条件設定画面例を示す図The figure which shows the pairing establishment condition setting screen example of the electronic camera of one embodiment 一実施の形態の電子カメラのペアリング人物設定画面例を示す図The figure which shows the example of a pairing person setting screen of the electronic camera of one embodiment 一実施の形態の電子カメラのフォルダ表示画面例を示す図The figure which shows the example of a folder display screen of the electronic camera of one embodiment 他の電子カメラのフォルダ表示画面例を示す図The figure which shows the example of a folder display screen of other electronic cameras 一実施の形態の電子カメラのサムネイル一覧表示例を示す図The figure which shows the example of a thumbnail list display of the electronic camera of one embodiment 一実施の形態の電子カメラの画像再生プログラムを示すフローチャートThe flowchart which shows the image reproduction program of the electronic camera of one embodiment

本願発明をデジタルスチルカメラ(以下、DSCまたは電子カメラと呼ぶ)の画像再生に適用した一実施の形態を説明する。この一実施の形態ではコンパクトタイプの電子カメラを例に挙げて説明するが、一眼レフレックスタイプや他の電子カメラであってもよい。図1は一実施の形態の電子カメラの構成を示すブロック図である。なお、電子カメラの画像再生に直接、関係のないカメラの機器および回路の図示と説明を省略する。   An embodiment in which the present invention is applied to image reproduction of a digital still camera (hereinafter referred to as DSC or electronic camera) will be described. In this embodiment, a compact type electronic camera will be described as an example. However, a single-lens reflex type or another electronic camera may be used. FIG. 1 is a block diagram illustrating a configuration of an electronic camera according to an embodiment. Note that illustration and description of camera devices and circuits that are not directly related to the image reproduction of the electronic camera are omitted.

図1において、電子カメラ1は撮影光学系11、撮像素子12、AFE(Analog Front End)回路13、画像処理回路14、スピーカ駆動回路15、スピーカ16、LCDモニタ17、RAM18、フラッシュメモリ19、CPU(マイクロコンピュータ)20、メモリカードインターフェース(I/F)21、通信制御回路22、操作部材23、姿勢センサ24、音声処理回路25、マイク26などを備えており、これらの機器および回路がバス27を介して接続されている。なお、メモリカードインターフェース21にはコネクタ(不図示)を介してメモリカード51が装着される。   In FIG. 1, an electronic camera 1 includes a photographing optical system 11, an image sensor 12, an AFE (Analog Front End) circuit 13, an image processing circuit 14, a speaker driving circuit 15, a speaker 16, an LCD monitor 17, a RAM 18, a flash memory 19, and a CPU. (Microcomputer) 20, memory card interface (I / F) 21, communication control circuit 22, operation member 23, attitude sensor 24, voice processing circuit 25, microphone 26, and the like. Connected through. A memory card 51 is attached to the memory card interface 21 via a connector (not shown).

撮影光学系11は単レンズとして図示しているが、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の撮像面上に結像させる。撮像素子12は受光面に複数の受光素子が二次元状に配列されたCMOSイメージセンサなどから構成され、撮影光学系11により結像された被写体像を光電変換してアナログ画像信号を出力する。   Although the photographing optical system 11 is illustrated as a single lens, the photographing optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the imaging surface of the image sensor 12. The image sensor 12 is composed of a CMOS image sensor or the like in which a plurality of light receiving elements are two-dimensionally arranged on the light receiving surface, and photoelectrically converts the subject image formed by the photographing optical system 11 and outputs an analog image signal.

AFE回路13はアナログ画像信号に対して相関二重サンプリングやゲイン調整などのアナログ処理を行うとともに、アナログ処理後の画像信号をデジタル画像データに変換する。画像処理回路14はデジタル画像データに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を施す。   The AFE circuit 13 performs analog processing such as correlated double sampling and gain adjustment on the analog image signal, and converts the image signal after the analog processing into digital image data. The image processing circuit 14 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, image compression processing, image expansion processing, etc.) on the digital image data.

スピーカ駆動回路15はCPU20から送出された音声データから操作音、注意音、音声メッセージなどの音声再生信号を生成し、スピーカ16を駆動して音声再生を行う。LCDモニタ17は液晶パネルにより構成され、CPU20からの指示に応じて画像や操作メニュー画面などを表示する。RAM18はCPU20のワークメモリとして使用されるとともに、画像処理回路14による画像処理の前工程や後工程でのデジタル画像データを一時的に記憶する。フラッシュメモリ19はCPU20に実行させるプログラム(後述する画像再生プログラムを含む)を記憶する他に、後述する参照用データを記憶する。   The speaker drive circuit 15 generates a sound reproduction signal such as an operation sound, a caution sound, and a voice message from the sound data sent from the CPU 20, and drives the speaker 16 to perform sound reproduction. The LCD monitor 17 is constituted by a liquid crystal panel, and displays an image, an operation menu screen, and the like according to an instruction from the CPU 20. The RAM 18 is used as a work memory for the CPU 20 and temporarily stores digital image data in the pre-process and post-process of image processing by the image processing circuit 14. The flash memory 19 stores reference data (to be described later) in addition to programs (including an image reproduction program to be described later) to be executed by the CPU 20.

CPU20は撮像、露出、焦点調節(AF)、画像表示などの電子カメラ1の各種動作を制御するとともに、後述する画像再生プログラムを実行して画像再生を制御する。この一実施の形態では、スルー画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式の焦点調節制御を行う。なお、スルー画像は、撮影指示前に撮像素子12によって所定の時間間隔(たとえば30コマ/毎秒)で繰り返し取得されるモニタ用画像である。   The CPU 20 controls various operations of the electronic camera 1 such as imaging, exposure, focus adjustment (AF), and image display, and controls image reproduction by executing an image reproduction program described later. In this embodiment, the focus adjustment control of the contrast detection method for obtaining the in-focus position of the focusing lens (not shown) based on the contrast information of the through image is performed. Note that the through image is a monitor image that is repeatedly acquired by the image sensor 12 at a predetermined time interval (for example, 30 frames / second) before a shooting instruction.

メモリカードインターフェース21はメモリカード51に対する画像や各種情報データの書き込みや、メモリカード51からの画像や各種情報データの読み込みを行う。この一実施の形態では半導体メモリを内蔵したメモリカード51を例に挙げて説明するが、画像と各種情報データを記録するあらゆる種類の記録媒体を用いることができる。   The memory card interface 21 writes images and various information data to the memory card 51 and reads images and various information data from the memory card 51. In this embodiment, a memory card 51 incorporating a semiconductor memory will be described as an example. However, any type of recording medium that records images and various types of information data can be used.

通信制御回路22は、アンテナ22aを介して他の電子カメラを含む外部機器との間で無線通信を行う。通信制御回路22はまた、人体を介して通信を行う人体通信機能を備える。具体的には、電子カメラ1の背面図2に示すように、電子カメラ1の筐体の上下左右の面においてそれぞれ送受信用電極22b〜22eが露出するように配設されている。電子カメラ1の使用者と、他の電子カメラの使用者とがそれぞれ少なくとも1つの送受信用電極に触れるように電子カメラ1を片手で把持し、両使用者が電子カメラ1を把持していない他方の手で互いに握手をすることによって人体および人体間の容量結合により閉回路が形成され、両人体をアンテナとして電子カメラ間の通信を行う(再表2006/054706号公報)。   The communication control circuit 22 performs wireless communication with an external device including another electronic camera via the antenna 22a. The communication control circuit 22 also has a human body communication function for performing communication through the human body. Specifically, as shown in the rear view 2 of the electronic camera 1, the transmission / reception electrodes 22 b to 22 e are respectively exposed on the upper, lower, left and right surfaces of the casing of the electronic camera 1. The user who holds the electronic camera 1 with one hand so that the user of the electronic camera 1 and the user of another electronic camera each touch at least one transmission / reception electrode, and the other user does not hold the electronic camera 1 By shaking hands with each other, a closed circuit is formed by capacitive coupling between the human body and the human body, and communication between the electronic cameras is performed using both human bodies as antennas (Re-Table 2006/054706).

操作部材23には、電子カメラの背面図2に示すように、レリーズボタン23a、ズームスイッチT23b、W23c、モードスイッチ23d、メニュースイッチ23e、削除スイッチ23f、十字スイッチ23g、OKスイッチ23hなどの各種スイッチ類が含まれる。操作部材23は使用者のモード切替え操作やメニュー選択操作など、操作部材23の操作に応じた信号をCPU20へ送出する。   The operation member 23 includes various switches such as a release button 23a, zoom switches T23b and W23c, a mode switch 23d, a menu switch 23e, a deletion switch 23f, a cross switch 23g, and an OK switch 23h, as shown in the rear view of the electronic camera. Includes. The operation member 23 sends a signal corresponding to the operation of the operation member 23 such as a user's mode switching operation or menu selection operation to the CPU 20.

なお、OKスイッチ23hは、ペアリング関係にある他の電子カメラのレリーズボタンとしても用いられる。ペアリング関係にある他の電子カメラにリモコン撮影モードが設定されている場合にOKスイッチ23hが押下操作されると、通信制御回路22を介してレリーズ信号が当該電子カメラに送られ、当該電子カメラで撮影動作が実行される。   The OK switch 23h is also used as a release button of another electronic camera that is in a pairing relationship. When the remote control shooting mode is set for another electronic camera in a pairing relationship, when the OK switch 23h is pressed, a release signal is sent to the electronic camera via the communication control circuit 22, and the electronic camera The shooting operation is executed.

姿勢センサ24は重力の方向を検出し、CPU20は姿勢センサ24により検出された重力方向により電子カメラ1の撮影姿勢を判定する。具体的には、電子カメラ1の縦位置および横位置の撮影姿勢のみならず、電子カメラ1の天地の向きも判定する。音声処理回路25はマイク26により集音した音声信号を増幅し、増幅後の信号をA/D変換回路(不図示)によってデジタル音声データに変換する。照明装置28は夜間等の撮影時に被写体を照明するための装置である。電源回路29は、電池52の電源電圧を所定電圧に変換して電子カメラ1のCPU20などの機器および回路へ供給する。レンズ駆動回路30は、撮影レンズ11のズームレンズを駆動して焦点距離を調節するとともに、撮影レンズ11のフォーカシングレンズを駆動して焦点調節を行う。   The posture sensor 24 detects the direction of gravity, and the CPU 20 determines the photographing posture of the electronic camera 1 based on the direction of gravity detected by the posture sensor 24. Specifically, not only the vertical and horizontal shooting postures of the electronic camera 1 but also the orientation of the top and bottom of the electronic camera 1 is determined. The audio processing circuit 25 amplifies the audio signal collected by the microphone 26 and converts the amplified signal into digital audio data by an A / D conversion circuit (not shown). The illumination device 28 is a device for illuminating a subject at the time of photographing at night or the like. The power supply circuit 29 converts the power supply voltage of the battery 52 into a predetermined voltage and supplies it to devices and circuits such as the CPU 20 of the electronic camera 1. The lens driving circuit 30 drives the zoom lens of the photographing lens 11 to adjust the focal length, and drives the focusing lens of the photographing lens 11 to adjust the focus.

電子カメラ1のCPU20は電子カメラ1と略同様の構成を有する他の電子カメラとの間で通信を行い、複数のカメラで協調撮影可能な状態(以下、ペアリング状態と呼ぶ)を確立する。具体的には、電子カメラ1および他の電子カメラの内の一方から他方へコマンドおよびデータを送信し、これを受信した電子カメラがコマンド送信元の電子カメラへ返信して通信を確立後、後述する所定の条件を満たすことによってペアリング状態を成立させる。   The CPU 20 of the electronic camera 1 communicates with another electronic camera having a configuration substantially similar to that of the electronic camera 1 and establishes a state (hereinafter referred to as a pairing state) in which cooperative shooting with a plurality of cameras is possible. Specifically, a command and data are transmitted from one of the electronic camera 1 and the other electronic camera to the other, and the electronic camera that has received the command returns to the electronic camera that is the command transmission source to establish communication, and will be described later. The pairing state is established by satisfying a predetermined condition.

このようなペアリングを行うペアリング撮影モードと、ペアリングを行わない通常撮影モードとは切り替え可能に構成される。このモード切り替えは、例えばモードスイッチ23dの押下操作に応じて切り替えてもよいし、メニュースイッチ23eの押下操作に応じて表示する「操作メニュー」画面の中で切り替えを行うようにしてもよい。   The pairing shooting mode in which such pairing is performed and the normal shooting mode in which pairing is not performed can be switched. This mode switching may be performed in accordance with, for example, a pressing operation of the mode switch 23d, or may be performed in an “operation menu” screen displayed in response to a pressing operation of the menu switch 23e.

この一実施の形態では、「通常」、「顔識別」、「握手」、「カメラタッチ」の4種類のペアリング成立条件の中から、使用者がいずれかを選択することができる。ペアリング成立条件を選択する処理は、他の電子カメラとの間で通信を行う前に、CPU20によって以下の手順で行われる。メニュースイッチ23eが押下操作されると、図3に示す「操作メニュー」画面をLCDモニタ17に表示する。「操作メニュー」には「登録撮影」項目171、「ペアリング成立条件設定」項目172、「ペアリングオフタイマー」項目173および「ペアリング人物設定」項目174が含まれる。「操作メニュー」画面を表示中に十字スイッチ23gが上下方向に押下操作されると、操作信号に応じて選択項目を上下に変更する。「ペアリング成立条件設定」項目172を選択した状態で十字スイッチ23gが右方向に押下操作されると、図4に示す「ペアリング成立条件設定」画面をLCDモニタ17に表示する。   In this embodiment, the user can select one of four types of pairing establishment conditions of “normal”, “face identification”, “handshake”, and “camera touch”. The process of selecting the pairing establishment condition is performed by the CPU 20 in the following procedure before communication with another electronic camera. When the menu switch 23 e is pressed, an “operation menu” screen shown in FIG. 3 is displayed on the LCD monitor 17. The “operation menu” includes a “registered photographing” item 171, a “pairing establishment condition setting” item 172, a “pairing off timer” item 173, and a “pairing person setting” item 174. When the cross switch 23g is pressed up and down while the “operation menu” screen is displayed, the selection item is changed up and down in accordance with the operation signal. When the cross switch 23g is pressed rightward with the “Pairing establishment condition setting” item 172 selected, the “Pairing establishment condition setting” screen shown in FIG. 4 is displayed on the LCD monitor 17.

図4において、4種類の「ペアリング成立条件」、すなわち「通常」項目176、「顔識別」項目177、「握手」項目178および「カメラタッチ」項目179が表示される。図4に示す画面を表示中に十字スイッチ23gが上下方向に押下操作されると、操作信号に応じて選択項目を上下に変更する。そして、十字スイッチ23gが右方向に押下操作されると、その時点において選択している項目をペアリング成立条件とする。   In FIG. 4, four types of “pairing establishment conditions”, that is, “normal” item 176, “face identification” item 177, “handshake” item 178 and “camera touch” item 179 are displayed. When the cross switch 23g is pressed down in the vertical direction while the screen shown in FIG. 4 is being displayed, the selection item is changed up or down in accordance with the operation signal. When the cross switch 23g is pressed rightward, the item selected at that time is set as a pairing establishment condition.

ペアリング成立条件が「通常」に設定された場合は、他の電子カメラとの間の通信確立を条件にペアリングを成立させる。通信制御回路22は、所定範囲(たとえば、10m)で通信を行うようにあらかじめ送信電力が設定されている。なお、この送信電力はメニュー操作によって例えば3m、50cmへ段階的に通信範囲を制限できるように構成されている。「通常」の条件でペアリングが成立した場合には、最初にコマンドおよびデータを送信した側の電子カメラを親機とし、それを受信した側の電子カメラを子機とする。   When the pairing establishment condition is set to “normal”, the pairing is established on the condition that communication with another electronic camera is established. The communication control circuit 22 has transmission power set in advance so as to perform communication within a predetermined range (for example, 10 m). The transmission power is configured so that the communication range can be limited stepwise to, for example, 3 m and 50 cm by menu operation. When pairing is established under the “normal” condition, the electronic camera on the side that transmitted the command and data first is the parent device, and the electronic camera on the side that has received the command is the child device.

また、ペアリング成立条件が「顔識別」に設定された場合には、他の電子カメラとの間の通信確立後、スルー画像に含まれる人物の顔を検出して所定人物の顔か否かを識別し、所定人物の顔が識別されたことを条件にペアリングを成立させる。「顔識別」の条件でペアリングが成立した場合には、顔識別を行った側の電子カメラを親機とし、顔識別された側の電子カメラを子機とする。   In addition, when the pairing establishment condition is set to “face identification”, after establishing communication with another electronic camera, the person's face included in the through image is detected to determine whether the face is a predetermined person's face. And pairing is established on the condition that the face of the predetermined person has been identified. When pairing is established under the condition of “face identification”, the electronic camera on the face identification side is set as a parent device, and the electronic camera on the face identification side is set as a child device.

ペアリングを成立させる所定人物の設定は、他の電子カメラとの間で通信を行う前に、あらかじめCPU20によって以下のように行われる。図3に示す「操作メニュー」画面を表示中に、「ペアリング人物設定」項目174を選択した状態で十字スイッチ23gが右方向に押下操作されると、図5に示す「ペアリング人物設定」画面をLCDモニタ17に表示する。そして、フラッシュメモリ19内に記録(登録)されているすべての参照用データの中から「顔」のサムネイル画像データを読み出し、当該サムネイル画像を表示する。参照用データは、「顔」のサムネイル画像データと、当該画像データに基づいて生成された特徴量データとを含む。特徴量データは、上記「顔識別」に用いられる。「顔識別」に用いる参照用データは、あらかじめフラッシュメモリ19内に記録(登録)されている。   The predetermined person who establishes the pairing is set in advance by the CPU 20 as follows before performing communication with another electronic camera. If the “Pairing person setting” item 174 is selected while the “operation menu” screen shown in FIG. 3 is being displayed and the cross switch 23g is pressed rightward, the “pairing person setting” shown in FIG. The screen is displayed on the LCD monitor 17. Then, the thumbnail image data of “face” is read from all the reference data recorded (registered) in the flash memory 19 and the thumbnail image is displayed. The reference data includes thumbnail image data of “face” and feature amount data generated based on the image data. The feature amount data is used for the “face identification”. The reference data used for “face identification” is recorded (registered) in the flash memory 19 in advance.

図5において、人物A、人物B、および人物Cについての「顔」のサムネイル画像がそれぞれ表示されている。各サムネイル画像の左側には、それぞれチェックボックスが表示される。たとえば、サムネイル画像171の左側にはチェックボックス172が表示される。   In FIG. 5, thumbnail images of “faces” for person A, person B, and person C are displayed. A check box is displayed on the left side of each thumbnail image. For example, a check box 172 is displayed on the left side of the thumbnail image 171.

「ペアリング人物設定」画面を表示中に十字スイッチ23gが上下方向に押下操作されると、操作信号に応じてカーソル173の表示位置を上下に移動する。OKスイッチ23hが押下操作された場合、カーソル173で囲まれているチェックボックス内にチェックマークを表示する。次に、チェックボックスにチェックマークを表示した状態でOKスイッチ23hが押下操作されると、当該チェックボックスのチェックマークを消す。そして、「ペアリング人物設定」画面の中でチェックマークで示されるサムネイル画像の「顔」を識別対象とする。   When the cross switch 23g is pressed up and down while the “Pairing person setting” screen is displayed, the display position of the cursor 173 is moved up and down in accordance with the operation signal. When the OK switch 23h is pressed, a check mark is displayed in the check box surrounded by the cursor 173. Next, when the OK switch 23h is pressed with the check mark displayed in the check box, the check mark in the check box is cleared. Then, the “face” of the thumbnail image indicated by the check mark in the “pairing person setting” screen is set as the identification target.

また、ペアリング成立条件が「握手」に設定された場合、他の電子カメラとの間の通信確立後、上記人体通信によるデータ受信を条件にペアリングを成立させる。上述したように、通信確立した電子カメラ1および他の電子カメラの双方の使用者どうしの握手により閉回路が形成され、電子カメラどうしが所定のデータを送受してペアリングを成立させる。「握手」の条件でペアリングが成立した場合には、握手による閉回路で最初にコマンドおよびデータを送信した側の電子カメラを親機とし、それを受信した側の電子カメラを子機とする。   Further, when the pairing establishment condition is set to “shake hands”, after establishing communication with another electronic camera, the pairing is established on the condition that the data reception by the human body communication is performed. As described above, a closed circuit is formed by the shaking hands of the users of both the electronic camera 1 and the other electronic cameras that have established communication, and the electronic cameras send and receive predetermined data to establish pairing. When pairing is established under the “shake hands” condition, the electronic camera on the side that first sent the command and data in the closed circuit by handshake is the parent device, and the electronic camera on the side that received it is the child device .

さらに、ペアリング成立条件が「カメラタッチ」に設定された場合、他の電子カメラとの間の通信確立後、電子カメラ間の直接接触を条件にペアリングを成立させる。上述したように、電子カメラ1の筐体の上下左右の面にはそれぞれ送受信用電極22b〜22eが露出して配設されている(図2参照)。電子カメラどうしがこれら送受信用電極22b〜22eのいずれかで直接接触する場合、人体を介する人体通信時に比べて閉回路のインピーダンスが低いため、大きな電流が流れる。通信制御回路22を通してこの信号電流の発生を検知することによって、電子カメラ相互の接触を判定する。なお、通信制御回路22は送受信用電極22b〜22eの内のどの電極で接触したかを特定してCPU20へ報知する。電子カメラどうしの接触した電極の位置関係に基づいて接触時にどちらの電子カメラが上側になっていたかを判定し、上側になっていた電子カメラを親機とし、下側になっていた電子カメラを子機とする。   Furthermore, when the pairing establishment condition is set to “camera touch”, after establishing communication with another electronic camera, the pairing is established on the condition that direct contact between the electronic cameras is established. As described above, the transmission / reception electrodes 22b to 22e are exposed on the upper, lower, left and right surfaces of the casing of the electronic camera 1 (see FIG. 2). When the electronic cameras are in direct contact with any of these transmission / reception electrodes 22b to 22e, a large current flows because the impedance of the closed circuit is lower than that during human body communication via the human body. By detecting the generation of this signal current through the communication control circuit 22, contact between the electronic cameras is determined. Note that the communication control circuit 22 identifies which electrode of the transmission / reception electrodes 22b to 22e is in contact with and notifies the CPU 20 of it. Based on the positional relationship of the electrodes touching each other, determine which electronic camera was on the upper side at the time of contact. The electronic camera that was on the upper side was the main unit, and the electronic camera that was on the lower side was A slave unit.

いずれかの条件でペアリングが成立した場合には、ペアリングにおける親機および子機はいずれも電子カメラのIDなどの識別情報によりペアリング相手を管理するとともに、親機の時刻に子機の時刻を合わせる時刻合わせを行う。   If pairing is established under any of the conditions, both the parent device and the child device in pairing manage the pairing partner based on identification information such as the ID of the electronic camera, and at the time of the parent device Set the time.

ペアリング成立中は、あらかじめ共有設定をしたファイルフォルダについて、その内容を相手側の電子カメラから無線通信を介して閲覧可能とする。図6は、「親機」であるXさんの電子カメラ1のLCDモニタ17に表示された「フォルダ表示」画面の例である。図6には自分(Xさん)のカメラ内のフォルダが表示されている。「自分のカメラ」側の「ペアフォルダ」は、ペアリング成立中にペアリング相手(本例では子機であるBさんの電子カメラ)に閲覧を許可するフォルダである。「自分のカメラ」側の「ペアフォルダ」内に記録されている画像ファイルは、無線通信を介して子機であるBさんの電子カメラから閲覧できる。   While pairing is being established, the contents of a file folder that has been previously set to be shared can be viewed from the other electronic camera via wireless communication. FIG. 6 is an example of a “folder display” screen displayed on the LCD monitor 17 of the electronic camera 1 of Mr. X who is the “master”. In FIG. 6, a folder in the camera of himself (Mr. X) is displayed. The “pair folder” on the “my camera” side is a folder that permits browsing to a pairing partner (in this example, Mr. B's electronic camera as a slave unit) while pairing is being established. The image file recorded in the “pair folder” on the “my camera” side can be viewed from the electronic camera of Mr. B who is the slave unit via wireless communication.

図6にはまた、子機であるBさんの電子カメラ内のフォルダも表示されている。「Bさんのカメラ」側の「ペアフォルダ」は、ペアリング成立中にペアリング相手(本例では親機であるXさんの電子カメラ)に閲覧を許可するフォルダである。   FIG. 6 also shows a folder in the electronic camera of Mr. B who is the slave unit. The “pair folder” on the “Mr. B's camera” side is a folder that permits browsing to the pairing partner (in this example, Mr. X's electronic camera, which is the parent device) during pairing establishment.

図7は、子機であるBさんの電子カメラのLCDモニタに表示された「フォルダ表示」画面の例である。図7には自分(Bさん)のカメラ内のフォルダが表示されている。「自分のカメラ」側の「ペアフォルダ」は、ペアリング成立中にペアリング相手(本例では親機であるXさんの電子カメラ)に閲覧を許可するフォルダである。「自分のカメラ」側の「ペアフォルダ」内に記録されている画像ファイルは、無線通信を介して親機であるXさんの電子カメラから閲覧できる。   FIG. 7 is an example of a “folder display” screen displayed on the LCD monitor of the electronic camera of Mr. B who is the slave. FIG. 7 shows a folder in the camera of the user (Mr. B). The “pair folder” on the “your camera” side is a folder that permits browsing to the pairing partner (in this example, the electronic camera of Mr. X, which is the parent device) while pairing is established. The image file recorded in the “pair folder” on the “my camera” side can be viewed from the electronic camera of Mr. X, which is the parent device, via wireless communication.

図7にはまた、親機であるXさんの電子カメラ1内のフォルダも表示されている。「Xさんのカメラ」側の「ペアフォルダ」は、ペアリング成立中にペアリング相手(本例では子機であるBさんの電子カメラ)に閲覧を許可するフォルダである。   FIG. 7 also shows folders in the electronic camera 1 of Mr. X who is the parent device. The “pair folder” on the “Mr. X's camera” side is a folder that permits browsing to the pairing partner (in this example, Mr. B's electronic camera, which is a slave unit) during pairing establishment.

なお、ペアホルダは、他の電子カメラとの間でペアリング関係が成立し、該電子カメラとペアリング撮影を行うごとに生成される。そのため、ペアホルダが複数組存在する場合も当然あり得る。複数のペアホルダにおいて、ペアリング相手が共通の場合もあるし異なる場合もあり、また同じペアリング相手であっても異なる撮影時刻(撮影年月日を含む)の場合もある。ペアホルダのプロパティには、ペアリング相手の識別情報、撮影時刻情報、フォルダ共有設定情報などが記録されている。   The pair holder is generated every time pairing photographing is performed with the electronic camera since a pairing relationship is established with another electronic camera. For this reason, there may naturally be cases where a plurality of pairs of holders exist. In a plurality of pair holders, a pairing partner may be common or different, and even with the same pairing partner, there may be different shooting times (including shooting dates). In the properties of the pair holder, identification information of the pairing partner, shooting time information, folder sharing setting information, and the like are recorded.

ペアリング成立中の電子カメラは、「自分のカメラ」側のすべてのフォルダと、ペアリング相手である「○○さんのカメラ」側の「ペアフォルダ」とを閲覧できる。フォルダ選択操作(十字スイッチ23gの押下操作で選択し、OKスイッチ23hの押下操作で決定)が行われた場合には、選択決定したフォルダ内の画像ファイルによるサムネイル画像をLCDモニタ17に表示する。   The paired electronic camera can view all the folders on the “My Camera” side and the “Pair Folder” on the “Mr. When a folder selection operation (selected by depressing the cross switch 23g and determined by depressing the OK switch 23h) is performed, thumbnail images of image files in the selected folder are displayed on the LCD monitor 17.

図8はサムネイル一覧表示例を示す図である。複数のサムネイルの内の1つにカーソル131が表示されている。カーソル位置はサムネイル選択操作(十字スイッチ23gの押下操作)で上下左右に移動自在である。OKスイッチ23hが押下操作された場合に、その時点でカーソルが位置するサムネイル画像に対応する再生画像をLCDモニタ17にフルスクリーン表示する。   FIG. 8 is a diagram showing a thumbnail list display example. A cursor 131 is displayed on one of the plurality of thumbnails. The cursor position can be moved up and down and left and right by a thumbnail selection operation (an operation of pressing the cross switch 23g). When the OK switch 23h is pressed, a playback image corresponding to the thumbnail image at which the cursor is positioned is displayed on the LCD monitor 17 in full screen.

次に、ペアリング時の撮影動作について説明する。ペアリング成立中にレリーズボタン23a(図2参照)の操作があると、CPU20は撮影動作を実行する。ペアリング撮影時には、ペアリング関係にある複数の電子カメラで同じ被写体を撮影するが、似たような画像にならないように互いに通信を行って撮影条件を少しずつ異ならせる。例えば、一方の電子カメラが広角に設定された場合には、他方の電子カメラを自動的に望遠に設定し、ズーム比がある程度異なるようにする。この場合、電子カメラどうしの通信によりズーム比の高いレンズを備えた電子カメラを望遠に設定し、より広角側の撮影が可能なレンズを備えた電子カメラを広角に設定する。そして、広角側の方が色情報が多いことから、ホワイトバランス制御は広角側の電子カメラの画像に基づいて行うとともに、その情報を望遠側の電子カメラにフィードバックし、共通のホワイトバランス制御を実行する。   Next, the photographing operation at the time of pairing will be described. If the release button 23a (see FIG. 2) is operated while pairing is established, the CPU 20 executes a photographing operation. At the time of pairing shooting, the same subject is shot by a plurality of electronic cameras that are in a pairing relationship, but the shooting conditions are changed little by little by communicating with each other so that similar images do not appear. For example, when one electronic camera is set to a wide angle, the other electronic camera is automatically set to telephoto so that the zoom ratio differs to some extent. In this case, an electronic camera provided with a lens with a high zoom ratio is set to telephoto by communication between the electronic cameras, and an electronic camera provided with a lens capable of photographing on the wider angle side is set to a wide angle. And since there is more color information on the wide-angle side, white balance control is performed based on the image of the wide-angle electronic camera, and that information is fed back to the electronic camera on the telephoto side to execute common white balance control To do.

また、ペアリング関係にある複数の電子カメラ間で感度とシャッター速度を制御し、一方の電子カメラに高速のシャッター速度を設定するとともに、他方の電子カメラに低速のシャッター速度を設定し、動きのある被写体などを異なる趣で同時に撮影する。ポートレート撮影では、ある程度異なるアングルから撮影できるように撮影のガイドを行う。すなわち、スルー画像において顔認識を行い、右斜め前と左斜め前、あるいは正面と横など、それぞれ異なるアングルとなるように音声およびモニタ画像によるガイダンスを行う。   It also controls sensitivity and shutter speed between multiple electronic cameras in a pairing relationship, sets a high shutter speed for one electronic camera, and sets a low shutter speed for the other electronic camera, Shoot a subject at the same time with different tastes. In portrait shooting, shooting guides are provided so that shooting can be performed from a somewhat different angle. That is, face recognition is performed on a through image, and guidance is performed using voice and monitor images so that the angles are different from each other, such as right front and left front, or front and side.

さらに、ペアリング撮影時にはペアリング関係にある複数の電子カメラ間で通信を行って相互に撮影を行う。つまり、互いに撮影時刻をずらして撮影を行うことで長時間の撮影を可能にする。動画撮影の場合には、一方の電子カメラで動画撮影を行った後、引き続いて他方の電子カメラで動画撮影を行うことによって、互いにキャッチボールしながら動画撮影を行い、撮影アングルの異なる動画を連続的に撮影することができる。同様に静止画撮影においても、一方の電子カメラで一枚または複数枚の静止画撮影を行った後、引き続いて他方の電子カメラで一枚または複数枚の静止画撮影を行うことによって、互いにキャッチボールをしながら複数枚の静止画撮影を行い、再生時に複数の電子カメラで撮影した一連の画像のスライドショーを提供することができる。   Further, at the time of pairing shooting, communication is performed between a plurality of electronic cameras in a pairing relationship and shooting is performed mutually. In other words, it is possible to shoot for a long time by shifting the shooting times to each other. In the case of movie shooting, after shooting a movie with one electronic camera and then shooting a movie with the other electronic camera, the movie is shot while catching each other, and videos with different shooting angles are continuously recorded. Can be taken. Similarly, in still image shooting, one or more still images are shot with one electronic camera, and then one or more still images are shot with the other electronic camera. A plurality of still images can be taken while playing a ball, and a slide show of a series of images taken by a plurality of electronic cameras during playback can be provided.

次に、CPU20はペアリング成立中に撮影した画像の記録動作を実行する。撮影処理前の情報および撮影処理で取得した画像データに基づいて、画像データおよび撮影情報を含むExif形式の画像ファイルを生成する。Exif形式の画像ファイルは、JPEG画像フォーマットの画像データ内にサムネイル画像や撮影情報などのデータを埋め込むようにしたものであり、この画像ファイルをメモリカード51へ記録する。   Next, the CPU 20 executes a recording operation of an image taken while pairing is established. An Exif format image file including the image data and the shooting information is generated based on the information before the shooting process and the image data acquired by the shooting process. The Exif format image file is obtained by embedding data such as thumbnail images and shooting information in image data in the JPEG image format, and this image file is recorded in the memory card 51.

Exif型式の画像ファイルの構造は、画像の付属情報を記録するヘッダ領域と撮影画像データを記録する画像データ領域とを有する。CPU20は、画像ファイル内のヘッダ領域(タグ領域)に、ペアリング成立中に撮影した画像であることを示す情報を記録する。ペアリング成立中に撮影した画像であることを示す情報は、ペアリングの相手の識別情報(カメラIDなど)および時刻合わせ後の計時に基づく撮影時刻情報を含む。なお、ペアリング成立中に撮影した画像であることを示す情報は、画像ファイルのヘッダ領域に記録する代わりに、画像ファイルに関連付けた別ファイルとして記録してもよい。   The structure of an Exif type image file has a header area for recording image auxiliary information and an image data area for recording captured image data. CPU20 records the information which shows that it is the image image | photographed during pairing establishment in the header area | region (tag area | region) in an image file. The information indicating that the image is captured while pairing is established includes identification information (camera ID, etc.) of the other party of the pairing and imaging time information based on time keeping after time adjustment. Note that the information indicating that the image was captured while pairing was established may be recorded as a separate file associated with the image file, instead of being recorded in the header area of the image file.

次に、ペアリング成立中に複数の電子カメラで撮影された画像の再生方法を説明する。なお、この一実施の形態では電子カメラ1で画像を再生する例を示すが、ペアリング状態で撮影された画像の再生は電子カメラ1に限定されず、ペアリング状態で撮影された画像をパーソナルコンピュータ(以下、PCという)へ転送してPC上で以下に説明する再生処理を実行してもよい。あるいはデジタルフォトフレーム(以下、DPFという)へ転送してDPF上で下記再生処理を実行してもよい。   Next, a method for reproducing images taken with a plurality of electronic cameras during pairing will be described. In this embodiment, an example in which an image is played back by the electronic camera 1 is shown. However, playback of an image shot in the pairing state is not limited to the electronic camera 1, and an image shot in the pairing state is personalized. It may be transferred to a computer (hereinafter referred to as a PC) and the reproduction process described below may be executed on the PC. Alternatively, it may be transferred to a digital photo frame (hereinafter referred to as DPF) and the following reproduction process may be executed on the DPF.

図9は一実施の形態の画像再生プログラムを示すフローチャートである。操作部材23のモードスイッチ23dにより再生モードが選択されると、CPU20は図9に示す画像再生プログラムの実行を開始する。ステップ1においてLCDモニタ17に「フォルダ表示」画面を表示し、再生対象となるすべての画像フォルダを示す。これらの再生対象の画像ホルダは、図6に示す自身の電子カメラ1のメモリカード51に記録されているすべての画像フォルダとペアフォルダである。   FIG. 9 is a flowchart showing an image reproduction program according to an embodiment. When the reproduction mode is selected by the mode switch 23d of the operation member 23, the CPU 20 starts executing the image reproduction program shown in FIG. In step 1, a “folder display” screen is displayed on the LCD monitor 17 to indicate all image folders to be reproduced. These reproduction target image holders are all image folders and pair folders recorded in the memory card 51 of the electronic camera 1 shown in FIG.

ステップ2で、操作部材23の十字スイッチ23gとOKスイッチ23hによるホルダ選択操作によってペアホルダが選択されたか否かを判別する。ペアホルダが選択されていない場合はステップ3へ進み、選択されたホルダの画像ファイルを読み出してLCDモニタ17に表示する。なお、ペアホルダ以外のホルダに記録されている画像、つまりペアリング撮影画像以外の画像の再生処理については従前の方法により再生処理を行うものとし、ここではその説明を省略する。   In step 2, it is determined whether or not a pair holder is selected by a holder selection operation by the cross switch 23g and the OK switch 23h of the operation member 23. When the pair holder is not selected, the process proceeds to step 3, and the image file of the selected holder is read and displayed on the LCD monitor 17. Note that the reproduction processing of images recorded in a holder other than the pair holder, that is, an image other than the pairing photographed image, is performed by a conventional method, and description thereof is omitted here.

一方、ペアホルダが選択された場合にはステップ4へ進み、ペアリング相手の電子カメラのペアホルダ内に記録されているペアリング撮影画像データを読み込み、自身の電子カメラ1のペアホルダ内に記録されているペアリング撮影画像と合わせて一組のペア画像グループとしてRAM18(図1参照)に記憶する。上述したように、ペアリング撮影により撮影された画像データには、画像ファイルのヘッダ領域にペアリング相手の識別情報(カメラIDなど)と撮影時刻情報が記録されているので、それらの情報に基づいてペアリング相手の電子カメラからペアリング撮影画像を読み込む。   On the other hand, if the pair holder is selected, the process proceeds to step 4 where the paired photographed image data recorded in the pair holder of the pairing partner electronic camera is read and recorded in the pair holder of the own electronic camera 1. Together with the paired photographed image, it is stored in the RAM 18 (see FIG. 1) as a pair image group. As described above, in the image data captured by pairing shooting, the identification information (camera ID, etc.) of the pairing partner and shooting time information are recorded in the header area of the image file. Read the pairing image from the pairing partner's electronic camera.

上述したように、ペアホルダは、他の電子カメラとの間でペアリング関係が成立し、該電子カメラとペアリング撮影を行うごとに生成される。そのため、ペアホルダが複数組存在する場合も当然あり得る。複数のペアホルダにおいて、ペアリング相手が共通の場合もあるし異なる場合もあり、また同じペアリング相手であっても異なる撮影時刻(撮影年月日を含む)の場合もある。ペアホルダのプロパティには、ペアリング相手の識別情報、撮影時刻情報、フォルダ共有設定情報などが記録されている。   As described above, the pair holder is generated every time the pairing relationship is established with another electronic camera and pairing shooting is performed with the electronic camera. For this reason, there may naturally be cases where a plurality of pairs of holders exist. In a plurality of pair holders, a pairing partner may be common or different, and even with the same pairing partner, there may be different shooting times (including shooting dates). In the properties of the pair holder, identification information of the pairing partner, shooting time information, folder sharing setting information, and the like are recorded.

再生対象として選択されたペアホルダのプロパティからペアリング相手の識別情報と撮影時刻情報を読み出し、ペアリング相手の電子カメラとの間で通信を行って自身の電子カメラの識別情報と再生対象のペアホルダの撮影時刻情報を紹介し、ペアリング相手の電子カメラに対して再生対象のペアホルダの撮影時刻とほぼ同じ撮影時刻のペアホルダの検索を依頼する。ペアリング相手の電子カメラは、メモリに記録されているペアホルダのプロパティを調べ、再生対象のペアホルダに対応するペアホルダ、すなわちペアリング相手の識別情報と撮影時刻情報が一致するペアホルダを検索し、そのペアホルダに含まれるペアリング撮影画像データを依頼先の電子カメラへ送信する。   The pairing partner's identification information and shooting time information are read from the properties of the pair holder selected as the playback target, and communication with the pairing partner's electronic camera is performed to identify the identification information of the own electronic camera and the pair holder of the playback target. The shooting time information is introduced, and the pairing partner's electronic camera is requested to search for a pair holder whose shooting time is almost the same as the shooting time of the pair holder to be played back. The pairing partner's electronic camera checks the property of the pair holder recorded in the memory, searches for a pair holder corresponding to the pair holder to be played back, that is, a pair holder whose identification information of the pairing partner matches the shooting time information, and the pair holder Is transmitted to the electronic camera of the request destination.

なお、ペアリング撮影画像データごとのヘッダ領域にもペアリング相手の識別情報と撮影時刻情報が記録されており、これらの情報を読み出してペアリング相手の電子カメラへ自身の電子カメラの識別情報と再生対象画像の撮影時刻情報を紹介し、ペアリング相手の電子カメラに対して再生対象のペアリング撮影画像とほぼ同じ撮影時刻のペアリング撮影画像の検索を依頼する。ペアリング相手の電子カメラは、メモリに記録されているペアリング画像データのヘッダ領域を調べ、再生対象のペアリング撮影画像に対応するペアリング撮影画像を検索し、それらのデータを依頼先の電子カメラへ送信する。   In addition, the identification information of the pairing partner and the shooting time information are also recorded in the header area for each paired captured image data, and these information is read out to the electronic camera of the pairing partner and the identification information of the own electronic camera. The shooting time information of the reproduction target image is introduced, and the pairing partner electronic camera is requested to search for a paired shooting image at the same shooting time as the reproduction target pairing shooting image. The pairing partner's electronic camera examines the header area of the pairing image data recorded in the memory, searches for the pairing photographed image corresponding to the pairing photographed image to be reproduced, and retrieves the data as the requesting electronic device. Send to camera.

なお、ペアリング相手からのペアリング撮影画像の読み込みは通信制御回路22による無線通信で行ってもよいし、ペアリング相手の電子カメラと通信コードで接続して有線通信で行ってもよい。   Note that reading of a pairing photographed image from a pairing partner may be performed by wireless communication by the communication control circuit 22, or may be performed by wired communication by connecting with a pairing partner electronic camera by a communication code.

次に、ステップ5でペア画像グループの画像が人物の画像か否かを判別する。人物を主要被写体として撮影されたペアリング撮影画像を再生する場合には、複数の電子カメラによる画像を撮影時刻の順に再生すると、撮影アングルが頻繁に変わって見づらいことがある。人物のペアリング撮影画像はある程度、撮影アングルごとにまとめて再生する方が効果的で自然な感じを与える。画像ファイルのヘッダ領域には、撮影シーンモードの設定情報、例えばマクロ、風景、ポートレート、夜景などの撮影シーンモードの設定情報が記録されており、設定された撮影シーンモードがポートレートである場合には人物の画像であると判定する。あるいは、画像自体をシーン解析して人物の画像か否かを判別してもよい。   Next, in step 5, it is determined whether or not the image in the pair image group is a person image. When playing back a pairing shot image shot with a person as the main subject, if the images from a plurality of electronic cameras are played back in order of shooting time, the shooting angle may change frequently and may be difficult to see. It is more effective and natural to reproduce a paired photographed image of a person to some extent by collecting them at each photographing angle. In the header area of the image file, shooting scene mode setting information, for example, shooting scene mode setting information such as macro, landscape, portrait, night view, etc. is recorded, and the set shooting scene mode is portrait Is determined to be an image of a person. Alternatively, the image itself may be subjected to scene analysis to determine whether it is a human image.

人物を主要被写体として撮影されたペアリング撮影画像を再生する場合にはステップ6へ進み、ペア画像グループのフォルダに記憶されている複数のペアリングカメラによるペアリング撮影画像の内の、一方のカメラ、例えば親機で撮影された画像を撮影時刻の順に所定時間間隔でLCDモニタ17に表示し、スライドショー再生を行う。その後で他方のカメラ、例えば子機で撮影された画像を撮影時刻の順に所定時間間隔でLCDモニタ17に表示し、スライドショー再生を行う。これにより、撮影時の人物の動きに合わせた一連の画像のスライドショーを撮影アングルごとに効果的に行うことができ、より自然な画像再生を実現できる。   In the case of reproducing a paired photographed image photographed with a person as the main subject, the process proceeds to step 6 and one of the paired photographed images by a plurality of pairing cameras stored in the folder of the paired image group is displayed. For example, images captured by the master unit are displayed on the LCD monitor 17 at predetermined time intervals in the order of shooting times, and a slide show is played. Thereafter, images taken by the other camera, for example, the slave unit, are displayed on the LCD monitor 17 at predetermined time intervals in the order of the photographing times, and slide show reproduction is performed. Thereby, a slide show of a series of images according to the movement of the person at the time of shooting can be effectively performed for each shooting angle, and more natural image reproduction can be realized.

一方、ペアリング撮影画像が人物でない場合にはステップ7へ進み、ペア画像グループのフォルダに記憶されている複数のペアリングカメラによるペアリング撮影画像を、単に撮影時刻の順に所定時間間隔でLCDモニタ17に表示し、スライドショー再生を行う。   On the other hand, if the paired photographed image is not a person, the process proceeds to step 7, and the paired photographed images by a plurality of pairing cameras stored in the folder of the paired image group are simply displayed on the LCD monitor at predetermined time intervals in the order of the photographing time. 17 is displayed and a slide show is performed.

なお、ペアリング撮影画像が人物でない場合でも、操作部材23による再生方法メニューのカスタム設定操作によって、複数の電子カメラで撮影されたペアリング撮影画像を撮影時刻の順に再生するのではなく、まず一方の電子カメラ、例えば親機で撮影されたペアリング時の画像を撮影時刻の順に再生し、その後に他方の電子カメラ、例えば子機で撮影されたペアリング時の画像を撮影時刻の順に再生する再生方法に変更することもできる。   Even if the paired photographed image is not a person, the paired photographed images photographed by a plurality of electronic cameras are not reproduced in order of the photographing time by the custom setting operation of the reproduction method menu by the operation member 23. Play images in the order of the shooting time taken with the other electronic camera, for example, the parent device, and then play images in the order of the shooting time taken with the other electronic camera, for example, the child device. It can also be changed to a playback method.

また、ペアリング撮影画像を再生する際に、同じようなシーンが何枚も続くと見づらく感じることがある。そこで、ほぼ同じ撮影時刻の画像がある場合には、一方のカメラ、例えば親機の画像を採用し、他方のカメラ、例えば子機の画像を飛ばして再生する。また、画像解析結果の輪郭抽出量が少なく、画質のよくない画像を手ブレのある画像と判定し、略同時刻に撮影された画像の内の輪郭抽出量が最多の画像、すなわち手ブレのない画像を採用し、手ブレのある画像を飛ばして再生してもよい。あるいは、画像の笑顔判定を行い、略同時刻に撮影された画像の内の笑顔度合い(スマイル度)が最高の画像を採用し、笑顔度合いの低い画像を飛ばして再生してもよい。このような同時刻に撮影した複数のペアリング撮影画像の内のいずれかを再生し、残りの画像を飛ばす再生方法は、予めメニュー画面で実行するか否か、あるいは実行する場合の飛ばし方などを細かくカスタム設定することができる。   Also, when playing back a paired photographed image, it may be difficult to see if many similar scenes continue. Therefore, when there are images at almost the same shooting time, an image of one camera, for example, a parent device is adopted, and an image of the other camera, for example, a child device is skipped and reproduced. Also, an image with a small amount of contour extraction as an image analysis result and an image with poor image quality is determined as an image with camera shake, and an image with the largest amount of contour extraction among images taken at approximately the same time, i.e., camera shake. It is also possible to adopt a non-image and skip and reproduce an image with camera shake. Alternatively, an image smile determination may be performed, an image having the highest smile level (smile level) among images taken at approximately the same time may be adopted, and an image with a low smile level may be skipped and reproduced. The playback method for playing back any one of a plurality of paired shot images taken at the same time and skipping the remaining images is whether or not to execute in advance on the menu screen, or how to skip when executing. You can make custom settings in detail.

なお、PCまたはDPF上でペアリング撮影画像を再生する場合には、図9の画像再生プログラムのステップ4から処理を開始し、ステップ4で複数の電子カメラからペアリング撮影画像を読み込み、ステップ5〜7で上述した処理を実行すればよい。   In the case of reproducing a paired photographed image on a PC or DPF, the processing is started from step 4 of the image reproduction program of FIG. 9, and the paired photographed image is read from a plurality of electronic cameras in step 4, and step 5 is performed. What is necessary is just to perform the process mentioned above by ~ 7.

上述した一実施の形態では、複数の画像をホルダまたはペアホルダにより分別して記録する例を示したが、必ずしもホルダごとに分別して記録する必要はなく、画像データごとにペアリング相手の識別情報とペアリング撮影時刻情報が記録されていれば、それらの情報に基づいて1組のペア画像グループに分別することができる。また、ペアリング相手およびペアリング撮影時刻に拘わらずペアリング撮影画像を1つのペアホルダに収納して記録するようにしてもよい。   In the above-described embodiment, an example in which a plurality of images are sorted and recorded by a holder or a pair holder has been described. However, it is not always necessary to record the images separately for each holder, and paired with identification information of a pairing partner for each image data. If ring shooting time information is recorded, it can be classified into a pair of pair image groups based on the information. Further, a paired photographed image may be stored in one pair holder and recorded regardless of the pairing partner and the pairing photographing time.

上述した一実施の形態では本願発明の画像再生機能を電子カメラに搭載した例を示したが、撮像機能を搭載した携帯電話機やモバイルPCなどの電子機器に本願発明の画像再生機能を搭載してもよい。   In the above-described embodiment, an example in which the image playback function of the present invention is mounted on an electronic camera is shown. However, the image playback function of the present invention is mounted on an electronic device such as a mobile phone or mobile PC equipped with an imaging function. Also good.

なお、上述した実施の形態とそれらの変形例において、実施の形態と変形例とのあらゆる組み合わせが可能である。   In the above-described embodiments and their modifications, all combinations of the embodiments and the modifications are possible.

上述した一実施の形態とその変形例によれば以下のような作用効果を奏することができる。まず、複数の電子カメラによりペアリング撮影(協調撮影)され、画像ごとにペアリング撮影相手(協調撮影相手)に関する情報と撮影時刻情報とが記録された複数の画像を再生する際に、ペアリング撮影相手に関する情報および撮影時刻情報に基づいて、複数の電子カメラにより略同時刻にペアリング撮影された複数の画像をペア画像グループとして集約し、撮影時刻情報にしたがってペア画像グループに含まれる複数の画像を撮影時刻の順に再生するようにしたので、複数の電子カメラでペアリング撮影した複数の画像を効果的に連続再生することができ、撮影時の被写体の動きを忠実に再現することができる。   According to the above-described embodiment and its modifications, the following operational effects can be obtained. First, pairing shooting (collaborative shooting) is performed by a plurality of electronic cameras, and pairing is performed when reproducing a plurality of images in which information about the pairing shooting partner (cooperative shooting partner) and shooting time information are recorded for each image. Based on the information about the shooting partner and the shooting time information, a plurality of images paired and shot by a plurality of electronic cameras at approximately the same time are aggregated as a pair image group, and a plurality of images included in the pair image group according to the shooting time information Since images are played back in order of shooting time, multiple images paired with multiple electronic cameras can be effectively played back continuously, and the movement of the subject at the time of shooting can be faithfully reproduced. .

また、一実施の形態とその変形例によれば、ペア画像グループに含まれる複数の画像の内、第1の電子カメラにより撮像された画像を撮影時刻の順に再生した後、第2の電子カメラにより撮像された画像を撮影時刻の順に再生するようにしたので、電子カメラごとの撮影者の撮影意図に沿った画像の連続再生が可能になり、撮影時の電子カメラごとの被写体の動きを忠実に再現することができる。   Further, according to the embodiment and the modification thereof, the second electronic camera is reproduced after the images captured by the first electronic camera among the plurality of images included in the pair image group are reproduced in order of the photographing time. Since the images taken by the camera are played back in order of shooting time, it is possible to continuously play back images according to the shooting intention of the photographer for each electronic camera, and faithfully follow the movement of the subject for each electronic camera during shooting. Can be reproduced.

一実施の形態とその変形例によれば、ペア画像グループに含まれる複数の画像が人物を対象として撮影された画像か否かを判定し、人物を対象として撮影された画像であると判定された場合は、ペア画像グループに含まれる複数の画像の内、第1の電子カメラにより撮像された画像を撮影時刻の順に再生した後、第2の電子カメラにより撮像された画像を撮影時刻の順に再生し、一方、人物を対象として撮影された画像でないと判定された場合には、ペア画像グループに含まれるすべての画像を撮影時刻の順に再生するようにした。
複数の電子カメラで人物を対象として撮影された複数のペアリング撮影画像を単純に撮影時刻の順に再生すると、撮影アングルが頻繁に変わって見づらいことがあるが、上述した一実施の形態によれば、人物のペアリング撮影画像をある程度、撮影アングルごとにまとめて再生することができ、撮影時の人物の動きに沿った効果的で自然な感じのスライドショーを実現することができる。一方、人物以外のペアリング撮影画像については、単純に撮影時刻の順に再生することによって、撮影時の被写体の動きに沿ったスライドショーを実現することができる。
According to one embodiment and its modification, it is determined whether or not a plurality of images included in the pair image group are images taken for a person, and are determined to be images taken for a person. In this case, after the images captured by the first electronic camera among the plurality of images included in the pair image group are reproduced in the order of the photographing times, the images captured by the second electronic camera are reproduced in the order of the photographing times. On the other hand, if it is determined that the images are not taken for a person, all the images included in the paired image group are played in order of shooting time.
If a plurality of paired images captured with a plurality of electronic cameras are simply reproduced in the order of the shooting times, the shooting angles may change frequently and may be difficult to see, but according to the embodiment described above. It is possible to reproduce a paired photographed image of a person at a certain angle for each photographing angle, and to realize an effective and natural slideshow along the movement of the person at the time of photographing. On the other hand, a paired photographed image other than a person can be reproduced in the order of the photographing time, thereby realizing a slide show along the movement of the subject at the time of photographing.

一実施の形態とその変形例によれば、ペア画像グループに含まれる複数の画像の中に略同時刻に撮影された画像が複数ある場合に、それらの内のいずれかを再生画像として選択し、再生するようにしたので、同じようなシーンが何枚も続く煩わしさ、見づらさを防止することができる。   According to one embodiment and its modification, when there are a plurality of images taken at approximately the same time among a plurality of images included in the pair image group, one of them is selected as a reproduction image. Since the playback is performed, it is possible to prevent the troublesomeness and difficulty in seeing many similar scenes.

一実施の形態とその変形例によれば、ペア画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して輪郭抽出を行い、略同時刻に撮影された複数の画像の内の輪郭抽出量が最多であるとされた画像を再生画像として選択し再生するようにしたので、手ブレの少ない、画質のよい画像を選択して再生することができる。   According to one embodiment and the modification thereof, a plurality of images captured at approximately the same time among a plurality of images included in the pair image group are analyzed to perform contour extraction, and are captured at approximately the same time. Since the image having the largest contour extraction amount among the plurality of images is selected and reproduced as a reproduced image, it is possible to select and reproduce an image with good image quality with little camera shake.

一実施の形態とその変形例によれば、ペア画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して笑顔度合いを検出し、笑顔度合いが最高であるとされた画像を再生画像として選択し再生するようにしたので、笑顔が写っている画像を選択して再生することができる。   According to one embodiment and its modification, a smile level is detected by analyzing a plurality of images taken at approximately the same time among a plurality of images included in a pair image group, and the smile level is the highest. Since the selected image is selected and reproduced as a reproduction image, an image showing a smile can be selected and reproduced.

1;電子カメラ、12;撮像素子、17;LCDモニタ、19;フラッシュメモリ、20;CPU、22;通信制御回路、22a;アンテナ、51;メモリカード DESCRIPTION OF SYMBOLS 1; Electronic camera, 12; Image pick-up element, 17; LCD monitor, 19; Flash memory, 20; CPU, 22; Communication control circuit, 22a;

Claims (19)

撮像を行う撮像手段と、
撮像を行う他の撮像機器と通信する通信手段と、
前記通信手段を介して、前記他の撮像機器に撮影依頼を行うとともに、少なくとも前記撮影依頼により撮影した画像を保存する保存部作成依頼を行う依頼手段と、
前記保存部作成依頼に関連して、前記撮像手段が撮像した画像を保存する保存部を作成する作成手段と、
前記通信手段を介して、前記他の撮像装置が前記保存部作成依頼により作成した保存部に保存されている画像を取得する取得手段と、を備えたことを特徴とする撮像装置。
Imaging means for imaging;
A communication means for communicating with another imaging device that performs imaging;
Requesting means for requesting the other imaging device via the communication means, and requesting to create a storage unit for storing at least the image photographed by the photographing request;
In relation to the storage unit creation request, a creation unit that creates a storage unit that stores an image captured by the imaging unit;
An imaging apparatus comprising: an acquisition unit configured to acquire an image stored in a storage unit created by the other imaging device in response to the storage unit creation request via the communication unit.
請求項1に記載の撮像装置において、
前記取得手段は、前記取得した画像を前記作成手段が作成した保存部に保存することを特徴とする撮像装置。
The imaging device according to claim 1,
The image pickup apparatus, wherein the acquisition unit stores the acquired image in a storage unit created by the creation unit.
請求項1または請求項2に記載の撮像装置において、
前記取得手段は、前記画像を取得するときに、当該画像が撮影された時間情報を取得することを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
The said acquisition means acquires the time information when the said image was image | photographed when acquiring the said image, The imaging device characterized by the above-mentioned.
請求項3に記載の撮像装置において、
前記画像を表示する表示部を有し、
前記保存部に保存された画像を当該画像が撮像された時系列順に前記表示部に表示する制御部を備えたことを特徴とする撮像装置。
The imaging device according to claim 3.
A display unit for displaying the image;
An imaging apparatus comprising: a control unit configured to display images stored in the storage unit on the display unit in time series in which the images are captured.
請求項1から3のいずれか一項に記載の撮像装置において、
前記画像を表示する表示部を有し、
前記保存部に保存された画像を前記撮像手段により撮像された画像と、前記他の撮像機器により撮像された画像とに分別して前記表示部に表示する制御部を備えたことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
A display unit for displaying the image;
An imaging device comprising: a control unit that separates an image stored in the storage unit into an image captured by the imaging unit and an image captured by the other imaging device and displays the image on the display unit apparatus.
請求項1から3のいずれか一項に記載の撮像装置において、
前記画像を表示する表示部と、
前記保存部に保存された画像が人物画像かどうかを判定する判定手段と、
前記判定手段の判定結果に応じて、前記表示部に前記画像を表示することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
A display unit for displaying the image;
Determining means for determining whether the image stored in the storage unit is a person image;
An image pickup apparatus that displays the image on the display unit in accordance with a determination result of the determination unit.
請求項1から3のいずれか一項に記載の撮像装置において、
前記画像を表示する表示部と、
前記保存部に保存された画像が風景画像かどうかを判定する判定手段と、
前記判定手段の判定結果に応じて、前記表示部に前記画像を表示することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
A display unit for displaying the image;
Determining means for determining whether the image stored in the storage unit is a landscape image;
An image pickup apparatus that displays the image on the display unit in accordance with a determination result of the determination unit.
請求項1から7のいずれか一項に記載の撮像装置において、
前記撮像手段と、前記他の撮像機器がほぼ同時刻に撮影した画像が前記保存部に保存されているときに、いずれか一方の画像を選択して前記表示部に表示させる選択手段を備えたことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 7,
When the image picked up and the image taken by the other image pick-up device at approximately the same time are stored in the storage unit, the image pickup unit includes a selection unit that selects one of the images and displays the selected image on the display unit. An imaging apparatus characterized by that.
請求項8に記載の撮像装置において、
前記ほぼ同時刻に撮影された画像を解析して輪郭抽出を行う輪郭抽出手段を備え、
前記選択手段は、前記ほぼ同時刻に撮影された画像のうち、前記輪郭抽出手段により輪郭抽出量が多い画像を選択することを特徴とする撮像装置。
The imaging device according to claim 8,
Contour extraction means for analyzing the image captured at approximately the same time and performing contour extraction,
The image pick-up apparatus, wherein the selecting means selects an image having a large amount of contour extraction by the contour extracting means from images taken at approximately the same time.
請求項8に記載の撮像装置において、
ほぼ同時刻に撮影された画像を解析して笑顔度合いを検出する笑顔検出手段を備え、
前記選択手段は、前記ほぼ同時刻に撮影された画像のうち、前記笑顔検出手段により笑顔度合いが多い画像を選択することを特徴とする撮像装置。
The imaging device according to claim 8,
It has a smile detection means that detects the degree of smile by analyzing images taken at almost the same time,
The image pick-up apparatus, wherein the selecting means selects an image having a high smile degree by the smile detecting means from among images taken at substantially the same time.
複数の撮像装置により撮影され、画像ごとに撮影相手に関する情報と撮影時刻情報とが記録された複数の画像を再生する画像再生方法であって、
前記撮影相手に関する情報および前記撮影時刻情報に基づいて、前記複数の撮像装置により撮影された複数の画像を画像グループとして集約する集約処理と、
前記撮影時刻情報にしたがって前記画像グループに含まれる複数の画像を撮影時刻の順に再生する再生処理とを実行することを特徴とする画像再生方法。
An image reproduction method for reproducing a plurality of images shot by a plurality of imaging devices and recorded with information about a shooting partner and shooting time information for each image,
Aggregation processing for aggregating a plurality of images photographed by the plurality of imaging devices as an image group based on the information on the photographing partner and the photographing time information;
An image reproduction method comprising: performing a reproduction process of reproducing a plurality of images included in the image group in order of the photographing time according to the photographing time information.
請求項11に記載の画像再生方法において、
前記再生処理は、前記画像グループに含まれる複数の画像の内、第1の前記撮像装置により撮像された画像を撮影時刻の順に再生した後、第2の前記撮像装置により撮像された画像を撮影時刻の順に再生することを特徴とする画像再生方法。
The image reproduction method according to claim 11,
The reproduction processing reproduces images picked up by the first image pickup device among a plurality of images included in the image group in order of shooting time, and then picks up an image picked up by the second image pickup device. An image reproduction method, wherein reproduction is performed in order of time.
請求項11に記載の画像再生方法において、
前記画像グループに含まれる複数の画像が人物を対象として撮影された画像か否かを判定する判定処理を含み、
前記再生処理は、前記判定処理において人物を対象として撮影された画像であると判定された場合は、前記画像グループに含まれる複数の画像の内、第1の前記撮像装置により撮像された画像を撮影時刻の順に再生した後、第2の前記撮像装置により撮像された画像を撮影時刻の順に再生し、前記判定処理において人物を対象として撮影された画像でないと判定された場合には、前記画像グループに含まれるすべての画像を撮影時刻の順に再生することを特徴とする画像再生方法。
The image reproduction method according to claim 11,
A determination process for determining whether or not a plurality of images included in the image group are images taken for a person,
In the case where it is determined that the reproduction process is an image photographed for a person in the determination process, an image captured by the first imaging device is selected from among a plurality of images included in the image group. After the images are reproduced in the order of the photographing times, the images captured by the second imaging device are reproduced in the order of the photographing times, and when it is determined in the determination process that the images are not taken for a person, the images An image reproduction method, wherein all images included in a group are reproduced in order of shooting time.
請求項11〜13のいずれか一項に記載の画像再生方法において、
前記画像グループに含まれる複数の画像の中に略同時刻に撮影された画像が複数ある場合に、それらの内のいずれかを再生画像として選択する選択処理を含み、
前記再生処理は、前記選択処理により選択された画像を再生することを特徴とする画像再生方法。
In the image reproduction method according to any one of claims 11 to 13,
When there are a plurality of images taken at approximately the same time among a plurality of images included in the image group, including a selection process of selecting any one of them as a reproduction image,
The image reproduction method, wherein the reproduction process reproduces an image selected by the selection process.
請求項14に記載の画像再生方法において、
前記画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して輪郭抽出を行う輪郭抽出処理を含み、
前記選択処理は、前記略同時刻に撮影された複数の画像の内の前記輪郭抽出処理により輪郭抽出量が最多であるとされた画像を再生画像として選択することを特徴とする画像再生方法。
The image reproduction method according to claim 14, wherein
A contour extraction process for extracting a contour by analyzing a plurality of images photographed at substantially the same time among a plurality of images included in the image group;
The image selection method according to claim 1, wherein the selection process selects, as a reproduction image, an image having a maximum amount of outline extraction by the outline extraction process among the plurality of images photographed at substantially the same time.
請求項14に記載の画像再生方法において、
前記画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して笑顔度合いを検出する笑顔検出処理を含み、
前記選択処理は、前記略同時刻に撮影された複数の画像の内の前記笑顔検出処理により笑顔度合いが最高であるとされた画像を再生画像として選択することを特徴とする画像再生方法。
The image reproduction method according to claim 14, wherein
A smile detection process for detecting a smile degree by analyzing a plurality of images taken at substantially the same time among a plurality of images included in the image group,
The image reproduction method according to claim 1, wherein the selection process selects, as a reproduction image, an image that has the highest smile level by the smile detection process among the plurality of images taken at substantially the same time.
請求項11〜16のいずれか一項に記載の画像再生方法におけるすべての処理をコンピューターに実行させることを特徴とする画像再生プログラム。   An image reproduction program for causing a computer to execute all the processes in the image reproduction method according to claim 11. 請求項17に記載の画像再生プログラムを記録したことを特徴とする記録媒体。   A recording medium on which the image reproduction program according to claim 17 is recorded. 請求項17に記載の画像再生プログラムを記録するメモリと、
前記画像再生プログラムを実行するマイクロコンピューターとを備えることを特徴とする画像再生装置。
A memory for recording the image reproduction program according to claim 17;
An image reproduction apparatus comprising: a microcomputer that executes the image reproduction program.
JP2010035014A 2010-02-19 2010-02-19 Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus Pending JP2011172092A (en)

Priority Applications (20)

Application Number Priority Date Filing Date Title
JP2010035014A JP2011172092A (en) 2010-02-19 2010-02-19 Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus
PCT/JP2011/052282 WO2011102232A1 (en) 2010-02-19 2011-02-03 Electronic apparatus, imaging device, image reproduction method, image reproduction program, recording medium that has recorded image reproduction program, and image reproduction device
CN201911039373.9A CN110708466B (en) 2010-02-19 2011-02-03 Electronic device and imaging method for electronic device
CN201410181952.8A CN103945131B (en) 2010-02-19 2011-02-03 The image acquisition method of electronic equipment and electronic equipment
CN201410199200.4A CN103957356B (en) 2010-02-19 2011-02-03 The image acquisition method of electronic equipment and electronic equipment
CN201911094088.7A CN110825905A (en) 2010-02-19 2011-02-03 Electronic device
CN201410462966.7A CN104320571B (en) 2010-02-19 2011-02-03 Electronic equipment and method for electronic equipment
CN201410181935.4A CN103945130B (en) 2010-02-19 2011-02-03 The image acquisition method of electronic equipment and electronic equipment
CN201410181953.2A CN103945132B (en) 2010-02-19 2011-02-03 The image acquisition method of electronic equipment and electronic equipment
CN2011800101685A CN102792672A (en) 2010-02-19 2011-02-03 Electronic apparatus, imaging device, image reproduction method, image reproduction program, recording medium that has recorded image reproduction program, and image reproduction device
CN201911098602.4A CN110798586A (en) 2010-02-19 2011-02-03 Electronic device
US13/509,740 US9055171B2 (en) 2010-02-19 2011-02-03 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US14/473,355 US9167108B2 (en) 2010-02-19 2014-08-29 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US14/621,971 US9462141B2 (en) 2010-02-19 2015-02-13 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US15/171,533 US9888136B2 (en) 2010-02-19 2016-06-02 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US15/852,750 US10264146B2 (en) 2010-02-19 2017-12-22 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US16/294,462 US10764447B2 (en) 2010-02-19 2019-03-06 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US16/932,158 US11343387B2 (en) 2010-02-19 2020-07-17 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US17/751,309 US11882249B2 (en) 2010-02-19 2022-05-23 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US18/386,928 US20240064246A1 (en) 2010-02-19 2023-11-03 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010035014A JP2011172092A (en) 2010-02-19 2010-02-19 Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014051775A Division JP2014147087A (en) 2014-03-14 2014-03-14 Electronic apparatus and program

Publications (2)

Publication Number Publication Date
JP2011172092A true JP2011172092A (en) 2011-09-01
JP2011172092A5 JP2011172092A5 (en) 2013-07-04

Family

ID=44685732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010035014A Pending JP2011172092A (en) 2010-02-19 2010-02-19 Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus

Country Status (1)

Country Link
JP (1) JP2011172092A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018504802A (en) * 2014-11-20 2018-02-15 ブラスト モーション インコーポレイテッドBlast Motion Inc. Integrated video and motion event system
US10748581B2 (en) 2010-08-26 2020-08-18 Blast Motion Inc. Multi-sensor event correlation system
CN114079724A (en) * 2020-07-31 2022-02-22 北京小米移动软件有限公司 Method and device for taking-off snapshot and storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298778A (en) * 1998-04-09 1999-10-29 Casio Comput Co Ltd Optical communication device and its positioning method
JP2001111866A (en) * 1999-10-05 2001-04-20 Canon Inc Edit processing system, imaeg processing device and its method, and storage medium
JP2001169173A (en) * 1999-12-06 2001-06-22 Canon Inc Image processing system, image processor and control method
JP2004235780A (en) * 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk Digital camera
JP2004274625A (en) * 2003-03-11 2004-09-30 Sony Corp Photographing system
JP2006238020A (en) * 2005-02-24 2006-09-07 Olympus Corp Digital camera system and digital camera
JP2006311291A (en) * 2005-04-28 2006-11-09 Oki Electric Ind Co Ltd Portable electronic equipment, security system and operation permission range determining method of portable electronic equipment
JP2008219522A (en) * 2007-03-05 2008-09-18 Canon Inc System, device, program and method for imaging
JP2009033494A (en) * 2007-07-27 2009-02-12 Sony Corp Information processing apparatus and method, program, and recording medium

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298778A (en) * 1998-04-09 1999-10-29 Casio Comput Co Ltd Optical communication device and its positioning method
JP2001111866A (en) * 1999-10-05 2001-04-20 Canon Inc Edit processing system, imaeg processing device and its method, and storage medium
JP2001169173A (en) * 1999-12-06 2001-06-22 Canon Inc Image processing system, image processor and control method
JP2004235780A (en) * 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk Digital camera
JP2004274625A (en) * 2003-03-11 2004-09-30 Sony Corp Photographing system
JP2006238020A (en) * 2005-02-24 2006-09-07 Olympus Corp Digital camera system and digital camera
JP2006311291A (en) * 2005-04-28 2006-11-09 Oki Electric Ind Co Ltd Portable electronic equipment, security system and operation permission range determining method of portable electronic equipment
JP2008219522A (en) * 2007-03-05 2008-09-18 Canon Inc System, device, program and method for imaging
JP2009033494A (en) * 2007-07-27 2009-02-12 Sony Corp Information processing apparatus and method, program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10748581B2 (en) 2010-08-26 2020-08-18 Blast Motion Inc. Multi-sensor event correlation system
JP2018504802A (en) * 2014-11-20 2018-02-15 ブラスト モーション インコーポレイテッドBlast Motion Inc. Integrated video and motion event system
CN114079724A (en) * 2020-07-31 2022-02-22 北京小米移动软件有限公司 Method and device for taking-off snapshot and storage medium

Similar Documents

Publication Publication Date Title
US10764447B2 (en) Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
JP4236986B2 (en) Imaging apparatus, method, and program
JP2011172094A (en) Imaging apparatus
JP5499754B2 (en) Imaging device
JP5446976B2 (en) Electronics
JP5392141B2 (en) Electronics
JP2011172092A (en) Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus
JP2016220261A (en) Electronic apparatus
JP5754500B2 (en) Electronic devices and programs for electronic devices
JP2019205208A (en) Electronic apparatus
JP2018067968A (en) Electronic apparatus and program
JP5448913B2 (en) Electronic devices and programs for electronic devices
JP2015216671A (en) Electronic apparatus and program
JP5440240B2 (en) Electronics
JP2014147087A (en) Electronic apparatus and program
JP2012029119A (en) Display control device, camera and display device
JP5145974B2 (en) Camera and image display device
JP2021093750A (en) Electronic apparatus and program
JP5644976B2 (en) Electronic device and program for electronic device
JP5644932B2 (en) Electronics
JP5614487B2 (en) Electronic devices and programs for electronic devices
KR101643604B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium
JP2018125890A (en) Electronic apparatus and program for electronic apparatus
JP2019054521A (en) Electronic apparatus and program
JP2016024764A (en) Imaging apparatus, control method thereof and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131217