WO2011102232A1 - 電子機器、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置 - Google Patents

電子機器、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置 Download PDF

Info

Publication number
WO2011102232A1
WO2011102232A1 PCT/JP2011/052282 JP2011052282W WO2011102232A1 WO 2011102232 A1 WO2011102232 A1 WO 2011102232A1 JP 2011052282 W JP2011052282 W JP 2011052282W WO 2011102232 A1 WO2011102232 A1 WO 2011102232A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging
unit
cpu
pairing
Prior art date
Application number
PCT/JP2011/052282
Other languages
English (en)
French (fr)
Inventor
藤縄 展宏
説 三橋
政一 関口
栗山 孝司
洋人 長嶺
正生 竹本
幹 外山
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010035010A external-priority patent/JP5446976B2/ja
Priority claimed from JP2010035013A external-priority patent/JP5440240B2/ja
Priority claimed from JP2010035014A external-priority patent/JP2011172092A/ja
Priority to US13/509,740 priority Critical patent/US9055171B2/en
Priority to CN2011800101685A priority patent/CN102792672A/zh
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2011102232A1 publication Critical patent/WO2011102232A1/ja
Priority to US14/473,355 priority patent/US9167108B2/en
Priority to US14/621,971 priority patent/US9462141B2/en
Priority to US15/171,533 priority patent/US9888136B2/en
Priority to US15/852,750 priority patent/US10264146B2/en
Priority to US16/294,462 priority patent/US10764447B2/en
Priority to US16/932,158 priority patent/US11343387B2/en
Priority to US17/751,309 priority patent/US11882249B2/en
Priority to US18/386,928 priority patent/US20240064246A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00249Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
    • H04N1/00251Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector with an apparatus for taking photographic images, e.g. a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0013Arrangements for the control of the connected apparatus by the still picture apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Definitions

  • the present invention relates to an electronic apparatus, an imaging apparatus, an image reproduction method, an image reproduction program, a recording medium on which an image reproduction program is recorded, and an image reproduction apparatus.
  • Patent Documents 1 and 2 Cameras that operate in pairs have been proposed (for example, Patent Documents 1 and 2), and it has been proposed to perform pairing using the flash light emission of the cameras.
  • a camera system that performs cooperative shooting with a plurality of cameras (for example, Patent Document 3).
  • Patent Document 1 there is a problem that strobe light must be emitted in order to perform a pair operation, which is not suitable for use in a room where light emission is prohibited or outdoors in the daytime.
  • patent document 2 there existed a problem that the pair operation
  • the camera system of Patent Document 3 there is no disclosure of a method for reproducing a plurality of images that have been cooperatively photographed by a plurality of cameras, and it is desirable to effectively reproduce a plurality of images that have been cooperatively photographed.
  • the electronic device is configured to connect the external device via the communication unit based on at least one of the communication unit that communicates with the external device, the capacity of the external device, and the capacity of the electronic device. And a control unit for giving instructions.
  • the capacity of the external device includes at least one of the remaining capacity of the battery and the free capacity of the storage medium, It is preferable to give an instruction to the external device based on at least one of the remaining capacity of the battery and the free capacity of the storage medium.
  • the capacity of the electronic device includes at least one of a remaining capacity of the battery and a free capacity of the storage medium.
  • the control unit preferably instructs the external device based on at least one of the remaining capacity of the battery and the free capacity of the storage medium.
  • the control unit stores the data sent from the external device in the storage medium.
  • the data sent from the external device is image data, and depends on the reception level by the communication unit when receiving the image data from the external device. It is preferable to include a processing device that performs a filtering process on an image displayed on the display device. According to the seventh aspect of the present invention, in the electronic device according to the sixth aspect, it is preferable that the processing device performs the filtering process so that the blurring amount of the image increases as the reception level decreases. According to an eighth aspect of the present invention, in the electronic device according to any one of the fourth to seventh aspects, the communication unit includes a first communication device that performs communication of the capacity of the external device, and the first communication device.
  • the electronic device communicates with the external device and the first communication unit that performs pairing with the external device by short-distance communication or communication via the human body.
  • the electronic device includes a time measuring unit that measures time after pairing with the external device.
  • the control unit preferably cancels the pairing when the time measured by the time measuring unit exceeds a predetermined time.
  • the electronic device according to any one of the first to eleventh aspects includes a gravity sensor that detects the direction of gravity, and a master-slave relationship with an external device based on the output of the gravity sensor. It is preferable to include a determination unit that determines.
  • the imaging device is set in the external imaging device via the imaging unit that acquires the image data, the communication unit that communicates with the external imaging device, and the communication unit.
  • the acquisition unit that acquires the shooting conditions as shooting conditions for a plurality of external imaging devices, and the shooting conditions for the imaging device that are different at least in part among the shooting conditions for the external imaging device acquired by the acquisition unit
  • an imaging control unit that is set as According to the fourteenth aspect of the present invention, in the imaging device according to the thirteenth aspect, the imaging control unit sets the same imaging condition for at least a part of the imaging conditions of the external imaging device acquired by the acquisition unit. It is preferable to set it as a photographing condition for use.
  • the photographing condition is at least one of a zoom ratio, shutter speed, aperture value, sensitivity, and color adjustment processing information of the photographing optical system. It is preferable that according to the sixteenth aspect of the present invention, in the imaging device according to the fifteenth aspect, the image processing device further includes an image processing unit that performs color adjustment processing on the image data acquired by the imaging unit, and the acquisition unit includes the external imaging device.
  • the imaging optical system magnification ratio and color adjustment processing information set by the external imaging device are acquired, and the imaging control unit obtains the imaging optical system magnification magnification of the external imaging device acquired by the acquisition unit.
  • the acquisition unit sets the magnification ratio and the color adjustment of the imaging optical system set by the external imaging device as imaging conditions for the external imaging device.
  • the image capturing control unit compares the zoom ratio of the photographing optical system acquired by the acquiring unit with the set zoom ratio of the photographing optical system, and acquires the information. It is preferable to control the image processing unit to perform the color adjustment process based on the color adjustment process information associated with the smaller one.
  • the acquisition unit uses the imaging optical system zoom ratio and shutter speed set by the external imaging device as imaging conditions for the external imaging device.
  • the imaging control unit sets the zoom ratio different from the zoom ratio of the imaging optical system of the external imaging device acquired by the acquiring unit, and is the same as the shutter speed of the external imaging device acquired by the acquiring unit. It is preferable to set the shutter speed to a minimum value.
  • the acquisition unit sets the magnification ratio and the aperture value of the imaging optical system set by the external imaging device as photographing conditions for the external imaging device.
  • the imaging control unit sets an aperture value that is different from the aperture value of the external imaging device acquired by the acquiring unit, and has the same magnification as the magnification ratio of the optical system of the external imaging device acquired by the acquiring unit. It is preferable to set a fold ratio.
  • the acquisition unit sets the magnification ratio and shutter speed of the imaging optical system set by the external imaging device as imaging conditions for the external imaging device.
  • the imaging control unit sets a shutter speed different from the shutter speed of the external imaging device acquired by the acquiring unit, and has the same magnification as the magnification ratio of the optical system of the external imaging device acquired by the acquiring unit. It is preferable to set a fold ratio.
  • the imaging device is predetermined via communication between the imaging unit that acquires the image data, the communication unit that communicates with the external imaging device, and the external imaging device.
  • the imaging control unit urges framing to capture the same subject from different imaging directions with the external imaging device based on the content of communication with the external imaging device.
  • the assist unit includes a face detecting unit that detects a face based on image data from the imaging unit, and the detected unit based on the detected face. It is preferable to include an imaging direction determination unit that determines a direction in which the face is imaged.
  • the imaging device includes a recording unit that records the image data acquired by the imaging unit in the storage unit, While the communication is established with the external imaging device, the recording unit is added to the image data acquired by the imaging device so as to add information indicating the image data captured during the communication establishment. It is preferable to control.
  • the imaging device makes an imaging request to another imaging device via the imaging unit that performs imaging, a communication unit that communicates with another imaging device that performs imaging, and the communication unit. And at least in response to a shooting request, a request is made via a communication unit and a request unit for requesting another storage device to create a storage area for storing a storage region for storing an image shot by another shooting device.
  • another imaging device requests a storage area creation via a communication unit and a creation unit that creates a storage area for storing an image captured by the imaging unit. And an acquisition unit that acquires an image stored in the storage area created in step (1).
  • the acquisition unit preferably stores the acquired image in a storage area created by the creation unit.
  • the acquiring unit acquires the image, it is preferable to acquire time information when the image is captured.
  • the display device displays an image, and the images stored in the storage area are displayed in the display unit in time series in which the images are captured. It is preferable to provide a control unit for display.
  • a display unit that displays an image, and an image that is captured by the imaging unit in an image stored in the storage area It is preferable to include a control unit that separates the image captured by another imaging device and displays the image on the display unit.
  • a display unit that displays an image and a determination that determines whether the image stored in the storage area is a human image. And a control unit that displays an image on the display unit according to the determination result of the determination unit.
  • the display unit that displays the image and the determination that determines whether the image stored in the storage area is a landscape image
  • a control unit that displays an image on the display unit according to the determination result of the determination unit.
  • a plurality of images captured at approximately the same time by the imaging unit and another imaging device are stored in the storage area. It is preferable to include a selection unit that selects one of the images and displays the selected image on the display unit.
  • the image pickup apparatus includes a contour extraction unit that performs contour extraction by analyzing a plurality of images taken at substantially the same time, and the selection unit is substantially Of the plurality of images taken at the same time, it is preferable to select an image with a large amount of contour extraction by the contour extraction unit.
  • the imaging device according to the thirty-first aspect includes a smile detection unit that detects a smile degree by analyzing each of a plurality of images taken at substantially the same time, and the selection unit includes: It is preferable to select an image with a high degree of smile by the smile detection unit from among a plurality of images taken at approximately the same time.
  • an image reproduction method for reproducing a plurality of images which are photographed by a plurality of imaging devices and recorded for each image, information relating to the photographing partner and photographing time information. And an aggregation process for aggregating a plurality of images photographed by a plurality of imaging devices as an image group based on the photographing time information, and a reproduction for reproducing a plurality of images included in the image group in the order of the photographing time according to the photographing time information Process.
  • the reproduction processing comprises: selecting an image picked up by the first image pickup device from a plurality of images included in the image group; It is preferable to reproduce the images picked up by the second image pickup device in the order of the shooting times after the reproduction in order.
  • the method includes a determination process for determining whether or not the plurality of images included in the image group are images taken for a person.
  • images captured by the first image capturing device are reproduced in order of shooting time among a plurality of images included in the image group.
  • the images captured by the second imaging device are reproduced in the order of the shooting times, and when it is determined in the determination process that the images are not captured for a person, all the images included in the image group are displayed. It is preferable to play back in order of shooting time.
  • contour extraction is performed by analyzing a plurality of images taken at substantially the same time among a plurality of images included in an image group. It is preferable that the selection process includes an outline extraction process, and selects, as a reproduced image, an image that has the largest amount of outline extraction by the outline extraction process among a plurality of images taken at approximately the same time.
  • a smile level is detected by analyzing a plurality of images taken at substantially the same time among a plurality of images included in an image group. In the selection process, it is preferable to select, as a reproduced image, an image whose smile level is the highest in the smile detection process among a plurality of images taken at approximately the same time.
  • the image reproduction program causes a computer to execute all the processes in the image reproduction method according to any of the 34th to 9th aspects.
  • the recording medium records the image reproduction program according to the forty-first aspect.
  • an image reproduction device includes a memory that records an image reproduction program according to the forty-first aspect and a microcomputer that executes the image reproduction program.
  • the pair operation can be appropriately performed regardless of whether indoors or outdoors.
  • FIG. 1 is a block diagram of an electronic camera according to an embodiment of the present invention. It is a rear view of an electronic camera. It is a figure which illustrates the operation menu screen. It is a figure which illustrates a pairing establishment condition setting screen. It is a figure which illustrates a pairing person setting screen. It is a flowchart explaining the flow of the process which establishes pairing. It is a figure which illustrates an upper judgment table. It is a figure which illustrates a pairing off timer setting screen. It is a figure which illustrates the display screen at the time of a registration imaging
  • FIG. It is a figure which shows the example of a thumbnail list display. It is a figure which illustrates the through image displayed on "master”. It is a figure which illustrates the through image displayed on "child machine”. It is a figure which illustrates the through image displayed on "master”. It is a figure which illustrates the through image displayed on "child machine”. It is a flowchart which illustrates the flow of the process performed when CPU performs the cooperation photography 1.
  • FIG. It is a flowchart which illustrates the flow of the process performed when CPU performs cooperation photography 2.
  • FIG. It is a flowchart which illustrates the flow of the process performed when CPU performs normal. It is a figure which illustrates the left side determination table. It is a flowchart which shows the image reproduction program of the electronic camera of 2nd Embodiment. It is a figure explaining the whole structure of the apparatus used in order to provide a program product.
  • FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 1 according to the first embodiment of the present invention.
  • an electronic camera 1 includes a photographing optical system 11, an image sensor 12, an AFE (Analog front end) circuit 13, an image processing circuit 14, a speaker drive circuit 15, a speaker 16, and an LCD monitor 17.
  • the lighting device 28 includes a power supply circuit 29 and a lens driving circuit 30.
  • the CPU 20, RAM 18, flash memory 19, memory card interface 21, communication control circuit 22, audio processing circuit 25, lens driving circuit 30, image processing circuit 14, lighting device 28, speaker driving circuit 15 and LCD monitor 17 are each a bus. 27 is connected.
  • the photographing optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the imaging surface of the image sensor 12. In order to simplify FIG. 1, the photographing optical system 11 is shown as a single lens.
  • the image sensor 12 is constituted by a CMOS image sensor or the like in which light receiving elements are two-dimensionally arranged on the imaging surface.
  • the image sensor 12 photoelectrically converts the subject image formed by the photographing optical system 11 to generate an analog image signal.
  • the analog image signal is input to the AFE circuit 13.
  • the AFE circuit 13 performs analog processing such as correlated double sampling and gain adjustment on the analog image signal, and converts the image signal after the analog processing into digital image data.
  • the digital image data is input to the image processing circuit 14.
  • the image processing circuit 14 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, image compression processing, image expansion processing, etc.) on the digital image data.
  • the speaker drive circuit 15 generates a sound reproduction signal such as an operation sound, a caution sound, and a voice message based on the sound data sent from the CPU 20.
  • the speaker 16 performs audio reproduction based on the audio reproduction signal.
  • the LCD monitor 17 is composed of a liquid crystal panel, and displays an image, an operation menu screen, and the like according to an instruction from the CPU 20.
  • the RAM 18 is used as a work memory for the CPU 20.
  • the RAM 18 temporarily stores digital image data in the pre-process and post-process of image processing by the image processing circuit 14.
  • the flash memory 19 stores reference data to be described later in addition to storing a program to be executed by the CPU 20.
  • the CPU 20 is a photographing control unit that controls operations performed by the electronic camera 1 by executing a program stored in the flash memory 19.
  • the CPU 20 also performs AF (autofocus) operation control and automatic exposure (AE) calculation.
  • the AF operation uses, for example, a contrast detection method for obtaining a focus position of a focusing lens (not shown) based on contrast information of a through image.
  • the through image refers to a monitor image that is repeatedly acquired by the image sensor 12 at a predetermined time interval (for example, 30 frames / second) before a shooting instruction.
  • the CPU 20 also has a clocking function that clocks time based on the clock signal.
  • the memory card interface 21 has a connector (not shown), and a storage medium 51 such as a memory card is connected to the connector.
  • the memory card interface 21 writes data to the connected storage medium 51 and reads data from the storage medium 51.
  • the storage medium 51 includes a memory card with a built-in semiconductor memory.
  • the communication control circuit 22 controls communication with an external device in accordance with an instruction from the CPU 20.
  • the communication control circuit 22 includes a wireless communication circuit, and transmits and receives radio waves via the antenna 22a.
  • the wireless communication circuit preferably includes a circuit for measuring the intensity of a received signal and controlling the transmission range of the signal, for example, a Received Signal Strength Indicator (RSSI) circuit.
  • RSSI Received Signal Strength Indicator
  • the communication control circuit 22 further includes a human body communication function for performing communication via the human body in response to an instruction from the CPU 20.
  • the transmitting / receiving electrodes 22b to 22e are arranged so as to be exposed on the upper, lower, left and right surfaces of the casing of the electronic camera 1 (FIG. 2).
  • a user of the electronic camera 1 and a user of another electronic camera 1 form a closed circuit by capacitive coupling between the human body and the human body via the electronic camera 1 as follows, and both human bodies are used as antennas. Communication between the electronic cameras 1 is performed (Re-Table 2006/054706).
  • the communication control unit 22 may have a wired communication function for performing communication via a cable in response to an instruction from the CPU 20.
  • a wired LAN port (not shown) is provided.
  • the operation member 23 includes a release button 23a, a zoom switch 23b 23c, a cross switch 23g, a menu switch 23e, and the like which will be described later (FIG. 2).
  • the operation member 23 sends an operation signal corresponding to each operation, such as a mode switching operation or a menu selection operation, to the CPU 20.
  • the posture sensor 24 detects the direction of gravity, for example, and sends a detection signal to the CPU 20.
  • the CPU 20 determines the attitude of the electronic camera 1 based on the detection signal. Specifically, the CPU 20 determines whether the electronic camera 1 is upside down as well as the vertical and horizontal positions.
  • the sound processing circuit 25 amplifies the sound signal collected by the microphone 26 and converts the amplified signal into digital sound data by an A / D conversion circuit (not shown).
  • the illumination device 28 is a device for illuminating a subject during night photography.
  • the power supply circuit 29 supplies the voltage from the battery 52 to each part in the electronic camera 1 in accordance with an instruction from the CPU 20, detects the voltage of the battery 52, and sends a signal indicating the detected voltage to the CPU 20 as remaining battery capacity information. To do.
  • the lens drive circuit 30 includes a circuit that drives a focus adjustment motor (not shown) and a circuit that drives a zoom adjustment motor (not shown).
  • the focus adjustment motor adjusts the focus by moving the focus lens constituting the photographing optical system 11 back and forth in the optical axis direction.
  • the zoom adjustment motor adjusts the zoom ratio by moving the zoom lens constituting the photographing optical system 11 back and forth in the optical axis direction.
  • the lens driving circuit 30 drives the focus adjustment motor and the zoom adjustment motor, respectively, in accordance with instructions from the CPU 20.
  • the CPU 20 of the electronic camera 1 performs predetermined cooperative processing in a state where communication is established with another electronic camera 1 (both have the same configuration).
  • a state in which communication is established between the electronic camera 1 and another electronic camera 1 and a predetermined cooperative process can be executed is also referred to as pairing.
  • the state in which the predetermined cooperative process can be performed is a state in which commands relating to operations and the like can be transmitted and received between the electronic camera 1 and another electronic camera 1.
  • the cooperative processing is not particularly limited, but includes the following processing as an example. For example, the same operation as that in the electronic camera 1 is executed by another electronic camera 1, the operation different from the operation in the electronic camera 1 is executed by another electronic camera 1, the image data etc. For example, a process of transmitting the information.
  • the pairing of the electronic camera 1 is usually performed by transmitting a command and data from one of the electronic camera 1 and the other electronic camera 1 to the other, and the electronic camera 1 that receives the command returns it to the electronic camera 1 that is the command transmission source. After establishing communication, it is established by satisfying a predetermined condition described later.
  • the communication method between the electronic camera 1 and another electronic camera 1 include wired communication, wireless communication, and human body communication. Further, these communication methods may be appropriately combined, for example, human communication until the establishment of communication and wireless communication thereafter.
  • This mode switching may be performed, for example, in accordance with the pressing operation of the mode switch 23d, or may be performed in an “operation menu” screen displayed in response to the pressing operation of the menu switch 23e.
  • the processing performed by the CPU 20 when the mode is switched to the pairing mode will be mainly described.
  • the pairing establishment condition is configured to be selectable from four conditions.
  • the operation for selecting the pairing establishment condition is performed in advance as follows before communication with another electronic camera 1 is performed.
  • FIG. 2 is a rear view of the electronic camera 1.
  • a switch 23h is provided.
  • the transmission / reception electrode 22b is provided on the upper surface of the casing of the electronic camera 1.
  • the transmission / reception electrode 22c is provided on the lower surface of the housing.
  • the transmission / reception electrode 22d is provided on the right side of the casing, and the transmission / reception electrode 22d is provided on the left side of the casing.
  • the CPU 20 displays an “operation menu” screen illustrated in FIG. 3 on the LCD monitor 17 when the menu switch 23e is pressed.
  • the “operation menu” includes a plurality of selection items, for example, “registered photographing” item 171, “pairing establishment condition setting” item 172, “pairing off timer” item 173, and “pairing person setting” item. 174.
  • the CPU 20 changes the selection item up or down according to the operation signal.
  • FIG. 3 illustrates a state where the selection item 172 is selected.
  • the CPU 20 displays the “pairing establishment condition setting” screen illustrated in FIG. 17 is displayed.
  • FIG. 4 illustrates a state where the selection item 176 is selected.
  • the CPU 20 sets the item currently selected as a pairing establishment condition.
  • the communication control circuit 22 has transmission power set in advance so as to perform wireless communication within a predetermined range (for example, 10 m).
  • the transmission power is configured to be switchable in advance by a menu operation so as to limit the communication range stepwise (for example, 3 m, 50 cm, 3 cm) according to an instruction from the CPU 20.
  • the switching of the transmission power is performed by switching the threshold value for determining whether or not there is reception in the communication control circuit 22 while keeping the transmission power in the communication control circuit 22 constant, instead of switching the transmission power in the communication control circuit 22. You may do it. In this embodiment, there is no contact between both electronic cameras 1 in any case.
  • the CPU 20 has a function of detecting a “face” included in the through image and identifying whether the “face” is a “face” of a predetermined person.
  • the CPU 20 since the “face” of the other party is photographed, there is no contact between the two electronic cameras 1 when identifying the “face”. Since the face detection process and the face identification process are well-known techniques, description thereof is omitted.
  • the pairing establishment condition is set to “face identification”
  • the CPU 20 establishes pairing on the condition of “face identification” after establishing communication with another electronic camera 1.
  • the identification person setting operation for establishing the pairing is performed in advance as follows before communication with another electronic camera 1 is performed.
  • the CPU 20 When the cross switch 23g is pressed in the determination direction (right determination) while the “pairing person setting” item 174 is selected while the “operation menu” screen (FIG. 3) is displayed, the CPU 20 is illustrated in FIG.
  • the “pairing person setting” screen is displayed on the LCD monitor 17.
  • the CPU 20 reads the thumbnail image data of “face” from all the reference data recorded (registered) in the flash memory 19 and displays the thumbnail image.
  • the reference data includes thumbnail image data of “face” and feature amount data generated based on the image data.
  • the feature amount data is used for the “face identification”.
  • the reference data used for “face identification” is recorded (registered) in the flash memory 19 in advance. The registration procedure will be described later.
  • thumbnail images of “faces” for person A, person B, and person C are displayed.
  • a check box is displayed on the left side of each thumbnail image.
  • a check box 172 is displayed on the left side of the thumbnail image 171.
  • the CPU 20 moves the display position of the cursor 173 up and down according to the operation signal when the cross switch 23g is pressed in the selection direction (up and down direction) while the “pairing person setting” screen is displayed.
  • the CPU 20 displays a check mark in a check box surrounded by the cursor 173.
  • the CPU 20 deletes the check mark in the check box.
  • the CPU 20 sets the “face” of the thumbnail image on which the check mark is displayed in the “pairing person setting” screen as an identification target.
  • the CPU 20 establishes the pairing on the condition that the data reception by the human body communication is performed after establishing communication with the other electronic camera 1.
  • the electronic cameras 1 are connected to each other by a closed circuit formed when the users of both the electronic camera 1 and the other electronic camera 1 that have established communication as described above shake hands (simply touch each other's skin). Send and receive data to establish pairing.
  • the CPU 20 establishes pairing on the condition of direct contact between the two electronic cameras 1 after establishing communication with the other electronic cameras 1.
  • the transmission / reception electrodes 22b to 22e are arranged so as to be exposed on the upper, lower, left and right surfaces of the casing of the electronic camera 1 (FIG. 2).
  • the CPU 20 determines the contact between the electronic cameras 1 by detecting the generation of this signal current through the communication control circuit 22.
  • the communication control circuit 22 is configured to identify which electrode of the transmission / reception electrodes 22b to 22e has contacted and notify the CPU 20 of the contact.
  • step S11 of FIG. 6 the CPU 20 makes a communication request and proceeds to step S12.
  • the CPU 20 sends an instruction to the communication control circuit 22 to cause the communication request command to be transmitted with transmission power reaching the other electronic camera 1 located in the 10 m range.
  • step S12 the CPU 20 determines whether or not there is a reply to the communication request. When the reply is received by the communication control circuit 22, the CPU 20 makes a positive determination in step S12 and proceeds to step S13. If no reply is received, the CPU 20 makes a negative determination in step S12 and proceeds to step S17.
  • step S13 the CPU 20 determines whether or not the pairing establishment condition is “normal”. If the pairing establishment condition is set to “normal”, the CPU 20 makes a positive determination in step S13 and proceeds to step S16. If the pairing establishment condition is not set to “normal”, the CPU 20 makes a negative determination in step S13 and proceeds to step S14.
  • step S16 the CPU 20 sends an instruction to the communication control circuit 22, causes a confirmation signal to be transmitted to another electronic camera 1, and a counter that counts the number of times that pairing has been established with the other electronic camera 1 that is the transmission destination. Increment by one and go to step S27.
  • the confirmation signal is a signal transmitted from the “master unit” to the “slave unit” in pairing.
  • the identification information of the communication request side for example, the ID of the electronic camera 1 is included in the communication request
  • the identification information of the return side (the ID of the other electronic camera 1) is included in the reply.
  • the establishment is managed for each ID.
  • “master unit” and “slave unit” are determined as follows.
  • the pairing establishment condition is set to “normal” (Yes in step S13)
  • the electronic camera 1 that first transmitted the communication request (S11) is set as the “master” in the pairing, and the communication request In response, the electronic camera 1 that has responded (S18) is set as a “slave unit” in pairing.
  • the pairing establishment condition is set to “face recognition” (Yes in step S15)
  • the electronic camera 1 that has performed “face identification” is set as the “master” in pairing, and “face identification”
  • the electronic camera 1 that has been used is referred to as a “slave” in pairing.
  • the electronic camera 1 that first transmitted the command and data via the closed circuit by the human body communication is set to “ The electronic camera 1 that has received this is referred to as a “slave unit” in pairing.
  • the determination of “master unit” and “slave unit” in the case of “camera touch” will be described later.
  • step S27 the CPU 20 sets the time and ends the process shown in FIG.
  • the time adjustment is performed, for example, by adjusting the time of the “child device” to the time of the “parent device”.
  • the CPU 20 sends an instruction to the communication control circuit 22 to transmit time information to another electronic camera 1.
  • the time information of the “master unit” is transmitted to the “slave unit”, and the time of both can be aligned.
  • pairing is established by the relationship between the “master unit” and the “slave unit”.
  • the “master unit” and “slave unit” whose time has been set start timing after the pairing is established.
  • the CPU 20 performs a predetermined process while pairing is established. The process during pairing establishment will be described later.
  • step S14 the CPU 20 determines whether or not the pairing establishment condition is “face identification”. When the pairing establishment condition is set to “face identification”, the CPU 20 makes a positive determination in step S14 and proceeds to step S15. If the pairing establishment condition is not set to “face identification”, the CPU 20 makes a negative determination in step S14 and proceeds to step S22.
  • step S15 the CPU 20 determines whether or not “face identification” has been performed. If the registered face is identified, the CPU 20 makes an affirmative decision in step S15 and proceeds to step S16. If the registered face is not identified, the CPU 20 makes a negative decision in step S15 and proceeds to step S26.
  • the CPU 20 reproduces and displays the through image used for “face identification” on the LCD monitor 17 in real time. When “face identification” is performed, the CPU 20 displays the “face” (for example, a frame surrounding the “face”). Etc.) overlaid on the through image. When the CPU 20 identifies a plurality of “faces”, for example, the CPU 20 selects the largest face (having the largest ratio in the through image).
  • step S22 the CPU 20 determines whether or not the pairing establishment condition is “shake hands”. If the pairing establishment condition is set to “shake hands”, the CPU 20 makes a positive determination in step S22 and proceeds to step S23. If the pairing establishment condition is not set to “shake hands”, the CPU 20 makes a negative determination in step S22 and proceeds to step S24.
  • step S23 when a signal indicating that predetermined data has been received by human body communication is transmitted from the communication control circuit 22, the CPU 20 makes a positive determination in step S23 and proceeds to step S16. If the signal indicating reception of predetermined data by human body communication is not transmitted from the communication control circuit 22, the CPU 20 makes a negative determination in step S23 and proceeds to step S26.
  • step S26 In the first embodiment, when a closed circuit for human body communication is formed, data indicating that pairing can be established is transmitted.
  • step S24 the CPU 20 determines whether or not a signal indicating contact between the electronic cameras 1 is received from the communication control circuit 22.
  • the CPU 20 makes a positive determination in step S24 and proceeds to step S25. If a signal indicating mutual contact is not input, the CPU 20 makes a negative determination in step S24 and proceeds to step S26.
  • step S25 the CPU 20 performs an upper side determination process.
  • the upper side determination is to determine which electronic camera 1 is located on the upper side when the electronic cameras 1 are in contact with each other.
  • the one located in the antigravity direction is the “upper” side.
  • the CPU 20 performs the upper side determination with reference to the determination table illustrated in FIG. 7 based on the direction of gravity based on the detection signal from the attitude sensor 24 and the contact electrode information based on the signal from the communication control circuit 22. For example, a case where the electronic camera 1 is held in a vertical position (right side is downward) and the upper surface (normal position) of another electronic camera 1 is touched with the right side will be described as an example.
  • the CPU 20 of the electronic camera 1 determines “up” because the gravity direction is on the transmission / reception electrode 22d side and the contact electrode is the transmission / reception electrode 22d.
  • the “judgment” is determined as “master” in pairing, and the “judgment” is determined as “slave” in pairing.
  • the CPU of another electronic camera 1 touched by the electronic camera 1 has a gravitational direction on the transmission / reception electrode 22c side (normal position) and a contact electrode on the upper surface (the transmission / reception electrode 22b). Make “down” judgment.
  • step S25 When the CPU 20 makes the “up” determination, it makes a positive determination in step S25 and proceeds to step S16.
  • the CPU 20 that has not made the “up” determination makes a negative determination in step S25 and proceeds to step S20.
  • the reason for proceeding to step S20 is to wait for a confirmation signal from the “master unit” as the “slave unit”.
  • step S26 the CPU 20 determines whether or not a timeout has occurred. When a predetermined timeout time (for example, 1 minute) has elapsed, the CPU 20 makes a positive determination in step S26, returns to step S1, and repeats the above-described processing. If the timeout time has not elapsed, the CPU 20 makes a negative determination in step S26, returns to step S14, and repeats the above-described processing.
  • a timeout time for example, 1 minute
  • step S17 that proceeds with a negative determination in step S12, the CPU 20 determines whether there is a communication request from another electronic camera 1 or not.
  • the CPU 20 makes a positive determination in step S17 and proceeds to step S18. If the communication control circuit 22 does not receive a communication request command, the CPU 20 makes a negative determination in step S17 and returns to step S11.
  • step S18 the CPU 20 sends a reply and proceeds to step S19.
  • the CPU 20 sends an instruction to the communication control circuit 22 and makes a reply to another electronic camera 1.
  • step S19 the CPU 20 determines whether or not a signal indicating contact has been received. When a signal indicating contact between the electronic cameras 1 is input from the communication control circuit 22, the CPU 20 makes a positive determination in step S19 and proceeds to step S25. When a signal indicating mutual contact is not input, the CPU 20 determines negative in step S19. Then, the process proceeds to step S20.
  • step S20 the CPU 20 determines whether or not the communication control circuit 22 has received a confirmation signal from another electronic camera 1. When the confirmation signal is received, the CPU 20 makes an affirmative decision in step S20, establishes pairing, and proceeds to step S28. If the confirmation signal is not received, the CPU 20 makes a negative determination in step S20 and proceeds to step S21.
  • step S28 the CPU 20 adjusts the time and ends the process shown in FIG.
  • the time adjustment is performed by adjusting the time to the time information transmitted from the “master unit”.
  • pairing is established in the relationship between the “child device” and the “parent device”.
  • step S21 the CPU 20 determines whether or not a timeout has occurred.
  • a predetermined timeout time for example, 1 second
  • the CPU 20 makes a positive determination in step S21, returns to step S11, and repeats the above-described processing.
  • the time-out period has not elapsed
  • the CPU 20 makes a negative determination in step S21, returns to step S20, and repeats the above-described processing.
  • the transmission of the confirmation signal in step S16 may be performed by human body communication when the pairing establishment condition is “shake hands”.
  • the pairing established as described above is terminated by a manual operation (for example, the pairing mode is canceled by depressing the mode switch 23d) or automatically terminated by a preset off timer. Further, when at least one of the following cases (1) to (4) is applicable, the pairing may be automatically terminated.
  • (1) The free space of the storage medium 51 is less than a predetermined free space.
  • the remaining capacity of the battery 52 is less than a predetermined remaining capacity.
  • (4) When information indicating that the remaining capacity of the battery 52 on the other electronic camera 1 side is less than a predetermined remaining capacity is acquired by communication.
  • the staying time in the pairing mode, the number of still images taken in the pairing mode, and the image mode (in accordance with at least one information of the free capacity of the storage medium 51 of both the electronic cameras 1 and the remaining capacity of the battery 52)
  • the number of recorded pixels such as high image quality, standard, economy, etc.
  • the shooting time and frame rate during moving image shooting may be set.
  • pairing is also terminated when the distance between the electronic camera 1 and another electronic camera 1 is outside the communication range.
  • the CPU 20 identifies the other party's identification information (for example, the ID of the electronic camera 1), the number of times the pairing is established with the other party's electronic camera 1, and the other party's electronic camera 1. Is stored in the flash memory 19 in association with each ID of the electronic camera 1.
  • FIG. 8 shows a state in which the item 72 is selected.
  • the pairing is terminated by the above-described manual pairing cancellation operation.
  • the CPU 20 performs the end of the pairing by the pairing mode canceling operation and when 30 minutes have elapsed from the start of the pairing, whichever comes first.
  • the start of pairing corresponds to the time adjustment time in step S27.
  • the CPU 20 in the case where the “1 hour” item 73 is determined performs the end of the pairing by the pairing mode canceling operation and when one hour has elapsed from the start of the pairing, whichever comes first.
  • the CPU 20 that has started the registered photographing program displays an assist frame G on the LCD monitor 17.
  • FIG. 9 is a diagram for explaining a display example of the LCD monitor 17.
  • the CPU 20 displays an image based on the latest through image data stored in the RAM 18 on the LCD monitor 17 and displays the assist frame G so as to overlap the image being displayed.
  • the photographer holds the electronic camera 1 so that the face of the subject person to be registered is within the assist frame G.
  • the CPU 20 When the CPU 20 receives an operation signal for ending the registered shooting process (for example, an operation signal from the menu switch 23e), the CPU 20 ends the display of the assist frame G and ends the registered shooting process. On the other hand, when the CPU 20 does not receive an operation signal (for example, an operation signal from the menu switch 23e) for ending the registered photographing process, the CPU 20 determines whether or not the release switch is turned on. The CPU 20 performs a photographing process when the release button 23a is fully pressed.
  • an operation signal for ending the registered shooting process for example, an operation signal from the menu switch 23e
  • the CPU 20 determines whether the image data acquired by the shooting process can be used for face identification.
  • the CPU 20 performs face detection processing based on data corresponding to the assist frame G in the image data, and when a face is detected, the CPU 20 determines whether the face is a registered face. Specifically, the CPU 20 performs face identification processing based on the image data of the detected face area and the reference data corresponding to the “face” of the thumbnail image registered in the flash memory 19. Whether the detected person's face and the person's face included in the reference data belong to the same person is identified.
  • the CPU 20 displays, for example, “already registered” on the LCD monitor 17 when the face is already registered. If it is not a registered face, the reference data is recorded (registered) in the flash memory 19 as the “face” of the new person. Specifically, the CPU 20 generates thumbnail image data based on image data corresponding to the assist frame G, and generates feature amount data based on the image data. Then, the CPU 20 records reference data including thumbnail image data and feature amount data in the flash memory 19. Thereby, the reference data is registered like the person B in the pairing person setting screen (FIG. 5).
  • the reference data recorded (registered) in the flash memory 19 can be deleted as follows.
  • the delete switch 23f is pressed while the pairing person setting screen (FIG. 5) is displayed on the LCD monitor 17, the CPU 20 sets the reference data related to the person indicated by the cursor 173 as a deletion target.
  • CPU 20 displays, for example, a message “Do you want to delete the data of person B?” On LCD monitor 17 for person B surrounded by cursor 173.
  • the CPU 20 deletes the currently displayed thumbnail image data and the reference data including the corresponding feature amount data from the flash memory 19. Thereby, the display about the person B is deleted from the pairing person setting screen (FIG. 5).
  • browsing refers to reproducing and displaying a reproduction image based on image data received from the paired electronic camera 1 on the LCD monitor 17.
  • the received image data is stored in the electronic camera 1. This is different from recording and saving in a nonvolatile memory (flash memory 19 and storage medium 51).
  • the sharing setting can be included in the setting items in the “operation menu” illustrated in FIG.
  • FIG. 10 shows an example of a “folder display” screen displayed on the LCD monitor 17 of the electronic camera 1 of Mr. X who is the “master”.
  • a folder in the camera of the user (Mr. X) is displayed.
  • the “pair folder” on the “my camera” side is a folder that permits browsing to the pairing partner (in this example, Mr. B's electronic camera 1 which is the “slave device”).
  • the image file recorded in the “Pair Folder” on the “My Camera” side is the established wireless communication (when the pairing establishment condition is set to “shake hands”, wireless communication or human body communication) Can be viewed from the electronic camera 1 of Mr. B who is a “slave device”.
  • FIG. 10 also shows a folder in the electronic camera 1 of Mr. B who is a “slave”.
  • the “pair folder” on the “Mr. B's camera” side is a folder that allows browsing to the partner of pairing (in this example, Mr. X's electronic camera 1 which is “the parent”) during pairing establishment.
  • FIG. 11 is an example of a “folder display” screen displayed on the LCD monitor of the electronic camera 1 of Mr. B who is a “slave”.
  • a folder in the camera of the user (Mr. B) is displayed.
  • the “pair folder” on the “your camera” side is a folder that permits browsing to the partner of pairing (in this example, Mr. X's electronic camera 1 which is the “master” in this example).
  • the image file recorded in the “Pair Folder” on the “My Camera” side is the established wireless communication (when the pairing establishment condition is set to “shake hands”, wireless communication or human body communication) Can be viewed from the electronic camera 1 of Mr. X who is the “parent device”.
  • FIG. 11 also shows a folder in the electronic camera 1 of Mr. X who is the “parent device”.
  • the “pair folder” on the “Mr. X's camera” side is a folder that permits browsing to the other party of pairing (in this example, Mr. B's electronic camera 1 which is “slave device”).
  • the paired electronic camera 1 can view all folders on the “My Camera” side and “Pair Folder” on the “My Camera” side that is the partner of the pairing.
  • a folder selection operation selected by pressing the cross switch 23g and determined by pressing the OK switch 23h
  • the CPU 20 displays a thumbnail image of the image file recorded in the selected folder on the LCD monitor. 17 is displayed.
  • FIG. 12 is a diagram showing a thumbnail list display example.
  • a cursor 131 is displayed on one of the plurality of thumbnails.
  • the cursor position can be moved up and down and left and right by a thumbnail selection operation (operation of pressing the cross switch 23g).
  • the OK switch 23h is pressed, the CPU 20 causes the LCD monitor 17 to display a reproduction image corresponding to the thumbnail image at which the cursor is positioned at the full screen.
  • the CPU 20 ranks the information (identification information of the electronic camera 1) of the partner who has established the pairing.
  • the rank is divided into three levels from low to high, for example, rank 1 to rank 3.
  • the CPU 20 on the “parent device” side raises the rank in accordance with the number of pairing establishments with the partner who established the pairing (in this example, the electronic camera 1 indicated by the identification information) and the accumulated pairing time.
  • the number of pairing establishments and the accumulated pairing time used for determining whether or not to raise the rank are set in advance for the electronic camera 1, and the setting contents are stored in the flash memory 19.
  • the setting change of the pairing establishment count and the pairing accumulated time recorded and stored in the flash memory 19 can be included in the setting items in the “operation menu” illustrated in FIG. 3, for example. For example, when the pairing establishment count exceeds 20 times and the accumulated pairing time exceeds 8 hours, the CPU 20 on the “master unit” side changes the rank from rank 1 to rank 2, The change contents are stored in the flash memory 19 in association with the identification information of the pairing partner.
  • the CPU 20 on the “parent device” side ranks from rank 2 to rank 3 And the changed contents are stored in the flash memory 19 in association with the identification information of the pairing partner.
  • a partner who has a high frequency of pairing is often a reliable partner who knows each other well, a family member or a lover who is familiar and highly familiar.
  • the pairing partners can be automatically grouped according to the intimacy.
  • the CPU 20 determines the contents of the file folder that has been set in advance as described above while pairing is established with the other party of rank 1 (in this example, the electronic camera 1 indicated by the identification information). It is possible to browse from the electronic camera 1 on the other side via wireless communication (when the pairing establishment condition is set to “shake hands”, wireless communication or human body communication). In this case, the CPU 20 can browse only the photographed image taken while the pairing is established, and does not include the photographed image photographed when the pairing is not established as a viewing target from the partner.
  • the CPU 20 can only use the photographed image taken during the pairing establishment included in the file folder that is set in advance while the pairing is established with the other party of rank 2 (in this example, the electronic camera 1 indicated by the identification information).
  • a captured image taken when pairing is not established included in the file folder with the sharing setting is also included in the viewing target from the other party.
  • the CPU 20 not only browses but also copies all the images included in the file folder that has been set in advance while pairing is established with the partner of rank 3 (in this example, the electronic camera 1 indicated by the identification information). Also allow.
  • copying refers to copying a captured image included in the file folder on the electronic camera 1 side of the pairing establishment partner and recording and saving it in the file folder on the own electronic camera 1 side.
  • ⁇ Pairing establishment opponent ranking is configured to be able to rank up or down by manual operation.
  • the CPU 20 changes the rank in the range of ranks 1 to 3 according to the operation signal. Also in this case, the CPU 20 saves the change contents in the flash memory 19 in association with the identification information of the pairing partner, and performs browsing restriction and copy restriction according to the rank after the change.
  • the rank information is transmitted from the “master unit” to the “slave unit” and managed by the “master unit”.
  • the change by manual operation has priority.
  • an operation signal indicating rank up or rank down is input by an operation signal from the operation member 23, the CPU 20 sends a signal indicating a rank change request to the pairing establishment partner. Then, the CPU 20 changes the rank only when a signal indicating change OK is returned, and does not change the rank when a signal indicating change OK is not returned.
  • the CPU 20 that has received the signal indicating the rank change request from the pairing establishment partner displays a message “Rank change request received. Can I change the rank?” On the LCD monitor 17.
  • the CPU 20 transmits a signal indicating rank change OK to the pairing establishment partner side only when an operation signal indicating change OK is received from the operation member 23.
  • the CPU 20 changes the display resolution during browsing according to the rank level.
  • the low-pass filter process varies depending on the rank. That is, the CPU 20 changes the display resolution so that the lower the rank, the lower the resolution, and the higher the rank, the higher the resolution.
  • the “child device” that has been paired changes the display resolution when the image recorded on the “parent device” side is reproduced and displayed on the LCD monitor on the “child device” side. That is, the CPU 20 changes the display resolution so that the lower the rank is, the lower the resolution is, and the higher the rank is, the higher the resolution is by performing low-pass filter processing that varies depending on the rank.
  • the CPU 20 performs a low-pass filtering process according to the communication state between the electronic cameras 1 detected by the wireless communication circuit.
  • Examples of the communication state include the communication intensity between the electronic cameras 1 and the signal transmission amount per unit time.
  • the CPU 20 changes the display resolution so that the lower the communication strength, the lower the resolution viewing, and the higher the communication strength, the higher the resolution.
  • the “slave unit” that has been paired changes the display resolution of the image recorded on the “slave unit” side LCD monitor when viewed and reproduced on the “slave unit” side LCD monitor.
  • the CPU 20 performs low-pass filter processing that varies depending on the communication strength, thereby changing the display resolution so that the lower the communication strength, the lower the resolution viewing, and the higher the communication strength, the higher resolution viewing. If comprised in this way, according to the resolution of the image reproduced
  • the CPU 20 performs shooting based on the operation of the release button 23a (FIG. 2).
  • the CPU 20 generates an Exif format image file including the image data and the shooting information based on the information before the shooting process and the image data acquired in the shooting process.
  • the Exif format image file is obtained by embedding data such as thumbnail images and shooting information in image data in the JPEG image format.
  • the CPU 20 records the image file on the storage medium 51.
  • the structure of an image file in the Exif format has a header area for recording image auxiliary information and an image data area for recording captured image data.
  • CPU20 records the information which shows that it is the image image
  • the information indicating that the image is taken while pairing is established includes identification information of the other party of pairing and shooting time information based on time keeping after time adjustment.
  • the information indicating that the image was captured while pairing was established may be recorded as a separate file associated with the image file, instead of being recorded in the header area of the image file.
  • the normal photographing process is performed by the “master” or “slave” that has been operated for release.
  • the image file generated during pairing is recorded in a file folder that has been set in advance.
  • FIG. 17 is a flowchart exemplifying a flow of processing that is repeatedly executed when the CPU 20 that has established pairing performs cooperative shooting 1.
  • the CPU 20 of each of the electronic camera 1 on the “parent device” side and the electronic camera 1 on the “child device” side executes.
  • the CPU 20 determines whether or not a release signal transmitted from the electronic camera 1 that is the other party of the pairing has been received.
  • the release signal is a signal for instructing the other electronic camera 1 to take a picture when the release button 23a (FIG. 2) of the “master” and “slave” is pressed.
  • step S101 When the release signal is received, the CPU 20 makes an affirmative decision in step S101 and proceeds to step S111.
  • the processing from step S111 to step S115 corresponds to the processing performed by the CPU 20 of the electronic camera 1 in which the release button 23a (FIG. 2) is not pressed among the “parent device” and “slave device” during pairing establishment. To do.
  • step S101 When the CPU 20 does not receive the release signal, the CPU 20 makes a negative determination in step S101 and proceeds to step S102. Until the release button 23a is operated by one of the “master unit” and “slave unit”, the CPUs 20 of both electronic cameras 1 repeat the processes of steps S101 to S104, respectively.
  • step S102 the CPU 20 determines whether or not the composition guide function is turned on.
  • the composition guide is a function that guides the “master” and “slave” to photograph a common subject at different photographing angles while pairing is established.
  • the composition guide ON / OFF setting can be included in advance in the setting items in the “operation menu” illustrated in FIG.
  • the CPU 20 makes an affirmative decision in step S102 when the composition guide function is set on, and proceeds to step S103. If the composition guide function is not set on, the CPU 20 makes a negative decision in step S102 and proceeds to step S104.
  • step S103 the CPU 20 performs a composition guide.
  • FIG. 13 and FIG. 15 are diagrams illustrating a through image displayed on the LCD monitor 17 of the electronic camera 1 of Mr. X who is the “parent device”.
  • FIG. 14 and FIG. 16 are diagrams illustrating a through image displayed on the LCD monitor 17 of the electronic camera 1 of Mr. B who is a “slave device”.
  • the “master unit” and the “slave unit” each reproduce and display the through image acquired by themselves on the LCD monitor 17.
  • Each CPU 20 performs “face” detection processing based on the through image, and when “face” is detected, a frame indicating the “face” is displayed on the through image.
  • the CPU 20 determines the shooting direction based on the positional relationship between the contour and the eyes and nose obtained from the data of the “face” region, and displays a guide on the LCD monitor 17 as to which direction to move.
  • the CPU 20 displays “OK” and prompts photographing (FIGS. 15 and 16). Shooting is possible even when “OK” is not displayed. Note that a face icon, “angle guide” display, and “OK” display are not included in the captured image.
  • step S104 the CPU 20 determines whether or not the release button 23a (FIG. 2) has been pressed.
  • the CPU 20 makes a positive determination in step S104 and proceeds to step S105, and the operation signal indicating that the release button 23a is pressed is not input from the operation member 23. In this case, a negative determination is made in step S104, and the process returns to step S101.
  • the CPU 20 repeats the above-described processing.
  • Step S105 The processing from Step S105 to Step S110 is processing performed by the CPU 20 of the electronic camera 1 in which the release button 23a of the “master” and “slave” is pressed while pairing is established.
  • the CPU 20 performs predetermined automatic exposure calculation (AE) and automatic focus adjustment processing (AF), and proceeds to step S106.
  • step S106 the CPU 20 sends an instruction to the communication control circuit 22, causes a release signal to be transmitted to the other electronic camera 1, and proceeds to step S107.
  • the CPU 20 causes the other electronic camera 1 to transmit data indicating a shooting condition (for example, shutter speed, aperture value, sensitivity, focal length, white balance adjustment value, image quality adjustment information) including the exposure calculation result together with the release signal. .
  • a shooting condition for example, shutter speed, aperture value, sensitivity, focal length, white balance adjustment value, image quality adjustment information
  • the image quality adjustment information is information indicating which image quality adjustment algorithm is applied.
  • the image quality adjustment algorithm for example, “standard”, “neutral”, “vivid”, and “monochrome” are prepared in advance and applied in the image processing (step S108).
  • Standard is an image quality adjustment algorithm that produces a standard image.
  • Negative is an image quality adjustment algorithm that finishes with emphasis on the natural color of the material.
  • Vivid is an image quality adjustment algorithm that finishes a vivid image. Specifically, it is an image adjustment algorithm for processing red and green vividly by increasing the saturation and obtaining a sharp image by increasing the contrast.
  • Monochrome is an image quality adjustment algorithm for finishing a monochrome image.
  • step S107 the CPU 20 performs an imaging process and proceeds to step S108.
  • step S108 the CPU 20 sends an instruction to the image processing circuit 14, performs predetermined image processing on the acquired image data, and proceeds to step S109.
  • step S109 the CPU 20 generates an image file including the image data after the image processing, and proceeds to step S110.
  • step S110 the CPU 20 sends an instruction to the memory card interface 21, causes the image file to be recorded in the storage medium 51, and ends the processing shown in FIG.
  • step S111 the CPU 20 performs predetermined automatic exposure calculation (AE) and automatic focus adjustment processing (AF), and proceeds to step S112.
  • AE automatic exposure calculation
  • the shutter speed of the “master unit” is set to “slave unit” based on the data indicating the shooting conditions transmitted from the electronic camera 1 on which the release button 23a is pressed.
  • the exposure conditions are varied so as to be faster than the shutter speed.
  • the shutter speed of the “master unit” is 1/1000 seconds
  • the shutter speed of the “slave unit” is 1/250 seconds. Therefore, the CPU 20 changes the aperture value or sensitivity so that proper exposure can be obtained.
  • step S112 the CPU 20 performs an imaging process and proceeds to step S113.
  • step S113 the CPU 20 sends an instruction to the image processing circuit 14, performs predetermined image processing on the acquired image data, and proceeds to step S114.
  • the CPU 20 uses a common image quality adjustment algorithm or white balance adjustment value based on data indicating the shooting conditions transmitted from the electronic camera 1 on which the release button 23a is pressed, or uses a different image quality adjustment algorithm or white A balance adjustment value can be used. Whether to use a common algorithm or adjustment value or a different algorithm or adjustment value can be included in advance in the setting items in the “operation menu” illustrated in FIG.
  • step S114 the CPU 20 generates an image file including the image data after the image processing, and proceeds to step S115.
  • step S115 the CPU 20 sends an instruction to the memory card interface 21, causes the image file to be recorded in the storage medium 51, and ends the processing shown in FIG.
  • FIG. 18 is a flowchart illustrating the flow of processing that is repeatedly executed when the CPU 20 that has established pairing performs cooperative shooting 2.
  • the CPU 20 of each of the electronic camera 1 on the “parent device” side and the electronic camera 1 on the “child device” side executes.
  • the CPU 20 determines whether or not an imaging signal transmitted from the paired partner electronic camera 1 has been received.
  • the in-imaging signal indicates that one of the “main unit” and “slave unit” is taking an image in response to the pressing operation of the release button 23a (FIG. 2). This is a signal for informing the electronic camera 1.
  • step S201 When the CPU 20 receives the imaging signal, the CPU 20 makes an affirmative determination in step S201 and proceeds to step S211.
  • the processing in step S211 and step S212 corresponds to the processing performed by the CPU 20 of the electronic camera 1 that is on standby among “master” and “slave” while pairing is established.
  • step S201 When the CPU 20 does not receive the imaging signal, the CPU 20 makes a negative determination in step S201 and proceeds to step S202. Until the release button 23a is operated by either “master” or “slave”, the CPUs 20 of both electronic cameras 1 repeat the processing of steps S201 to S202, respectively.
  • step S202 the CPU 20 determines whether or not the release button 23a (FIG. 2) has been pressed.
  • the CPU 20 makes a positive determination in step S202 and proceeds to step S203, and the operation signal indicating that the release button 23a is pressed is not input from the operation member 23. In this case, a negative determination is made in step S202, and the process returns to step S201.
  • the CPU 20 repeats the processing described above.
  • step S203 to step S210 is processing performed by the CPU 20 of the electronic camera 1 in which the release button 23a is pressed among “master” and “slave” while pairing is established.
  • the CPU 20 sends an instruction to the communication control circuit 22, causes the other electronic camera 1 to transmit a signal indicating that imaging is in progress, and then proceeds to step S204.
  • step S204 the CPU 20 performs predetermined automatic exposure calculation (AE) and automatic focus adjustment processing (AF), and proceeds to step S205.
  • AE automatic exposure calculation
  • AF automatic focus adjustment processing
  • step S205 the CPU 20 performs an imaging process and proceeds to step S206.
  • step S206 the CPU 20 determines whether or not the release button 23a (FIG. 2) is pressed.
  • the CPU 20 makes a positive determination in step S206, returns to step S204, and repeats the above-described processing (continuous shooting).
  • step S206 the CPU 20 makes a negative determination in step S206 and proceeds to step S207.
  • step S207 the CPU 20 sends an instruction to the communication control circuit 22, causes the other electronic camera 1 to transmit a signal indicating the end of imaging, and proceeds to step S208.
  • step S208 the CPU 20 sends an instruction to the image processing circuit 14, causes the acquired image data to be subjected to predetermined image processing in order, and proceeds to step S209.
  • step S209 the CPU 20 generates an image file including the image data after the image processing, and proceeds to step S210.
  • step S210 the CPU 20 sends an instruction to the memory card interface 21, causes the image file to be recorded in the storage medium 51, and ends the processing shown in FIG.
  • step S ⁇ b> 211 the CPU 20 determines whether or not a signal indicating the end of imaging transmitted from the paired partner electronic camera 1 is received.
  • the CPU 20 receives the imaging end signal
  • the CPU 20 makes a positive determination in step S211 and proceeds to step S212. If the CPU 20 does not receive the imaging end signal, the CPU 20 makes a negative determination in step S211 and waits for the imaging end signal while repeating the determination process. While waiting for the imaging end signal, the CPU 20 displays, for example, a message “Waiting” on the LCD monitor 17.
  • step S212 the CPU 20 determines whether or not the release button 23a (FIG. 2) has been pressed.
  • the CPU 20 makes a positive determination in step S212 and proceeds to step S203, and an operation signal indicating depression of the release button 23a is not input from the operation member 23. In this case, a negative determination is made in step S212, and the process returns to step S201.
  • the CPU 20 repeats the processing described above.
  • FIG. 19 is a flowchart illustrating the flow of processing that is repeatedly executed when the CPU 20 that has established pairing performs normal shooting.
  • step S301 in FIG. 19 the CPU 20 determines whether or not the release button 23a (FIG. 2) has been pressed.
  • the CPU 20 makes a positive determination in step S301 and proceeds to step S302, and an operation signal indicating depression of the release button 23a is not input from the operation member 23. In that case, a negative determination is made in step S301 and the process is repeated.
  • step S302 the CPU 20 performs predetermined automatic exposure calculation (AE) and automatic focus adjustment processing (AF), and proceeds to step S303.
  • step S303 the CPU 20 performs an imaging process and proceeds to step S304.
  • step S304 the CPU 20 sends an instruction to the image processing circuit 14, performs predetermined image processing on the acquired image data, and proceeds to step S305.
  • step S305 the CPU 20 generates an image file including image data after image processing, and proceeds to step S306.
  • step S306 the CPU 20 sends an instruction to the memory card interface 21, causes the image file to be recorded in the storage medium 51, and ends the processing shown in FIG.
  • the password may be shared between the “base unit” and “slave unit” while pairing is established. For example, when a password is set on one of “master” and “slave” while pairing is established, the CPU 20 transmits the password information to the other electronic camera 1, and the “master” and “slave” Share passwords between. The password is set on the menu screen, for example.
  • the CPU 20 transfers the setting change contents made by inputting the shared password to one of the “master unit” and “slave unit” to the other electronic camera 1 during pairing establishment. It is transmitted and reflected on the other electronic camera 1. For example, if the above-described setting of whether to perform normal shooting or linked shooting is performed on the “parent device” side, it is automatically applied to the “child device” side.
  • the above-mentioned rank-up or rank-down operation may be included in the setting change items to be performed by inputting the shared password.
  • the CPU 20 ranks up or ranks without sending a signal indicating the rank change request as described above from the electronic camera 1 on the side on which the operation member 23 is operated to the electronic camera 1 on the pairing establishment partner side.
  • Information indicating the rank after down is sent to the electronic camera 1 on the other side of the pairing establishment.
  • the CPU 20 that has received the information indicating the changed rank from the partner who has completed pairing performs rank up or rank down based on the received information, and causes the LCD monitor 17 to display a message “Rank has been changed.” .
  • the electronic camera 1 is connected to an external electronic device via the communication control circuit 22 based on at least one of a capacity of the external electronic camera and its own capacity.
  • CPU 20 for instructing the camera As a result, the pair operation can be appropriately performed regardless of whether indoors or outdoors.
  • the capacity of the external electronic camera includes at least one of the remaining capacity of the battery 52 and the free capacity of the storage medium 51, and the CPU 20 determines whether the remaining capacity of the battery 52 and the free capacity of the storage medium 51 are An instruction is given to an external electronic camera based on at least one of them. For example, by giving an instruction to end the pairing operation, an external electronic camera takes a picture during the pairing operation, but the external electronic camera cannot record a shot image on the storage medium 51, It is possible to avoid a situation where the battery 52 of the electronic camera is consumed and the external electronic camera becomes inoperable.
  • the capacity of the electronic camera 1 includes at least one of the remaining capacity of the battery 52 and the free capacity of the storage medium 51, and the CPU 20 determines the remaining capacity of the battery 52 and the free capacity of the storage medium 51.
  • An instruction is given to the external electronic camera 1 based on at least one of the above. For example, by giving an instruction to end the pairing operation, the self-photographed image during the pairing operation cannot be recorded on the storage medium 51, or the battery 52 is depleted during the pairing operation. It is possible to avoid a situation in which the electronic camera 1 becomes inoperable.
  • the sent data of (5) above is image data, and the reception level (for example, between the electronic camera 1 and another electronic camera 1 when receiving the image data from the external electronic camera).
  • the image displayed on the LCD monitor 17 is filtered according to the distance. Since the filter processing state of the reproduced image reproduced and displayed on the LCD monitor 17 changes according to the reception level, the observer can grasp the reception state intuitively.
  • the communication control circuit 22 is different from the communication control circuit 22a that communicates about the capacity of the external electronic camera, and the communication control circuit 22b that communicates data sent from the external electronic camera. To 22e, the pair operation can be appropriately performed regardless of the communication path.
  • Communication control circuit 22 (non-contact) that performs pairing with an external electronic camera by short-distance communication or communication via a human body with an external electronic camera is different from communication control circuit 22 (non-contact).
  • the control circuit 22b to 22e (direct contact) and the communication control circuit 22 (non-contact) are paired with an external electronic camera
  • the communication control circuit 22b to 22e (direct contact) is connected to the external electronic camera.
  • the CPU 20 is configured to cancel pairing when the measured time exceeds a predetermined time. As a result, even if the user forgets the canceling operation, the pairing operation can be automatically terminated.
  • the parent-child relationship in the pair operation with the external electronic camera is determined based on the output of the attitude sensor. Therefore, the user can be automatically determined without instructing the parent-child relationship.
  • the electronic camera 1 includes an image pickup device 12 that picks up an image and outputs image data, a communication control circuit 22 that communicates with an external electronic camera, and an external electronic camera via the communication control circuit 22. And the CPU 20 for setting different shooting conditions for at least some of the shooting conditions. For this reason, it is possible to appropriately perform the shooting pair operation. For example, it can be avoided that the captured images become the same.
  • the same subject can be shot with different tastes.
  • the electronic camera 1 communicates between the imaging device 12 that captures an image and outputs image data, the communication control circuit 22 that communicates with the external electronic camera, and the external electronic camera via communication. And a CPU 20 that performs predetermined imaging processing.
  • the CPU 20 includes a CPU 20 that prompts framing so as to photograph the same subject from different photographing directions with an external electronic camera. Therefore, shooting at different angles can be easily performed.
  • the CPU 20 that promotes framing includes a CPU 20 that detects a face based on image data from the image sensor 12 and a CPU 20 that determines a direction in which the face is captured based on the detected face. You can easily shoot people by angle.
  • a memory card I / F 21 that records image data output from the image sensor 12 in the storage medium 51 is provided. Then, the CPU 20 provides information indicating that the image data output during the establishment of communication with respect to the image data output from the image sensor 12 while the communication with the external electronic camera is established.
  • the memory card I / F 21 recording means is controlled to be added. For this reason, information indicating pair photographing can be recorded.
  • the cooperative shooting 2 since the electronic camera 1 on the “base unit” side and the electronic camera 1 on the “slave unit” side are controlled to capture each other while pairing is established, the shooting performed by the electronic camera 1 alone is performed. Compared to time, it can cover a long shooting time.
  • the “main device” and the “slave device” shoot the same subject at different shooting angles, continuous shooting (or video) shooting at different shooting angles is so-called between the “main device” and the “slave device”. Can be done continuously while “catch ball”.
  • step S13 In the processing of FIG. 6 described above, when an affirmative determination is made in step S13 (FIG. 6), it is checked whether or not the identification information of the electronic camera 1 returned (step S12) is stored in the flash memory 19. It may be configured.
  • the CPU 20 stores, in the flash memory 19, the number of times that pairing has been established and the accumulated time of pairing for each piece of identification information (for example, the ID of the electronic camera 1) that indicates a pairing establishment partner when pairing is completed. is doing. Therefore, by referring to the stored information, when the identification information of the electronic camera 1 that has returned is stored, it is determined that the other party has a pairing record, and the process proceeds to step S16 to establish pairing.
  • identification information for example, the ID of the electronic camera 1 that has returned is stored.
  • the identification information of the electronic camera 1 that has returned is not stored in the flash memory 19
  • the pairing that is stored in the electronic camera 1 that is the reply source is established for the electronic camera 1 that is the reply source.
  • the CPU 20 that has received the response collates the identification information stored in the flash memory 19 with the identification information included in the reply. Check if a common pairing partner is included.
  • the CPU 20 determines that the partner is a “friend of a friend” and displays a message “There is a common pair partner. Do you want to perform a new pairing?” It is displayed on the monitor 17.
  • the CPU 20 proceeds to step S16 to start pairing.
  • the rank at the time of pairing described above may be changed in real time according to the communication state (communication distance).
  • the CPU 20 on the “master” side changes the rank according to the received signal level in the communication control circuit 22 because the received signal level changes according to the communication distance.
  • the main CPU 20 ranks down the rank when the received signal level falls below the determination threshold value.
  • the CPU 20 stores the change contents in the flash memory 19 in association with the identification information of the pairing partner, and performs browsing restriction and copy restriction according to the changed rank.
  • the rank information is transmitted from the “master unit” to the “slave unit” and managed by the “master unit”.
  • Mode 3 While pairing is in progress, images that are allowed to be viewed (published) to the other party of the pairing (images in a file folder that has been set in advance by the user) and images that have been permitted to be viewed by the other party (that is, the other party has been set in advance to share)
  • the rank at the time of pairing may be changed according to the degree of similarity with the image in the file folder.
  • the CPU 20 determines the level of similarity using a known pattern matching method.
  • the CPU 20 on the “parent device” side increases the rank as the similarity is higher, and lowers the rank as the similarity is lower.
  • the CPU 20 saves the change contents in the flash memory 19 in association with the identification information of the partner who has established the pairing, and performs browsing restriction and copy restriction according to the rank after the change.
  • the rank information is changed from “parent device” to “child device”. ”And managed by the“ master unit ”is the same as described above.
  • friends who are active in the same circle, etc. or friends who act together are likely to shoot similar subjects.
  • By dividing the rank according to the degree of similarity of the captured images it is possible to automatically group pairing partners with similar preferences regarding shooting.
  • Mode 4 While pairing has been established, images that are allowed to be viewed (disclosed) by the pairing partner (images in a file folder that has been set in advance by the user) and images that have been permitted to be viewed by the partner (partner side that has been set in advance)
  • the image in the file folder) and the shooting position may be compared to change the rank during pairing.
  • the CPU 20 on the “master” side increases the rank as the shooting position is closer, and lowers the rank as the shooting position is farther.
  • the CPU 20 saves the change contents in the flash memory 19 in association with the identification information of the partner who has established the pairing, and performs browsing restriction and copy restriction according to the rank after the change.
  • the rank information is changed from “parent device” to “child device”. ”And managed by the“ master unit ”is the same as described above.
  • friends who are active in the same circle, etc. or friends who act together are likely to shoot in the same place.
  • pairing partners with similar preferences regarding shooting can be automatically grouped.
  • a person who shoots under the same shooting conditions is likely to have a close preference for shooting.
  • pairing partners with similar preferences regarding shooting can be automatically grouped.
  • the rank may be changed according to the pairing establishment condition.
  • the CPU 20 on the “master unit” side is the normal rank (that is, the management information recorded in the flash memory 19, the number of pairing establishments and the pairing establishment number). Compared with the rank determined according to the ring accumulated time, the rank is increased by one level.
  • pairing is established by human body communication, it is assumed that the intimacy is high, so the rank is automatically raised to improve usability.
  • the CPU 20 saves the change contents in the flash memory 19 in association with the identification information of the pairing partner, and restricts browsing and copying according to the rank after the change, rank information Is transmitted from the “master unit” to the “slave unit” and managed by the “master unit” in the same manner as described above.
  • pairing partners with high intimacy can be automatically grouped.
  • the rank at the time of pairing may be changed according to the smile degree obtained from the through image used for “face identification”.
  • the smile level obtained from the through image used for “face identification” is higher than a predetermined value
  • the CPU 20 on the “master” side is the normal rank (that is, the management information recorded in the flash memory 19).
  • the rank is determined according to the number of times the pairing is established and the pairing accumulated time).
  • the degree of smile is high, it is assumed that the closeness is high. Therefore, the rank is automatically raised to improve usability.
  • the smile level is determined when a smile is detected.
  • CPU20 determines whether it is a smile based on the data corresponding to the area
  • the shooting conditions may be varied so that the focal length of the “master unit” is longer than the focal length of the “slave unit”. For example, when the focal length of the “master unit” is 85 mm, the focal length of the “slave unit” is 35 mm. It is possible to avoid the images taken by the electronic camera 1 on the “parent device” side and the electronic camera 1 on the “child device” side from being similar to each other. Then, the white balance adjustment value used in the electronic camera 1 of the image taken in “wide” (corresponding to 35 mm in this example) is used as the white balance adjustment value used in the other electronic camera 1.
  • the same shutter speed may be set between the “master unit” and the “slave unit”.
  • Such a setting of the imaging condition is a preferable setting when cooperatively shooting the same moving subject at approximately the same time. For example, it is possible to simultaneously acquire either an image where the subject is stopped or an image where the subject is flowing.
  • different aperture values may be controlled between the “master unit” and the “slave unit”.
  • Such a setting is suitable when cooperative shooting is performed on the same subject at approximately the same time. For example, images with different blurring feelings can be simultaneously acquired. Therefore, the user can select a favorite image after shooting.
  • different shutter speeds may be set between the “master unit” and the “slave unit”.
  • Such a setting is suitable when the same moving subject is photographed at approximately the same time. For example, it is possible to simultaneously acquire an image in which the subject is stopped and an image in which the subject is flowing.
  • shooting conditions include the zoom ratio, shutter speed, aperture value, sensitivity, and color adjustment processing information of the shooting optical system as described above.
  • step 10 continuous shooting may be performed until the number of continuous shots after the release button 23a is pressed down reaches a predetermined frame (for example, 30 frames).
  • a predetermined frame for example, 30 frames.
  • the CPU 20 makes an affirmative determination in step 206 when the number of continuously shot frames after the affirmative determination in step S202 (or S212) reaches the predetermined frame.
  • a moving image file may be generated and recorded.
  • one electronic camera 1 may record as a still image and the other electronic camera 1 may record as a moving image.
  • Step S201 While the other electronic camera 1 is on standby for shooting while shooting with one electronic camera 1, it may be configured to record while waiting for shooting.
  • the CPU 20 makes a positive determination in step S201, the CPU 20 causes the microphone 26 to start collecting sound for recording, and continues sound collection until it makes a positive determination in step S211.
  • the CPU 20 sends an instruction to the audio processing circuit 25 to sequentially amplify the audio signal collected by the microphone 26 and convert it into digital audio data.
  • the CPU 20 includes, in the header area (tag area) in the audio file, information indicating that the audio is recorded during pairing establishment. Then, the CPU 20 sends an instruction to the memory card interface 21 to record the audio file on the storage medium 51.
  • the information indicating that the voice is recorded while pairing is established includes identification information of the other party of pairing, recording time information based on recording and time keeping after time adjustment. Note that the CPU 20 may record information indicating that the voice is recorded during pairing establishment as a separate file associated with the voice file instead of recording the information in the header area of the voice file.
  • “master unit” and “slave unit” in the case of “camera touch” are determined based on the up / down determination, but “master unit” and “slave unit” are determined based on the left / right determination. May be determined.
  • the CPU 20 performs, for example, left side determination processing in step S25 (FIG. 6).
  • the left side determination is to determine which electronic camera 1 is located on the left side when the electronic cameras 1 are in contact with each other.
  • the left side direction is obtained when the electronic camera 1 is viewed from the back side. The one located is the “left” side.
  • the CPU 20 performs the left side determination with reference to the determination table illustrated in FIG. 20 based on the gravity direction based on the detection signal from the attitude sensor 24 and the contact electrode information based on the signal from the communication control circuit 22. For example, a case will be described as an example where the electronic camera 1 is held in the vertical position (the right side surface is downward) and the left side surface (normal position) of another electronic camera 1 is touched with the surface having the release button 23a.
  • the CPU 20 of the electronic camera 1 determines “left” because the gravitational direction is on the transmission / reception electrode 22d side and the contact electrode is the transmission / reception electrode 22b.
  • the one determined “left” is the “parent device” in pairing
  • the one determined “right” is the “child device” in pairing.
  • the CPU of the other electronic camera 1 touched by the electronic camera 1 has the gravitational direction on the transmission / reception electrode 22c side (normal position) and the contact electrode on the left side (the transmission / reception electrode 22e). , "Right" judgment. If the CPU 20 makes the “left” determination, it makes a positive determination in step S25 and proceeds to step S16. The CPU 20 that has not determined “left” makes a negative determination in step S25 and proceeds to step S20.
  • the CPU 20 acquires information that the free space of the storage medium 51 on the other electronic camera 1 side is smaller than the predetermined free space by communication. If the remaining capacity of the battery 52 is smaller than the predetermined remaining capacity, the information indicating that the remaining capacity of the battery 52 on the other electronic camera 1 side is smaller than the predetermined remaining capacity is obtained by communication. When applicable, the pairing is automatically terminated. In addition to this, the CPU 20 determines that the remaining capacity of the storage medium 51 is less than the predetermined remaining capacity at the time before starting the process of step S11 (FIG. 6), or the remaining capacity of the battery 52 is less than the predetermined remaining capacity. If the number is small, the processing shown in FIG.
  • the CPU 20 that has received the communication request determines that the remaining capacity of the storage medium 51 is less than the predetermined remaining capacity at the time before the reply (step S18) or the remaining capacity of the battery 52 is the predetermined remaining capacity. If the number is smaller, the processing in FIG. 6 may be terminated without replying. According to the modified example 15, it is possible to avoid that recording to the storage medium 51 cannot be performed while the pairing is established, or that the battery 52 is consumed and cannot be operated while the pairing is established.
  • the example of registering the “face” of a person who uses an external device has been described as an example of registering in advance an external device that establishes pairing. Instead, the name of the external device or the like may be registered.
  • the CPU 20 displays an “external device setting” screen on the LCD monitor 17 instead of the “pairing person setting” screen (FIG. 5).
  • the CPU 20 displays an external device list in place of the “face” thumbnail image.
  • the external device list includes, for example, the name, model number, and ID of each external device.
  • the CPU 20 sets an external device indicated by a check mark similar to FIG. 5 as an external device to be paired with. Then, on the condition that the ID included in the information returned in response to the communication request (step S11 (FIG. 6)) matches the ID of the external device set using the “external device setting” screen, the CPU 20 Establishes pairing.
  • step S11 it is determined whether or not the ID included in the information returned in response to the communication request (step S11) matches the ID of the external device set using the “external device setting” screen.
  • the communication control circuit 22 is configured so that power is always supplied.
  • the CPU 20 determines that the external device is not activated or the power is off, and passes through the communication control circuit 22. A signal for starting the external device or turning on the power may be transmitted. Then, based on the information returned from the external device after activation, the CPU 20 determines whether the external device is in an operable state, and establishes pairing if it is operable.
  • the CPU 20 receives information from the external device as to whether or not the user has detected contact with the housing by a contact sensor provided on the housing or the like of the external device, and whether or not the user has detected an operation on the external device. By receiving, it is determined whether or not the external device is in an operable state. Note that the transmitting / receiving electrodes 22b to 22e provided in the external device may be used as contact sensors.
  • the modified example of the communication request can also be applied to the above embodiment that describes an example of registering a “face” of a person who uses an external device.
  • the CPU 20 recognizes the face on which the user is registered and photographed on the image displayed on the LCD monitor 17, and, for example, when the OK switch 23 h is pressed, via the communication control circuit 22, The camera should be turned on. Further, as shown in FIG. 5, the CPU 20 may activate the electronic camera 1 owned by the person whose check box is checked on the pairing person setting screen via the communication control circuit 22. In this case, since it may be unknown whether the person whose check box is checked is nearby, the communication distance may be set within 10 to 100 m. If the electronic camera 1 is provided with a finder for recognizing the object scene, instead of identifying the face on the image displayed on the LCD monitor 17, the face identification is performed using the image displayed on the finder. You may make it do.
  • Activating the power supply of the partner electronic camera 1 in response to a pairing request is not limited to the above-described face identification, but can also be applied to human body communication or camera touch.
  • an OK switch 23h may be used to identify a camera touch that is not a simple handshake or pairing request, or the handshake time may continue for a predetermined time, for example, 3 seconds or more.
  • the power supply of the partner electronic camera 1 may be turned on via the communication control circuit 22 when it continues for a predetermined time, for example, 3 seconds or more. In this case, the electronic camera 1 may be turned on or off.
  • the electronic camera 1 and other electronic cameras 1 only need to be configured so that power is supplied to the communication control circuit 22 even when the main power is off. And when the human body communication or the camera touch is detected by the communication control circuit 22, the electronic camera 1 can turn on the main power supply to activate each part constituting the electronic camera 1.
  • the CPU 20 displays a frame indicating each “face” and selects a frame corresponding to the largest face (the ratio of the display screen is largest). , Display in a different mode (brightness or color is different) from the other frames.
  • the cross switch 23g When the cross switch 23g is operated, the CPU 20 switches the selection frame to a frame surrounding the “face” positioned in the operation direction and displays the selection frame.
  • the CPU 20 starts communication with the external device that matches the ID associated with the “face” corresponding to the frame selected when the OK switch 23h is pressed, and establishes pairing.
  • any one pairing establishment condition is preset from among a plurality of pairing establishment conditions before starting communication with an external device. It does not have to be a configuration for setting the pairing establishment condition.
  • the CPU 20 may be configured to perform at least one discrimination process of “face identification”, “shake handshake”, and “camera touch”. Good.
  • the CPU 20 detects “handshake” or “camera touch” via the communication control circuit 22, the CPU 20 automatically starts communication with another electronic camera 1 to establish pairing. .
  • the pairing establishment condition is set to “normal”, for example, if the CPU 20 detects “shake handshake” or “camera touch”, it automatically communicates with other electronic cameras 1. May be started and pairing may be established. In these cases, instead of automatically starting communication, if the CPU 20 detects “handshake” and “camera touch”, the CPU 20 may establish the pairing on the LCD monitor 17 or not. May be displayed, and communication may be started when the OK switch 23h is pressed. In this modification, preferably, the CPU 20 establishes wireless communication with an external device determined to have the highest received signal strength detected by the wireless communication circuit, and establishes pairing.
  • the staying time in the pairing mode may be set according to the time of “handshake”.
  • the communication control circuit 22 has a human body communication function for performing communication via the human body in response to an instruction from the CPU 20.
  • the CPU 20 measures the time of “handshake” via the communication control circuit 22 and sets the staying time in the pairing mode according to the measurement time. Also, in this case, the CPU 20 ends the pairing at the earlier of the pairing mode release operation and the elapse of the pairing mode stay time determined by the “handshake” time, whichever comes first. Also good.
  • the staying time in the pairing mode may be set according to the time of “camera touch”.
  • the CPU 20 detects whether or not both electronic cameras 1 are in direct contact via the transmission / reception electrodes 22b to 22e and the communication control circuit 22 provided in the casing of the electronic camera 1.
  • the CPU 20 measures the direct contact time between the two electronic cameras 1 through the communication control circuit 22 and sets the staying time in the pairing mode according to the measurement time.
  • the CPU 20 ends the pairing at the earlier of the pairing mode release operation and the elapse of the pairing mode stay time determined by the “camera touch” time. May be.
  • the staying time in the pairing mode may be set according to the time during which “camera touch” is performed.
  • Wireless communication may be performed by transmitting / receiving infrared light as well as transmitting / receiving radio waves.
  • the electronic camera 1 has been described as an example, the electronic camera 1 may be a camera of a different model, and may be applied to electronic devices such as a camera-equipped mobile phone, a video camera, and a music player.
  • DSC digital still camera
  • a compact type electronic camera will be described as an example.
  • a single-lens reflex type or another electronic camera may be used.
  • the configuration of the electronic camera of the second embodiment is the same as the configuration of the electronic camera of the first embodiment shown in the block diagram of FIG. Note that illustration and description of camera devices and circuits that are not directly related to the image reproduction of the electronic camera are omitted.
  • the flash memory 19 stores a later-described image reproduction program included in a program to be executed by the CPU 20, and stores the reference data described in the first embodiment.
  • the CPU 20 controls various operations of the electronic camera 1 such as imaging, exposure, focus adjustment (AF), and image display, and executes an image reproduction program described later to reproduce an image. To control.
  • the memory card 51 is attached to the memory card interface 21 via a connector (not shown).
  • the memory card interface 21 writes images and various information data to the memory card 51 and reads images and various information data from the memory card 51.
  • a memory card 51 incorporating a semiconductor memory will be described as an example.
  • any type of recording medium that records images and various types of information data can be used.
  • the communication control circuit 22 performs wireless communication with an external device including another electronic camera via the antenna 22a. Further, as described in the first embodiment, the communication control circuit 22 has a human body communication function for performing communication via a human body.
  • the OK switch 23h of the operation member 23 is also used as a release button of another electronic camera having a pairing relationship.
  • the remote control shooting mode is set for another electronic camera in a pairing relationship
  • the OK switch 23h is pressed, a release signal is sent to the electronic camera via the communication control circuit 22, and the electronic camera The shooting operation is executed.
  • the CPU 20 communicates with another electronic camera having a configuration substantially similar to that of the electronic camera 1 and is capable of cooperative shooting with a plurality of cameras (hereinafter referred to as a pair). Called ring state). Specifically, a command and data are transmitted from one of the electronic camera 1 and the other electronic camera to the other, and the electronic camera that has received the command returns to the electronic camera that is the command transmission source to establish communication, and will be described later.
  • the pairing state is established by satisfying a predetermined condition.
  • the electronic camera on the side that first transmitted the command and data is used as the parent device, and the electronic device on the side that has received the command is used.
  • the camera is a slave unit.
  • the pair folder is generated every time pairing with another electronic camera is established and pairing shooting is performed with the electronic camera. For this reason, there may naturally be a case where a plurality of pair folders exist.
  • a pairing partner may be common or different, and even with the same pairing partner, there may be different shooting times (including the shooting date).
  • the pair folder property identification information of a pairing partner, shooting time information, folder sharing setting information, and the like are recorded.
  • the cooperative photographing operation at the time of pairing is the same as the cooperative photographing operation described in the first embodiment and the modification described above. That is, if the release button 23a (see FIG. 2) is operated while pairing is established, the CPU 20 executes a photographing operation.
  • the same subject is shot by a plurality of electronic cameras that are in a pairing relationship, but the shooting conditions are changed little by little by communicating with each other so that similar images do not appear. For example, when one electronic camera is set to a wide angle, the other electronic camera is automatically set to telephoto so that the zoom ratio differs to some extent.
  • an electronic camera provided with a lens with a high zoom ratio is set to telephoto by communication between the electronic cameras, and an electronic camera provided with a lens capable of photographing on the wider angle side is set to a wide angle.
  • white balance control is performed based on the image of the wide-angle electronic camera, and that information is fed back to the electronic camera on the telephoto side to execute common white balance control To do.
  • shooting guides are provided so that shooting can be performed from a somewhat different angle. That is, face recognition is performed on a through image, and guidance is performed using voice and monitor images so that the angles are different from each other, such as right front and left front, or front and side.
  • pairing shooting communication is performed between a plurality of electronic cameras that are in a pairing relationship, and shooting is performed mutually. In other words, it is possible to shoot for a long time by shifting the shooting times to each other.
  • movie shooting after shooting a movie with one electronic camera and then shooting a movie with the other electronic camera, the movie is shot while catching each other, and videos with different shooting angles are continuously recorded. Can be taken.
  • still image shooting one or more still images are shot with one electronic camera, and then one or more still images are shot with the other electronic camera.
  • a plurality of still images can be taken while playing a ball, and a slide show of a series of images taken by a plurality of electronic cameras during playback can be provided.
  • an image shot in the pairing state is not limited to the electronic camera 1, and an image shot in the pairing state is personalized. It may be transferred to a computer (hereinafter referred to as a PC) and the reproduction process described below may be executed on the PC. Alternatively, it may be transferred to a digital photo frame (hereinafter referred to as DPF) and the following reproduction process may be executed on the DPF.
  • PC computer
  • DPF digital photo frame
  • FIG. 21 is a flowchart showing an image reproduction program according to an embodiment.
  • the CPU 20 starts executing the image reproduction program shown in FIG.
  • step S401 the CPU 20 displays a “folder display” screen on the LCD monitor 17 to indicate all image folders to be reproduced. These image folders to be reproduced are paired with all image folders recorded in the memory card 51 of the electronic camera 1 shown in FIG.
  • step S402 the CPU 20 determines whether or not a pair folder has been selected by a folder selection operation using the cross switch 23g and the OK switch 23h of the operation member 23. If the pair folder has not been selected, the process proceeds to step S403, and the CPU 20 reads the image file in the selected folder and displays it on the LCD monitor 17. It should be noted that the reproduction process for images recorded in a folder other than the pair folder, that is, an image other than the pairing photographed image, is performed by a conventional method, and the description thereof is omitted here.
  • step S404 the process proceeds to step S404, and the CUP 20 reads the pairing photographed image data recorded in the pair folder of the pairing partner electronic camera. Then, the CPU 20 stores the read paired captured image data and the paired captured image recorded in the pair folder of the electronic camera 1 in the RAM 18 (see FIG. 1) as a pair image group. .
  • identification information (camera ID, etc.) of the pairing partner and shooting time information are recorded in the header area of the image file. Therefore, the CPU 20 reads the pairing photographed image from the electronic camera of the pairing partner based on the information.
  • the pair folder is generated every time pairing photographing is performed with the electronic camera when a pairing relationship is established with another electronic camera. For this reason, there may naturally be a case where a plurality of pair folders exist.
  • a pairing partner may be common or different, and even with the same pairing partner, there may be different shooting times (including the shooting date).
  • the pair folder property identification information of a pairing partner, shooting time information, folder sharing setting information, and the like are recorded.
  • the CPU 20 reads the pairing partner identification information and the shooting time information from the properties of the pair folder selected as the reproduction target. Next, the CPU 20 communicates with the electronic camera of the pairing partner and introduces the identification information of its own electronic camera and the shooting time information of the pair folder to be played back. Then, the CPU 20 requests the pairing partner's electronic camera to search for a pair folder having a shooting time almost the same as the shooting time of the pair folder to be played back.
  • the pairing partner's electronic camera checks the properties of the pair folder recorded in the memory, and searches for a pair folder corresponding to the pair folder to be played, that is, a pair folder whose pairing partner identification information and shooting time information match. Then, the pairing photographed image data included in the searched pair folder is transmitted to the requested electronic camera.
  • the identification information of the pairing partner and the shooting time information are also recorded in the header area for each paired shooting image data.
  • the CPU 20 reads out the information, introduces the identification information of the electronic camera and the shooting time information of the reproduction target image to the electronic camera of the pairing partner, and performs the pairing shooting of the reproduction target for the electronic camera of the pairing partner. Request a search for a paired image at the same time as the image.
  • the pairing partner's electronic camera examines the header area of the pairing image data recorded in the memory, searches for the pairing photographed image corresponding to the pairing photographed image to be reproduced, and retrieves the data as the requesting electronic device. Send to camera.
  • reading of a pairing photographed image from a pairing partner may be performed by wireless communication by the communication control circuit 22, or may be performed by wired communication by connecting with a pairing partner electronic camera by a communication code.
  • step S405 the CPU 20 determines whether the image of the pair image group is a person image.
  • the shooting angle may change frequently and may be difficult to see. It is more effective and natural to reproduce a paired photographed image of a person to some extent by collecting them at each photographing angle.
  • shooting scene mode setting information for example, shooting scene mode setting information such as macro, landscape, portrait, and night view is recorded.
  • the CPU 20 determines that the image is a person image when the set shooting scene mode is portrait. Alternatively, the CPU 20 may perform scene analysis on the image itself to determine whether the image is a person image.
  • the process proceeds to step S406.
  • the CPU 20 monitors the images captured by one of the paired cameras stored in the folder of the paired image group, such as images captured by one of the cameras, for example, the master unit at a predetermined time interval in the order of the capturing times. 17 is displayed and a slide show is performed. Thereafter, the CPU 20 displays images taken by the other camera, for example, the slave unit, on the LCD monitor 17 at predetermined time intervals in the order of the shooting times, and performs a slide show reproduction. Thereby, a slide show of a series of images according to the movement of the person at the time of shooting can be effectively performed for each shooting angle, and more natural image reproduction can be realized.
  • the process proceeds to step S407.
  • the SPU 20 simply displays the paired photographed images by the plurality of pairing cameras stored in the folder of the paired image group on the LCD monitor 17 at predetermined time intervals in the order of the photographing times, and performs the slide show reproduction.
  • the CPU 20 may not reproduce the paired photographed images photographed by a plurality of electronic cameras in the order of the photographing times.
  • the CPU 20 reproduces the images at the time of pairing taken by one electronic camera, for example, the parent device in order of the photographing time, and then at the time of pairing photographed by the other electronic camera, for example, the child device.
  • the playback method may be changed to playback the images in the order of the shooting time. In this case, the playback method can be changed by a custom setting operation on the playback method menu using the operation member 23.
  • the CPU 20 when playing back paired images, it may be difficult to see if many similar scenes continue. Therefore, when there are images at substantially the same shooting time, the CPU 20 adopts an image of one camera, for example, a parent device, and skips and reproduces an image of the other camera, for example, a child device. Further, the CPU 20 determines that an image with a small contour extraction amount as a result of image analysis and an image with poor image quality is an image with camera shake, and an image with the largest amount of contour extraction among images taken at approximately the same time, that is, An image without camera shake may be adopted, and an image with camera shake may be skipped and reproduced.
  • the CPU 20 may determine whether the image is smiling, adopt an image with the highest smile level (smile level) among images taken at approximately the same time, and skip and reproduce an image with a low smile level. .
  • the playback method for playing back any one of a plurality of paired shot images taken at the same time and skipping the remaining images is whether or not to execute in advance on the menu screen, or how to skip when executing. You can make custom settings in detail.
  • the CPU 20 When playing back a paired shot image on a PC or DPF, the CPU 20 starts processing from step S404 of the image playback program of FIG. 21, and reads the paired shot image from a plurality of electronic cameras in step S404.
  • the processes described above may be executed in steps S405 to S407.
  • the image playback function of the present invention is mounted on an electronic camera.
  • the above-described image playback apparatus mounted with an imaging function that is, an electronic device such as a mobile phone or a mobile PC has the above-described image.
  • a playback function may be installed.
  • pairing photographing (cooperative photographing, cooperative photographing) is performed by a plurality of electronic cameras, and the CPU 20 records a plurality of information on the pairing photographing partner (cooperative photographing partner, cooperative photographing partner) and photographing time information for each image.
  • the CPU 20 records a plurality of information on the pairing photographing partner (cooperative photographing partner, cooperative photographing partner) and photographing time information for each image.
  • a plurality of images paired and photographed by a plurality of electronic cameras at approximately the same time are aggregated as a pair image group based on information on the pairing photographing partner and photographing time information, and photographing time information is collected. Accordingly, a plurality of images included in the pair image group are reproduced in order of shooting time. Therefore, it is possible to effectively continuously reproduce a plurality of images paired and photographed by a plurality of electronic cameras, and to faithfully reproduce the movement of the subject at the time of photographing.
  • the CPU 20 plays back the images captured by the first electronic camera among the plurality of images included in the pair image group in the order of the shooting times. Images taken by the second electronic camera are played back in order of shooting time. As a result, it is possible to continuously reproduce images in accordance with the photographer's intention to shoot for each electronic camera, and to faithfully reproduce the movement of the subject for each electronic camera during shooting.
  • the CPU 20 determines whether or not a plurality of images included in the pair image group are images taken for a person. If it is determined that the image is taken for a person, the CPU 20 reproduces images taken by the first electronic camera among the plurality of images included in the pair image group in order of shooting time. After that, the images picked up by the second electronic camera are reproduced in the order of the shooting times. On the other hand, when it is determined that the images are not taken for a person, the CPU 20 reproduces all the images included in the pair image group in the order of the shooting times.
  • a paired photographed image of a person can be reproduced to a certain extent for each photographing angle, and an effective and natural feeling according to the movement of the person at the time of photographing is obtained.
  • the slide show can be realized.
  • a paired photographed image other than a person can be reproduced in the order of the photographing time, thereby realizing a slide show along the movement of the subject at the time of photographing.
  • the CPU 20 selects one of them. It was selected as a playback image and played back. Therefore, it is possible to prevent annoyance and difficulty in seeing many similar scenes.
  • the CPU 20 analyzes a plurality of images photographed at approximately the same time among a plurality of images included in the pair image group, performs contour extraction, and performs substantially the same. An image having the largest contour extraction amount among a plurality of images taken at the time is selected and reproduced as a reproduced image. As a result, it is possible to select and reproduce an image with good image quality with little camera shake.
  • the CPU 20 analyzes a plurality of images taken at approximately the same time among a plurality of images included in the pair image group, detects a smile level, and smiles. An image with the highest degree is selected as a playback image and played back. Therefore, it is possible to select and reproduce an image showing a smile.
  • FIG. 22 is a diagram showing this state.
  • the personal computer 400 is provided with a program via the CD-ROM 404.
  • the personal computer 400 also has a connection function with the communication line 401.
  • a computer 402 is a server computer that provides the program, and stores the program in a recording medium such as a hard disk 403.
  • the communication line 401 is a communication line such as the Internet or personal computer communication, or a dedicated communication line.
  • the computer 402 reads the program using the hard disk 403 and transmits the program to the personal computer 400 via the communication line 401. That is, the program is transmitted as a data signal via a carrier wave and via the communication line 401.
  • the program can be supplied as a computer-readable computer program product in various forms such as a recording medium and a data signal (carrier wave).
  • Japanese Patent Application 2010 No. 35010 (filed on Feb. 19, 2010)
  • Japanese Patent Application 2010 No. 35013 (filed on Feb. 19, 2010)
  • Japanese Patent Application No. 35014 (filed on Feb. 19, 2010)

Abstract

 電子機器は、外部機器と通信を行う通信部と、外部機器の容量と、電子機器の容量との少なくとも一方に基づいて、通信部を介して外部機器に指示を行う制御部とを備える。

Description

電子機器、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置
 本発明は、電子機器、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置に関する。
 ペアで動作するカメラが提案されており(たとえば特許文献1,2)、カメラのストロボ光の発光を利用してペアリングを行うことが提案されている。
 また、複数のカメラで協調撮影を行うようにしたカメラシステムが知られている(たとえば特許文献3)。
特開2009-33494号公報 特開平08-084282号公報 特開2001-008089号公報
 しかしながら、特許文献1では、ペア動作させるためにストロボ光を発光させなければならず、発光禁止の室内や日中の屋外での使用に適さないという問題があった。
 また、特許文献2では、双方のカメラで撮影するペア動作が含まれていないという問題があった。
 特許文献3のカメラシステムでは、複数台のカメラで協調撮影した複数の画像を再生する方法についての開示はなく、協調撮影した複数の画像を効果的に再生することが望まれる。
 本発明の第1の態様によれば、電子機器は、外部機器と通信を行う通信部と、外部機器の容量と、電子機器の容量との少なくとも一方に基づいて、通信部を介して外部機器に指示を行う制御部とを備える。
 本発明の第2の態様によれば、第1の態様による電子機器において、外部機器の容量は、電池の残容量と、記憶媒体の空き容量との少なくとも一つを含んでおり、制御部は、電池の残容量と、記憶媒体の空き容量との少なくとも一方に基づいて外部機器に指示を行うことが好ましい。
 本発明の第3の態様によれば、第1または第2の態様による記載の電子機器において、電子機器の容量は、電池の残容量と、記憶媒体の空き容量との少なくとも一つを含んでおり、制御部は、電池の残容量と、記憶媒体の空き容量との少なくとも一方に基づいて外部機器に指示を行うことが好ましい。
 本発明の第4の態様によれば、第3の態様による電子機器において、制御部が外部機器から送付されたデータを前記記憶媒体に記憶させることが好ましい。
 本発明の第5の態様によれば、第1乃至第4のいずれかの態様による電子機器において、外部機器から送付されたデータを表示する表示装置を備えることが好ましい。
 本発明の第6の態様によれば、第5の態様による電子機器において、外部機器から送付されたデータは画像データであり、外部機器から画像データを受け取る際の通信部による受信レベルに応じて、表示装置に表示する画像にフィルタ処理を行う処理装置を備えることが好ましい。
 本発明の第7の態様によれば、第6の態様による電子機器において、処理装置は、受信レベルが低くなるにつれて画像のぼかし量が大きくなるようにフィルタ処理を行うことが好ましい。
 本発明の第8の態様によれば、第4乃至第7のいずれかの態様による電子機器において、通信部は、外部機器の容量の通信を行う第1通信装置と、該第1通信装置とは異なり、外部機器から送付されるデータを通信する第2通信装置とを備えることが好ましい。
 本発明の第9の態様によれば、電子機器は、外部機器と近距離通信または人体を介した通信により外部機器とのペアリングを行う第1通信部と、外部機器と通信を行う、第1通信部とは異なる第2通信部と、第1通信部により外部機器とのペアリングがなされた場合に、第2通信部を介して外部機器に指示を行う制御部、を備える。
 本発明の第10の態様によれば、第9の態様による電子機器において、外部機器とのペアリングがなされてからの時間を計時する計時部を備えることが好ましい。
 本発明の第11の態様によれば、第10の態様による電子機器において、制御部は、計時部で計時した時間が所定時間を越えた際に、ペアリングを解消することが好ましい。
 本発明の第12の態様によれば、第1乃至第11のいずれかの態様による電子機器において、重力方向を検出する重力センサを備え、重力センサの出力に基づいて、外部機器との主従関係を決定する決定部を備えることが好ましい。
 本発明の第13の態様によれば、撮像装置は、画像データを取得する撮像部と、外部撮像装置との間で通信を行う通信部と、通信部を介して、外部撮像装置で設定された撮影条件を複数の外部撮像装置用の撮影条件として取得する取得部と、取得部により取得された外部撮像装置用の撮影条件のうち、少なくとも一部について異なる撮影条件を撮像装置用の撮影条件として設定する撮影制御部とを含む。
 本発明の第14の態様によれば、第13の態様による撮像装置において、撮影制御部は、取得部により取得された外部撮像装置撮影条件のうちの少なくとも一部について同一の撮影条件を撮像装置用の撮影条件として設定することが好ましい。
 本発明の第15の態様によれば、第13または第14の態様による撮像装置において、撮影条件は、撮影光学系の変倍比、シャッター速度、絞り値、感度および色調整処理情報の少なくとも1つであることが好ましい。
 本発明の第16の態様によれば、第15の態様による撮像装置において、撮像部により取得された画像データに対して色調整処理を行う画像処理部をさらに備え、取得部は、外部撮像装置用の撮影条件として、外部撮像装置で設定された撮像光学系の変倍比および色調整処理情報を取得し、撮影制御部は、取得部により取得された外部撮像装置の撮像光学系の変倍比と異なる変倍比に設定するとともに、取得部により取得された外部撮像装置の色調整処理情報と同一の色調整処理情報に基づいて色調整処理を行うよう画像処理部を制御することが好ましい。
 本発明の第17の態様によれば、第16の態様による撮像装置において、取得部は、外部撮像装置用の撮影条件として、外部撮像装置で設定された撮像光学系の変倍比および色調整情報を対応付けて取得し、撮影制御部は、取得部により取得された撮影光学系の変倍比と、設定された撮影光学系の変倍比とを比較し、撮像光学系の変倍比が小さい方に対応付けられた色調整処理情報に基づいて色調整処理を行うよう画像処理部を制御することが好ましい。
 本発明の第18の態様によれば、第15の態様による撮像装置において、取得部は、外部撮像装置用の撮影条件として、外部撮像装置で設定された撮像光学系の変倍比およびシャッター速度を取得し、撮影制御部は、取得部により取得された外部撮像装置の撮像光学系の変倍比と異なる変倍比に設定するとともに、取得部により取得された外部撮像装置のシャッター速度と同一のシャッター速度に設定することが好ましい。
 本発明の第19の態様によれば、第15の態様による撮像装置において、取得部は、外部撮像装置用の撮影条件として、外部撮像装置で設定された撮像光学系の変倍比および絞り値を取得し、撮影制御部は、取得部により取得された外部撮像装置の絞り値と異なる絞り値に設定するとともに、取得部により取得された外部撮像装置の光学系の変倍比と同一の変倍比に設定することが好ましい。
 本発明の第20の態様によれば、第15の態様による撮像装置において、取得部は、外部撮像装置用の撮影条件として、外部撮像装置で設定された撮像光学系の変倍比およびシャッター速度を取得し、撮影制御部は、取得部により取得された外部撮像装置のシャッター速度と異なるシャッター速度に設定するとともに、取得部により取得された外部撮像装置の光学系の変倍比と同一の変倍比に設定することが好ましい。
 本発明の第21の態様によれば、撮像装置は、画像データを取得する撮像部と、外部撮像装置との間で通信を行う通信部と、外部撮像装置との間で通信を介して所定の撮像処理を行う撮像制御部とを備え、撮像制御部は、外部撮像装置との通信の内容に基づいて、外部撮像装置との間で同一被写体を異なる撮影方向から撮影するようにフレーミングを促すアシスト部を含む。
 本発明の第22の態様によれば、第21の態様による撮像装置において、アシスト部は、撮像部からの画像データに基づいて顔を検出する顔検出部と、検出された顔に基づいて当該顔を撮影する方向を判定する撮影方向判定部と、を含むことが好ましい。
 本発明の第23の態様によれば、第13乃至第22のいずれかの態様による撮像装置において、撮像部により取得された画像データを記憶部へ記録する記録部を備え、撮像制御部は、外部撮像装置との間で通信が確立されている間に、撮像装置により取得された画像データに対して、通信確立中に撮像した画像データであることを示す情報を付加するように記録部を制御することが好ましい。
 本発明の第24の態様によれば、撮像装置は、撮像を行う撮像部と、撮像を行う他の撮像機器と通信する通信部と、通信部を介して、他の撮像機器に撮影依頼を行うとともに、少なくとも撮影依頼に応じて他の撮影機器によって撮影された画像を保存する保存領域を作成するための保存領域作成依頼を他の撮影機器に行う依頼部と、通信部を介して行われた、他の撮像機器からの保存領域作成依頼に関連して、撮像部が撮像した画像を保存する保存領域を作成する作成部と、通信部を介して、他の撮像機器が保存領域作成依頼により作成した保存領域に保存されている画像を取得する取得部と、を備える。
 本発明の第25の態様によれば、第24の態様による撮像装置において、取得部は、取得した画像を作成部が作成した保存領域に保存することが好ましい。
 本発明の第26の態様によれば、第24または第25の態様による撮像装置において、取得部は、画像を取得するときに、当該画像が撮影された時間情報を取得することが好ましい。
 本発明の第27の態様によれば、第26の態様による撮像装置において、画像を表示する表示部を有し、保存領域に保存された画像を当該画像が撮像された時系列順に表示部に表示させる制御部を備えることが好ましい。
 本発明の第28の態様によれば、第24乃至第26のいずれかの態様による撮像装置において、画像を表示する表示部と、保存領域に保存された画像を撮像部により撮像された画像と、他の撮像機器により撮像された画像とに分別して表示部に表示させる制御部とを備えることが好ましい。
 本発明の第29の態様によれば、第24乃至第26のいずれかの態様による撮像装置において、画像を表示する表示部と、保存領域に保存された画像が人物画像かどうかを判定する判定部と、判定部の判定結果に応じて、表示部に画像を表示させる制御部とを備えることが好ましい。
 本発明の第30の態様によれば、第24乃至第26のいずれかの態様による撮像装置において、画像を表示する表示部と、保存領域に保存された画像が風景画像かどうかを判定する判定部と、判定部の判定結果に応じて、表示部に画像を表示させる制御部とを備えることが好ましい。
 本発明の第31の態様によれば、第24乃至第30のいずれかの態様による撮像装置において、撮像部と、他の撮像機器とがほぼ同時刻に撮影した複数の画像が保存領域に保存されているときに、いずれか一方の画像を選択して表示部に表示させる選択部を備えることが好ましい。
 本発明の第32の態様によれば、第31の態様による撮像装置において、ほぼ同時刻に撮影された複数の画像をそれぞれ解析して輪郭抽出を行う輪郭抽出部を備え、選択部は、ほぼ同時刻に撮影された複数の画像のうち、輪郭抽出部により輪郭抽出量が多い画像を選択することが好ましい。
 本発明の第33の態様によれば、第31の態様による撮像装置において、ほぼ同時刻に撮影された複数の画像をそれぞれ解析して笑顔度合いを検出する笑顔検出部を備え、選択部は、ほぼ同時刻に撮影された複数の画像のうち、笑顔検出部により笑顔度合いが多い画像を選択することが好ましい。
 本発明の第34の態様によれば、複数の撮像装置により撮影され、画像ごとに撮影相手に関する情報と撮影時刻情報とが記録された複数の画像を再生する画像再生方法は、撮影相手に関する情報および撮影時刻情報に基づいて、複数の撮像装置により撮影された複数の画像を画像グループとして集約する集約処理と、撮影時刻情報にしたがって画像グループに含まれる複数の画像を撮影時刻の順に再生する再生処理とを実行する。
 本発明の第35の態様によれば、第34の態様による画像再生方法において、再生処理は、画像グループに含まれる複数の画像の内、第1の撮像装置により撮像された画像を撮影時刻の順に再生した後、第2の撮像装置により撮像された画像を撮影時刻の順に再生することが好ましい。
 本発明の第36の態様によれば、第34の態様による画像再生方法において、画像グループに含まれる複数の画像が人物を対象として撮影された画像か否かを判定する判定処理を含み、再生処理は、判定処理において人物を対象として撮影された画像であると判定された場合は、画像グループに含まれる複数の画像の内、第1の撮像装置により撮像された画像を撮影時刻の順に再生した後、第2の撮像装置により撮像された画像を撮影時刻の順に再生し、判定処理において人物を対象として撮影された画像でないと判定された場合には、画像グループに含まれるすべての画像を撮影時刻の順に再生することが好ましい。
 本発明の第37の態様によれば、第34乃至第36のいずれかの態様による画像再生方法において、画像グループに含まれる複数の画像の中に略同時刻に撮影された画像が複数ある場合に、それらの内のいずれかを再生画像として選択する選択処理を含み、再生処理は、選択処理により選択された画像を再生することが好ましい。
 本発明の第38の態様によれば、第37の態様による画像再生方法において、画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して輪郭抽出を行う輪郭抽出処理を含み、選択処理は、略同時刻に撮影された複数の画像の内の輪郭抽出処理により輪郭抽出量が最多であるとされた画像を再生画像として選択することが好ましい。
 本発明の第39の態様によれば、第37の態様による画像再生方法において、画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して笑顔度合いを検出する笑顔検出処理を含み、選択処理は、略同時刻に撮影された複数の画像の内の笑顔検出処理により笑顔度合いが最高であるとされた画像を再生画像として選択することが好ましい。
 本発明の第40の態様によれば、画像再生プログラムは、第34乃至第9のいずれかの態様による画像再生方法におけるすべての処理をコンピューターに実行させる。
 本発明の第41の態様によれば、記録媒体は、第40の態様による画像再生プログラムを記録している。
 本発明の第42の態様によれば、画像再生装置は、第40の態様による画像再生プログラムを記録するメモリと、画像再生プログラムを実行するマイクロコンピューターとを備える。
 請求項1,9に記載の発明によれば、屋内外にかかわらず、適切にペア動作させることができる。
 また、請求項34に記載の発明によれば、複数の撮像装置で協調撮影した複数の画像を効果的に連続再生することができる。
本発明の一実施の形態による電子カメラのブロック図である。 電子カメラの背面図である。 操作メニュー画面を例示する図である。 ペアリング成立条件設定画面を例示する図である。 ペアリング人物設定画面を例示する図である。 ペアリングを成立させる処理の流れを説明するフローチャートである。 上側判定テーブルを例示する図である。 ペアリングオフタイマー設定画面を例示する図である。 登録撮影処理時の表示画面を例示する図である。 「親機」の「フォルダ表示」画面を例示する図である。 「子機」の「フォルダ表示」画面を例示する図である。 サムネイル一覧表示例を示す図である。 「親機」に表示されるスルー画像を例示する図である。 「子機」に表示されるスルー画像を例示する図である。 「親機」に表示されるスルー画像を例示する図である。 「子機」に表示されるスルー画像を例示する図である。 CPUが連携撮影1を行う場合に行う処理の流れを例示するフローチャートである。 CPUが連携撮影2を行う場合に行う処理の流れを例示するフローチャートである。 CPUが通常を行う場合に行う処理の流れを例示するフローチャートである。 左側判定テーブルを例示する図である。 第2の実施の形態の電子カメラの画像再生プログラムを示すフローチャートである。 プログラム製品を提供するために用いる機器の全体構成を説明する図である。
 以下、図面を参照して本発明を実施するための形態について説明する。
<第1の実施の形態>
 図1は、本発明の第1の実施の形態による電子カメラ1の構成例を説明するブロック図である。図1において、電子カメラ1は、撮影光学系11と、撮像素子12と、AFE(Analog front end)回路13と、画像処理回路14と、スピーカ駆動回路15と、スピーカ16と、LCDモニタ17と、RAM18と、フラッシュメモリ19と、CPU20と、メモリカードインターフェース(I/F)21と、通信制御回路22と、操作部材23と、姿勢センサ24と、音声処理回路25と、ステレオマイク26と、照明装置28と、電源回路29と、レンズ駆動回路30とを備える。
 CPU20、RAM18、フラッシュメモリ19、メモリカードインターフェース21、通信制御回路22、音声処理回路25、レンズ駆動回路30、画像処理回路14、照明装置28、スピーカ駆動回路15およびLCDモニタ17は、それぞれがバス27を介して接続されている。
 撮影光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の撮像面に結像させる。なお、図1を簡単にするため、撮影光学系11を単レンズとして図示している。
 撮像素子12は、受光素子が撮像面に二次元配列されたCMOSイメージセンサなどによって構成される。撮像素子12は、撮影光学系11によって結像された被写体像を光電変換してアナログ画像信号を生成する。アナログ画像信号は、AFE回路13に入力される。
 AFE回路13は、アナログ画像信号に対して相関二重サンプリングやゲイン調整などのアナログ処理を行うとともに、アナログ処理後の画像信号をデジタル画像データに変換する。デジタル画像データは画像処理回路14に入力される。画像処理回路14は、デジタル画像データに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を施す。
 スピーカ駆動回路15は、CPU20から送出された音声データに基づいて、たとえば操作音、注意音、音声メッセージなどの音声再生信号を生成する。スピーカ16は、音声再生信号に基づいて音声再生を行う。
 LCDモニタ17は液晶パネルによって構成され、CPU20からの指示に応じて画像や操作メニュー画面などを表示する。RAM18はCPU20のワークメモリとして使用される。また、RAM18は、画像処理回路14による画像処理の前工程や後工程でのデジタル画像データを一時的に記憶する。フラッシュメモリ19は、CPU20に実行させるプログラムを記憶する他に、後述する参照用データを記憶する。
 CPU20は、フラッシュメモリ19が記憶するプログラムを実行することによって電子カメラ1が行う動作を制御する撮影制御部である。CPU20は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、たとえば、スルー画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式を用いる。スルー画像は、撮影指示前に撮像素子12によって所定の時間間隔(たとえば30コマ/毎秒)で繰り返し取得されるモニタ用画像のことをいう。CPU20は、クロック信号に基づいて時刻を計時する計時機能も備える。
 メモリカードインターフェース21はコネクタ(不図示)を有し、該コネクタにメモリカードなどの記憶媒体51が接続される。メモリカードインターフェース21は、接続された記憶媒体51に対するデータの書き込みや、記憶媒体51からのデータの読み込みを行う。記憶媒体51は、半導体メモリを内蔵したメモリカードなどで構成される。
 通信制御回路22は、CPU20からの指示に応じて外部機器との間での通信を制御する。通信制御回路22は、無線通信回路を備えており、アンテナ22aを介して電波を送受信する。本第1の実施の形態では、電子カメラ1と同様の構成を有する他の電子カメラ1との間で無線通信を行う例を説明する。なお、無線通信回路は、好適には、受信する信号の強度を測定したり、信号の送信範囲の制御を行うための回路、例えば、RSSI(Received Signal Strength Indicator)回路を備えている。
 通信制御回路22はさらに、CPU20からの指示に応じて人体を介して通信を行う人体通信機能を備える。具体的には、電子カメラ1の筐体の上下左右の面においてそれぞれ送受信用電極22b~22eが露出するように配設される(図2)。電子カメラ1の使用者と、他の電子カメラ1の使用者とが次のようにして電子カメラ1を介して、人体および人体間の容量結合によって閉回路を形成して、両人体をアンテナとして電子カメラ1間の通信を行うものである(再表2006/054706号公報)。すなわち電子カメラ1の使用者と、他の電子カメラ1の使用者とがそれぞれ少なくとも1つの送受信用電極に触れるように電子カメラ1を片手で把持し、両使用者が電子カメラ1を把持していない他方の手で互いに握手することで閉回路を形成する。なお、通信制御部22は、CPU20からの指示に応じてケーブルを介して通信を行う有線通信機能を備えてもよい。この場合、不図示の有線LANポート等を有する。
 操作部材23は、後述するレリーズボタン23a、ズームスイッチ23b 23c、十字スイッチ23g、メニュースイッチ23eなどを含む(図2)。操作部材23は、モード切替え操作やメニュー選択操作など、各操作に応じた操作信号をCPU20へ送出する。
 姿勢センサ24は、たとえば重力方向を検出し、検出信号をCPU20へ送出する。CPU20は、検出信号に基づいて電子カメラ1の姿勢を判定する。具体的には、CPU20は、電子カメラ1の縦位置、横位置だけでなく、上下逆さか否かも判定する。
 音声処理回路25は、マイク26で集音された音声信号を増幅し、増幅後の信号をA/D変換回路(不図示)によってデジタル音声データに変換する。照明装置28は、夜間の撮影時に被写体を照明するための装置である。電源回路29は、CPU20からの指示に応じて電池52による電圧を電子カメラ1内の各部へ供給するとともに、電池52の電圧を検出し、検出電圧を示す信号を電池残容量情報としてCPU20へ送出する。
 レンズ駆動回路30は、フォーカス調節用モータ(不図示)を駆動する回路と、ズーム調節用モータ(不図示)を駆動する回路とを含む。フォーカス調節用モータは、撮影光学系11を構成するフォーカスレンズを光軸方向に進退移動させてピント調節する。ズーム調節用モータは、撮影光学系11を構成するズームレンズを光軸方向に進退移動させて変倍比を調節する。レンズ駆動回路30は、CPU20からの指示に応じてフォーカス調節用モータおよびズーム調節用モータをそれぞれ駆動する。
 電子カメラ1のCPU20は、他の電子カメラ1(両者は同様の構成を有する)との間で通信を確立した状態で所定の協働処理を行う。電子カメラ1と他の電子カメラ1との間で通信が確立され、所定の協働処理が実行され得る状態を、以後、ペアリングとも呼ぶ。所定の協働処理が実行され得る状態とは、電子カメラ1と他の電子カメラ1との間で動作等にかかる指令を相互に送受信可能な状態である。また、協働処理としては、特に限定されるものではないが、例として以下のような処理が含まれる。例えば、電子カメラ1における動作と同一の動作を他の電子カメラ1に実行させたり、電子カメラ1における動作と異なる動作を他の電子カメラ1に実行させたり、他の電子カメラ1に画像データ等の情報を送信させたりする処理等である。電子カメラ1のペアリングは、通常、電子カメラ1および他の電子カメラ1のうち一方から他方へコマンドおよびデータを送信し、これを受信した電子カメラ1がコマンド送信元の電子カメラ1へ返信して通信を確立後、後述する所定条件を満たすことによって成立する。なお、電子カメラ1と他の電子カメラ1との間での通信方式としては、例えば、有線通信、無線通信、人体通信等が挙げられる。また、これらの通信方式は、例えば、通信の確立までは人体通信とし、その後は無線通信とするなど、適宜組合せてもよい。
 上記ペアリングを行うペアリングモードと、ペアリングを行わない通常モードとは切替え可能に構成される。このモード切替えは、たとえば、モードスイッチ23dの押下操作に応じて切替えてもよいし、メニュースイッチ23eの押下操作に応じて表示する「操作メニュー」画面の中で切替えを行うようにしてもよい。本説明では、ペアリングモードに切替えられている場合にCPU20が行う処理を中心に説明する。
<ペアリング成立条件>
 ペアリング成立条件は、4つの条件の中から選択可能に構成される。ペアリング成立条件を選択する操作は、他の電子カメラ1との間で通信を行う前に、あらかじめ以下のように行われる。
 図2は、電子カメラ1の背面図である。電子カメラ1の背面には、LCDモニタ17と、ズームスイッチ23b(T)と、ズームスイッチ23c(W)と、モードスイッチ23dと、メニュースイッチ23eと、削除スイッチ23fと、十字スイッチ23gと、OKスイッチ23hとが設けられている。また、電子カメラ1の筐体上面には上記送受信用電極22bが設けられる。また、筐体下面には上記送受信用電極22cが設けられる。そして、筐体右側面には上記送受信用電極22dが、筐体左側面には上記送受信用電極22dが、それぞれ設けられる。
 CPU20は、メニュースイッチ23eが押下操作されると、図3に例示する「操作メニュー」画面をLCDモニタ17に表示させる。「操作メニュー」には、複数の選択項目、例えば、「登録撮影」項目171と、「ペアリング成立条件設定」項目172と、「ペアリングオフタイマー」項目173と、「ペアリング人物設定」項目174とが含まれる。CPU20は、「操作メニュー」画面を表示中に十字スイッチ23gが上下方向に押下操作されると、操作信号に応じて選択項目を上下に変更する。なお、図3は、選択項目172が選択された状態を例示している。CPU20は、「ペアリング成立条件設定」項目172を選択した状態で十字スイッチ23gが決定方向(右決定)に押下操作されると、図4に例示する「ペアリング成立条件設定」画面をLCDモニタ17に表示させる。
 図4において、「ペアリング成立条件」として4つの選択項目、すなわち「通常」項目176と、「顔識別」項目177と、「握手」項目178と、「カメラタッチ」項目179とが表示される。CPU20は、図4に例示する画面を表示中に十字スイッチ23gが上下方向に押下操作されると、操作信号に応じて選択項目を上下に変更する。なお、図4は、選択項目176が選択されている状態を例示している。CPU20は、十字スイッチ23gが決定方向(右決定)に押下操作されると、その時点において選択している項目をペアリング成立条件として設定する。
<通常>
 ペアリング成立条件が「通常」に設定された場合、CPU20は、他の電子カメラ1との間の通信確立を条件にペアリングを成立させる。通信制御回路22は、所定範囲(たとえば、10m)で無線通信を行うようにあらかじめ送信電力が設定されている。なお、この送信電力は、CPU20からの指示によって段階的(たとえば、3m、50cm、3cm)に通信範囲を制限するように、あらかじめメニュー操作によって切替え可能に構成されている。
 送信電力の切替えは、通信制御回路22における送信電力を切替える代わりに、通信制御回路22における送信電力を一定に保ったまま、通信制御回路22において受信の有無を判定する際の判定閾値を高低切替えるようにしてもよい。本実施の形態においては、いずれの場合も両電子カメラ1間は非接触である。
<顔識別>
 CPU20は、スルー画像に含まれる「顔」を検出し、その「顔」が所定人物の「顔」か否かを識別する機能を備える。本第1の実施の形態においては、相手の「顔」を撮影するので、「顔」を識別する際の両電子カメラ1間は非接触である。顔検出処理および顔識別処理は、公知の技術であるため説明を省略する。ペアリング成立条件が「顔識別」に設定された場合、CPU20は、他の電子カメラ1との間の通信確立後、「顔識別」を条件にペアリングを成立させる。ペアリングを成立させる識別人物の設定操作は、他の電子カメラ1との間で通信を行う前に、あらかじめ以下のように行われる。
 CPU20は、「操作メニュー」画面(図3)を表示中に「ペアリング人物設定」項目174を選択した状態で十字スイッチ23gが決定方向(右決定)に押下操作されると、図5に例示する「ペアリング人物設定」画面をLCDモニタ17に表示させる。CPU20は、フラッシュメモリ19内に記録(登録)されている全ての参照用データの中から「顔」のサムネイル画像データを読み出し、当該サムネイル画像を表示する。参照用データは、「顔」のサムネイル画像データと、当該画像データに基づいて生成された特徴量データとを含む。特徴量データは、上記「顔識別」に用いられる。「顔識別」に用いる参照用データは、あらかじめフラッシュメモリ19内に記録(登録)されている。登録手順については後述する。
 図5において、人物A、人物B、および人物Cについての「顔」のサムネイル画像がそれぞれ表示されている。各サムネイル画像の左側には、それぞれチェックボックスが表示される。たとえば、サムネイル画像171の左側にはチェックボックス172が表示される。
 CPU20は、「ペアリング人物設定」画面を表示中に十字スイッチ23gが選択方向(上下方向)に押下操作されると、操作信号に応じてカーソル173の表示位置を上下に移動させる。CPU20は、OKスイッチ23hが押下操作された場合、カーソル173で囲まれているチェックボックス内にチェックマークを表示させる。CPU20は、チェックボックスにチェックマークを表示した状態でOKスイッチ23hが押下操作されると、当該チェックボックスのチェックマークを消す。CPU20は、「ペアリング人物設定」画面の中でチェックマークが表示されたサムネイル画像の「顔」を、識別対象として設定する。
<握手>
 ペアリング成立条件が「握手」に設定された場合、CPU20は、他の電子カメラ1との間の通信確立後、上記人体通信によるデータ受信を条件にペアリングを成立させる。たとえば、上述したように通信確立した電子カメラ1および他の電子カメラ1の双方の使用者が握手(お互いの皮膚が触れればよい)をすると形成される閉回路により、電子カメラ1同士が所定のデータを送受してペアリングを成立させる。本第1の実施の形態においては、握手の場合も両電子カメラ1間は非接触である。
<カメラタッチ>
 ペアリング成立条件が「カメラタッチ」に設定された場合、CPU20は、他の電子カメラ1との間の通信確立後、両電子カメラ1間の直接接触を条件にペアリングを成立させる。上述したように、電子カメラ1の筐体の上下左右の面においてそれぞれ送受信用電極22b~22eが露出するように配設されている(図2)。電子カメラ1同士がこれら送受信用電極22b~22eのいずれかで直接接触する場合、人体を介する人体通信時に比べて閉回路のインピーダンスが低いために大きな電流が流れる。CPU20は、通信制御回路22を通してこの信号電流の発生を検知することにより、電子カメラ1相互の接触を判定する。なお、通信制御回路22は、送受信用電極22b~22eのうちどの電極で接触したかを特定してCPU20へ知らせるように構成されている。
 ペアリングモードに切替えられているCPU20がペアリングを成立させる処理の流れについて、図6に例示するフローチャートを参照して説明する。通信確立前の通信を無線通信で行う例である。電子カメラ1のCPU20および他の電子カメラ1のCPUは、ペアリングモードに切替えられると図6による処理を行うプログラムをそれぞれ起動させる。
 図6のステップS11において、CPU20は、通信要求を行ってステップS12へ進む。たとえば、CPU20が通信制御回路22へ指示を送り、上記10m範囲に位置する他の電子カメラ1に届く送信電力で通信要求コマンドを送信させる。ステップS12において、CPU20は、通信要求に対する返信の有無を判定する。CPU20は、通信制御回路22で返信が受信された場合にステップS12を肯定判定してステップS13へ進む。CPU20は、返信が受信されない場合にはステップS12を否定判定してステップS17へ進む。
 ステップS13において、CPU20は、ペアリング成立条件が「通常」か否かを判定する。CPU20は、ペアリング成立条件が「通常」に設定されている場合、ステップS13を肯定判定してステップS16へ進む。CPU20は、ペアリング成立条件が「通常」に設定されていない場合には、ステップS13を否定判定してステップS14へ進む。
 ステップS16において、CPU20は通信制御回路22へ指示を送り、他の電子カメラ1へ確認信号を送信させるとともに、送信先である他の電子カメラ1との間のペアリング成立回数を計数するカウンタを1つインクリメントさせてステップS27へ進む。確認信号は、ペアリングにおける「親機」が「子機」へ発する信号である。ここで、上記通信要求に通信要求側の識別情報(たとえば、電子カメラ1のID)を含め、上記返信に返信側の識別情報(他の電子カメラ1のID)を含めることにより、ペアリングの成立をIDごとに管理する。
 本第1の実施の形態では、「親機」と「子機」を以下のように決定する。ペアリング成立条件が「通常」に設定されている場合(ステップS13を肯定判定)は、最初に通信要求を送信(S11)した電子カメラ1をペアリングにおける「親機」とし、該通信要求に応じて返信(S18)した電子カメラ1をペアリングにおける「子機」とする。ペアリング成立条件が「顔認識」に設定されている場合(ステップS15を肯定判定)は、「顔識別」を行った方の電子カメラ1をペアリングにおける「親機」とし、「顔識別」された方の電子カメラ1をペアリングにおける「子機」とする。ペアリング成立条件が「握手」に設定されている場合(ステップS23を肯定判定)は、上記人体通信による閉回路を介して最初にコマンドおよびデータを送信した電子カメラ1をペアリングにおける「親機」とし、これを受信した電子カメラ1をペアリングにおける「子機」とする。「カメラタッチ」の場合の「親機」と「子機」の決定については後述する。
 ステップS27において、CPU20は、時刻合わせを行って図6による処理を終了する。時刻合わせは、たとえば、「親機」の時刻に「子機」の時刻を合わせることによって行う。具体的には、CPU20が通信制御回路22へ指示を送り、時刻情報を他の電子カメラ1へ送信させる。これにより、「親機」の時刻情報が「子機」へ伝えられて両者の時刻を揃えることができる。図6の処理の終了により、「親機」と「子機」との関係でペアリングが成立する。そして、時刻合わせのなされた「親機」と「子機」とは、ペアリング成立後、計時をそれぞれ開始する。CPU20は、ペアリング成立中において所定の処理を行う。ペアリング成立中の処理については後述する。
 ステップS14において、CPU20は、ペアリング成立条件が「顔識別」か否かを判定する。CPU20は、ペアリング成立条件が「顔識別」に設定されている場合、ステップS14を肯定判定してステップS15へ進む。CPU20は、ペアリング成立条件が「顔識別」に設定されていない場合には、ステップS14を否定判定してステップS22へ進む。
 ステップS15において、CPU20は、「顔識別」したか否かを判定する。CPU20は、登録されている顔を識別した場合にステップS15を肯定判定してステップS16へ進み、登録されている顔を識別しない場合にはステップS15を否定判定してステップS26へ進む。なお、CPU20は、「顔識別」に用いるスルー画像をLCDモニタ17にリアルタイムに再生表示させるとともに、「顔識別」した場合には、当該「顔」を示す表示(たとえば、「顔」を囲む枠など)をスルー画像に重ねて表示させる。CPU20は、複数の「顔」を識別した場合には、たとえば、1番大きい顔(スルー画像に占める割合が最大のもの)を選ぶ。
 ステップS22において、CPU20は、ペアリング成立条件が「握手」か否かを判定する。CPU20は、ペアリング成立条件が「握手」に設定されている場合、ステップS22を肯定判定してステップS23へ進む。CPU20は、ペアリング成立条件が「握手」に設定されていない場合には、ステップS22を否定判定してステップS24へ進む。
 ステップS23において、CPU20は、通信制御回路22から人体通信にて所定のデータを受信したことを示す信号が送信されるとステップS23を肯定判定してステップS16へ進む。CPU20は、人体通信による所定のデータ受信を示す信号が通信制御回路22から送信されない場合には、ステップS23を否定判定してステップS26へ進む。なお、本第1の実施の形態では、人体通信の閉回路が形成されると、ペアリング成立可を示すデータを送るように構成されている。
 ステップS24において、CPU20は、通信制御回路22から電子カメラ1相互の接触を示す信号を受信したか否かを判定する。CPU20は、通信制御回路22から電子カメラ1相互の接触を示す信号が入力されるとステップS24を肯定判定してステップS25へ進む。CPU20は、相互接触を示す信号が入力されない場合にはステップS24を否定判定してステップS26へ進む。
 ステップS25において、CPU20は上側判定処理を行う。上側判定とは、電子カメラ1相互が接触した場合にどちらの電子カメラ1が上側に位置するかを判定するものである。本第1の実施の形態では反重力方向に位置するものを「上」側とする。
 CPU20は、姿勢センサ24からの検出信号に基づく重力方向、および通信制御回路22からの信号に基づく接触電極情報に基づいて、図7に例示する判定テーブルを参照して上側判定を行う。たとえば、電子カメラ1を縦位置(右側面を下方)に保持して、該右側面にて他の電子カメラ1の上面(正位置)をカメラタッチした場合を例に説明する。電子カメラ1のCPU20は、重力方向が送受信電極22d側であって、接触電極が該送受信電極22dであることから、「上」判定をする。本第1の実施の形態では、「上」判定した方をペアリングにおける「親機」とし、「下」判定した方をペアリングにおける「子機」とする。一方、上記電子カメラ1にカメラタッチされた他の電子カメラ1のCPUは、重力方向が送受信電極22c側(正位置)であって、接触電極が上面(該送受信電極22b)であることから、「下」判定をする。
 「上」判定をした場合のCPU20は、ステップS25を肯定判定してステップS16へ進む。「上」判定をしなかったCPU20は、ステップS25を否定判定してステップS20へ進む。ステップS20へ進むのは、「子機」として「親機」からの確認信号を待ち受けるためである。
 ステップS26において、CPU20はタイムアウトか否かを判定する。CPU20は、所定のタイムアウト時間(たとえば、1分)を経過した場合にステップS26を肯定判定してステップS1へ戻り、上述した処理を繰り返す。CPU20は、上記タイムアウト時間を経過していない場合には、ステップS26を否定判定してステップS14へ戻り、上述した処理を繰り返す。
 ステップS12を否定判定して進むステップS17において、CPU20は、他の電子カメラ1からの通信要求の有無を判定する。CPU20は、通信制御回路22で通信要求コマンドが受信された場合にステップS17を肯定判定してステップS18へ進む。CPU20は、通信制御回路22で通信要求コマンドが受信されない場合には、ステップS17を否定判定してステップS11へ戻る。
 ステップS18において、CPU20は、返信を行ってステップS19へ進む。たとえば、CPU20が通信制御回路22へ指示を送り、他の電子カメラ1へ向けて返信を行わせる。ステップS19において、CPU20は、接触を示す信号が受信されたか否かを判定する。CPU20は、通信制御回路22から電子カメラ1相互の接触を示す信号が入力されるとステップS19を肯定判定してステップS25へ進み、相互接触を示す信号が入力されない場合にはステップS19を否定判定してステップS20へ進む。
 ステップS20において、CPU20は、通信制御回路22で他の電子カメラ1からの確認信号を受信したか否かを判定する。CPU20は、確認信号が受信された場合にステップS20を肯定判定するとともに、ペアリングを成立させてステップS28へ進む。CPU20は、確認信号が受信されない場合はステップS20を否定判定してステップS21へ進む。
 ステップS28において、CPU20は時刻合わせを行って図6による処理を終了する。時刻合わせは、「親機」から送信される時刻情報に時刻を合わせることによって行う。図6の処理の終了により、「子機」と「親機」との関係でペアリングが成立する。
 ステップS21において、CPU20はタイムアウトか否かを判定する。CPU20は、所定のタイムアウト時間(たとえば、1秒)を経過した場合にステップS21を肯定判定してステップS11へ戻り、上述した処理を繰り返す。CPU20は、上記タイムアウト時間を経過していない場合には、ステップS21を否定判定してステップS20へ戻り、上述した処理を繰り返す。なお、ステップS16における確認信号の送信は、ペアリング成立条件が「握手」の場合には人体通信によって送信しても構わない。
 以上説明したように成立したペアリングは、手動操作(たとえば、モードスイッチ23dの押下操作によるペアリングモード解除)によって終了する他、あらかじめ設定しておいたオフタイマーによって自動終了させる。また、以下の(1)~(4)の場合の少なくとも1つに該当する場合は、ペアリングを自動終了するようにしてもよい。
(1)記憶媒体51の空き容量が所定の空き容量より少ない場合。
(2)他の電子カメラ1側の記憶媒体51の空き容量が所定の空き容量より少ない旨の情報を通信によって取得した場合。
(3)電池52の残容量が所定の残容量より少ない場合。
(4)他の電子カメラ1側の電池52の残容量が所定の残容量より少ない旨の情報を通信によって取得した場合。
 さらに、両電子カメラ1の記憶媒体51の空き容量や、電池52の残容量の少なくとも1つの情報に応じて、ペアリングモードの滞在時間やペアリングモードでの静止画の撮影枚数や画像モード(高画質、標準、エコノミーなどの記録画素数)および動画撮影時の撮影時間やフレームレートを設定するようにしてもよい。なお、電子カメラ1と他の電子カメラ1との距離が上記通信範囲外へ離れた場合にもペアリングを終了する。ペアリング終了する際のCPU20は、ペアリングを成立させた相手の識別情報(たとえば、電子カメラ1のID)、当該相手の電子カメラ1とのペアリング成立回数、および当該相手の電子カメラ1とのペアリング累積時間を、電子カメラ1のIDごとに関連づけてフラッシュメモリ19内に保存しておく。
 ここで、ペアリングオフタイマーの設定手順について図8を参照して説明する。CPU20は、「操作メニュー」画面(図3)を表示中に「ペアリングオフタイマー」項目173を選択した状態で十字スイッチ23gが決定方向(右方向)に押下操作されると、図8に例示する「ペアリングオフタイマー」設定画面をLCDモニタ17に表示させる。CPU20は、「ペアリングオフタイマー」設定画面を表示中に十字スイッチ23gが選択方向(上下方向)に押下操作されると、操作信号に応じて選択項目を上下に変更する。図8は、項目72が選択されている状態を示している。CPU20は、十字スイッチ23gが右方向に押下操作されると、その時点において選択している項目に決定する。
 「オフ」項目71に決定した場合のCPU20は、ペアリングの終了を上記手動によるペアリング解除操作によって行う。「30分」項目72に決定されている場合のCPU20は、ペアリングの終了をペアリングモード解除操作、およびペアリング開始時から30分経過時のうち、いずれか早い方によって行う。ペアリング開始時は、ステップS27における時刻合わせ時点に相当する。また、「1時間」項目73に決定されている場合のCPU20は、ペアリングの終了をペアリングモード解除操作、およびペアリング開始時から1時間経過時のうち、いずれか早い方によって行う。
<登録撮影処理>
 「顔識別」に用いる参照用データをフラッシュメモリ19内に記録(登録)する処理について説明する。CPU20は、LCDモニタ17に表示中の「操作メニュー画面」(図3)において「登録撮影」項目171を選択した状態で十字スイッチ23gが右方向に押下操作されると、登録撮影処理を行うためのプログラムを起動する。
 登録撮影プログラムを起動したCPU20は、LCDモニタ17にアシスト枠Gを表示させる。図9は、LCDモニタ17の表示例を説明する図である。CPU20は、RAM18が記憶している直近のスルー画像データに基づく画像をLCDモニタ17に表示させるとともに、アシスト枠Gを表示中の画像に重ねて表示させる。撮影者は、登録しようとする被写体人物の顔がアシスト枠G内に収まるように電子カメラ1を構える。
 CPU20は、登録撮影処理を終了させる操作信号(たとえば、メニュースイッチ23eからの操作信号)を受けた場合には、アシスト枠Gの表示を終了させて登録撮影処理を終了する。一方、CPU20は、登録撮影処理を終了させる操作信号(たとえば、メニュースイッチ23eからの操作信号)を受けない場合には、レリーズスイッチがオンしたか否かを判定する。CPU20は、レリーズボタン23aが全押し操作された場合に撮影処理を行う。
 そしてCPU20は、撮影処理で取得した画像データが顔識別に使えるか否かを判定する。CPU20は、画像データのうちアシスト枠G内に対応するデータに基づいて顔検出処理を行い、顔を検出した場合には当該顔が登録されている顔か否かを判定する。具体的には、CPU20は、検出した顔の領域の画像データと、フラッシュメモリ19内に登録されているサムネイル画像の「顔」に対応する参照用データとに基づいて顔識別処理を行うことにより、検出されている人物の顔と、参照用データに含まれている人物の顔とが同一人物のものであるか否かを識別する。
 CPU20は、既に登録されている顔の場合にはLCDモニタ17に、たとえば、「既に登録されています」と表示させる。登録されている顔でない場合には新たな人物の「顔」として参照用データをフラッシュメモリ19に記録(登録)する。具体的には、CPU20は、アシスト枠G内に対応する画像データに基づいてサムネイル画像データを生成し、上記画像データに基づいて特徴量データを生成する。そして、CPU20は、サムネイル画像データおよび特徴量データを含む参照用データをフラッシュメモリ19に記録する。これにより、ペアリング人物設定画面(図5)における人物Bのように、参照用データが登録される。
<参照用データの削除>
 フラッシュメモリ19に記録(登録)された参照用データは、以下のように削除可能である。LCDモニタ17にペアリング人物設定画面(図5)を表示した状態で削除スイッチ23fが押下操作されると、CPU20は、カーソル173で示される人物に関する参照用データを削除対象とする。
 CPU20は、カーソル173で囲まれている人物Bについて、たとえば「人物Bのデータを削除しますか?」というメッセージをLCDモニタ17に表示する。CPU20は、再度削除スイッチ23fが押下操作されると、表示中のサムネイル画像データ、および対応する特徴量データを含む参照用データをフラッシュメモリ19から消去する。これにより、ペアリング人物設定画面(図5)から人物Bについての表示が削除される。
<ペアリング成立中の処理>
1.画像閲覧
 CPU20は、ペアリング成立中は、あらかじめ共有設定をしたファイルフォルダについて、その内容を相手側の電子カメラ1から無線通信(ペアリング成立条件が「握手」に設定されている場合は、無線通信または人体(上記「握手」などで形成された閉回路))を介して閲覧可能とする。本第1の実施の形態において、閲覧は、ペアリング成立相手の電子カメラ1から受信した画像データによる再生画像をLCDモニタ17に再生表示することをいい、受信した画像データを電子カメラ1内の不揮発性メモリ(フラッシュメモリ19および記憶媒体51)へ記録保存することと異なる。共有設定は、たとえば、図3に例示した「操作メニュー」における設定項目に含めて行うことができる。
 図10は、「親機」であるXさんの電子カメラ1のLCDモニタ17に表示された「フォルダ表示」画面の例である。図10において、自分(Xさん)のカメラ内のフォルダが表示されている。「自分のカメラ」側の「ペアフォルダ」は、ペアリング成立中にペアリングの相手(本例では「子機」であるBさんの電子カメラ1)に閲覧を許可するフォルダである。「自分のカメラ」側の「ペアフォルダ」内に記録されている画像ファイルは、確立している無線通信(ペアリング成立条件が「握手」に設定されている場合は、無線通信または人体通信)を介して「子機」であるBさんの電子カメラ1から閲覧できる。
 図10には、「子機」であるBさんの電子カメラ1内のフォルダも表示されている。「Bさんのカメラ」側の「ペアフォルダ」は、ペアリング成立中にペアリングの相手(本例では「親機」であるXさんの電子カメラ1)に閲覧を許可するフォルダである。
 図11は、「子機」であるBさんの電子カメラ1のLCDモニタに表示された「フォルダ表示」画面の例である。図11において、自分(Bさん)のカメラ内のフォルダが表示されている。「自分のカメラ」側の「ペアフォルダ」は、ペアリング成立中にペアリングの相手(本例では「親機」であるXさんの電子カメラ1)に閲覧を許可するフォルダである。「自分のカメラ」側の「ペアフォルダ」内に記録されている画像ファイルは、確立している無線通信(ペアリング成立条件が「握手」に設定されている場合は、無線通信または人体通信)を介して「親機」であるXさんの電子カメラ1から閲覧できる。
 図11には、「親機」であるXさんの電子カメラ1内のフォルダも表示されている。「Xさんのカメラ」側の「ペアフォルダ」は、ペアリング成立中にペアリングの相手(本例では「子機」であるBさんの電子カメラ1)に閲覧を許可するフォルダである。
 ペアリング成立中の電子カメラ1は、「自分のカメラ」側の全てのフォルダと、ペアリングの相手である「○○さんのカメラ」側の「ペアフォルダ」とを閲覧できる。フォルダ選択操作(十字スイッチ23gの押下操作で選択、およびOKスイッチ23hの押下操作で決定)が行われた場合のCPU20は、選択決定したフォルダ内に記録されている画像ファイルによるサムネイル画像をLCDモニタ17に表示させる。
 図12は、サムネイル一覧表示例を示す図である。複数のサムネイルのうち1つにカーソル131が表示されている。カーソル位置は、サムネイル選択操作(十字スイッチ23gの押下操作)で上下左右に移動自在である。OKスイッチ23hが押下操作された場合、CPU20は、その時点でカーソルが位置するサムネイル画像に対応する再生画像をLCDモニタ17にフルスクリーン表示させる。
2.ペアリングのランクづけ
 CPU20は、ペアリングを成立させた相手の情報(電子カメラ1の識別情報)にランク付けを行う。ランクは低い方から高い方へ、たとえばランク1~ランク3の3段階に分ける。「親機」側のCPU20は、ペアリングを成立させた相手(本例では識別情報によって示される電子カメラ1)とのペアリング成立回数、およびペアリング累積時間に応じてランクを上げる。ランクを上げるか否かの判定に用いるペアリング成立回数およびペアリング累積時間は、あらかじめ電子カメラ1に対して設定され、設定内容がフラッシュメモリ19に保存されている。フラッシュメモリ19に記録保存されているペアリング成立回数やペアリング累積時間の設定変更は、たとえば、図3に例示した「操作メニュー」における設定項目に含めて行うことができる。たとえば、ペアリング成立回数が20回を超える、およびペアリング累積時間が8時間を超える、のいずれかを達成した場合、「親機」側のCPU20はランク1からランク2へランクを変更し、変更内容をペアリング成立相手の識別情報に関連づけてフラッシュメモリ19に保存する。
 CPU20はさらに、たとえば、ペアリング成立回数が50回を超える、およびペアリング累積時間が20時間を超える、のいずれかを達成した場合、「親機」側のCPU20はランク2からランク3へランクを変更し、変更内容をペアリング成立相手の識別情報に関連づけてフラッシュメモリ19に保存する。一般に、ペアリングの成立頻度が高い相手は、お互いをよく知った信頼できる相手や、家族や恋人など身近で親密度が高い人物であることが多い。ペアリング実績に応じてランクを分けるようにすることで、ペアリング相手を親密度に応じて自動的にグルーピングできる。
3.ランクに応じた処理
 CPU20は、ランク1である相手(本例では識別情報によって示される電子カメラ1)とペアリング成立中は、上述したように、あらかじめ共有設定をしたファイルフォルダについて、その内容を相手側の電子カメラ1から無線通信(ペアリング成立条件が「握手」に設定されている場合は、無線通信または人体通信)を介して閲覧可能とする。この場合、CPU20は、ペアリング成立中に撮影した撮影画像に限って閲覧可能とし、ペアリング非成立時に撮影した撮影画像については相手からの閲覧対象に含めない。
 CPU20はさらに、ランク2である相手(本例では識別情報によって示される電子カメラ1)とペアリング成立中は、あらかじめ共有設定をしたファイルフォルダに含まれるペアリング成立中に撮影した撮影画像だけでなく、当該共有設定をしたファイルフォルダに含まれるペアリング非成立時に撮影した撮影画像についても相手からの閲覧対象に含める。
 そしてさらに、CPU20は、ランク3である相手(本例では識別情報によって示される電子カメラ1)とペアリング成立中は、あらかじめ共有設定をしたファイルフォルダに含まれる全画像について、閲覧だけでなくコピーも許可する。本実施形態においてコピーは、ペアリング成立相手の電子カメラ1側のファイルフォルダに含まれる撮影画像を複製し、自己の電子カメラ1側のファイルフォルダに記録保存することをいう。
 ペアリング成立相手ランク付けは、手動操作によってランクアップまたはランクダウンが可能に構成される。CPU20は、操作部材23からの操作信号によってランクアップまたはランクダウンを示す操作信号が入力された場合、操作信号に応じてランク1~ランク3の範囲でランクの変更を行う。この場合にも、CPU20は、変更内容をペアリング成立相手の識別情報に関連づけてフラッシュメモリ19に保存するとともに、変更後のランクに応じて閲覧制限やコピー制限を行う。ランク情報は、「親機」から「子機」へ送信し、「親機」が管理する。
 上述したペアリング成立回数、およびペアリング累積時間に応じたランクの自動変更と手動操作によるランクの変更とが競合した場合は、手動操作による変更が優先される。なお、CPU20は、操作部材23からの操作信号によってランクアップまたはランクダウンを示す操作信号が入力された場合、ペアリング成立相手側へランク変更要求を示す信号を送る。そして、CPU20は、変更OKを示す信号が返信された場合に限りランク変更を行い、変更OKを示す信号が返信されない場合はランク変更を行わない。
 一方、ペアリング成立相手側からのランク変更要求を示す信号を受信したCPU20は、「ランク変更要求を受信しました。ランク変更してよいですか?」というメッセージをLCDモニタ17に表示させる。CPU20は、変更OKを示す操作信号が操作部材23から受信した場合に限り、ランク変更OKを示す信号をペアリング成立相手側へ送信する。
4.閲覧時のフィルタ処理
 CPU20は、ランクの高低に応じて、閲覧時の表示解像度を変える。ペアリング成立した「親機」は、「子機」側に記録されている画像を「親機」側のLCDモニタに再生表示して閲覧させるとき、ランクによって異なるローパスフィルタ処理を行う。すなわちCPU20は、ランクが低いほど低解像度閲覧、ランクが高いほど高解像度閲覧させるように表示解像度を変える。ペアリング成立した「子機」も同様に、「親機」側に記録されている画像を「子機」側のLCDモニタに再生表示して閲覧させるときに表示解像度を変える。すなわち、CPU20は、ランクによって異なるローパスフィルタ処理を行うことにより、ランクが低いほど低解像度閲覧、ランクが高いほど高解像度閲覧させるように表示解像度を変える。
 なお、閲覧時のフィルタ処理に関しては、CPU20は、上記以外に、無線通信回路により検出された電子カメラ1間での通信状態に応じてローパスフィルタ処理を行う。通信状態の例としては、電子カメラ1間での通信強度や、単位時間当たりの信号の伝送量が挙げられる。通信強度を例にすると、CPU20は、通信強度が低いほど低解像度閲覧、通信強度が高いほど高解像度閲覧させるように表示解像度を変える。ペアリング成立した「子機」も同様に、「親機」側に記録されている画像を「子機」側のLCDモニタに再生表示して閲覧させるとき画像の表示解像度を変える。すなわち、CPU20は、通信強度によって異なるローパスフィルタ処理を行うことにより、通信強度が低いほど低解像度閲覧、通信強度が高いほど高解像度閲覧させるように表示解像度を変える。このように構成すれば、LCDモニタに再生表示された画像の解像度によって、ユーザは、両電子カメラ1間の距離が近いのか、遠いのか、容易に判断が可能となる。
5.撮影
 ペアリング成立中は、「親機」側の電子カメラ1および「子機」側の電子カメラ1がそれぞれ単独で撮影処理を行う通常撮影と、「親機」側の電子カメラ1と「子機」側の電子カメラ1とを連携させて双方で撮影処理を行う連携撮影とを行うことができる。通常撮影を行うか、連携撮影を行うかの設定は、あらかじめ、図3に例示した「操作メニュー」における設定項目に含めて行うことができる。
-通常撮影-
 CPU20は、レリーズボタン23a(図2)の操作に基づいて撮影を行う。CPU20は、撮影処理前の情報および撮影処理で取得した画像データに基づいて、画像データおよび撮影情報を含むExif形式の画像ファイルを生成する。Exif形式の画像ファイルは、JPEG画像フォーマットの画像データ内にサムネイル画像や撮影情報などのデータを埋め込むようにしたものである。CPU20は、画像ファイルを記憶媒体51へ記録する。
 Exif形式の画像ファイルの構造は、画像の付属情報を記録するヘッダ領域と撮影画像データを記録する画像データ領域とを有する。CPU20は、画像ファイル内のヘッダ領域(タグ領域)に、ペアリング成立中に撮影した画像であることを示す情報を記録する。ペアリング成立中に撮影した画像であることを示す情報は、ペアリングの相手の識別情報および時刻合わせ後の計時に基づく撮影時刻情報を含む。
 ペアリング成立中に撮影した画像であることを示す情報は、画像ファイルのヘッダ領域に記録する代わりに、画像ファイルに関連付けた別ファイルとして記録しても構わない。上記通常撮影の処理は、レリーズ操作された「親機」または「子機」がそれぞれ行う。ペアリング成立中に生成した画像ファイルは、あらかじめ共有設定をしたファイルフォルダ内に記録する。
-連携撮影1-
 ペアリング成立中において、「親機」側の電子カメラ1と「子機」側の電子カメラ1とが異なる撮影条件で撮影するように制御する。たとえば、「親機」のシャッター速度を「子機」のシャッター速度より速く制御する。連携撮影1を行う設定は、図3に例示した「操作メニュー」における設定項目に含めて行うことができる。
 図17は、ペアリング成立中のCPU20が連携撮影1を行う場合に繰り返し実行する処理の流れを例示するフローチャートである。「親機」側の電子カメラ1と「子機」側の電子カメラ1の双方のCPU20がそれぞれ実行する。図17のステップS101において、CPU20は、ペアリングの相手の電子カメラ1から送信されるレリーズ信号を受信したか否かを判定する。レリーズ信号は、「親機」および「子機」のうちレリーズボタン23a(図2)が押下操作された電子カメラ1が他方の電子カメラ1へ撮影を指示する信号である。
 CPU20は、レリーズ信号を受信した場合にステップS101を肯定判定してステップS111へ進む。ステップS111~ステップS115の処理は、ペアリング成立中に「親機」および「子機」のうちレリーズボタン23a(図2)が押下操作されなかった方の電子カメラ1のCPU20が行う処理に相当する。
 CPU20は、レリーズ信号を受信しない場合にはステップS101を否定判定してステップS102へ進む。レリーズボタン23aが「親機」および「子機」のいずれかで操作されるまでは、双方の電子カメラ1のCPU20がそれぞれステップS101~ステップS104の処理を繰り返す。
 ステップS102において、CPU20は、構図ガイド機能がオンされているか否かを判定する。構図ガイドは、ペアリング成立中に「親機」および「子機」が共通の被写体を異なる撮影アングルで撮影するようにガイドを行う機能である。構図ガイドのオン/オフ設定は、あらかじめ、図3に例示した「操作メニュー」における設定項目に含めて行うことができる。
 CPU20は、構図ガイド機能がオン設定されている場合にステップS102を肯定判定してステップS103へ進み、構図ガイド機能がオン設定されていない場合にはステップS102を否定判定してステップS104へ進む。
 ステップS103において、CPU20は構図ガイドを行う。図13および図15は、「親機」であるXさんの電子カメラ1のLCDモニタ17に表示されるスルー画像を例示する図である。図14および図16は、「子機」であるBさんの電子カメラ1のLCDモニタ17に表示されるスルー画像を例示する図である。
 「親機」および「子機」は、それぞれ自身で取得したスルー画像をLCDモニタ17に再生表示している。各CPU20は、スルー画像に基づいて「顔」検出処理を行い、「顔」を検出した場合には当該「顔」を示す枠をスルー画像に重ねて表示させる。CPU20は、「顔」領域のデータから得られる輪郭と目鼻の位置関係に基づいて、撮影方向を判定し、どちらへ動くべきかをLCDモニタ17上にガイド表示する。
 図13の場合、「親機」であるXさんが被写体人物の左へ回って電子カメラ1を構えるように促すべく、CPU20は、目安となる顔アイコンと矢印を点灯表示させ、さらにアングルガイド中であることを示す「アングルガイド」を点滅表示させる。図14の場合、「子機」であるBさんが被写体人物の右へ回って電子カメラ1を構えるように促すべく、CPU20は、目安となる顔アイコンと矢印を点灯表示させ、さらにアングルガイド中であることを示す「アングルガイド」を点滅表示させる。
 CPU20は、顔アイコンと目鼻の位置関係が合致したら、「OK」表示させて撮影を促す(図15、図16)。「OK」表示していない状態でも撮影は可能である。なお、顔アイコンや「アングルガイド」表示、「OK」表示が撮影画像に含まれるわけではない。
 ステップS104において、CPU20は、レリーズボタン23a(図2)が押下操作されたか否かを判定する。CPU20は、レリーズボタン23aの押下を示す操作信号が操作部材23から入力された場合にステップS104を肯定判定してステップS105へ進み、レリーズボタン23aの押下を示す操作信号が操作部材23から入力されない場合には、ステップS104を否定判定してステップS101へ戻る。ステップS101へ戻る場合は、CPU20は上述した処理を繰り返す。
 ステップS105~ステップS110の処理は、ペアリング成立中に「親機」および「子機」のうちレリーズボタン23aが押下操作された電子カメラ1のCPU20が行う処理である。ステップS105において、CPU20は、所定の自動露出演算(AE)および自動焦点調節処理(AF)を行ってステップS106へ進む。ステップS106において、CPU20は通信制御回路22へ指示を送り、他方の電子カメラ1へレリーズ信号を送信させてステップS107へ進む。CPU20は、レリーズ信号とともに、露出演算結果を含む撮影条件(たとえば、シャッター速度、絞り値、感度、焦点距離、ホワイトバランス調整値、画質調整情報など)を示すデータを他方の電子カメラ1へ送信させる。
 画質調整情報は、どの画質調整アルゴリズムを適用するかを示す情報である。画質調整アルゴリズムとして、たとえば、「スタンダード」、「ニュートラル」、「ビビッド」、「モノクローム」があらかじめ用意されて、画像処理(ステップS108)において適用される。
 「スタンダード」は、標準的な画像に仕上げる画質調整アルゴリズムである。「ニュートラル」は、素材の自然な色あいを重視して仕上げる画質調整アルゴリズムである。「ビビッド」は、鮮やかな画像に仕上げる画質調整アルゴリズムである。具体的には、彩度を高めて赤色と緑色を鮮やかに加工するとともに、コントラストを高めてシャープな画像を得るための画像調整アルゴリズムである。「モノクローム」は、白黒画像に仕上げる画質調整アルゴリズムである。
 ステップS107において、CPU20は、撮像処理を行わせてステップS108へ進む。ステップS108において、CPU20は画像処理回路14に指示を送り、取得した画像データに対して所定の画像処理を行わせてステップS109へ進む。ステップS109において、CPU20は、画像処理後の画像データを含む画像ファイルを生成してステップS110へ進む。ステップS110において、CPU20はメモリカードインターフェース21へ指示を送り、画像ファイルを記憶媒体51に記録させて図17による処理を終了する。
 上述したステップS101を肯定判定した場合は、他方の電子カメラ1からのレリーズ信号に応じて撮影処理を行う。ステップS111において、CPU20は、所定の自動露出演算(AE)および自動焦点調節処理(AF)を行ってステップS112へ進む。この場合の自動露出演算(AE)では、レリーズボタン23aが押下操作された方の電子カメラ1から送信されている撮影条件を示すデータに基づいて、「親機」のシャッター速度を「子機」のシャッター速度より速くするように露光条件を異ならせる。たとえば、「親機」のシャッター速度が1/1000秒で、「子機」のシャッター速度が1/250秒とする。このため、CPU20は適正露出が得られるように絞り値または感度を変える。
 ステップS112において、CPU20は、撮像処理を行わせてステップS113へ進む。ステップS113において、CPU20は画像処理回路14に指示を送り、取得した画像データに対して所定の画像処理を行わせてステップS114へ進む。CPU20は、レリーズボタン23aが押下操作された方の電子カメラ1から送信されている撮影条件を示すデータに基づいて、共通の画質調整アルゴリズムやホワイトバランス調整値を用いたり、異なる画質調整アルゴリズムやホワイトバランス調整値を用いたりすることができる。共通のアルゴリズムや調整値を使うか、あるいは異なるアルゴリズムや調整値を使うかは、あらかじめ、図3に例示した「操作メニュー」における設定項目に含めて行うことができる。
 ステップS114において、CPU20は、画像処理後の画像データを含む画像ファイルを生成してステップS115へ進む。ステップS115において、CPU20はメモリカードインターフェース21へ指示を送り、画像ファイルを記憶媒体51に記録させて図17による処理を終了する。
-連携撮影2-
 ペアリング成立中において、「親機」側の電子カメラ1および「子機」側の電子カメラ1の一方が撮影中のときは、他方の電子カメラ1が待機し、撮影中の電子カメラ1の撮影が終了したら、待機中の電子カメラ1の撮影が可能になるように制御する。連携撮影2を行う設定は、図3に例示した「操作メニュー」における設定項目に含めて行うことができる。
 図18は、ペアリング成立中のCPU20が連携撮影2を行う場合に繰り返し実行する処理の流れを例示するフローチャートである。「親機」側の電子カメラ1と「子機」側の電子カメラ1の双方のCPU20がそれぞれ実行する。図18のステップS201において、CPU20は、ペアリングの相手の電子カメラ1から送信される撮像中信号を受信したか否かを判定する。撮像中信号は、「親機」および「子機」のうちの一方の電子カメラ1がレリーズボタン23a(図2)の押下操作に応じて撮像中であることを、一方の電子カメラ1から他方の電子カメラ1へ知らせる信号である。
 CPU20は、撮像中信号を受信した場合にステップS201を肯定判定してステップS211へ進む。ステップS211およびステップS212の処理は、ペアリング成立中に「親機」および「子機」のうち待機する方の電子カメラ1のCPU20が行う処理に相当する。
 CPU20は、撮像中信号を受信しない場合にはステップS201を否定判定してステップS202へ進む。レリーズボタン23aが「親機」および「子機」のいずれかで操作されるまでは、双方の電子カメラ1のCPU20がそれぞれステップS201~ステップS202の処理を繰り返す。
 ステップS202において、CPU20は、レリーズボタン23a(図2)が押下操作されたか否かを判定する。CPU20は、レリーズボタン23aの押下を示す操作信号が操作部材23から入力された場合にステップS202を肯定判定してステップS203へ進み、レリーズボタン23aの押下を示す操作信号が操作部材23から入力されない場合には、ステップS202を否定判定してステップS201へ戻る。ステップS201へ戻る場合は、CPU20は上述した処理を繰り返す。
 ステップS203~ステップS210の処理は、ペアリング成立中に「親機」および「子機」のうちレリーズボタン23aが押下操作された電子カメラ1のCPU20が行う処理である。ステップS203において、CPU20は通信制御回路22へ指示を送り、他方の電子カメラ1へ撮像中を示す信号を送信させてステップS204へ進む。ステップS204において、CPU20は、所定の自動露出演算(AE)および自動焦点調節処理(AF)を行ってステップS205へ進む。
 ステップS205において、CPU20は、撮像処理を行わせてステップS206へ進む。ステップS206において、CPU20は、レリーズボタン23a(図2)が押下操作されているか否かを判定する。CPU20は、レリーズボタン23aの押下を示す操作信号が操作部材23から継続して入力されている場合にステップS206を肯定判定してステップS204へ戻り、上述した処理を繰り返す(連写撮影)。
 CPU20は、レリーズボタン23aの押下を示す操作信号が操作部材23から入力されていない場合には、ステップS206を否定判定してステップS207へ進む。ステップS207において、CPU20は通信制御回路22へ指示を送り、他方の電子カメラ1へ撮像終了を示す信号を送信させてステップS208へ進む。
 ステップS208において、CPU20は画像処理回路14に指示を送り、取得した画像データに対して順番に所定の画像処理を行わせてステップS209へ進む。ステップS209において、CPU20は、画像処理後の画像データを含む画像ファイルを生成してステップS210へ進む。ステップS210において、CPU20はメモリカードインターフェース21へ指示を送り、画像ファイルを記憶媒体51に記録させて図18による処理を終了する。
 上述したステップS201を肯定判定した場合は、他方の電子カメラ1からの撮像終了を示す信号を受信するまで撮影処理を行わない。ステップS211において、CPU20は、ペアリングの相手の電子カメラ1から送信される撮像終了を示す信号を受信したか否かを判定する。CPU20は、撮像終了信号を受信した場合にステップS211を肯定判定してステップS212へ進む。CPU20は、撮像終了信号を受信しない場合にはステップS211を否定判定し、当該判定処理を繰り返しながら撮像終了信号を待つ。CPU20は、撮像終了信号を待っている間は、たとえば「待機中です」というメッセージをLCDモニタ17に表示させる。
 ステップS212において、CPU20は、レリーズボタン23a(図2)が押下操作されたか否かを判定する。CPU20は、レリーズボタン23aの押下を示す操作信号が操作部材23から入力された場合にステップS212を肯定判定してステップS203へ進み、レリーズボタン23aの押下を示す操作信号が操作部材23から入力されない場合には、ステップS212を否定判定してステップS201へ戻る。ステップS201へ戻る場合は、CPU20は上述した処理を繰り返す。
-通常撮影-
 ペアリング成立中において、「親機」側の電子カメラ1および「子機」側の電子カメラ1は、それぞれが単独で撮影可能に制御する。通常撮影を行う設定は、図3に例示した「操作メニュー」における設定項目に含めて行うことができる。
 図19は、ペアリング成立中のCPU20が通常撮影を行う場合に繰り返し実行する処理の流れを例示するフローチャートである。「親機」側の電子カメラ1と「子機」側の電子カメラ1の双方のCPU20が、それぞれ実行する。
 図19のステップS301において、CPU20は、レリーズボタン23a(図2)が押下操作されたか否かを判定する。CPU20は、レリーズボタン23aの押下を示す操作信号が操作部材23から入力された場合にステップS301を肯定判定してステップS302へ進み、レリーズボタン23aの押下を示す操作信号が操作部材23から入力されない場合には、ステップS301を否定判定して当該処理を繰り返す。
 ステップS302において、CPU20は、所定の自動露出演算(AE)および自動焦点調節処理(AF)を行ってステップS303へ進む。ステップS303において、CPU20は、撮像処理を行わせてステップS304へ進む。ステップS304において、CPU20は画像処理回路14に指示を送り、取得した画像データに対して所定の画像処理を行わせてステップS305へ進む。ステップS305において、CPU20は、画像処理後の画像データを含む画像ファイルを生成してステップS306へ進む。ステップS306において、CPU20はメモリカードインターフェース21へ指示を送り、画像ファイルを記憶媒体51に記録させて図19による処理を終了する。
6.パスワードの共有
 ペアリング成立中に「親機」および「子機」間でパスワードを共有してもよい。たとえば、ペアリング成立中に「親機」および「子機」のいずれか一方でパスワードを設定した場合、CPU20はそのパスワード情報を他方の電子カメラ1へ送信し、「親機」および「子機」間でパスワードを共有する。パスワードの設定は、たとえば、メニュー画面において行う。
 共有パスワードを設定した以降は、CPU20は、ペアリング成立中に「親機」および「子機」のいずれか一方で当該共有パスワードを入力して行った設定変更内容を、他方の電子カメラ1へ送信して該他方の電子カメラ1に反映させる。たとえば、上述した通常撮影を行うか、連携撮影を行うかの設定を「親機」側で行った場合、自動的に「子機」側にも適用させる。
 共有パスワードを入力して行う設定変更項目には、上述したランクアップまたはランクダウン操作を含めてもよい。この場合には、CPU20は、操作部材23が操作された側の電子カメラ1からペアリング成立相手側の電子カメラ1へ上述したようなランク変更要求を示す信号を送ることなく、ランクアップまたはランクダウン後のランクを示す情報をペアリング成立相手側の電子カメラ1へ送る。ペアリング成立相手側から変更後のランクを示す情報を受信したCPU20は、受信情報に基づいてランクアップまたはランクダウンを行い、「ランク変更を行いました。」というメッセージをLCDモニタ17に表示させる。
 以上説明したようにパスワードを共有することで、「親機」および「子機」でそれぞれ同じ設定を行うことなく、一方から設定変更できるようになるので使い勝手を向上させることができる。
 以上説明した第1の実施の形態によれば、次の作用効果が得られる。
(1)電子カメラ1は、外部の電子カメラと通信を行う通信制御回路22と、外部の電子カメラの容量と自己の容量との少なくとも一方に基づいて、通信制御回路22を介して外部の電子カメラに指示を行うCPU20とを備えた。その結果、屋内外にかかわらず、適切にペア動作させることができる。
(2)外部の電子カメラの容量は、電池52の残容量と、記憶媒体51の空き容量との少なくとも一つを含み、CPU20は、電池52の残容量と、記憶媒体51の空き容量との少なくとも一方に基づいて外部の電子カメラに指示を行う。たとえば、ペア動作を終了する指示を行うことにより、ペア動作中に外部の電子カメラが撮影したものの、該外部の電子カメラが撮影画像を記憶媒体51へ記録できない事態や、ペア動作中に外部の電子カメラの電池52が消耗して該外部の電子カメラが動作不能に陥る事態を避けることができる。
(3)自己の電子カメラ1の容量は、電池52の残容量と、記憶媒体51の空き容量との少なくとも一つを含み、CPU20は、電池52の残容量と、記憶媒体51の空き容量との少なくとも一方に基づいて外部の電子カメラ1に指示を行う。たとえば、ペア動作を終了する指示を行うことにより、ペア動作中に自己が撮影したものの、撮影画像を自己の記憶媒体51へ記録できない事態や、ペア動作中に自己の電池52が消耗して自己の電子カメラ1が動作不能に陥る事態を避けることができる。
(4)外部の電子カメラから送付されたデータを自己の記憶媒体51に記憶するので、ペア動作中に外部の電子カメラから送付されたものの、送付データを自己の記憶媒体51へ記録できない事態を避けることもできる。
(5)外部の電子カメラから送付されたデータを表示するLCDモニタ17を備えるので、ペア動作中に外部の電子カメラから送付されたものの、送付データを自己のLCDモニタ17へ表示できない事態を避けることもできる。
(6)上記(5)の送付されたデータは画像データであり、外部の電子カメラから画像データを受け取る際の通信制御回路22による受信レベル(たとえば、電子カメラ1と他の電子カメラ1との距離)に応じて、LCDモニタ17に表示する画像にフィルタ処理を行うようにした。LCDモニタ17に再生表示される再生画像のフィルタ処理状態が受信レベルに応じて変化するので、観察者は、受信状態を直感的につかむことができる。
(7)上記(6)のCPU20は、受信レベルが低くなるにつれてぼかし量が大きくなるフィルタ処理を行うようにするので、観察者は、像ぼかしの大小によって受信状態を直感的につかむことができる。
(8)通信制御回路22は、外部の電子カメラの容量について通信を行う通信制御回路22aと、該通信制御回路22aとは異なり、外部の電子カメラから送付されるデータを通信する通信制御回路22b~22eとを備えるので、通信経路によらず適切にペア動作させることができる。
(9)外部の電子カメラと近距離通信または人体を介した通信により外部の電子カメラとのペアリングを行う通信制御回路22(非接触)と、通信制御回路22(非接触)とは異なる通信制御回路22b~22e(直接接触)と、通信制御回路22(非接触)により外部の電子カメラとのペアリングがなされた場合に、通信制御回路22b~22e(直接接触)により外部の電子カメラに指示を行うCPU20とを備えた。通信確立後、両電子カメラ間の直接接触を条件にペアリングを成立させる指示が送られるので、ペアリング成立のタイミングがわかりやすい。
(10)外部の電子カメラとのペアリングがなされてからの時間を計時するCPU20を備えたので、ペア動作時間の管理が可能になる。
(11)CPU20は、計時した時間が所定時間を越えた際に、ペアリングを解消するようにした。この結果、使用者が解消操作を忘れた場合でも、自動的にペア動作を終了できる。
(12)姿勢センサの出力に基づいて、外部の電子カメラとのペア動作における親子関係を決定するようにした。したがって、使用者が親子関係を指示することなく、自動的に決定させることができる。
(13)電子カメラ1は、撮像して画像データを出力する撮像素子12と、外部の電子カメラとの間で通信を行う通信制御回路22と、通信制御回路22を介して、外部の電子カメラで設定された撮影条件を取得するとともに、少なくとも一部の撮影条件について異なる撮影条件を設定するCPU20と、を含むようにした。このため、撮影のペア動作を適切に行うことができる。たとえば、撮影画像が同じになってしまうことが避けられる。
(14)CPU20は、通信制御回路22を介して取得した外部の電子カメラの撮影条件の少なくとも一部について同一の撮影条件を設定するので、ペア相手の電子カメラとの間で関連性を維持した撮影を行うことができる。
(15)撮影条件は、撮影光学系11の変倍比、シャッター速度、絞り値、感度および色調整処理情報の少なくとも1つとすることにより、同じ被写体を異なる趣で撮影できる。
(16)電子カメラ1は、撮像して画像データを出力する撮像素子12と、外部の電子カメラとの間で通信を行う通信制御回路22と、外部の電子カメラとの間で通信を介して所定の撮像処理を行うCPU20とを備える。そして、該CPU20は、外部の電子カメラとの間で同一被写体を異なる撮影方向から撮影するようにフレーミングを促すCPU20を含むようにした。したがって、異なるアングルによる撮影が簡単に行える。
(17)フレーミングを促すCPU20は、撮像素子12からの画像データに基づいて顔を検出するCPU20と、検出された顔に基づいて当該顔を撮影する方向を判定するCPU20と、を含むので、異なるアングルによる人物撮影が簡単に行える。
(18)撮像素子12から出力された画像データを記憶媒体51へ記録するメモリカードI/F21を備えている。そして、CPU20は、外部の電子カメラとの間で通信が確立されている間に、撮像素子12から出力された画像データに対して、通信確立中に撮像した画像データであることを示す情報を付加するようにメモリカードI/F21記録手段を制御する。このため、ペア撮影であることを示す情報を記録できる。
 上記連携撮影2によれば、ペアリング成立中において「親機」側の電子カメラ1および「子機」側の電子カメラ1が相互に撮影するように制御したので、電子カメラ1単体で行う撮影時間に比べて、長い撮影時間をカバーできる。とくに、「親機」および「子機」が共通の被写体を異なる撮影アングルで撮影する場合には、異なる撮影アングルによる連写(あるいは動画)撮影を「親機」および「子機」間でいわゆる「キャッチボール」しながら連続的に行うことができる。
 以下、本発明に係るその他の実施形態を変形例として説明する。本発明は、上述の第1の実施の形態および下記の変形例に限定されるものではなく、上述の第1の実施の形態と以下の変形例とを組合せて構成されてもよいし、また、上述した実施形態の一部に代えて以下の変形例を採用して構成されてもよい。
(変形例1)
 上述した図6の処理において、ステップS13(図6)を肯定判定した場合に、返信してきた(ステップS12)電子カメラ1の識別情報がフラッシュメモリ19内に保存されているか否かを調べるように構成してもよい。上述したように、CPU20は、ペアリング終了する際にペアリング成立相手を示す識別情報(たとえば、電子カメラ1のID)ごとに、ペアリング成立回数およびペアリング累積時間をフラッシュメモリ19内に保存している。そこで、この保存情報を参照することにより、返信してきた電子カメラ1の識別情報が保存されている場合には、ペアリング実績のある相手と判定してステップS16へ進み、ペアリングを成立させる。
 一方、返信してきた電子カメラ1の識別情報がフラッシュメモリ19内に保存されていない場合は、当該返信元の電子カメラ1に対して、返信元の電子カメラ1内に保存されているペアリング成立相手を示す識別情報を要求する。要求を受けた返信元の電子カメラ1が上記識別情報を含めて返信すると、この返信を受け取ったCPU20は、フラッシュメモリ19に保存されている識別情報と、返信に含まれる識別情報とを照合し、共通のペアリング相手が含まれているか否かを調べる。
 照合の結果、共通するペアリング相手が存在した場合のCPU20は、「友人の友人」である相手として判定し、「共通のペア相手がいます。新規ペアリングを行いますか?」というメッセージをLCDモニタ17に表示させる。CPU20は、「OK」操作を示す操作信号が操作部材23から入力された場合にペアリングを開始するべくステップS16へ進む。
 上記メッセージをLCDモニタ17に表示させたものの「OK」操作を示す操作信号が操作部材23から入力されない場合、および上記照合の結果、共通するペアリング相手が存在しなかった場合のCPU20は、ペアリングを開始することなくステップS11へ戻る。以上説明した変形例1によれば、共通する友人を有する相手が所有する電子カメラ1との間のペアリングを促すことができる。
(変形例2)
 ペアリング成立中において、通信状態(通信距離)に応じて上述したペアリング時のランクをリアルタイムに変化させてもよい。「親機」側のCPU20は、受信信号レベルが通信距離に応じて変化することから、通信制御回路22における受信信号レベルに応じてランクを変化させる。ペアリング成立中であってランクがランク3およびランク2の場合、それぞれ受信信号レベルが判定閾値より低下するとメインCPU20はランクをランクダウンさせる。この場合、CPU20は、変更内容をペアリング成立相手の識別情報に関連づけてフラッシュメモリ19に保存するとともに、変更後のランクに応じて閲覧制限やコピー制限を行う。ランク情報は、「親機」から「子機」へ送信し、「親機」が管理する。
 ペアリング時のランクをリアルタイムに変化させることで、ペアリング成立中に「親機」および「子機」間で行う画像閲覧時のローパスフィルタ処理がリアルタイムに変化する。このため、変形例2によれば、ペアリング成立相手側の電子カメラ1のファイルフォルダに含まれる撮影画像を自己の電子カメラ1に再生表示させて閲覧する場合に、自己の電子カメラ1のLCDモニタ17に再生表示される再生画像のぼけ具合が通信状態(通信距離)に応じて変化するので、ペアリング成立相手との距離を直感的につかむことができる。
(変形例3)
 ペアリング成立中において、ペアリングの相手に閲覧許可(公開)する画像(自己側であらかじめ共有設定をしたファイルフォルダ内の画像)と、相手から閲覧許可された画像(相手側であらかじめ共有設定されたファイルフォルダ内の画像)との類似度に応じてペアリング時のランクを変化させてもよい。CPU20は、公知のパターンマッチング手法を用いて類似度の高低を判定する。「親機」側のCPU20は、類似度が高いほどランクを上げ、類似度が低いほどランクを下げる。CPU20が変更内容をペアリング成立相手の識別情報に関連づけてフラッシュメモリ19に保存するとともに、変更後のランクに応じて閲覧制限やコピー制限を行う点、ランク情報を「親機」から「子機」へ送信し、「親機」が管理する点は、上述した場合と同様である。
 一般に、同じサークル等で活動する仲間同士や、行動を共にする友人は、同じような被写体を撮影する可能性が高い。撮影画像の類似度合いに応じてランクを分けるようにすることで、撮影に関して嗜好が近いペアリング相手を自動的にグルーピングできる。
(変形例4)
 ペアリング成立中において、ペアリングの相手に閲覧許可(公開)する画像(自己側であらかじめ共有設定をしたファイルフォルダ内の画像)と、相手から閲覧許可された画像(相手側であらかじめ共有設定をしたファイルフォルダ内の画像)とで、撮影位置(GPS情報)を比較してペアリング時のランクを変化させてもよい。「親機」側のCPU20は、撮影位置が近いほどランクを上げ、撮影位置が遠いほどランクを下げる。CPU20が変更内容をペアリング成立相手の識別情報に関連づけてフラッシュメモリ19に保存するとともに、変更後のランクに応じて閲覧制限やコピー制限を行う点、ランク情報を「親機」から「子機」へ送信し、「親機」が管理する点は、上述した場合と同様である。
 一般に、同じサークル等で活動する仲間同士や、行動を共にする友人は、同じような場所で撮影する可能性が高い。撮影位置が合致する度合いに応じてランクを分けるようにすることで、撮影に関して嗜好が近いペアリング相手を自動的にグルーピングできる。
(変形例5)
 ペアリング成立中において、ペアリングの相手に閲覧許可(公開)する画像(自己側であらかじめ共有設定をしたファイルフォルダ内の画像)と、相手から閲覧許可された画像(相手側であらかじめ共有設定をしたファイルフォルダ内の画像)とで、撮影条件を比較してペアリング時のランクを変化させてもよい。「親機」側のCPU20は、撮影条件が合致するほどランクを上げ、撮影条件が異なるほどランクを下げる。CPU20が変更内容をペアリング成立相手の識別情報に関連づけてフラッシュメモリ19に保存するとともに、変更後のランクに応じて閲覧制限やコピー制限を行う点、ランク情報を「親機」から「子機」へ送信し、「親機」が管理する点は、上述した場合と同様である。
 一般に、同様の撮影条件で撮影する人は撮影に関して嗜好が近い可能性が高い。撮影条件が合致する度合いに応じてランクを分けるようにすることで、撮影に関して嗜好が近いペアリング相手を自動的にグルーピングできる。
(変形例6)
 ペアリング成立条件によってランクを変化させてもよい。「親機」側のCPU20は、上述した「握手」によってペアリングを成立させた場合に、通常のランク(すなわち、フラッシュメモリ19に記録している管理情報であって、ペアリング成立回数およびペアリング累積時間に応じて決定されるランク)に比べて1段階ランクアップする。人体通信によってペアリング成立する場合は親密度が高いことが想定されるので、自動的にランクアップさせて使い勝手をよくする。このようにランクアップする場合も、CPU20が変更内容をペアリング成立相手の識別情報に関連づけてフラッシュメモリ19に保存するとともに、変更後のランクに応じて閲覧制限やコピー制限を行う点、ランク情報を「親機」から「子機」へ送信し、「親機」が管理する点は、上述した場合と同様である。変形例6によれば、親密度が高いペアリング相手を自動的にグルーピングできる。
(変形例7)
 ペアリング成立条件が「顔識別」である場合に、「顔識別」に用いたスルー画像から得られる笑顔度合いに応じてペアリング時のランクを変化させてもよい。「親機」側のCPU20は、「顔識別」に用いたスルー画像から得られる笑顔度合いが所定値より高い場合に、通常のランク(すなわち、フラッシュメモリ19に記録している管理情報であって、ペアリング成立回数およびペアリング累積時間に応じて決定されるランク)に比べて1段階ランクアップする。笑顔度合いが高い場合は親密度が高いことが想定されるので、自動的にランクアップさせて使い勝手をよくする。
 本変形例では、笑顔度合いの判定を笑顔検出時に行う。CPU20は、スルー画像データのうち特定した人物の顔の領域に対応するデータに基づいて笑顔であるか否かを判定する。笑顔判定処理は、公知の技術であるため説明を省略する。CPU20はさらに、笑顔を判定した場合には当該笑顔についての笑顔レベルを判定する。笑顔レベルは、たとえば、2(大笑い)と、1(中笑い)と、0(微笑み)との3段階に分ける。CPU20は、笑顔レベルが2の場合に通常ランクより1段階ランクアップする。
(変形例8)
 上述した連携撮影1において、「親機」の焦点距離を「子機」の焦点距離より長くするように撮影条件を異ならせてもよい。たとえば、「親機」の焦点距離が85mm相当の場合、「子機」の焦点距離を35mm相当とする。「親機」側の電子カメラ1および「子機」側の電子カメラ1による撮影画像がお互い似てしまうことが避けられる。そして、「ワイド」で撮影した方(本例では35mm相当)の電子カメラ1で用いるホワイトバランス調整値を、他方の電子カメラ1で用いるホワイトバランス調整値として用いるようにする。
 一般に、「ワイド」で撮影した方が「ズーム」で撮影した場合より撮影画面内の色情報が多いので、より適切なホワイトバランス調整値が得られる。このホワイトバランス調整値を「親機」および「子機」の双方で共通に用いることで、異なる調整値を用いる場合に比べて、両電子カメラ1で撮影された色合いを揃えることができる。このような制御は、同一被写体を略同一時刻で連携撮影するときに好適である。
 また、「親機」と「子機」との間で異なる焦点距離に制御する場合は「親機」と「子機」との間で同じシャッター速度に揃えてもよい。撮像条件のこのような設定は、動いている同一被写体を略同一時刻で連携撮影するときに好適な設定である。例えば、被写体が止まっている画像または被写体が流れている画像のいずれかを同時に取得することができる。また、「親機」と「子機」との間で同じ焦点距離に制御する場合に「親機」と「子機」との間で異なる絞り値に制御してもよい。このような設定は、同一被写体を略同一時刻で連携撮影したときに好適な設定であり、例えば、ボケ感の異なる画像を同時に取得することができる。そのため、ユーザは撮影後に好みの画像を選択することができる。「親機」と「子機」との間で同じ焦点距離に制御する場合に「親機」と「子機」との間で異なるシャッター速度に設定してもよい。このような設定は、動いている同一被写体を略同一時刻で連携撮影するときに好適な設定である。例えば、被写体が止まっている画像と、被写体が流れている画像とを同時に取得することができる。上記は一例であり、撮影条件として「親機」と「子機」との間で任意に種々の組み合わせを行うようにしてもよい。撮影条件の例としては、上記のように、撮影光学系の変倍比、シャッター速度、絞り値、感度および色調整処理情報などが挙げられる。
(変形例9)
 上述した連携撮影2の説明では、レリーズボタン23aの押下操作が継続される間、連写撮影する例を説明した。この代わりに、レリーズボタン23aが押下操作されてから所定時間(たとえば10秒間)が経過するまで連写撮影してもよい。この場合のCPU20は、ステップ206(図18)において、ステップS202(またはS212)を肯定判定してからの経過時間が上記所定時間に達した場合に肯定判定させる。
(変形例10)
 あるいは、レリーズボタン23aが押下操作されてからの連写撮影枚数が所定コマ(たとえば30コマ)に達するまで連写撮影してもよい。この場合のCPU20は、ステップ206において、ステップS202(またはS212)を肯定判定してからの連写コマ数が上記所定コマに達した場合に肯定判定させる。
(変形例11)
 上述した連写撮影画像を静止画像として記録する代わりに、動画ファイルを生成して記録する構成にしても構わない。また、一方の電子カメラ1が静止画像として記録し、他方の電子カメラ1が動画像として記録するようにしてもよい。
(変形例12)
 一方の電子カメラ1で撮影中に、他方の電子カメラ1を撮影待機させるようにしたが、当該撮影待機中に録音させるように構成してもよい。この場合のCPU20は、ステップS201を肯定判定したらマイク26に録音のための集音を開始させ、ステップS211を肯定判定するまで集音を継続させる。
 CPU20は音声処理回路25へ指示を送り、マイク26で集音された音声信号を逐次増幅、およびデジタル音声データに変換させる。CPU20は、音声ファイル内のヘッダ領域(タグ領域)に、ペアリング成立中に録音した音声であることを示す情報を含める。そして、CPU20は、メモリカードインターフェース21へ指示を送り、音声ファイルを記憶媒体51に記録させる。ペアリング成立中に録音した音声であることを示す情報は、ペアリングの相手の識別情報、録音および時刻合わせ後の計時に基づく録音時刻情報を含む。なお、CPU20は、ペアリング成立中に録音した音声であることを示す情報を、音声ファイルのヘッダ領域に記録する代わりに、音声ファイルに関連付けた別ファイルとして記録しても構わない。
(変形例13)
 上述した説明では、「カメラタッチ」の場合の「親機」と「子機」とを上下判定に基づいて決定するようにしたが、「親機」と「子機」とを左右判定に基づいて決定するようにしてもよい。この場合のCPU20は、ステップS25(図6)において、たとえば左側判定処理を行う。左側判定とは、電子カメラ1相互が接触した場合にどちらの電子カメラ1が左側に位置するかを判定するものであり、本変形例では電子カメラ1を背面側から見た場合に左手方向に位置するものを「左」側とする。
 CPU20は、姿勢センサ24からの検出信号に基づく重力方向、および通信制御回路22からの信号に基づく接触電極情報に基づいて、図20に例示する判定テーブルを参照して左側判定を行う。たとえば、電子カメラ1を縦位置(右側面を下方)に保持して、レリーズボタン23aを有する面にて他の電子カメラ1の左側面(正位置)をカメラタッチした場合を例に説明する。電子カメラ1のCPU20は、重力方向が送受信電極22d側であって、接触電極が該送受信電極22bであることから、「左」判定をする。変形例13では、「左」判定した方をペアリングにおける「親機」とし、「右」判定した方をペアリングにおける「子機」とする。一方、上記電子カメラ1にカメラタッチされた他の電子カメラ1のCPUは、重力方向が送受信電極22c側(正位置)であって、接触電極が左側面(該送受信電極22e)であることから、「右」判定をする。「左」判定をした場合のCPU20は、ステップS25を肯定判定してステップS16へ進む。「左」判定をしなかったCPU20は、ステップS25を否定判定してステップS20へ進む。
(変形例14)
 ペアリングにおける時刻合わせについて(図6のステップS27およびS28)、「親機」の時刻に「子機」の時刻を合わせる例を説明した。この代わりに、「親機」および「子機」の時刻のうち早い方に合わせたり、受信した標準電波に基づいて時刻補正する機能を備える方に合わせたりしてもよい。
(変形例15)
 上述した説明において、CPU20は、記憶媒体51の空き容量が所定の空き容量より少ない場合、他の電子カメラ1側の記憶媒体51の空き容量が所定の空き容量より少ない旨の情報を通信によって取得した場合、電池52の残容量が所定の残容量より少ない場合、他の電子カメラ1側の電池52の残容量が所定の残容量より少ない旨の情報を通信によって取得した場合の少なくとも1つに該当する場合は、ペアリングを自動終了するようにした。これに加えて、CPU20は、ステップS11(図6)の処理を開始する前の時点で記憶媒体51の空き容量が所定の空き容量より少ない場合や、電池52の残容量が所定の残容量より少ない場合には、図6による処理を直ちに終了するとよい。
 さらに、通信要求を受けた(ステップS17)CPU20は、返信(ステップS18)する前の時点で記憶媒体51の空き容量が所定の空き容量より少ない場合や、電池52の残容量が所定の残容量より少ない場合には、返信することなく図6による処理を終了するとよい。変形例15によれば、ペアリング成立中に記憶媒体51へ記録できなくなったり、ペアリング成立中に電池52が消耗して動作不能に陥ったりすることを避けることができる。
(変形例16)
 上記第1の実施の形態では、ペアリングを成立させる外部機器をあらかじめ登録しておく一例として、外部機器を使用する人物の「顔」を登録する例を説明した。この代わりに、外部機器の名称等を登録するようにしてもよい。この場合は、CPU20は「ペアリング人物設定」画面(図5)の代わりに「外部機器設定」画面をLCDモニタ17に表示させる。「外部機器設定」画面には、CPU20は、「顔」のサムネイル画像に代わる外部機器リストを表示させる。外部機器リストは、たとえば、各外部機器の名称や型番、IDなどを含む。
 CPU20は、図5と同様のチェックマークで示される外部機器をペアリング相手とすべき外部機器として設定する。そして、通信要求(ステップS11(図6))に応じて返信された情報に含まれるIDが、「外部機器設定」画面を用いて設定された外部機器のIDと一致することを条件として、CPU20はペアリングを成立させる。
 なお、この変形例では、通信要求(ステップS11)に応じて返信された情報に含まれるIDが「外部機器設定」画面を用いて設定された外部機器のIDと一致するか否かの判定を行う一例を説明したが、このステップは必要に応じて変形してもよい。例えば、通信制御回路22には常に電源が供給されるような回路構成にしておく。そして、「外部機器設定」で設定された外部機器から返信を検出できない場合に、CPU20は、当該外部機器が起動されていない、もしくは電源がオフであると判定し、通信制御回路22を介して当該外部機器を起動させる、もしくは電源をオンさせる信号を送信するようにしてもよい。そして、起動後の当該外部機器から返信された情報に基づき、CPU20は当該外部機器が作動可能な状態にあるかを判定したうえで、作動可能な場合には、ペアリングを成立させる。CPU20は、外部機器の筐体等に設けられた接触センサによってユーザによる筐体への接触が検知されたか否かや、ユーザによる外部機器への操作が検知されたか否かの情報を外部機器から受信することにより、外部機器が作動可能な状態にあるか否かを判定する。なお、外部機器に設けられた送受信用電極22b~22eを接触センサとして利用してもよい。
 また、この通信要求(ステップS11)の変形例は、外部機器を使用する人物の「顔」を登録する例を説明した上記実施形態についても適用可能である。具体的には、CPU20は、ユーザが登録撮影されている顔をLCDモニタ17に表示された画像上で認識し、例えばOKスイッチ23hを押下したときに、通信制御回路22を介して相手の電子カメラの電源をオンするようにすればよい。また、CPU20は、図5で示したように、ペアリング人物設定画面においてチェックボックスをチェックした人物が所有している電子カメラ1を通信制御回路22を介して起動させるようにしてもよい。この場合、チェックボックスをチェックした人物が近くにいるかどうかは不明な場合もあるので、通信距離を10~100m以内に設定して通信するようにすればよい。なお、電子カメラ1に被写界を認識するファインダーが備えられている場合には、LCDモニタ17に表示された画像上で顔識別するのに代えて、このファインダーに表示された画像で顔識別するようにしてもよい。
 ペアリング要求により相手の電子カメラ1の電源を起動させるには、上述の顔識別に限定されるものではなく、人体通信やカメラタッチの際にも適用することができる。この場合、単なる握手やペアリング要求ではないカメラタッチと識別するために、OKスイッチ23hを利用するようにしてもよいし、握手の時間が所定時間、例えば、3秒以上続いたり、カメラタッチが所定時間、例えば、3秒以上続いたりした場合に通信制御回路22を介して相手の電子カメラ1の電源をオンにするようにしてもよい。なお、この場合、電子カメラ1の電源がオンの状態であっても、オフの状態であっても構わない。電子カメラ1および他の電子カメラ1が、主電源がオフの状態であっても通信制御回路22に電源が供給されるよう構成されていればよい。そして、電子カメラ1は、通信制御回路22により人体通信またはカメラタッチが検知された場合には、主電源をオンにして電子カメラ1を構成する各部を起動させることができる。
(変形例17)
 また、上記実施形態では、CPU20が他の電子カメラ1との間の通信確立後、「顔識別」したことを条件にペアリングを成立させる例を説明した。この代わりに、ペアリングモード設定時において、通信確立前に「顔識別」をしてから、他の電子カメラ1との間で通信を開始するように構成してもよい。この場合は、上記実施形態のように、外部機器と通信を開始する前に、複数のペアリング成立条件の中からいずれか1のペアリング成立条件が予め設定されていてもよいし、いずれのペアリング成立条件も設定されておらずともよい。上述したように、CPU20は「顔識別」に用いるスルー画像をLCDモニタ17にリアルタイムに再生表示させるとともに、「顔識別」した場合には当該「顔」を示す枠などの表示をスルー画像に重ねて表示させる。CPU20は、この状態で自動的に通信を開始し、ペアリングを成立させてもよいし、「顔識別」した状態であって、かつOKスイッチ23hが押下操作された場合に通信を開始し、ペアリングを成立させてもよい。
 また、CPU20は、複数の「顔」を識別した場合には、それぞれの「顔」を示す枠を表示させるとともに、1番大きい顔(表示画面に占める割合が最大)に対応する枠を選択し、他の枠と異なる態様(輝度もしくは色が異なる)で表示させる。十字スイッチ23gが操作された場合に、CPU20は、選択枠を該操作方向に位置する「顔」を囲む枠に切り替えて表示させる。CPU20は、OKスイッチ23hが押下操作された時点で選択している枠に対応する「顔」に関連づけられているIDと一致する外部機器との間で通信を開始し、ペアリングを成立させる。
(変形例18)
 また、上記実施形態では、外部機器と通信を開始する前に、複数のペアリング成立条件の中からいずれか1のペアリング成立条件を予め設定する一例を説明したが、通信の開始前に必ずペアリング成立条件を設定する構成でなくともよい。例えば、モードスイッチ23dの操作によりペアリングモードに設定されている場合には、CPU20は、「顔識別」、「握手」および「カメラタッチ」の少なくとも1つの判別処理を行うように構成されてもよい。CPU20は、通信制御回路22を介して「握手」または「カメラタッチ」を検出した場合には、他の電子カメラ1との間で自動的に通信を開始し、ペアリングを成立させるようにする。
 また、ペアリング成立条件が、例えば「通常」に設定されていたとしても、CPU20が「握手」または「カメラタッチ」を検出した場合には、他の電子カメラ1との間で自動的に通信を開始し、ペアリングを成立させるようにしてもよい。なお、これらの場合、自動的に通信を開始する代わりに、CPU20が「握手」および「カメラタッチ」を検出したならば、CPU20は、LCDモニタ17にペアリングを成立させてもよいか否かを問い合わせる旨の表示をし、OKスイッチ23hが押下操作された場合に通信を開始するようにしてもよい。本変形例においては、好適には、CPU20は、無線通信回路により検出された受信信号の強度が最も高いと判定された外部機器との間で無線通信を確立し、ペアリングを成立させる。
(変形例19)
 上記実施形態では、ペアリングモードの終了に関して、ペアリングオフタイマーの設定にしたがって終了する一例を説明した。この代わりに、「握手」している時間に応じてペアリングモードの滞在時間を設定してもよい。上述したように、通信制御回路22は、CPU20からの指示に応じて人体を介して通信を行う人体通信機能を備える。CPU20は、通信制御回路22を介して「握手」している時間を計測し、計測時間に応じてペアリングモードの滞在時間を設定する。また、この場合、CPU20は、ペアリングの終了をペアリングモード解除操作、および「握手」時間により決定されたペアリングモード滞在時間の経過時のいずれか早い方にペアリングを終了させるようにしてもよい。
 また、ペアリングモードの滞在時間は、「カメラタッチ」している時間に応じて設定されてもよい。上述したように、CPU20は、電子カメラ1の筐体に設けられた送受信用電極22b~22eおよび通信制御回路22を介して両電子カメラ1が直接接触したか否かを検出する。CPU20は、通信制御回路22を通して両電子カメラ1間の直接接触時間を計測し、計測時間に応じてペアリングモードの滞在時間を設定する。また、この場合、CPU20は、ペアリングの終了をペアリングモード解除操作、および「カメラタッチ」時間により決定されたペアリングモード滞在時間の経過時のいずれか早い方にペアリングを終了させるようにしてもよい。また、ペアリングモードの滞在時間は、「カメラタッチ」している時間に応じて設定されてもよい。
(変形例20)
 無線通信は電波を送受信して行う他、赤外光を送受信して行うものでもよい。また、電子カメラ1を例に説明したが、電子カメラ1は機種の異なるカメラでもよく、また、カメラ付き携帯電話機、ビデオカメラ、ミュージックプレイヤ、などの電子機器に適用してよい。
(変形例21)
 以上の説明では、「親機」1台に対して「子機」が1台の例を説明したが、「親機」1台と複数の「子機」とがペアリングを成立させてもよい。
<第2の実施の形態>
 図面を参照して、本発明による第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。
 本願発明をデジタルスチルカメラ(以下、DSCまたは電子カメラと呼ぶ)の画像再生に適用した一実施の形態を説明する。この第2の実施の形態ではコンパクトタイプの電子カメラを例に挙げて説明するが、一眼レフレックスタイプや他の電子カメラであってもよい。第2の実施の形態の電子カメラの構成は、図1のブロック図に示す第1の実施の形態の電子カメラの構成と同様である。なお、電子カメラの画像再生に直接、関係のないカメラの機器および回路の図示と説明を省略する。
 フラッシュメモリ19はCPU20に実行させるためのプログラムに含まれる後述する画像再生プログラムが記憶されるとともに、第1の実施の形態で説明した参照用データが記憶されている。CPU20は、第1の実施の形態において説明したように撮像、露出、焦点調節(AF)、画像表示などの電子カメラ1の各種動作を制御するとともに、後述する画像再生プログラムを実行して画像再生を制御する。
 メモリカードインターフェース21にはコネクタ(不図示)を介してメモリカード51が装着される。メモリカードインターフェース21はメモリカード51に対する画像や各種情報データの書き込みや、メモリカード51からの画像や各種情報データの読み込みを行う。第2の実施の形態では半導体メモリを内蔵したメモリカード51を例に挙げて説明するが、画像と各種情報データを記録するあらゆる種類の記録媒体を用いることができる。通信制御回路22は、アンテナ22aを介して他の電子カメラを含む外部機器との間で無線通信を行う。また、第1の実施の形態において説明したように、通信制御回路22は人体を介して通信を行う人体通信機能を備える。
 操作部材23のOKスイッチ23hは、ペアリング関係にある他の電子カメラのレリーズボタンとしても用いられる。ペアリング関係にある他の電子カメラにリモコン撮影モードが設定されている場合にOKスイッチ23hが押下操作されると、通信制御回路22を介してレリーズ信号が当該電子カメラに送られ、当該電子カメラで撮影動作が実行される。
 第2の実施の形態の電子カメラ1においては、CPU20は電子カメラ1と略同様の構成を有する他の電子カメラとの間で通信を行い、複数のカメラで協調撮影可能な状態(以下、ペアリング状態と呼ぶ)を確立する。具体的には、電子カメラ1および他の電子カメラの内の一方から他方へコマンドおよびデータを送信し、これを受信した電子カメラがコマンド送信元の電子カメラへ返信して通信を確立後、後述する所定の条件を満たすことによってペアリング状態を成立させる。
 第1の実施の形態において説明したように、本第2の実施の形態においても、「通常」、「顔識別」、「握手」、「カメラタッチ」の4種類のペアリング成立条件の中から、使用者がいずれかを選択することができる。ペアリング成立条件を選択する処理は、第1の実施の形態の場合と同様である。なお、第2の実施の形態においては、「通常」の条件でペアリングが成立した場合には、最初にコマンドおよびデータを送信した側の電子カメラを親機とし、それを受信した側の電子カメラを子機とする。
 なお、第2の実施の形態においては、ペアフォルダは、他の電子カメラとの間でペアリングが成立し、該電子カメラとペアリング撮影を行うごとに生成される。そのため、ペアフォルダが複数組存在する場合も当然あり得る。複数のペアフォルダにおいて、ペアリング相手が共通の場合もあるし異なる場合もあり、また同じペアリング相手であっても異なる撮影時刻(撮影年月日を含む)の場合もある。ペアフォルダのプロパティには、ペアリング相手の識別情報、撮影時刻情報、フォルダ共有設定情報などが記録されている。
 第2の実施の形態において、ペアリング時の連携撮影動作は上述した第1の実施の形態および変形例にて説明した連携撮影動作と同様である。すなわち、ペアリング成立中にレリーズボタン23a(図2参照)の操作があると、CPU20は撮影動作を実行する。ペアリング撮影時には、ペアリング関係にある複数の電子カメラで同じ被写体を撮影するが、似たような画像にならないように互いに通信を行って撮影条件を少しずつ異ならせる。例えば、一方の電子カメラが広角に設定された場合には、他方の電子カメラを自動的に望遠に設定し、ズーム比がある程度異なるようにする。この場合、電子カメラどうしの通信によりズーム比の高いレンズを備えた電子カメラを望遠に設定し、より広角側の撮影が可能なレンズを備えた電子カメラを広角に設定する。そして、広角側の方が色情報が多いことから、ホワイトバランス制御は広角側の電子カメラの画像に基づいて行うとともに、その情報を望遠側の電子カメラにフィードバックし、共通のホワイトバランス制御を実行する。
 また、ペアリング関係にある複数の電子カメラ間で感度とシャッター速度を制御し、一方の電子カメラに高速のシャッター速度を設定するとともに、他方の電子カメラに低速のシャッター速度を設定し、動きのある被写体などを異なる趣で同時に撮影する。ポートレート撮影では、ある程度異なるアングルから撮影できるように撮影のガイドを行う。すなわち、スルー画像において顔認識を行い、右斜め前と左斜め前、あるいは正面と横など、それぞれ異なるアングルとなるように音声およびモニタ画像によるガイダンスを行う。
 さらに、ペアリング撮影時にはペアリング関係にある複数の電子カメラ間で通信を行って相互に撮影を行う。つまり、互いに撮影時刻をずらして撮影を行うことで長時間の撮影を可能にする。動画撮影の場合には、一方の電子カメラで動画撮影を行った後、引き続いて他方の電子カメラで動画撮影を行うことによって、互いにキャッチボールしながら動画撮影を行い、撮影アングルの異なる動画を連続的に撮影することができる。同様に静止画撮影においても、一方の電子カメラで一枚または複数枚の静止画撮影を行った後、引き続いて他方の電子カメラで一枚または複数枚の静止画撮影を行うことによって、互いにキャッチボールをしながら複数枚の静止画撮影を行い、再生時に複数の電子カメラで撮影した一連の画像のスライドショーを提供することができる。
 次に、上述したようにしてペアリング成立中に複数の電子カメラで撮影され、記録媒体51に記録された画像の再生方法を説明する。なお、この一実施の形態では電子カメラ1で画像を再生する例を示すが、ペアリング状態で撮影された画像の再生は電子カメラ1に限定されず、ペアリング状態で撮影された画像をパーソナルコンピュータ(以下、PCという)へ転送してPC上で以下に説明する再生処理を実行してもよい。あるいはデジタルフォトフレーム(以下、DPFという)へ転送してDPF上で下記再生処理を実行してもよい。
 図21は一実施の形態の画像再生プログラムを示すフローチャートである。操作部材23のモードスイッチ23dにより再生モードが選択されると、CPU20は図21に示す画像再生プログラムの実行を開始する。ステップS401において、CPU20はLCDモニタ17に「フォルダ表示」画面を表示させ、再生対象となるすべての画像フォルダを示す。これらの再生対象の画像フォルダは、図10に示す自身の電子カメラ1のメモリカード51に記録されているすべての画像フォルダとペアフォォルダである。
 ステップS402で、CPU20は、操作部材23の十字スイッチ23gとOKスイッチ23hによるフォルダ選択操作によってペアフォルダが選択されたか否かを判別する。ペアフォルダが選択されていない場合はステップS403へ進み、CPU20は、選択されたフォルダの画像ファイルを読み出してLCDモニタ17に表示させる。なお、ペアフォルダ以外のフォルダに記録されている画像、つまりペアリング撮影画像以外の画像の再生処理については従前の方法により再生処理を行うものとし、ここではその説明を省略する。
 一方、ペアフォルダが選択された場合にはステップS404へ進み、CUP20はペアリング相手の電子カメラのペアフォルダ内に記録されているペアリング撮影画像データを読み込む。そして、CPU20は、読み込んだペアリング撮影画像データと自身の電子カメラ1のペアフォルダ内に記録されているペアリング撮影画像と合わせて一組のペア画像グループとしてRAM18(図1参照)に記憶する。上述したように、ペアリング撮影により撮影された画像データには、画像ファイルのヘッダ領域にペアリング相手の識別情報(カメラIDなど)と撮影時刻情報が記録されている。したがって、CPU20はそれらの情報に基づいてペアリング相手の電子カメラからペアリング撮影画像を読み込む。
 上述したように、ペアフォルダは、他の電子カメラとの間でペアリング関係が成立し、該電子カメラとペアリング撮影を行うごとに生成される。そのため、ペアフォルダが複数組存在する場合も当然あり得る。複数のペアフォルダにおいて、ペアリング相手が共通の場合もあるし異なる場合もあり、また同じペアリング相手であっても異なる撮影時刻(撮影年月日を含む)の場合もある。ペアフォルダのプロパティには、ペアリング相手の識別情報、撮影時刻情報、フォルダ共有設定情報などが記録されている。
 CPU20は、再生対象として選択されたペアフォルダのプロパティからペアリング相手の識別情報と撮影時刻情報を読み出す。次に、CPU20は、ペアリング相手の電子カメラとの間で通信を行って自身の電子カメラの識別情報と再生対象のペアフォルダの撮影時刻情報を紹介する。そして、CPU20は、ペアリング相手の電子カメラに対して再生対象のペアフォルダの撮影時刻とほぼ同じ撮影時刻のペアフォルダの検索を依頼する。ペアリング相手の電子カメラは、メモリに記録されているペアフォルダのプロパティを調べ、再生対象のペアフォルダに対応するペアフォルダ、すなわちペアリング相手の識別情報と撮影時刻情報が一致するペアフォルダを検索し、検索したペアフォルダに含まれるペアリング撮影画像データを依頼先の電子カメラへ送信する。
 なお、ペアリング撮影画像データごとのヘッダ領域にもペアリング相手の識別情報と撮影時刻情報が記録されている。CPU20は、これらの情報を読み出してペアリング相手の電子カメラへ自身の電子カメラの識別情報と再生対象画像の撮影時刻情報を紹介し、ペアリング相手の電子カメラに対して再生対象のペアリング撮影画像とほぼ同じ撮影時刻のペアリング撮影画像の検索を依頼する。ペアリング相手の電子カメラは、メモリに記録されているペアリング画像データのヘッダ領域を調べ、再生対象のペアリング撮影画像に対応するペアリング撮影画像を検索し、それらのデータを依頼先の電子カメラへ送信する。なお、ペアリング相手からのペアリング撮影画像の読み込みは通信制御回路22による無線通信で行ってもよいし、ペアリング相手の電子カメラと通信コードで接続して有線通信で行ってもよい。
 次に、ステップS405で、CPU20はペア画像グループの画像が人物の画像か否かを判別する。人物を主要被写体として撮影されたペアリング撮影画像を再生する場合には、複数の電子カメラによる画像を撮影時刻の順に再生すると、撮影アングルが頻繁に変わって見づらいことがある。人物のペアリング撮影画像はある程度、撮影アングルごとにまとめて再生する方が効果的で自然な感じを与える。画像ファイルのヘッダ領域には、撮影シーンモードの設定情報、例えばマクロ、風景、ポートレート、夜景などの撮影シーンモードの設定情報が記録されている。CPU20は、設定された撮影シーンモードがポートレートである場合には人物の画像であると判定する。あるいは、CPU20は画像自体をシーン解析して人物の画像か否かを判別してもよい。
 人物を主要被写体として撮影されたペアリング撮影画像を再生する場合にはステップS406へ進む。CPU20は、ペア画像グループのフォルダに記憶されている複数のペアリングカメラによるペアリング撮影画像の内の、一方のカメラ、例えば親機で撮影された画像を撮影時刻の順に所定時間間隔でLCDモニタ17に表示し、スライドショー再生を行う。その後で、CPU20は、他方のカメラ、例えば子機で撮影された画像を撮影時刻の順に所定時間間隔でLCDモニタ17に表示し、スライドショー再生を行う。これにより、撮影時の人物の動きに合わせた一連の画像のスライドショーを撮影アングルごとに効果的に行うことができ、より自然な画像再生を実現できる。
 一方、ペアリング撮影画像が人物でない場合にはステップS407へ進む。SPU20は、ペア画像グループのフォルダに記憶されている複数のペアリングカメラによるペアリング撮影画像を、単に撮影時刻の順に所定時間間隔でLCDモニタ17に表示し、スライドショー再生を行う。なお、ペアリング撮影画像が人物でない場合でも、CPU20は複数の電子カメラで撮影されたペアリング撮影画像を撮影時刻の順に再生するのではなくてもよい。この場合、まず、CPU20は、一方の電子カメラ、例えば親機で撮影されたペアリング時の画像を撮影時刻の順に再生し、その後に他方の電子カメラ、例えば子機で撮影されたペアリング時の画像を撮影時刻の順に再生する再生方法に変更すればよい。この場合、操作部材23による再生方法メニューのカスタム設定操作によって再生方法を変更できる。
 また、ペアリング撮影画像を再生する際に、同じようなシーンが何枚も続くと見づらく感じることがある。そこで、ほぼ同じ撮影時刻の画像がある場合には、CPU20は、一方のカメラ、例えば親機の画像を採用し、他方のカメラ、例えば子機の画像を飛ばして再生する。また、CPU20は、画像解析結果の輪郭抽出量が少なく、画質のよくない画像を手ブレのある画像と判定し、略同時刻に撮影された画像の内の輪郭抽出量が最多の画像、すなわち手ブレのない画像を採用し、手ブレのある画像を飛ばして再生してもよい。あるいは、CPU20は、画像の笑顔判定を行い、略同時刻に撮影された画像の内の笑顔度合い(スマイル度)が最高の画像を採用し、笑顔度合いの低い画像を飛ばして再生してもよい。このような同時刻に撮影した複数のペアリング撮影画像の内のいずれかを再生し、残りの画像を飛ばす再生方法は、予めメニュー画面で実行するか否か、あるいは実行する場合の飛ばし方などを細かくカスタム設定することができる。
 なお、PCまたはDPF上でペアリング撮影画像を再生する場合には、CPU20は、図21の画像再生プログラムのステップS404から処理を開始し、ステップS404で複数の電子カメラからペアリング撮影画像を読み込み、ステップS405~S407で上述した処理を実行すればよい。
 上述した第2の実施の形態では、複数の画像をフォルダまたはペアフォルダにより分別して記録する例を示したが、必ずしもフォルダごとに分別して記録する必要はない。たとえば、画像データごとにペアリング相手の識別情報とペアリング撮影時刻情報が記録されていれば、それらの情報に基づいて1組のペア画像グループに分別することができる。また、ペアリング相手およびペアリング撮影時刻に拘わらずペアリング撮影画像を1つのペアフォルダに収納して記録するようにしてもよい。
 上述した第2の実施の形態では本願発明の画像再生機能を電子カメラに搭載した例を示したが、撮像機能を搭載した画像再生装置、すなわち携帯電話機やモバイルPCなどの電子機器に上述した画像再生機能を搭載してもよい。
 なお、上述した第2の実施の形態とそれらの変形例において、第2の実施の形態と変形例とのあらゆる組み合わせが可能である。
 上述した第2の実施の形態とその変形例によれば以下のような作用効果を奏することができる。まず、複数の電子カメラによりペアリング撮影(協調撮影、連携撮影)され、CPU20は、画像ごとにペアリング撮影相手(協調撮影相手、連携撮影相手)に関する情報と撮影時刻情報とが記録された複数の画像を再生する際に、ペアリング撮影相手に関する情報および撮影時刻情報に基づいて、複数の電子カメラにより略同時刻にペアリング撮影された複数の画像をペア画像グループとして集約し、撮影時刻情報にしたがってペア画像グループに含まれる複数の画像を撮影時刻の順に再生するようにした。したがって、複数の電子カメラでペアリング撮影した複数の画像を効果的に連続再生することができ、撮影時の被写体の動きを忠実に再現することができる。
 また、第2の実施の形態とその変形例によれば、CPU20は、ペア画像グループに含まれる複数の画像の内、第1の電子カメラにより撮像された画像を撮影時刻の順に再生した後、第2の電子カメラにより撮像された画像を撮影時刻の順に再生するようにした。その結果、電子カメラごとの撮影者の撮影意図に沿った画像の連続再生が可能になり、撮影時の電子カメラごとの被写体の動きを忠実に再現することができる。
 第2の実施の形態とその変形例によれば、CPU20は、ペア画像グループに含まれる複数の画像が人物を対象として撮影された画像か否かを判定する。そして、人物を対象として撮影された画像であると判定された場合は、CPU20は、ペア画像グループに含まれる複数の画像の内、第1の電子カメラにより撮像された画像を撮影時刻の順に再生した後、第2の電子カメラにより撮像された画像を撮影時刻の順に再生するようにした。一方、人物を対象として撮影された画像でないと判定された場合には、CPU20は、ペア画像グループに含まれるすべての画像を撮影時刻の順に再生するようにした。
 複数の電子カメラで人物を対象として撮影された複数のペアリング撮影画像を単純に撮影時刻の順に再生すると、撮影アングルが頻繁に変わって見づらいことがある。しかし、上述した第2の実施の形態によれば、人物のペアリング撮影画像をある程度、撮影アングルごとにまとめて再生することができ、撮影時の人物の動きに沿った効果的で自然な感じのスライドショーを実現することができる。一方、人物以外のペアリング撮影画像については、単純に撮影時刻の順に再生することによって、撮影時の被写体の動きに沿ったスライドショーを実現することができる。
 第2の実施の形態とその変形例によれば、ペア画像グループに含まれる複数の画像の中に略同時刻に撮影された画像が複数ある場合に、CPU20は、それらの内のいずれかを再生画像として選択し、再生するようにした。したがって、同じようなシーンが何枚も続く煩わしさ、見づらさを防止することができる。
 第2の実施の形態とその変形例によれば、CPU20は、ペア画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して輪郭抽出を行い、略同時刻に撮影された複数の画像の内の輪郭抽出量が最多であるとされた画像を再生画像として選択し再生するようにした。その結果、手ブレの少ない、画質のよい画像を選択して再生することができる。
 第2の実施の形態とその変形例によれば、CPU20は、ペア画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して笑顔度合いを検出し、笑顔度合いが最高であるとされた画像を再生画像として選択し再生するようにした。したがって、笑顔が写っている画像を選択して再生することができる。
 また、パーソナルコンピュータなどに適用する場合、上述した画像再生プログラムは、CD-ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供することができる。図22はその様子を示す図である。パーソナルコンピュータ400は、CD-ROM404を介してプログラムの提供を受ける。また、パーソナルコンピュータ400は通信回線401との接続機能を有する。コンピュータ402は上記プログラムを提供するサーバーコンピュータであり、ハードディスク403などの記録媒体にプログラムを格納する。通信回線401は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ402はハードディスク403を使用してプログラムを読み出し、通信回線401を介してプログラムをパーソナルコンピュータ400に送信する。すなわち、プログラムをデータ信号として搬送波を介して、通信回線401を介して送信する。このように、プログラムは、記録媒体やデータ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願2010年第35010号(2010年2月19日出願)
日本国特許出願2010年第35013号(2010年2月19日出願)
日本国特許出願2010年第35014号(2010年2月19日出願)

Claims (42)

  1.  電子機器であって、
     外部機器と通信を行う通信部と、
     前記外部機器の容量と、前記電子機器の容量との少なくとも一方に基づいて、前記通信部を介して前記外部機器に指示を行う制御部と、を備える電子機器。
  2.  請求項1に記載の電子機器において、
     前記外部機器の容量は、電池の残容量と、記憶媒体の空き容量との少なくとも一つを含んでおり、
     前記制御部は、前記電池の残容量と、前記記憶媒体の空き容量との少なくとも一方に基づいて前記外部機器に指示を行う電子機器。
  3.  請求項1または2に記載の電子機器において、
     前記電子機器の容量は、電池の残容量と、記憶媒体の空き容量との少なくとも一つを含んでおり、
     前記制御部は、前記電池の残容量と、前記記憶媒体の空き容量との少なくとも一方に基づいて前記外部機器に指示を行う電子機器。
  4.  請求項3に記載の電子機器において、
     前記制御部は、前記外部機器から送付されたデータを前記記憶媒体に記憶させる電子機器。
  5.  請求項1から4のいずれか一項に記載の電子機器において、
     前記外部機器から送付されたデータを表示する表示装置を備える電子機器。
  6.  請求項5に記載の電子機器において、
     前記外部機器から送付されたデータは画像データであり、
     前記外部機器から前記画像データを受け取る際の前記通信部による受信レベルに応じて、前記表示装置に表示する画像にフィルタ処理を行う処理装置を備える電子機器。
  7.  請求項6に記載の電子機器において、
     前記処理装置は、前記受信レベルが低くなるにつれて前記画像のぼかし量が大きくなるようにフィルタ処理を行う電子機器。
  8.  請求項4から7のいずれか一項に記載の電子機器において、
     前記通信部は、前記外部機器の容量の通信を行う第1通信装置と、該第1通信装置とは異なり、前記外部機器から送付される前記データを通信する第2通信装置とを備える電子機器。
  9.  電子機器であって、
     外部機器と近距離通信または人体を介した通信により前記外部機器とのペアリングを行う第1通信部と、
     前記外部機器と通信を行う、前記第1通信部とは異なる第2通信部と、
     前記第1通信部により前記外部機器とのペアリングがなされた場合に、前記第2通信部を介して前記外部機器に指示を行う制御部、を備える電子機器。
  10.  請求項9に記載の電子機器において、
     前記外部機器とのペアリングがなされてからの時間を計時する計時部を備える電子機器。
  11.  請求項10に記載の電子機器において、
     前記制御部は、前記計時部で計時した時間が所定時間を越えた際に、前記ペアリングを解消する電子機器。
  12.  請求項1から11のいずれか一項に記載の電子機器において、
     重力方向を検出する重力センサを備え、
     前記重力センサの出力に基づいて、前記外部機器との主従関係を決定する決定部を備える電子機器。
  13.  撮像装置であって、
     画像データを取得する撮像部と、
     外部撮像装置との間で通信を行う通信部と、
     前記通信部を介して、前記外部撮像装置で設定された撮影条件を複数の外部撮像装置用の撮影条件として取得する取得部と、
     前記取得部により取得された前記外部撮像装置用の撮影条件のうち、少なくとも一部について異なる撮影条件を前記撮像装置用の撮影条件として設定する撮影制御部と、を含む撮像装置。
  14.  請求項13に記載の撮像装置において、
     前記撮影制御部は、前記取得部により取得された前記外部撮像装置用のうちの少なくとも一部について同一の撮影条件を前記撮像装置用の撮影条件として設定する撮像装置。
  15.  請求項13または14に記載の撮像装置において、
     前記撮影条件は、撮影光学系の変倍比、シャッター速度、絞り値、感度および色調整処理情報の少なくとも1つである撮像装置。
  16.  請求項15に記載の撮像装置において、
     前記撮像部により取得された画像データに対して色調整処理を行う画像処理部をさらに備え、
     前記取得部は、前記外部撮像装置用の撮影条件として、前記外部撮像装置で設定された前記撮像光学系の変倍比および前記色調整処理情報を取得し、
     前記撮影制御部は、前記取得部により取得された前記外部撮像装置の前記撮像光学系の変倍比と異なる変倍比に設定するとともに、前記取得部により取得された前記外部撮像装置の前記色調整処理情報と同一の色調整処理情報に基づいて色調整処理を行うよう前記画像処理部を制御する撮像装置。
  17.  請求項16に記載の撮像装置において、
     前記取得部は、前記外部撮像装置用の撮影条件として、前記外部撮像装置で設定された前記撮像光学系の変倍比および前記色調整情報を対応付けて取得し、
     前記撮影制御部は、前記取得部により取得された前記撮影光学系の変倍比と、前記設定された前記撮影光学系の変倍比とを比較し、前記撮像光学系の変倍比が小さい方に対応付けられた前記色調整処理情報に基づいて色調整処理を行うよう前記画像処理部を制御する撮像装置。
  18.  請求項15に記載の撮像装置において、
     前記取得部は、前記外部撮像装置用の撮影条件として、前記外部撮像装置で設定された前記撮像光学系の変倍比およびシャッター速度を取得し、
     前記撮影制御部は、前記取得部により取得された前記外部撮像装置の前記撮像光学系の変倍比と異なる変倍比に設定するとともに、前記取得部により取得された前記外部撮像装置の前記シャッター速度と同一のシャッター速度に設定する撮像装置。
  19.  請求項15に記載の撮像装置において、
     前記取得部は、前記外部撮像装置用の撮影条件として、前記外部撮像装置で設定された前記撮像光学系の変倍比および前記絞り値を取得し、
     前記撮影制御部は、前記取得部により取得された前記外部撮像装置の前記絞り値と異なる絞り値に設定するとともに、前記取得部により取得された前記外部撮像装置の前記光学系の変倍比と同一の変倍比に設定する撮像装置。
  20.  請求項15に記載の撮像装置において、
     前記取得部は、前記外部撮像装置用の撮影条件として、前記外部撮像装置で設定された前記撮像光学系の変倍比およびシャッター速度を取得し、
     前記撮影制御部は、前記取得部により取得された前記外部撮像装置の前記シャッター速度と異なるシャッター速度に設定するとともに、前記取得部により取得された前記外部撮像装置の前記光学系の変倍比と同一の変倍比に設定する撮像装置。
  21.  撮像装置であって、
     画像データを取得する撮像部と、
     外部撮像装置との間で通信を行う通信部と、
     前記外部撮像装置との間で前記通信を介して所定の撮像処理を行う撮像制御部とを備え、
     前記撮像制御部は、前記外部撮像装置との通信の内容に基づいて、前記外部撮像装置との間で同一被写体を異なる撮影方向から撮影するようにフレーミングを促すアシスト部を含む撮像装置。
  22.  請求項21に記載の撮像装置において、
     前記アシスト部は、
     前記撮像部からの画像データに基づいて顔を検出する顔検出部と、
     前記検出された顔に基づいて当該顔を撮影する方向を判定する撮影方向判定部と、を含む撮像装置。
  23.  請求項13~22のいずれか一項に記載の撮像装置において、
     前記撮像部により取得された画像データを記憶部へ記録する記録部を備え、
     前記撮像制御部は、前記外部撮像装置との間で通信が確立されている間に、前記撮像装置により取得された画像データに対して、通信確立中に撮像した画像データであることを示す情報を付加するように前記記録部を制御する撮像装置。
  24.  撮像装置であって、
     撮像を行う撮像部と、
     撮像を行う他の撮像機器と通信する通信部と、
     前記通信部を介して、前記他の撮像機器に撮影依頼を行うとともに、少なくとも前記撮影依頼に応じて前記他の撮影機器によって撮影された画像を保存する保存領域を作成するための保存領域作成依頼を前記他の撮影機器に行う依頼部と、
     前記通信部を介して行われた、前記他の撮像機器からの前記保存領域作成依頼に関連して、前記撮像部が撮像した画像を保存する保存領域を作成する作成部と、
     前記通信部を介して、前記他の撮像機器が前記保存領域作成依頼により作成した保存領域に保存されている画像を取得する取得部と、を備える撮像装置。
  25.  請求項24に記載の撮像装置において、
     前記取得部は、前記取得した画像を前記作成部が作成した保存領域に保存する撮像装置。
  26.  請求項24または請求項25に記載の撮像装置において、
     前記取得部は、前記画像を取得するときに、当該画像が撮影された時間情報を取得する撮像装置。
  27.  請求項26に記載の撮像装置において、
     前記画像を表示する表示部を有し、
     前記保存領域に保存された画像を当該画像が撮像された時系列順に前記表示部に表示させる制御部を備える撮像装置。
  28.  請求項24~26のいずれか一項に記載の撮像装置において、
     前記画像を表示する表示部と、
     前記保存領域に保存された画像を前記撮像部により撮像された画像と、前記他の撮像機器により撮像された画像とに分別して前記表示部に表示させる制御部とを備える撮像装置。
  29.  請求項24~26のいずれか一項に記載の撮像装置において、
     前記画像を表示する表示部と、
     前記保存領域に保存された画像が人物画像かどうかを判定する判定部と、
     前記判定部の判定結果に応じて、前記表示部に前記画像を表示させる制御部とを備える撮像装置。
  30.  請求項24~26のいずれか一項に記載の撮像装置において、
     前記画像を表示する表示部と、
     前記保存領域に保存された画像が風景画像かどうかを判定する判定部と、
     前記判定部の判定結果に応じて、前記表示部に前記画像を表示させる制御部とを備える撮像装置。
  31.  請求項24~30のいずれか一項に記載の撮像装置において、
     前記撮像部と、前記他の撮像機器とがほぼ同時刻に撮影した複数の画像が前記保存領域に保存されているときに、いずれか一方の画像を選択して前記表示部に表示させる選択部を備える撮像装置。
  32.  請求項31に記載の撮像装置において、
     前記ほぼ同時刻に撮影された前記複数の画像をそれぞれ解析して輪郭抽出を行う輪郭抽出部を備え、
     前記選択部は、前記ほぼ同時刻に撮影された前記複数の画像のうち、前記輪郭抽出部により輪郭抽出量が多い画像を選択する撮像装置。
  33.  請求項31に記載の撮像装置において、
     前記ほぼ同時刻に撮影された前記複数の画像をそれぞれ解析して笑顔度合いを検出する笑顔検出部を備え、
     前記選択部は、前記ほぼ同時刻に撮影された前記複数の画像のうち、前記笑顔検出部により笑顔度合いが多い画像を選択する撮像装置。
  34.  複数の撮像装置により撮影され、画像ごとに撮影相手に関する情報と撮影時刻情報とが記録された複数の画像を再生する画像再生方法であって、
     前記撮影相手に関する情報および前記撮影時刻情報に基づいて、前記複数の撮像装置により撮影された複数の画像を画像グループとして集約する集約処理と、
     前記撮影時刻情報にしたがって前記画像グループに含まれる複数の画像を撮影時刻の順に再生する再生処理とを実行する画像再生方法。
  35.  請求項34に記載の画像再生方法において、
     前記再生処理は、前記画像グループに含まれる複数の画像の内、第1の前記撮像装置により撮像された画像を撮影時刻の順に再生した後、第2の前記撮像装置により撮像された画像を撮影時刻の順に再生する画像再生方法。
  36.  請求項34に記載の画像再生方法において、
     前記画像グループに含まれる複数の画像が人物を対象として撮影された画像か否かを判定する判定処理を含み、
     前記再生処理は、前記判定処理において人物を対象として撮影された画像であると判定された場合は、前記画像グループに含まれる複数の画像の内、第1の前記撮像装置により撮像された画像を撮影時刻の順に再生した後、第2の前記撮像装置により撮像された画像を撮影時刻の順に再生し、前記判定処理において人物を対象として撮影された画像でないと判定された場合には、前記画像グループに含まれるすべての画像を撮影時刻の順に再生する画像再生方法。
  37.  請求項34~36のいずれか一項に記載の画像再生方法において、
     前記画像グループに含まれる複数の画像の中に略同時刻に撮影された画像が複数ある場合に、それらの内のいずれかを再生画像として選択する選択処理を含み、
     前記再生処理は、前記選択処理により選択された画像を再生する画像再生方法。
  38.  請求項37に記載の画像再生方法において、
     前記画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して輪郭抽出を行う輪郭抽出処理を含み、
     前記選択処理は、前記略同時刻に撮影された複数の画像の内の前記輪郭抽出処理により輪郭抽出量が最多であるとされた画像を再生画像として選択する画像再生方法。
  39.  請求項37に記載の画像再生方法において、
     前記画像グループに含まれる複数の画像の内の略同時刻に撮影された複数の画像を解析して笑顔度合いを検出する笑顔検出処理を含み、
     前記選択処理は、前記略同時刻に撮影された複数の画像の内の前記笑顔検出処理により笑顔度合いが最高であるとされた画像を再生画像として選択する画像再生方法。
  40.  請求項34~39のいずれか一項に記載の画像再生方法におけるすべての処理をコンピューターに実行させる画像再生プログラム。
  41.  請求項40に記載の画像再生プログラムを記録した記録媒体。
  42.  請求項40に記載の画像再生プログラムを記録するメモリと、
     前記画像再生プログラムを実行するマイクロコンピューターとを備える画像再生装置。
     
PCT/JP2011/052282 2010-02-19 2011-02-03 電子機器、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置 WO2011102232A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
US13/509,740 US9055171B2 (en) 2010-02-19 2011-02-03 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
CN2011800101685A CN102792672A (zh) 2010-02-19 2011-02-03 电子设备、摄像装置、图像再现方法、图像再现程序、记录有图像再现程序的记录介质以及图像再现装置
US14/473,355 US9167108B2 (en) 2010-02-19 2014-08-29 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US14/621,971 US9462141B2 (en) 2010-02-19 2015-02-13 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US15/171,533 US9888136B2 (en) 2010-02-19 2016-06-02 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US15/852,750 US10264146B2 (en) 2010-02-19 2017-12-22 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US16/294,462 US10764447B2 (en) 2010-02-19 2019-03-06 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US16/932,158 US11343387B2 (en) 2010-02-19 2020-07-17 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US17/751,309 US11882249B2 (en) 2010-02-19 2022-05-23 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US18/386,928 US20240064246A1 (en) 2010-02-19 2023-11-03 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2010-035010 2010-02-19
JP2010-035013 2010-02-19
JP2010-035014 2010-02-19
JP2010035014A JP2011172092A (ja) 2010-02-19 2010-02-19 撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置
JP2010035013A JP5440240B2 (ja) 2010-02-19 2010-02-19 電子機器
JP2010035010A JP5446976B2 (ja) 2010-02-19 2010-02-19 電子機器

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/509,740 A-371-Of-International US9055171B2 (en) 2010-02-19 2011-02-03 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US14/473,355 Division US9167108B2 (en) 2010-02-19 2014-08-29 Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device

Publications (1)

Publication Number Publication Date
WO2011102232A1 true WO2011102232A1 (ja) 2011-08-25

Family

ID=44482823

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/052282 WO2011102232A1 (ja) 2010-02-19 2011-02-03 電子機器、撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置

Country Status (3)

Country Link
US (9) US9055171B2 (ja)
CN (9) CN110798586A (ja)
WO (1) WO2011102232A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013051534A1 (ja) * 2011-10-05 2013-04-11 三洋電機株式会社 電子機器および電子カメラ
CN103581548A (zh) * 2012-07-24 2014-02-12 奥林巴斯映像株式会社 摄影设备
JP2019165506A (ja) * 2015-12-07 2019-09-26 グーグル エルエルシー マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110798586A (zh) * 2010-02-19 2020-02-14 株式会社尼康 电子设备
CN102446347B (zh) * 2010-10-09 2014-10-01 株式会社理光 图像白平衡方法和装置
TWI451297B (zh) * 2012-01-31 2014-09-01 Quanta Comp Inc 可攜式電子裝置與調整其螢幕畫面顯示方式的方法
JP5970937B2 (ja) 2012-04-25 2016-08-17 ソニー株式会社 表示制御装置および表示制御方法
JP6035842B2 (ja) * 2012-04-25 2016-11-30 ソニー株式会社 撮像装置、撮像処理方法、画像処理装置および撮像処理システム
EP2963909A4 (en) * 2013-02-28 2016-10-19 Nikon Corp ELECTRONIC DEVICE
JP6315895B2 (ja) * 2013-05-31 2018-04-25 キヤノン株式会社 撮像装置、画像処理装置、撮像装置の制御方法、画像処理装置の制御方法、プログラム
JP6047858B2 (ja) * 2013-06-07 2016-12-21 カシオ計算機株式会社 撮影制御装置及び撮影制御方法
US9406136B2 (en) * 2013-07-05 2016-08-02 Canon Kabushiki Kaisha Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person
JP6295534B2 (ja) * 2013-07-29 2018-03-20 オムロン株式会社 プログラマブル表示器、制御方法、およびプログラム
CN104427228B (zh) * 2013-08-22 2017-09-08 展讯通信(上海)有限公司 协作拍摄系统及其拍摄方法
KR20150039355A (ko) * 2013-10-02 2015-04-10 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN104734779A (zh) * 2013-12-20 2015-06-24 中兴通讯股份有限公司 简单数据处理方法及装置
JP6373001B2 (ja) * 2013-12-25 2018-08-15 キヤノン株式会社 情報処理装置、情報管理装置、情報処理システム、それらの制御方法、およびプログラム
EP3098084B1 (en) * 2014-01-24 2021-02-24 Kyocera Document Solutions Inc. Image formation device
US9311525B2 (en) * 2014-03-19 2016-04-12 Qualcomm Incorporated Method and apparatus for establishing connection between electronic devices
JP6603513B2 (ja) * 2014-09-03 2019-11-06 キヤノン株式会社 通信装置及び情報処理装置及びそれらの制御方法、並びに記憶媒体
JP2016099453A (ja) * 2014-11-20 2016-05-30 三菱電機株式会社 画像表示装置
CN105763787A (zh) * 2014-12-19 2016-07-13 索尼公司 图像形成方法、装置以及电子设备
JP6264475B2 (ja) * 2015-01-30 2018-01-24 ディーエスグローバル カンパニー,リミテッド 仮想撮影サービス方法
JP6521652B2 (ja) * 2015-02-04 2019-05-29 キヤノン株式会社 通信装置、その制御方法、プログラム
JP6525740B2 (ja) * 2015-06-01 2019-06-05 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム
JP6470637B2 (ja) * 2015-06-08 2019-02-13 キヤノン株式会社 制御装置、制御方法、及びプログラム
US10080000B2 (en) * 2015-08-06 2018-09-18 Panasonic Intellectual Property Management Co., Ltd. Intercom system
US9906704B2 (en) 2015-09-17 2018-02-27 Qualcomm Incorporated Managing crowd sourced photography in a wireless network
JP2017199972A (ja) * 2016-04-25 2017-11-02 オリンパス株式会社 端末装置、情報取得システム、情報取得方法およびプログラム
CN109716779B (zh) * 2016-09-15 2022-08-23 麦克赛尔株式会社 影像显示装置和影像显示装置的协作控制方法
JP6843694B2 (ja) * 2017-04-27 2021-03-17 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記録媒体
KR102061787B1 (ko) * 2017-11-29 2020-01-03 삼성전자주식회사 이미지를 촬영하는 전자 장치 및 이미지 표시 방법
JP7297406B2 (ja) 2017-12-18 2023-06-26 キヤノン株式会社 制御装置、撮像装置、制御方法およびプログラム
US10817825B2 (en) * 2018-03-22 2020-10-27 Maxq Research Llc Remote integration of cloud services and transportable perishable products active monitor
US10342737B1 (en) * 2018-03-22 2019-07-09 Maxq Research Llc Active monitoring system for thermally-managed transportation and storage of specific perishable products
CN114697527B (zh) * 2020-12-29 2023-04-18 华为技术有限公司 一种拍摄方法、系统及电子设备
JP2023035172A (ja) * 2021-08-31 2023-03-13 富士フイルム株式会社 制御装置、制御方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10341400A (ja) * 1997-06-06 1998-12-22 Nikon Corp 通信機能を有する電子カメラ
JPH11298778A (ja) * 1998-04-09 1999-10-29 Casio Comput Co Ltd 光通信装置およびその位置合せ方法
JP2003169291A (ja) * 2001-11-30 2003-06-13 Canon Inc 電子機器、データ送信方法、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
JP2006217354A (ja) * 2005-02-04 2006-08-17 Olympus Corp デジタルカメラ、アクセサリ装置、及びデジタルカメラシステム
JP2006245654A (ja) * 2005-02-28 2006-09-14 Fuji Photo Film Co Ltd 電子カメラ

Family Cites Families (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5032127B2 (ja) 1971-10-25 1975-10-17
JPH089347A (ja) 1994-06-22 1996-01-12 Matsushita Electric Ind Co Ltd 動画像伝送装置
JP3504738B2 (ja) 1994-09-09 2004-03-08 オリンパス株式会社 電子的撮像装置及び電子的撮像システム
US20040051785A1 (en) 1997-06-06 2004-03-18 Nikon Corporation Electronic camera having a communication function
US6930709B1 (en) 1997-12-04 2005-08-16 Pentax Of America, Inc. Integrated internet/intranet camera
JP4532610B2 (ja) 1998-01-30 2010-08-25 キヤノン株式会社 カメラ制御システムおよびその方法およびその動作処理を実行するプログラムを記憶した記憶媒体
JP4298042B2 (ja) * 1998-03-20 2009-07-15 キヤノン株式会社 ディジタルカメラ及びその制御方法
JP3711743B2 (ja) 1998-04-17 2005-11-02 コニカミノルタフォトイメージング株式会社 デジタルカメラシステム
JP2000134527A (ja) 1998-10-26 2000-05-12 Minolta Co Ltd デジタルカメラ
JP2000206774A (ja) 1998-11-13 2000-07-28 Canon Inc トナ―残量検知装置、トナ―残量検知方法、プロセスカ―トリッジ、及び、電子写真画像形成装置
JP2001008089A (ja) 1999-06-23 2001-01-12 Canon Inc 画像処理装置及びその制御方法、画像処理システム、撮像支援方法並びにメモリ媒体
JP2001111866A (ja) 1999-10-05 2001-04-20 Canon Inc 画像処理システム、画像処理装置およびその方法、並びに、記憶媒体
JP2001148802A (ja) * 1999-11-19 2001-05-29 Ricoh Co Ltd デジタルカメラおよびデジタルカメラシステム
JP2001169173A (ja) 1999-12-06 2001-06-22 Canon Inc 画像処理システム、画像処理装置及び制御方法
JP2001230954A (ja) 2000-02-15 2001-08-24 Fuji Photo Film Co Ltd 撮像装置
JP4347498B2 (ja) 2000-05-10 2009-10-21 オリンパス株式会社 電子カメラおよび画像処理装置
US6809759B1 (en) * 2000-06-19 2004-10-26 Benq Corporation Remote control unit with previewing device for an image-capturing device
EP1168678B1 (en) * 2000-06-27 2003-09-03 Matsushita Electric Works, Ltd. Data transmission system using a human body as a signal transmission path
JP2002095055A (ja) * 2000-09-18 2002-03-29 Toshiba Corp 無線データ通信装置、データ処理方法、記録媒体、コンテンツ提供システム
JP2002171434A (ja) * 2000-12-04 2002-06-14 Nikon Corp 電子カメラ
JP4029629B2 (ja) 2001-03-27 2008-01-09 セイコーエプソン株式会社 通信機器、通信方法およびプログラム
US6944700B2 (en) * 2001-06-15 2005-09-13 Logitech Europe S.A. Method and system for transferring data between a digital camera and a host
EP1276308A3 (en) * 2001-07-12 2005-05-04 Kabushiki Kaisha Toshiba Mobile communication terminal comprising camera
JP2003092719A (ja) 2001-07-13 2003-03-28 Matsushita Electric Ind Co Ltd デジタルカメラ
US7409231B2 (en) 2001-08-28 2008-08-05 Sony Corporation Information processing apparatus and method, and recording medium
AU2002328443A1 (en) 2001-11-27 2003-06-10 Matsushita Electric Industrial Co., Ltd. Information recorder, system for copying information, method for copying information, program and computer readable recording medium
JP3767479B2 (ja) 2001-12-21 2006-04-19 セイコーエプソン株式会社 無線通信装置及び無線通信装置制御用プログラム
CN2511069Y (zh) * 2002-01-10 2002-09-11 金宝电子工业股份有限公司 一种数字相机摄影机影像显示无线遥控装置
JP2003209796A (ja) 2002-01-16 2003-07-25 Canon Inc 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP4019785B2 (ja) * 2002-05-02 2007-12-12 ソニー株式会社 画像表示システムと画像処理装置及び画像表示方法
JP2003338785A (ja) 2002-05-21 2003-11-28 Oki Electric Ind Co Ltd 端末間通信システム
JP4014453B2 (ja) 2002-06-10 2007-11-28 三洋電機株式会社 カメラ
JP3927874B2 (ja) 2002-07-02 2007-06-13 キヤノン株式会社 画像処理装置およびその制御方法およびプログラムおよび記憶媒体
JP2003179861A (ja) * 2002-09-09 2003-06-27 Hitachi Ltd 画像記録再生装置
JP4902936B2 (ja) * 2002-11-20 2012-03-21 ホットアルバムコム株式会社 コピー機能付きプログラムを記録した情報記録媒体
JP3791489B2 (ja) 2002-12-13 2006-06-28 ソニー株式会社 ポータブルサーバ
CN100452868C (zh) * 2003-01-17 2009-01-14 日本电信电话株式会社 远程图像显示方法、图像捕获装置和方法
US8189059B2 (en) 2003-01-29 2012-05-29 Nikon Corporation Digital camera and digital camera system
JP2004235788A (ja) 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP2004235780A (ja) 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP3937332B2 (ja) 2003-03-11 2007-06-27 ソニー株式会社 撮影システム
JP4434624B2 (ja) * 2003-05-12 2010-03-17 キヤノン株式会社 撮像装置、撮像方法、コンピュータプログラム、及びコンピュータ読み取り可能な記憶媒体
JP4292891B2 (ja) * 2003-06-26 2009-07-08 ソニー株式会社 撮像装置、画像記録装置および画像記録方法
JP4661035B2 (ja) * 2003-08-08 2011-03-30 株式会社ニコン カメラシステムおよびカメラ
KR100555662B1 (ko) * 2004-01-06 2006-03-03 삼성전자주식회사 기록매체간 영상파일을 복사할 수 있는 휴대용 복합장치및 기록매체간 영상파일 복사방법
JP4455076B2 (ja) 2004-01-28 2010-04-21 キヤノン株式会社 無線通信装置の認証方法、無線通信装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
CN100531370C (zh) * 2004-02-03 2009-08-19 松下电器产业株式会社 监视系统及摄像机终端
JP2005244907A (ja) 2004-02-27 2005-09-08 Ricoh Co Ltd 撮像装置およびその機能選択方法
JP4138693B2 (ja) 2004-03-31 2008-08-27 株式会社東芝 フロー制御の初期化方法および情報処理装置
JP2005318259A (ja) 2004-04-28 2005-11-10 Toshiba Corp 画像撮影装置、画像撮影システム及び画像撮影装置制御方法
US7395446B2 (en) * 2004-05-03 2008-07-01 Microsoft Corporation Systems and methods for the implementation of a peer-to-peer rule-based pull autonomous synchronization system
JP2006005444A (ja) * 2004-06-15 2006-01-05 Matsushita Electric Works Ltd 通信システム
JP4745737B2 (ja) 2004-08-06 2011-08-10 キヤノン株式会社 撮像装置、通信システム、伝送方法、撮像装置の制御方法、及びコンピュータプログラム
US7602420B2 (en) 2004-08-06 2009-10-13 Canon Kabushiki Kaisha Image capture apparatus, method for controlling the same and computer program
US20060046719A1 (en) 2004-08-30 2006-03-02 Holtschneider David J Method and apparatus for automatic connection of communication devices
KR20060026228A (ko) * 2004-09-20 2006-03-23 삼성테크윈 주식회사 터치 스크린 디스플레이 패널을 리모콘으로 사용하는디지털 카메라 및 그 구동 방법
US7738011B2 (en) * 2004-09-21 2010-06-15 Hitachi Kokusai Electric Inc. Camera control system
JP2006101192A (ja) * 2004-09-29 2006-04-13 Canon Inc 撮像装置
JP4508810B2 (ja) 2004-09-30 2010-07-21 キヤノン株式会社 撮像装置、撮像装置による撮影方法およびプログラム
US20060119734A1 (en) * 2004-12-03 2006-06-08 Eastman Kodak Company Docking station for near-object digital photography
JP4411193B2 (ja) 2004-12-09 2010-02-10 富士フイルム株式会社 ディスプレイ付き撮像装置及び画像表示装置
US20080166966A1 (en) * 2004-12-20 2008-07-10 Shogo Hamasaki Wireless Communication Apparatus and Communication Control Method
US7551200B2 (en) * 2005-01-25 2009-06-23 Panasonic Corporation Camera controller and zoom ratio control method for the camera controller
JP2006212899A (ja) 2005-02-03 2006-08-17 Seiko Epson Corp デジタル画像記録システム、記録装置、デジタル画像処理装置
JP2006238020A (ja) 2005-02-24 2006-09-07 Olympus Corp デジタルカメラシステム及びデジタルカメラ
JP2006238021A (ja) 2005-02-24 2006-09-07 Olympus Corp デジタルカメラシステム及びデジタルカメラ
JP2006246023A (ja) 2005-03-03 2006-09-14 Canon Inc 相互に画像配信可能なカメラ
JP4363361B2 (ja) 2005-04-28 2009-11-11 沖電気工業株式会社 携帯用電子機器,セキュリティシステムおよび携帯用電子機器の動作許可範囲決定方法
US8244179B2 (en) 2005-05-12 2012-08-14 Robin Dua Wireless inter-device data processing configured through inter-device transmitted data
CN1874492A (zh) * 2005-05-30 2006-12-06 上海中策工贸有限公司 手机摄像头远程自动摄像装置
JP2006340150A (ja) 2005-06-03 2006-12-14 Canon Inc デジタルカメラシステムにおける画像一覧更新方法
JP2007004540A (ja) * 2005-06-24 2007-01-11 Nec Corp 非接触通信による改札入出場管理システム,方法,自動改札機,携帯端末およびプログラム
TW200700878A (en) * 2005-06-27 2007-01-01 Lite On Technology Corp Image capturing apparatus with a remote controller
JP2007006415A (ja) 2005-06-27 2007-01-11 Olympus Corp 電子カメラ
US7379664B2 (en) * 2005-07-26 2008-05-27 Tinkers & Chance Remote view and controller for a camera
JP4724512B2 (ja) 2005-09-13 2011-07-13 キヤノン株式会社 撮像装置、制御方法、制御プログラム及び記憶媒体
JP4732107B2 (ja) 2005-10-05 2011-07-27 富士フイルム株式会社 撮影装置及び撮影システム
CN101578593A (zh) 2005-10-20 2009-11-11 阿普洛格斯公司 使用控制台通信的非集中式网络设备管理的系统和方法
JP5243691B2 (ja) 2005-11-09 2013-07-24 富士フイルム株式会社 カメラ
CN1984243A (zh) * 2005-12-16 2007-06-20 乐金电子(沈阳)有限公司 内置有照相机的远程遥控器及其控制方法
JP2007214786A (ja) * 2006-02-08 2007-08-23 Toshiba Corp 携帯型撮像装置
JP4797674B2 (ja) 2006-02-13 2011-10-19 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4411287B2 (ja) * 2006-02-27 2010-02-10 オリンパス株式会社 電子画像取扱装置
JP4889723B2 (ja) * 2006-03-02 2012-03-07 パナソニック株式会社 携帯端末装置
JP4621157B2 (ja) 2006-03-09 2011-01-26 富士フイルム株式会社 携帯型画像通信システムならびにそのシステムを構成する送信装置および受信装置ならびにそれらの制御方法
JP5087856B2 (ja) 2006-04-05 2012-12-05 株式会社ニコン 電子カメラ
JP4125328B2 (ja) 2006-04-17 2008-07-30 キヤノン株式会社 電子機器、電子機器による周辺機器の制御方法、プログラム及び記憶媒体
US8798671B2 (en) 2006-07-26 2014-08-05 Motorola Mobility Llc Dual mode apparatus and method for wireless networking configuration
TW200818884A (en) * 2006-09-20 2008-04-16 Macnica Inc Control system of image photographing apparatus, as digital camera, digital video-camera or the like using a mobile communication terminal, and image photographing apparatus
US20080171561A1 (en) 2007-01-11 2008-07-17 Texas Instruments Incorporated Apparatus for and method of radio link establishment between two communication devices
JP2008193457A (ja) 2007-02-06 2008-08-21 Fujifilm Corp デジタルカメラ、及びデジタルカメラの制御方法
JP2008219522A (ja) 2007-03-05 2008-09-18 Canon Inc 撮像システム、撮像装置、撮像プログラム、及び撮像方法
JP2008271151A (ja) * 2007-04-19 2008-11-06 Sony Corp 無線通信システム、無線通信装置、プログラムおよび無線通信方法
JP4614396B2 (ja) 2007-05-10 2011-01-19 キヤノン株式会社 撮像装置及びその制御方法
US8224354B2 (en) 2007-07-20 2012-07-17 Koninklijke Kpn N.V. Identification of proximate mobile devices
JP2009033494A (ja) 2007-07-27 2009-02-12 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US8274669B2 (en) * 2007-07-31 2012-09-25 Ricoh Company, Ltd. Image forming apparatus
JP5231771B2 (ja) 2007-08-20 2013-07-10 富士フイルム株式会社 立体画像撮影装置
JP4851406B2 (ja) 2007-08-31 2012-01-11 富士フイルム株式会社 多眼撮影システムにおける調整用画像表示方法および多眼撮影システム
JP2009094563A (ja) 2007-10-03 2009-04-30 Sony Corp 電子機器、撮像装置、撮像システム、および撮像遠隔操作方法
US7970350B2 (en) * 2007-10-31 2011-06-28 Motorola Mobility, Inc. Devices and methods for content sharing
JP2009169209A (ja) 2008-01-18 2009-07-30 Olympus Imaging Corp 画像表示装置、画像表示方法、および画像表示用プログラム
JP5273998B2 (ja) 2007-12-07 2013-08-28 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP5111148B2 (ja) 2008-02-18 2012-12-26 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP5074232B2 (ja) 2008-02-26 2012-11-14 パナソニック株式会社 無線通信システム、応答器
JP2009206774A (ja) 2008-02-27 2009-09-10 Canon Inc 画像伝送システム、画像伝送装置及び制御方法
US7991896B2 (en) 2008-04-21 2011-08-02 Microsoft Corporation Gesturing to select and configure device communication
JP2010021984A (ja) 2008-06-09 2010-01-28 Sony Corp 通信装置、及び通信方法
JP5211925B2 (ja) 2008-08-05 2013-06-12 株式会社ニコン 撮像装置、画像分類プログラム及び記憶媒体
CN101610305A (zh) * 2008-12-19 2009-12-23 Tcl数码科技(深圳)有限责任公司 利用串口通讯实现手机对dv遥控操作的方法
CN110798586A (zh) * 2010-02-19 2020-02-14 株式会社尼康 电子设备
JP5446976B2 (ja) 2010-02-19 2014-03-19 株式会社ニコン 電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10341400A (ja) * 1997-06-06 1998-12-22 Nikon Corp 通信機能を有する電子カメラ
JPH11298778A (ja) * 1998-04-09 1999-10-29 Casio Comput Co Ltd 光通信装置およびその位置合せ方法
JP2003169291A (ja) * 2001-11-30 2003-06-13 Canon Inc 電子機器、データ送信方法、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
JP2006217354A (ja) * 2005-02-04 2006-08-17 Olympus Corp デジタルカメラ、アクセサリ装置、及びデジタルカメラシステム
JP2006245654A (ja) * 2005-02-28 2006-09-14 Fuji Photo Film Co Ltd 電子カメラ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013051534A1 (ja) * 2011-10-05 2013-04-11 三洋電機株式会社 電子機器および電子カメラ
CN103581548A (zh) * 2012-07-24 2014-02-12 奥林巴斯映像株式会社 摄影设备
JP2019165506A (ja) * 2015-12-07 2019-09-26 グーグル エルエルシー マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法

Also Published As

Publication number Publication date
US20240064246A1 (en) 2024-02-22
US20160277665A1 (en) 2016-09-22
CN110708466A (zh) 2020-01-17
CN103957356A (zh) 2014-07-30
US9888136B2 (en) 2018-02-06
CN110825905A (zh) 2020-02-21
CN103945132A (zh) 2014-07-23
US9462141B2 (en) 2016-10-04
US11882249B2 (en) 2024-01-23
US20120281101A1 (en) 2012-11-08
US20150189153A1 (en) 2015-07-02
CN103957356B (zh) 2018-11-09
US20140368679A1 (en) 2014-12-18
CN104320571B (zh) 2019-05-17
US20200351411A1 (en) 2020-11-05
CN110708466B (zh) 2022-02-18
US20180124262A1 (en) 2018-05-03
CN102792672A (zh) 2012-11-21
CN103945131A (zh) 2014-07-23
US11343387B2 (en) 2022-05-24
US20190208065A1 (en) 2019-07-04
CN110798586A (zh) 2020-02-14
CN104320571A (zh) 2015-01-28
US9167108B2 (en) 2015-10-20
CN103945131B (zh) 2018-05-01
US9055171B2 (en) 2015-06-09
CN103945132B (zh) 2019-05-14
US10764447B2 (en) 2020-09-01
US10264146B2 (en) 2019-04-16
CN103945130A (zh) 2014-07-23
US20220294915A1 (en) 2022-09-15
CN103945130B (zh) 2018-05-15

Similar Documents

Publication Publication Date Title
US11882249B2 (en) Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
JP5446976B2 (ja) 電子機器
JP5392141B2 (ja) 電子機器
JP2016220261A (ja) 電子機器
JP5754500B2 (ja) 電子機器および電子機器用プログラム
JP2011172092A (ja) 撮像装置、画像再生方法、画像再生プログラム、画像再生プログラムを記録した記録媒体および画像再生装置
JP5440240B2 (ja) 電子機器
JP5448913B2 (ja) 電子機器および電子機器用プログラム
JP5644976B2 (ja) 電子機器及び電子機器用プログラム
JP5644932B2 (ja) 電子機器
JP5614487B2 (ja) 電子機器および電子機器用プログラム
JP2023052626A (ja) 電子機器
JP2019054521A (ja) 電子機器及びプログラム
JP2021170808A (ja) 電子機器、制御方法、及び記録媒体
JP2018125890A (ja) 電子機器および電子機器用プログラム
JP2020036366A (ja) 電子機器及び撮像方法
JP2017060170A (ja) 電子機器及びプログラム
JP2014233076A (ja) 電子機器及び電子機器用プログラム
JP2015035812A (ja) 電子機器及び電子機器用プログラム
JP2015039240A (ja) 電子機器および電子機器用プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180010168.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11744520

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13509740

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 4480/DELNP/2012

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11744520

Country of ref document: EP

Kind code of ref document: A1