WO2012026485A1 - 撮像装置及び撮像システム - Google Patents

撮像装置及び撮像システム Download PDF

Info

Publication number
WO2012026485A1
WO2012026485A1 PCT/JP2011/069038 JP2011069038W WO2012026485A1 WO 2012026485 A1 WO2012026485 A1 WO 2012026485A1 JP 2011069038 W JP2011069038 W JP 2011069038W WO 2012026485 A1 WO2012026485 A1 WO 2012026485A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging
imaging device
image
person
Prior art date
Application number
PCT/JP2011/069038
Other languages
English (en)
French (fr)
Inventor
幹也 田中
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2012026485A1 publication Critical patent/WO2012026485A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Definitions

  • the present invention relates to an imaging apparatus and an imaging system.
  • This application claims priority based on Japanese Patent Application No. 2010-188051 filed in Japan on August 25, 2010 and Japanese Patent Application No. 2011-177567 filed on August 15, 2011 in Japan. And the contents thereof are incorporated herein.
  • Patent Document 1 discloses a digital camera that can perform continuous shooting at a higher speed than continuous shooting with one digital camera by continuous shooting with two digital cameras linked together. ing.
  • an imaging unit a transmission unit that transmits a shooting instruction to another imaging unit, and a partial region of an image that is captured by the other imaging unit according to the shooting instruction are received.
  • An imaging apparatus comprising: a receiving unit configured to combine; a partial region of an image received by the receiving unit; and a combining unit that combines the partial region of the image captured by the imaging unit.
  • an imaging unit a transmission unit that transmits a shooting instruction to another imaging unit, and an image captured by the other imaging unit according to the shooting instruction are received.
  • An imaging apparatus comprising: a receiving unit; and a combining unit that combines a partial region of an image received by the receiving unit and a partial region of an image captured by the imaging unit.
  • a first imaging unit a first transmission unit that transmits a shooting instruction to the second imaging device, and the second imaging device responds to the shooting instruction.
  • a first receiving unit that receives the partial region of the image captured by the first receiving unit, the partial region of the image received by the first receiving unit, and the partial region of the image captured by the first imaging unit.
  • a first imaging device including a combining unit; a second receiving unit that receives the shooting instruction from the first imaging device; and the second receiving unit receives the shooting instruction, and the optical system
  • a second imaging unit comprising: a second imaging unit that captures an image by the second imaging unit; and a second transmission unit that transmits a partial region of the image captured by the second imaging unit to the first imaging device. It is an imaging system characterized by having.
  • a first imaging unit a first transmission unit that transmits a shooting instruction to the second imaging device, and the second imaging device responds to the shooting instruction.
  • a first receiving unit that receives the image, and a combining unit that combines the partial region of the image received by the first receiving unit and the partial region of the image captured by the first imaging unit;
  • a second receiving unit that receives the shooting instruction from the first imaging device, and when the second receiving unit receives the shooting instruction, an image by the optical system is obtained.
  • a second imaging device comprising: a second imaging unit that captures an image; and a second transmission unit that transmits an image captured by the second imaging unit to the first imaging device.
  • a receiving unit that receives a shooting instruction from another imaging unit, an imaging unit that captures an image by an optical system when the receiving unit receives a shooting instruction, and the imaging
  • An imaging apparatus comprising: a transmission unit that transmits a partial region of an image captured by the unit to the other imaging unit.
  • FIG. 1 is a block diagram showing a configuration of an imaging system according to the first embodiment of the present invention.
  • the imaging system includes a first imaging device 100 and a second imaging device 200 as a plurality of imaging devices that communicate with each other.
  • the first imaging device 100 includes a first operation unit 150, a first imaging unit 120, a first memory unit 180, a shooting notification transmission unit (transmission unit) 131, and a first wireless unit 160. , An image receiving unit (receiving unit) 134, a person area extracting unit 171, a combining unit 172, and a combined image distribution unit 135.
  • the first operation unit 150 includes, for example, a power switch, a shutter button, a multi selector (cross key), or other operation keys, and receives an operation input from a user.
  • the first imaging unit 120 forms an optical image by the optical system on an imaging device, generates image data based on the optical image, and performs photographing (imaging).
  • the first memory unit 180 stores the image data generated by the first imaging unit 120.
  • the first wireless unit 160 communicates with the second imaging device 200 wirelessly.
  • the shooting notification transmission unit 131 transmits a shooting notification to the second imaging device 200 via the first wireless unit 160.
  • the shooting notification is data for notifying that shooting is performed (instructing shooting).
  • the image receiving unit 134 receives the image data captured by the second imaging device 200 from the second imaging device 200 via the first wireless unit 160 in accordance with the shooting notification transmitted by the shooting notification transmission unit 131. .
  • the person area extraction unit 171 corresponds to a person (including a person) from the image data stored in the first memory unit 180 and the image data received by the image receiving unit 134 (hereinafter, referred to as a person area). To extract. Specifically, first, the person area extraction unit 171 performs face recognition processing using pattern recognition, for example, and detects an image area corresponding to the face of a person included in the image data. More specifically, the person area extraction unit 171 performs image processing on the image data and calculates the feature amount of the image.
  • the person area extraction unit 171 refers to the feature amount of the image representing the face of the person stored in the first memory unit 180, and the difference between the feature amount of the image representing the face and the feature amount of the image data However, it is determined whether or not they are within an allowable range that is allowed as a similar range.
  • the person area extraction unit 171 detects an image area in which the difference is within an allowable range as an image area corresponding to a human face included in the image data (hereinafter referred to as a face area). Next, the person area extraction unit 171 extracts color information and luminance information from the image data, and groups areas having similar-colored objects or areas having similar luminance objects.
  • the person area extraction unit 171 detects a group at a position corresponding to the person's body estimated from the detected face area as an image area (hereinafter referred to as a body area) corresponding to the person's body.
  • the person area extraction unit 171 then combines the detected face area and body area as a person area.
  • the combining unit 172 combines the image data received by the image receiving unit 134 (hereinafter referred to as transfer image data) and the image data generated by the first imaging unit 120 (hereinafter referred to as captured image data). Composite image data is generated. Specifically, the composition unit 172 superimposes the person area extracted from the transfer image data by the person area extraction unit 171 on an area other than the person area in the captured image data. At this time, the composition unit 172 superimposes the person area extracted from the transfer image data on a wide area among areas adjacent to the person area in the captured image data.
  • the composite image distribution unit 135 transmits the composite image data generated by the composition unit 172 to the second imaging device 200 via the first wireless unit 160.
  • the second imaging device 200 includes a second wireless unit 260, a shooting notification receiving unit 132, a second imaging unit 220, a second memory unit 280, and an image transmission unit 133.
  • the second wireless unit 260 communicates with the first imaging device 100 wirelessly.
  • the shooting notification receiving unit 132 receives a shooting notification from the first imaging device 100 via the second wireless unit 260.
  • the imaging notification receiving unit 132 receives the imaging notification
  • the second imaging unit 220 forms an optical image by the optical system on the imaging element, generates image data based on the optical image, and performs imaging (imaging).
  • the second memory unit 280 stores the image data generated by the second imaging unit 220.
  • the image transmission unit 133 transmits the image data generated by the second imaging unit 220 to the first imaging device 100 via the second wireless unit 260.
  • LAN wireless local area network
  • the imaging system transmits a shooting notification to the second imaging device 200 so that the first imaging device 100 and the second imaging device 200 capture images almost simultaneously. Is to do.
  • the second imaging device 200 transmits the captured image data to the first imaging device 100
  • the first imaging device 100 captures the captured image data captured by the first imaging device 100 and the second imaging.
  • the transfer image data captured by the apparatus 200 is combined to generate combined image data.
  • FIG. 2 is a block diagram illustrating the configuration of the imaging apparatus 1 according to the present embodiment.
  • the imaging device 1 has both functions of the first imaging device 100 and the second imaging device 200, and can operate as the first imaging device 100 depending on the scene, or can be operated as the second imaging device 200. Can also operate as.
  • symbol is attached
  • the imaging device 1 captures an image by an optical system and stores the obtained image data in the storage medium 50.
  • the imaging device 1 includes an optical system 11, an imaging unit 12 (including a first imaging unit 120 and a second imaging unit 220), a CPU (Central Processing Unit) 13, a buffer memory unit 14, and an operation unit. (Including the first operation unit 150) 15, a radio unit (including the first radio unit 160 and the second radio unit 260) 16, an image processing unit 17, and a memory unit (first memory unit) 180 and a second memory unit 280) 18 and an I / F (interface) unit 19.
  • the optical system 11 drives the lens according to the imaging control information, adjusts the amount of light incident on the imaging element 121 included in the imaging unit 12 from the lens and the focal position, and couples the incident light to the light receiving surface of the imaging element 121.
  • the imaging unit 12 includes an imaging element 121 and an A / D conversion unit 122.
  • the image sensor 121 photoelectrically converts an image formed on the light receiving surface with an exposure time based on the imaging control condition.
  • the imaging control conditions include a plurality of setting values (for example, aperture value, ISO sensitivity, AE (automatic exposure) correction value, focus value, shutter speed, imaging sensitivity, and flash emission used when imaging an image. Status information).
  • the A / D converter 122 converts the image information of the analog signal output from the image sensor 121 into a digital signal.
  • the imaging unit 12 displays an image by the optical system 11 based on the set imaging control condition. Image data is generated by imaging.
  • the CPU 13 includes an imaging notification transmission unit 131, an imaging notification reception unit 132, an image transmission unit 133, an image reception unit 134, and a composite image distribution unit 135, and comprehensively controls the imaging apparatus 1.
  • the buffer memory unit 14 is a memory that temporarily stores the image data generated by the imaging unit 12.
  • the operation unit 15 includes, for example, a power switch, a shutter button, a multi-selector (cross key), or other operation keys.
  • the operation unit 15 receives a user operation input when operated by the user, and outputs a signal corresponding to the operation input to the CPU 13. Output to.
  • the wireless unit 16 communicates with other imaging devices 1 wirelessly.
  • the image processing unit 17 includes a person area extraction unit 171 and a synthesis unit 172, and performs image processing on image data stored in the buffer memory unit 14 or the memory unit 18.
  • the memory unit 18 stores image data captured by the imaging unit 12, setting values related to the operation of the imaging device 1, imaging control conditions of the imaging unit 12, and the like.
  • the memory unit 18 stores transfer image data received from another imaging device 1 and synthesized image data generated by the synthesizing unit 172 included in the image processing unit 17.
  • the I / F unit 19 is connected to an external storage medium 50 such as a card memory, and performs writing, reading, or erasing of information on the storage medium 50. For example, the I / F unit 19 writes the image data generated by the imaging unit 12 in the storage medium 50.
  • the imaging unit 12, CPU 13, buffer memory unit 14, operation unit 15, wireless unit 16, image processing unit 17, memory unit 18 and I / F unit 19 are connected to each other via a bus and can communicate with each other. It is.
  • FIG. 3 is a flowchart illustrating the procedure of the imaging process according to the present embodiment.
  • the first imaging device 100 and the second imaging device 200 cooperate to photograph a subject, and the first imaging device 100 synthesizes images captured by each subject.
  • FIG. 3A is a flowchart illustrating a procedure of imaging processing in the first imaging device 100
  • FIG. 3B is a flowchart illustrating a procedure of imaging processing in the second imaging device 200.
  • step S101 it is detected that the shutter button (first operation unit 150) included in the first imaging device 100 is pressed by the user.
  • step S ⁇ b> 102 the shooting notification transmission unit 131 transmits a shooting notification to the second imaging device 200.
  • step S103 the first imaging unit 120 captures and generates captured image data.
  • step S ⁇ b> 104 the CPU 13 included in the first imaging device 100 stores the captured image data generated by the first imaging unit 120 by writing it in the first memory unit 180. Then, the first imaging device 100 stands by until transfer image data is transmitted from the second imaging device 200.
  • step S201 the shooting notification receiving unit 132 receives the shooting notification transmitted by the shooting notification transmitting unit 131.
  • step S202 the second imaging unit 220 performs shooting to generate transfer image data.
  • step S ⁇ b> 203 the CPU 13 included in the second imaging device 200 stores the transfer image data generated by the second imaging unit 220 by writing it in the second memory unit 280.
  • step S ⁇ b> 204 the image transmission unit 133 transmits the transfer image data to the first imaging device 100 and ends the process.
  • step S105 the image receiving unit 134 receives the transfer image data transmitted from the second imaging device 200, and the received transfer image data is stored in the first memory unit 180. Save by writing.
  • step S106 the combining unit 172 generates combined image data by combining the captured image data and the transfer image data. Specifically, first, the person area extraction unit 171 extracts a person area from the captured image data and the transfer image data. Subsequently, the composition unit 172 superimposes the person area extracted from the transfer image data on an area other than the person area in the captured image data. Finally, in step S107, the composition unit 172 stores the generated composite image data by writing it in the first memory unit 180, and ends the process.
  • FIG. 4A to 4C are image diagrams showing display examples of a captured image, a transfer image, and a composite image according to the present embodiment.
  • FIG. 4A is an image diagram illustrating a display example of the photographed image 1000.
  • the captured image 1000 is an image captured by the first imaging device 100 and includes a person area 1000a.
  • FIG. 4B is an image diagram illustrating a display example of the transfer image 2000.
  • the transfer image 2000 is an image captured by the second imaging device 200 and includes a person area 2000a.
  • FIG. 4C is an image diagram illustrating a display example of the composite image 3000.
  • the composite image 3000 is an image obtained by superimposing (combining) the person region 2000a on the captured image 1000 by the combining unit 172 included in the first imaging device 100.
  • the person area extraction unit 171 included in the first imaging apparatus 100 extracts the person area 1000a from the captured image 1000 and extracts the person area 2000a from the transfer image 2000. Then, the composition unit 172 included in the first imaging device 100 superimposes the person area 2000a on an area other than the person area 1000a in the captured image 1000. Specifically, as illustrated, the composition unit 172 superimposes the person area 2000a on the left area, which is a wide area of the left and right areas adjacent to the person area 1000a. The synthesizing unit 172 determines the left and right regions based on the vertical direction of the person acquired when the person region extracting unit 171 performs the face recognition process.
  • the first imaging device 100 transmits a shooting notification to the second imaging device 200 when shooting, and the second imaging device 200 performs shooting when receiving the shooting notification. . Accordingly, the first imaging device 100 and the second imaging device 200 can perform shooting in conjunction with each other.
  • the second imaging device 200 transmits the captured image to the first imaging device 100, and the first imaging device 100 combines the received image and the captured image. As a result, it is possible to automatically synthesize images captured by two (a plurality of) imaging devices 1 in conjunction with each other.
  • FIG. 5 is a block diagram illustrating a configuration of the imaging system according to the present embodiment.
  • the first imaging device 300 includes a first timer unit 301 and a shooting time setting unit 336 in addition to the configuration of the first imaging device 100 according to the first embodiment.
  • the first timekeeping unit 301 keeps time information indicating time.
  • the shooting time setting unit 336 sets the shooting time with reference to the time information measured by the first timer unit 301.
  • the shooting time setting unit 336 sets the time after T (T is a real number greater than 0) seconds from the time when the shooting instruction is input as the shooting time. Further, the first imaging unit 320 performs imaging at the time set by the imaging time setting unit 336 with reference to the time information measured by the first timer unit 301.
  • the shooting notification transmission unit 331 transmits a shooting notification including the shooting time set by the shooting time setting unit 336 to the second imaging device 400.
  • the image receiving unit 334 receives transfer image data captured at the imaging time from the second imaging device 400.
  • Other configurations of the first imaging device 300 are the same as those of the first imaging device 100 according to the first embodiment, and thus the description thereof is omitted.
  • the second imaging device 400 includes a second timer 401 in addition to the configuration of the second imaging device 200 according to the first embodiment.
  • the second timing unit 401 counts time information.
  • the shooting notification receiving unit 332 receives a shooting notification including a shooting time from the first imaging device 300.
  • the second imaging unit 420 performs shooting at the shooting time included in the shooting notification received by the shooting notification receiving unit 332 with reference to the time information counted by the second clocking unit 401.
  • the other configuration of the second imaging device 400 is the same as that of the second imaging device 200 according to the first embodiment, and a description thereof will be omitted.
  • the first imaging device 300 and the second imaging device 400 are the same when the first imaging device 300 transmits a shooting notification including the shooting time to the second imaging device 400. Take a picture at the time. Then, the first imaging device 300 combines the captured image data captured at the same time with the transfer image data.
  • FIG. 6 is a block diagram illustrating a configuration of the imaging apparatus 3 according to the present embodiment.
  • symbol is attached
  • the imaging device 3 includes a timer unit (including a first timer unit 301 and a second timer unit 401) 30 in addition to the configuration of the imaging device 1 according to the first embodiment.
  • the timer unit 30 measures time and date and outputs the measured time information to the CPU 33. Note that the timer unit 30 continuously receives power from the battery and continuously counts the current time.
  • the CPU 33 included in the imaging device 3 includes a shooting time setting unit 336 in addition to the configuration of the CPU 13 according to the first embodiment. Since other configurations are the same as those of the imaging device 1 according to the first embodiment, the description thereof is omitted.
  • FIG. 7 is a flowchart illustrating the procedure of the imaging process according to the present embodiment.
  • the first imaging device 300 and the second imaging device 400 photograph a subject at the same time, and the first imaging device 300 synthesizes the images captured by each subject.
  • FIG. 7A is a flowchart illustrating a procedure of imaging processing in the first imaging device 300
  • FIG. 7B is a flowchart illustrating a procedure of imaging processing in the second imaging device 400.
  • step S301 it is detected that the shutter button (first operation unit 350) included in the first imaging device 300 is pressed by the user. Then, the shooting time setting unit 336 sets the shooting time.
  • step S ⁇ b> 302 the shooting notification transmission unit 331 transmits a shooting notification including the shooting time to the second imaging device 400.
  • step S303 the first imaging device 300 stands by until the shooting time comes. When the time counted by the first timekeeping unit 301 coincides with the photographing time, the first imaging unit 320 performs photographing in step S304 and generates photographed image data.
  • step S ⁇ b> 305 the CPU 33 provided with the first imaging device 300 stores the captured image data generated by the first imaging unit 320 by writing it in the first memory unit 380.
  • step S306 the first imaging device 300 stands by until transfer image data is transmitted from the second imaging device 400.
  • step S401 the shooting notification receiving unit 332 receives a shooting notification including the shooting time.
  • step S402 the second imaging device 400 stands by until the shooting time comes.
  • step S403 the CPU 33 included in the second imaging device 400 determines whether or not it is in time for the shooting time. Specifically, if the time counted by the second timing unit 401 is earlier than the shooting time, the CPU 33 determines that the shooting time is in time, and the time counted by the second timing unit 401 is higher than the shooting time. If it is later, it is determined that it was not in time for the shooting time. If it is in time for the shooting time (Yes in step S403), the process proceeds to step S404. On the other hand, when it is not in time for the photographing time (No in step S403), the process proceeds to step S407.
  • step S ⁇ b> 405 the CPU 33 included in the second imaging device 400 stores the image data generated by the second imaging unit 420 by writing it in the second memory unit 480.
  • step S406 the image transmission unit 333 transmits the transfer image data to the first imaging device 300, and the process ends.
  • step S ⁇ b> 407 the second imaging device 400 transmits an error notification, which is data for notifying that imaging has not been performed, to the first imaging device 300.
  • step S307 the image receiving unit 334 receives the transfer image data or the error notification transmitted from the second imaging device 400, and the received data is the transfer image data ( Whether or not there is shooting).
  • the process proceeds to step S308.
  • the received data is an error notification (No in step S307), the process proceeds to step S311.
  • step S308 the image receiving unit 334 stores the received transfer image data by writing it in the first memory unit 380.
  • the combining unit 372 combines the captured image data and the transfer image data to generate combined image data.
  • the method for generating the composite image data is the same as in the first embodiment.
  • the synthesis unit 372 saves the generated synthesized image data by writing it in the first memory unit 380, and ends the process.
  • step S311 the image receiving unit 334 displays an error on the display unit (not shown) and ends the process.
  • the first imaging apparatus 300 and the second imaging apparatus are transmitted by the first imaging apparatus 300 transmitting the imaging notification including the imaging time to the second imaging apparatus 400.
  • 400 can synthesize images taken at the same time.
  • FIG. 8 is a block diagram illustrating the configuration of the imaging system according to the present embodiment.
  • the second imaging device 600 includes a second person region extraction unit 671 in addition to the configuration of the second imaging device 200 according to the first embodiment.
  • the second person area extraction unit 671 extracts a person area from the transfer image data generated by the second imaging unit 620, and uses image data corresponding to the extracted person area (hereinafter referred to as transfer person area image data).
  • the data is output to the image transmission unit 533.
  • the image transmission unit 533 transmits the transfer person area image data extracted by the second person area extraction unit 671 to the first imaging device 500.
  • the first person area extraction unit 571 in the first imaging apparatus 500 extracts a person area from only the captured image data. Then, the combining unit 572 in the first imaging device 500 superimposes the transfer person area image data on an area other than the person area in the captured image data.
  • the person area extraction method in the first person area extraction unit 571 and the second person area extraction unit 671 is the same as that of the person area extraction unit 171 according to the first embodiment. Since other configurations are the same as those of the first embodiment, description thereof is omitted.
  • FIG. 9 is a flowchart illustrating the procedure of the imaging process according to the present embodiment.
  • the second imaging device 600 extracts image data corresponding to the person area from the transfer image data, and transmits the image data to the first imaging device 500.
  • FIG. 9A is a flowchart showing a procedure of imaging processing in the first imaging device 500
  • FIG. 9B is a flowchart showing a procedure of imaging processing in the second imaging device 600.
  • step S501 it is detected that the shutter button (first operation unit 550) included in the first imaging device 500 has been pressed by the user.
  • step S ⁇ b> 502 the shooting notification transmission unit 531 transmits a shooting notification to the second imaging device 600.
  • step S503 the first imaging unit 520 performs imaging to generate captured image data.
  • step S ⁇ b> 504 the first imaging device 500 stores the captured image data generated by the first imaging unit 520 by writing it in the first memory unit 580.
  • step S505 the first person area extraction unit 571 extracts a person area from the captured image data. Then, the first imaging device 500 stands by until the transfer person area image data is transmitted from the second imaging device 600.
  • step S601 the imaging notification receiving unit 532 receives the imaging notification transmitted by the imaging notification transmitting unit 531.
  • step S602 the second imaging unit 620 performs shooting to generate transfer image data.
  • step S603 the second person area extraction unit 671 extracts a person area from the transfer image data, and generates transfer person area image data.
  • step S604 the second person area extraction unit 671 stores the generated transfer person area image data and transfer image data by writing them in the second memory unit 680.
  • step S605 the image transmission unit 533 transmits the transfer person area image data to the first imaging device 500, and the process ends.
  • step S506 the image receiving unit 534 receives the transfer person area image data transmitted from the second imaging apparatus 600, and the received transfer person area image data is converted into the first transfer person area image data. Saving is performed by writing to the memory unit 580.
  • step S507 the combining unit 572 generates combined image data by combining the captured image data and the transfer person area image data. Specifically, the composition unit 572 superimposes the transfer person area image data on an area other than the person area in the captured image data.
  • step S508 the synthesis unit 572 saves the generated synthesized image data by writing it in the first memory unit 580, and ends the process.
  • the second imaging device 600 extracts a person area from the transfer image data. Thereby, it is not necessary to perform the process of extracting the person area from the transfer image data in the first imaging device 500, and the processing load on the first imaging device 500 is reduced. Further, by distributing the image processing to the first imaging device 500 and the second imaging device 600, the processing speed in the entire imaging system is improved.
  • the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
  • the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • the embodiment of the present invention has been described in detail with reference to the drawings.
  • the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention.
  • the first imaging device generates a single piece of composite image data by superimposing all of the plurality of transfer image data received from each second imaging device on the captured image data.
  • the person area in the transfer image data is superimposed on the area other than the person area in the captured image data.
  • the present invention is not limited to this.
  • the transfer image is transferred to a predetermined area. A person area in the data may be superimposed.
  • FIG. 10 is an image diagram showing another example of synthesis of images taken by a plurality of imaging devices.
  • the composite image 4000 shown in the figure is an image obtained by combining images captured by the four second imaging devices (cameras # 1 to # 4) with a captured image captured by the first imaging device.
  • the composition unit includes a person area # 1 of an image photographed by the camera # 1, a person area # 2 of an image photographed by the camera # 2, a person area # 3 of an image photographed by the camera # 3, and a camera # 4.
  • the synthesized image 4000 is generated by superimposing the person area # 4 of the photographed image on the photographed image. At this time, the composition unit superimposes the person area # 1 on the area A, the person area # 2 on the area B, the person area # 3 on the area C, and the person area # 4 on the area D.
  • the person area of the image data (hereinafter referred to as second image data) captured by the second imaging device 200 (or 400, 600) is changed without changing the size thereof.
  • image data hereinafter referred to as first image data
  • the first face size is approximately the same.
  • One person area of the image data or the second image data may be enlarged or reduced during image synthesis.
  • the synthesizing unit 172 (or 372, 572) determines the size (for example, area) of the face area (hereinafter, referred to as the first face area) in the first image data and the face area ( Hereinafter, the size (for example, area) of the second face region is compared.
  • the composition unit 172 when the size of the first face region is larger than the size of the second face region by a predetermined value or more, the size of the second face region is the first face.
  • the person area in the second image data is enlarged and superimposed on the first image data so as to be approximately equal to the size of the area (the difference is smaller than a predetermined value).
  • the composition unit 172 when the size of the second face region is larger than the size of the first face region by a predetermined value or more, the size of the second face region is the first face.
  • the person area in the second image data is reduced so as to be approximately equal to the size of the area (the difference is smaller than a predetermined value), and is superimposed on the first image data.
  • the composition unit 172 determines the size of the person region in the second image data when the difference between the size of the first face region and the size of the second face region is smaller than a predetermined value.
  • the image data is superimposed on the first image data without being changed.
  • a shooting notification instructing shooting is transmitted from the first imaging device 100 (or 300, 500) to the second imaging device 200 (or 400, 600).
  • the imaging control condition may be included in the imaging notification.
  • the imaging control conditions include, for example, aperture value, ISO sensitivity, AE (Automatic Exposure) correction value, focus value, shutter speed, imaging sensitivity, information on the flash emission state, and the like.
  • the CPU 13 (or 33) of the second imaging device 200 (or 400, 600) controls the optical system 11 (or 31) and the imaging unit 12 (or 32) based on the received imaging control conditions to cause the imaging. That is, the second imaging device 200 (or 400, 600) images the subject under the received imaging control condition.
  • the first imaging device 100 (or 300, 500) transmits a shooting notification including the imaging control condition of the own device to the second imaging device 200 (or 400, 600), thereby the first imaging device 100.
  • the second imaging device 200 (or 400, 600) can capture images under the same conditions.
  • the person area extraction unit 171 determines that the person with the largest face area in the second image data is the main person, and extracts the person area of only that person.
  • the composition unit 172 (or 372, 572) superimposes the extracted person area of the main person on the first image data.
  • the imaging device and the hand holding the imaging device may be captured.
  • a process of erasing the area of the imaging device and the area of the hand holding the imaging device from the image data may be performed.
  • the first imaging device 100 (or 300, 500) and the second imaging device 200 (or 400, 600) are collectively referred to as an imaging device.
  • the person region extraction unit 171 (or 371, 571, 671) extracts the image pickup device and the hand region by pattern matching with the image feature quantity of the hand stored in advance and the hand image, and picks up an image from the person region. Excluding device and hand area.
  • the synthesizer 172 uses the person area excluding the area of the imaging device and the hand area in the second image data as the person excluding the area of the imaging device and the hand area in the first image data. Superimpose on areas other than the area.
  • the person area is extracted and synthesized.
  • the area of another object such as a pet (for example, a dog or a cat) may be extracted and synthesized.
  • a method for extracting a pet for example, there is a method in which a user images and registers a pet in advance.
  • the person region extraction unit (object extraction unit) 171 (or 371, 571, 671) extracts the pet image feature amount from the registered pet image data, and stores the extracted image feature amount in advance. deep.
  • the person area extraction unit (object extraction unit) 171 (or 371, 571, 671) then captures image data (first image data or second image data) by pattern matching with the stored image feature amount. Extract pets from (image data).
  • the person region extraction unit (object extraction unit) 171 may select a region having an arbitrary image feature amount (for example, texture (pattern) like animal hair) stored in advance as a pet. It may be extracted as a region.
  • an arbitrary image feature amount for example, texture (pattern) like animal hair
  • the image data is synthesized immediately after shooting.
  • the image data may be synthesized when a predetermined operation is performed.
  • FIG. 11 is an image diagram of an operation for instructing image composition.
  • the first imaging device 100 includes a display (display unit D) such as a liquid crystal or an organic EL (Electro Luminescence), and is a touch panel (installed on the display surface of the display unit D).
  • the image is synthesized based on the operation in the operation unit).
  • the composition unit 172 (or 372, 572) displays the two images before image composition (for example, the captured image 1000 and the transfer image 2000) when the display unit D displays the image on each image.
  • the two images are combined.
  • the operation of reducing the interval between the fingers placed on each image is an instruction to start image synthesis.
  • the display unit D displays three or more images
  • the combining unit 172 puts a finger on each of the two images selected from the images by the user.
  • the two selected images may be combined.
  • the operation of placing a finger on two images out of three or more images is an operation for selecting an image to be synthesized.
  • an operation for reducing the interval between two fingers placed thereon is an instruction to start image synthesis.
  • the image data captured by the two imaging devices are combined.
  • two pieces of image data picked up by one image pickup device may be combined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

 撮像装置は、撮像部と、他の撮像部に、撮影の指示を送信する送信部と、他の撮像部が撮影の指示に応じて撮像した、画像の部分領域を受信する受信部と、受信部が受信した画像の部分領域と、撮像部が撮像した画像の部分領域とを合成する合成部とを備える。

Description

撮像装置及び撮像システム
 本発明は、撮像装置及び撮像システムに関する。
 本願は、2010年8月25日に、日本に出願された特願2010-188051号、及び、2011年8月15日に、日本に出願された特願2011-177567号に基づき優先権を主張し、その内容をここに援用する。
 現在、他のカメラと連動して撮影を行うデジタルカメラが提案されている。特許文献1においては、2台のデジタルカメラが連動して連写撮影をすることにより1台のデジタルカメラでの連写撮影に比べより高速の連写撮影をすることができるデジタルカメラが開示されている。
特開2004-235782号公報
 しかしながら、特許文献1に記載の技術を用いて複数台のデジタルカメラで撮影された画像を合成しようとする場合、例えばユーザがパーソナルコンピュータにて画像処理ソフト等を用いて行うなどの後処理を行わなければならず、手間が掛かるという問題がある。
 本発明に係る態様は、複数台の撮像装置が連動して撮影した画像を簡便に合成する撮像装置及び撮像システムを提供することを目的とする。
 本発明に係る一態様は、撮像部と、他の撮像部に、撮影の指示を送信する送信部と、前記他の撮像部が前記撮影の指示に応じて撮像した、画像の部分領域を受信する受信部と、前記受信部が受信した画像の部分領域と、前記撮像部が撮像した画像の部分領域とを合成する合成部とを備えることを特徴とする撮像装置である。
 また、本発明に係る一態様は、撮像部と、他の撮像部に、撮影の指示を送信する送信部と、前記他の撮像部が前記撮影の指示に応じて撮像した、画像を受信する受信部と、前記受信部が受信した画像の部分領域と、前記撮像部が撮像した画像の部分領域とを合成する合成部とを備えることを特徴とする撮像装置である。
 また、本発明に係る一態様は、第1の撮像部と、第2の撮像装置に、撮影の指示を送信する第1の送信部と、前記第2の撮像装置が前記撮影の指示に応じて撮像した、画像の部分領域を受信する第1の受信部と、前記第1の受信部が受信した画像の部分領域と、前記第1の撮像部が撮像した画像の部分領域とを合成する合成部とを備える第1の撮像装置と、前記第1の撮像装置から、前記撮影の指示を受信する第2の受信部と、前記第2の受信部が撮影の指示を受信すると、光学系による像を撮像する第2の撮像部と、前記第2の撮像部が撮像した画像の部分領域を前記第1の撮像装置に送信する第2の送信部とを備える第2の撮像装置とを有することを特徴とする撮像システムである。
 また、本発明に係る一態様は、第1の撮像部と、第2の撮像装置に、撮影の指示を送信する第1の送信部と、前記第2の撮像装置が前記撮影の指示に応じて撮像した、画像を受信する第1の受信部と、前記第1の受信部が受信した画像の部分領域と、前記第1の撮像部が撮像した画像の部分領域とを合成する合成部とを備える第1の撮像装置と、前記第1の撮像装置から、前記撮影の指示を受信する第2の受信部と、前記第2の受信部が撮影の指示を受信すると、光学系による像を撮像する第2の撮像部と、前記第2の撮像部が撮像した画像を前記第1の撮像装置に送信する第2の送信部とを備える第2の撮像装置とを有することを特徴とする撮像システムである。
 また、本発明に係る一態様は、他の撮像部から、撮影の指示を受信する受信部と、前記受信部が撮影の指示を受信すると、光学系による像を撮像する撮像部と、前記撮像部が撮像した画像の部分領域を前記他の撮像部に送信する送信部とを備えることを特徴とする撮像装置である。
 本発明に係る態様によれば、複数の撮像装置が連動して撮影した画像を簡便に合成することができる。
第1の実施形態による撮像システムの構成を示すブロック図である。 第1の実施形態による撮像装置の構成を示すブロック図である。 第1の実施形態による撮像処理の手順を示すフローチャートである。 第1の実施形態による撮影画像、転送画像及び合成画像の表示例を表すイメージ図である。 第1の実施形態による撮影画像、転送画像及び合成画像の表示例を表すイメージ図である。 第1の実施形態による撮影画像、転送画像及び合成画像の表示例を表すイメージ図である。 第2の実施形態による撮像システムの構成を示すブロック図である。 第2の実施形態による撮像装置の構成を示すブロック図である。 第2の実施形態による撮像処理の手順を示すフローチャートである。 第3の実施形態による撮像システムの構成を示すブロック図である。 第3の実施形態による撮像処理の手順を示すフローチャートである。 複数の撮像装置が撮影した画像の他の合成例を示すイメージ図である。 画像合成を指示する操作の一例を示すイメージ図である。
 以下、図面を参照しながら本発明の実施形態について詳しく説明する。
[第1の実施形態]
 図1は、本発明の第1の実施形態による撮像システムの構成を示すブロック図である。
 図1に示すとおり、撮像システムは、互いに通信を行う複数の撮像装置として、第1の撮像装置100と第2の撮像装置200とを含んで構成される。
 第1の撮像装置100は、第1の操作部150と、第1の撮像部120と、第1のメモリ部180と、撮影通知送信部(送信部)131と、第1の無線部160と、画像受信部(受信部)134と、人物領域抽出部171と、合成部172と、合成画像配信部135とを含んで構成される。
 第1の操作部150は、例えば、電源スイッチ、シャッターボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザからの操作入力を受け付ける。第1の撮像部120は、光学系による光学像を撮像素子に結像させて光学像に基づく画像データを生成して、撮影(撮像)を行う。第1のメモリ部180は、第1の撮像部120が生成した画像データを記憶する。第1の無線部160は、第2の撮像装置200と無線にて通信を行う。撮影通知送信部131は、シャッターボタン等を介してユーザから撮影指示が入力されると、第1の無線部160を介して第2の撮像装置200に撮影通知を送信する。撮影通知とは、撮影を行うことを通知する(撮影を指示する)データである。画像受信部134は、第1の無線部160を介して第2の撮像装置200から、撮影通知送信部131が送信した撮影通知に応じて第2の撮像装置200が撮影した画像データを受信する。
 人物領域抽出部171は、第1のメモリ部180に記憶されている画像データ及び画像受信部134が受信した画像データから、人物に対応する(人物を含む)領域(以下、人物領域とする)を抽出する。具体的には、まず、人物領域抽出部171は、例えば、パターン認識を利用した顔認識処理を行い、画像データ内に含まれる人物の顔に対応する画像領域を検出する。具体的に説明すると、人物領域抽出部171は、画像データに対して画像処理を行い画像の特徴量を算出する。この人物領域抽出部171は、第1のメモリ部180に記憶されている人物の顔を表わす画像の特徴量を参照して、この顔を表わす画像の特徴量と画像データの特徴量との差分が、両者が類似する範囲として許容される許容範囲内にあるか否かを判断する。この人物領域抽出部171は、この差分が許容範囲内にある画像領域を画像データ内に含まれる人物の顔に対応する画像領域(以下、顔領域とする)として検出する。次に、人物領域抽出部171は、画像データから色情報や輝度情報を抽出し、似た色の被写体のある領域、あるいは近い輝度の被写体の存在する領域をグループ化する。次に、人物領域抽出部171は、検出した顔領域から推定される人物の体に対応する位置にあるグループを人物の体に対応する画像領域(以下、体領域とする)として検出する。そして、人物領域抽出部171は検出した顔領域と体領域とを合わせて人物領域とする。
 合成部172は、画像受信部134が受信した画像データ(以下、転送画像データとする)と、第1の撮像部120が生成した画像データ(以下、撮影画像データとする)とを合成して合成画像データを生成する。具体的には、合成部172は、人物領域抽出部171が転送画像データから抽出した人物領域を、撮影画像データにおける人物領域以外の領域に重畳する。このとき、合成部172は、転送画像データから抽出した人物領域を、撮影画像データにおける人物領域に隣接する領域のうち、広い領域に重畳する。合成画像配信部135は、第1の無線部160を介して、合成部172が生成した合成画像データを第2の撮像装置200に送信する。
 第2の撮像装置200は、第2の無線部260と、撮影通知受信部132と、第2の撮像部220と、第2のメモリ部280と、画像送信部133とを含んで構成される。
 第2の無線部260は、第1の撮像装置100と無線にて通信を行う。撮影通知受信部132は、第2の無線部260を介して第1の撮像装置100から撮影通知を受信する。
第2の撮像部220は、撮影通知受信部132が撮影通知を受信すると、光学系による光学像を撮像素子に結像させて光学像に基づく画像データを生成して、撮影(撮像)を行う。第2のメモリ部280は、第2の撮像部220が生成した画像データを記憶する。画像送信部133は、第2の撮像部220が生成した画像データを、第2の無線部260を介して第1の撮像装置100に送信する。
 以下、第1の撮像装置100と第2の撮像装置200とが、第1の無線部160と第2の無線部260を介して、例えば無線LAN(Local Area Network)等により互いに通信を行う状態(例えば、無線を行うための電波が届く範囲に両者が存在している状態)にあるものを例に説明する。
 撮像システムは、第1の撮像装置100が被写体を撮影する際に撮影通知を第2の撮像装置200に送信することにより、第1の撮像装置100と第2の撮像装置200とがほぼ同時に撮影を行うものである。更に、第2の撮像装置200が、撮像した画像データを第1の撮像装置100に送信すると、第1の撮像装置100は、第1の撮像装置100が撮影した撮影画像データと第2の撮像装置200が撮影した転送画像データを合成して合成画像データを生成する。
 以下、図2を用いて、第1の撮像装置100及び第2の撮像装置200に適用可能な撮像装置1の構成例について説明する。図2は、本実施形態による撮像装置1の構成を示すブロック図である。
 撮像装置1は、第1の撮像装置100及び第2の撮像装置200のどちらの機能も有しており、場面に応じて第1の撮像装置100として動作することも、第2の撮像装置200として動作することもできる。なお、図1に示す第1の撮像装置100及び第2の撮像装置200と共通する構成要素については、同一の符号を付して詳細な説明は省略する。
 撮像装置1は、光学系による像を撮像し、得られた画像データを記憶媒体50に記憶させる。撮像装置1は、光学系11と、撮像部12(第1の撮像部120と第2の撮像部220とを含む)と、CPU(Central Processing Unit)13と、バッファメモリ部14と、操作部(第1の操作部150を含む)15と、無線部(第1の無線部160と第2の無線部260とを含む)16と、画像処理部17と、メモリ部(第1のメモリ部180と第2のメモリ部280とを含む)18と、I/F(インターフェース)部19とを含んで構成される。
 光学系11は、撮像制御情報に従ってレンズを駆動し、レンズから撮像部12が含む撮像素子121に入射する光の光量や合焦位置を調整して、入射光を撮像素子121の受光面に結像させる。撮像部12は、撮像素子121とA/D変換部122を含んで構成される。撮像素子121は、撮像制御条件に基づく露出時間で、受光面に結像した画像を光電変換する。ここで、撮像制御条件は、画像を撮像する際に利用される複数の設定値(例えば、絞り値、ISO感度、AE( automatic exposure )補正値、フォーカス値、シャッタースピード、撮像感度、ストロボの発光状態の情報等)を含む。A/D変換部122は、撮像素子121から出力されたアナログ信号の画像情報をデジタル信号に変換する。この構成により、撮像部12は、シャッターボタン(例えば、操作部15)等を介してユーザから撮影指示(レリーズ)が入力されると、設定された撮像制御条件に基づき、光学系11による像を撮像することにより、画像データを生成する。
 CPU13は、撮影通知送信部131と、撮影通知受信部132と、画像送信部133と、画像受信部134と、合成画像配信部135とを備え、撮像装置1を統括的に制御する。バッファメモリ部14は、撮像部12によって生成された画像データを一時的に記憶するメモリである。操作部15は、例えば、電源スイッチ、シャッターボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、操作入力に応じた信号をCPU13に出力する。無線部16は、他の撮像装置1と無線にて通信を行う。画像処理部17は、人物領域抽出部171と合成部172を含んで構成され、バッファメモリ部14又はメモリ部18に記憶されている画像データに対して画像処理を行う。メモリ部18は、撮像部12によって撮像された画像データ、および、撮像装置1の動作に関する設定値や撮像部12の撮像制御条件等を記憶する。また、メモリ部18は、他の撮像装置1から受信した転送画像データや画像処理部17が備える合成部172が生成した合成画像データを記憶する。
 I/F部19は、カードメモリ等の外部の記憶媒体50と接続され、この記憶媒体50への情報の書込み、読み出し、あるいは消去を行う。例えば、I/F部19は、撮像部12によって生成された画像データを記憶媒体50に書き込む。なお、撮像部12、CPU13、バッファメモリ部14、操作部15、無線部16、画像処理部17、メモリ部18およびI/F部19はそれぞれ互いにバスを介して接続されており相互に通信可能である。
 次に、図3を参照して、撮像システムによる撮像処理について説明する。図3は、本実施形態による撮像処理の手順を示すフローチャートである。
 本実施形態における撮像システムでは、第1の撮像装置100と第2の撮像装置200が連携して被写体を撮影し、それぞれが撮影した画像を第1の撮像装置100が合成する。図3(a)は第1の撮像装置100における撮像処理の手順を示すフローチャートであり、図3(b)は第2の撮像装置200における撮像処理の手順を示すフローチャートである。
 まず、ステップS101において、第1の撮像装置100が備えるシャッターボタン(第1の操作部150)が、ユーザによって押下されたことを検知する。次に、ステップS102において、撮影通知送信部131が、第2の撮像装置200に撮影通知を送信する。続いて、ステップS103において、第1の撮像部120が撮影を行い、撮影画像データを生成する。続いて、ステップS104において、第1の撮像装置100が備えるCPU13が、第1の撮像部120が生成した撮影画像データを第1のメモリ部180に書き込むことにより保存する。そして、第1の撮像装置100は、第2の撮像装置200から転送画像データが送信されるまで待機する。
 一方、第2の撮像装置200では、ステップS201において、撮影通知受信部132が、撮影通知送信部131が送信した撮影通知を受信する。続いて、ステップS202において、第2の撮像部220が撮影を行い、転送画像データを生成する。続いて、ステップS203において、第2の撮像装置200が備えるCPU13が、第2の撮像部220が生成した転送画像データを第2のメモリ部280に書き込むことにより保存する。そして、ステップS204において、画像送信部133が、転送画像データを第1の撮像装置100に送信し、処理を終了する。
 そして、第1の撮像装置100では、ステップS105において、画像受信部134が、第2の撮像装置200から送信された転送画像データを受信し、受信した転送画像データを第1のメモリ部180に書き込むことにより保存する。続いて、ステップS106において、合成部172が、撮影画像データと転送画像データとを合成することにより合成画像データを生成する。具体的には、まず、人物領域抽出部171が、撮影画像データ及び転送画像データから人物領域を抽出する。続いて、合成部172が、転送画像データから抽出した人物領域を、撮影画像データにおける人物領域以外の領域に重畳する。最後に、ステップS107において、合成部172は、生成した合成画像データを第1のメモリ部180に書き込むことにより保存し、処理を終了する。
 図4A~図4Cは、本実施形態による撮影画像、転送画像及び合成画像の表示例を表すイメージ図である。図4Aは、撮影画像1000の表示例を表すイメージ図である。撮影画像1000は、第1の撮像装置100が撮影した画像であり、人物領域1000aを含む。図4Bは、転送画像2000の表示例を表すイメージ図である。転送画像2000は、第2の撮像装置200が撮影した画像であり、人物領域2000aを含む。図4Cは、合成画像3000の表示例を表すイメージ図である。合成画像3000は、第1の撮像装置100が備える合成部172が人物領域2000aを撮影画像1000に重畳(合成)した画像である。第1の撮像装置100が備える人物領域抽出部171は、撮影画像1000から人物領域1000aを抽出し、転送画像2000から人物領域2000aを抽出する。そして、第1の撮像装置100が備える合成部172は、人物領域2000aを撮影画像1000における人物領域1000a以外の領域に重畳する。具体的には、図示するように、合成部172は、人物領域1000aに隣接する左右の領域のうち広い領域である左側の領域に人物領域2000aを重畳する。なお、合成部172は、人物領域抽出部171が顔認識処理を行った際に取得した人物の上下方向に基づいて左右の領域を判定する。
 このように、本実施形態によれば、第1の撮像装置100は撮影する際に撮影通知を第2の撮像装置200に送信し、第2の撮像装置200は撮影通知を受信すると撮影を行う。これにより、第1の撮像装置100と第2の撮像装置200とが連動して撮影を行うことができる。また、第2の撮像装置200は撮影した画像を第1の撮像装置100に送信し、第1の撮像装置100は受信した画像と撮影した画像とを合成する。これにより、2台(複数台)の撮像装置1が連動して撮影した画像を自動的に合成することができる。
[第2の実施形態]
 次に、本発明の第2の実施形態について説明する。
 図5は、本実施形態による撮像システムの構成を示すブロック図である。本実施形態による撮像システムにおいて、第1の撮像装置300は、第1の実施形態による第1の撮像装置100の構成に加えて第1の計時部301と撮影時刻設定部336を備える。第1の計時部301は、時刻を表す時刻情報を計時する。撮影時刻設定部336は、第1の操作部350を介してユーザから撮影指示が入力されると、第1の計時部301が計時する時刻情報を参照して撮影時刻を設定する。このとき、撮影時刻設定部336は、撮影指示が入力された時刻からT(Tは0より大きい実数)秒後の時刻を撮影時刻とする。また、第1の撮像部320は、第1の計時部301が計時する時刻情報を参照して、撮影時刻設定部336が設定した時刻に撮影を行う。撮影通知送信部331は、撮影時刻設定部336が設定した撮影時刻を含む撮影通知を第2の撮像装置400に送信する。画像受信部334は、第2の撮像装置400から、撮影時刻に撮影された転送画像データを受信する。第1の撮像装置300における他の構成は第1の実施形態による第1の撮像装置100と同様であるため、説明を省略する。
 また、第2の撮像装置400は、第1の実施形態による第2の撮像装置200の構成に加えて第2の計時部401を備える。第2の計時部401は、時刻情報を計時する。撮影通知受信部332は、撮影時刻を含む撮影通知を第1の撮像装置300から受信する。第2の撮像部420は、第2の計時部401が計時する時刻情報を参照して、撮影通知受信部332が受信した撮影通知に含まれる撮影時刻に撮影を行う。第2の撮像装置400における他の構成は第1の実施形態による第2の撮像装置200と同様であるため、説明を省略する。
 本実施形態による撮像システムでは、第1の撮像装置300が撮影時刻を含む撮影通知を第2の撮像装置400に送信することにより、第1の撮像装置300と第2の撮像装置400とが同時刻に撮影を行う。そして、第1の撮像装置300は、同時刻に撮影された撮影画像データと転送画像データとを合成する。
 次に、図6を用いて、第1の撮像装置300及び第2の撮像装置400に適用可能な撮像装置3の構成例について説明する。図6は、本実施形態による撮像装置3の構成を示すブロック図である。なお、図5に示す第1の撮像装置300及び第2の撮像装置400と共通する構成要素については、同一の符号を付して詳細な説明は省略する。
 本実施形態による撮像装置3は、第1の実施形態による撮像装置1の構成に加えて、計時部(第1の計時部301と第2の計時部401を含む)30を備える。計時部30は、時間と日時を計測し、計測した時刻情報をCPU33に出力する。なお、計時部30は、電池から継続的に電力の供給を受け、現在の時刻を継続的に計時している。また、撮像装置3が備えるCPU33は、第1の実施形態によるCPU13の構成に加えて撮影時刻設定部336を含んで構成される。他の構成は第1の実施形態による撮像装置1と同様であるため、説明を省略する。
 次に、図7を参照して、撮像システムによる撮像処理について説明する。図7は、本実施形態による撮像処理の手順を示すフローチャートである。
 本実施形態では、第1の撮像装置300と第2の撮像装置400が同時刻に被写体を撮影し、それぞれが撮影した画像を第1の撮像装置300が合成する。図7(a)は第1の撮像装置300における撮像処理の手順を示すフローチャートであり、図7(b)は第2の撮像装置400における撮像処理の手順を示すフローチャートである。
 まず、ステップS301において、第1の撮像装置300が備えるシャッターボタン(第1の操作部350)が、ユーザによって押下されたことを検知する。そして、撮影時刻設定部336が、撮影時刻を設定する。次に、ステップS302において、撮影通知送信部331が、第2の撮像装置400に撮影時刻を含む撮影通知を送信する。そして、ステップS303において、第1の撮像装置300は、撮影時刻になるまで待機する。第1の計時部301が計時する時刻が撮影時刻と一致すると、ステップS304において、第1の撮像部320が撮影を行い、撮影画像データを生成する。続いて、ステップS305において、第1の撮像装置300備えるCPU33が、第1の撮像部320が生成した撮影画像データを第1のメモリ部380に書き込むことにより保存する。そして、ステップS306において、第1の撮像装置300は、第2の撮像装置400から転送画像データが送信されるまで待機する。
 一方、第2の撮像装置400では、ステップS401において、撮影通知受信部332が、撮影時刻を含む撮影通知を受信する。そして、ステップS402において、第2の撮像装置400は、撮影時刻になるまで待機する。次に、ステップS403において、第2の撮像装置400が備えるCPU33が、撮影時刻に間に合ったか否かを判定する。具体的には、CPU33は、第2の計時部401が計時する時刻が撮影時刻よりも前であれば、撮影時刻に間に合ったと判定し、第2の計時部401が計時する時刻が撮影時刻よりも後であれば撮影時刻に間に合わなかったと判定する。撮影時刻に間に合った場合(ステップS403においてYes)には、ステップS404へ移行する。一方、撮影時刻に間に合わなかった場合(ステップS403においてNo)には、ステップS407へ移行する。
 ステップS403においてYesに分岐した場合、ステップS404において、第2の撮像部420が撮影を行い、転送画像データを生成する。続いて、ステップS405において、第2の撮像装置400が備えるCPU33は、第2の撮像部420が生成した画像データを第2のメモリ部480に書き込むことにより保存する。そして、ステップS406において、画像送信部333が、転送画像データを第1の撮像装置300に送信し、処理を終了する。一方、ステップS403においてNoに分岐した場合、ステップS407において、第2の撮像装置400は、撮影できなかったことを通知するデータであるエラー通知を第1の撮像装置300に送信する。
 そして、第1の撮像装置300では、ステップS307において、画像受信部334が、第2の撮像装置400から送信された転送画像データ又はエラー通知を受信し、受信したデータが転送画像データである(撮影あり)か否かを判定する。受信したデータが転送画像データである場合(ステップS307においてYes)には、ステップS308へ移行する。一方、受信したデータがエラー通知である場合(ステップS307にいおてNo)には、ステップS311に移行する。
 ステップS307においてYesに分岐した場合、ステップS308において、画像受信部334は、受信した転送画像データを第1のメモリ部380に書き込むことにより保存する。続いて、ステップS309において、合成部372が、撮影画像データと転送画像データを合成して合成画像データを生成する。合成画像データの生成方法は第1の実施形態と同様である。そして、ステップS310において、合成部372は、生成した合成画像データを第1のメモリ部380に書き込むことにより保存し、処理を終了する。
 一方、ステップS307においてNoに分岐した場合、ステップS311において、画像受信部334は、表示部(不図示)にエラーを表示して処理を終了する。
 このように、本実施形態による撮像システムでは、第1の撮像装置300が第2の撮像装置400へ撮影時刻を含む撮影通知を送信することにより、第1の撮像装置300と第2の撮像装置400とが同時刻に撮影した画像を合成することができる。
[第3の実施形態]
 次に、本発明の第3の実施形態について説明する。
 図8は、本実施形態による撮像システムの構成を示すブロック図である。本実施形態による撮像システムにおいて、第2の撮像装置600は、第1の実施形態による第2の撮像装置200の構成に加えて第2の人物領域抽出部671を備える。第2の人物領域抽出部671は、第2の撮像部620が生成した転送画像データから人物領域を抽出し、抽出した人物領域に対応する画像データ(以下、転送人物領域画像データとする)を画像送信部533に出力する。画像送信部533は、第2の人物領域抽出部671が抽出した転送人物領域画像データを第1の撮像装置500に送信する。一方、第1の撮像装置500における第1の人物領域抽出部571は、撮影画像データのみから人物領域を抽出する。そして、第1の撮像装置500における合成部572は、撮影画像データにおける人物領域以外の領域に転送人物領域画像データを重畳する。なお、第1の人物領域抽出部571及び第2の人物領域抽出部671における人物領域の抽出方法は、第1の実施形態による人物領域抽出部171と同様である。他の構成は第1の実施形態と同様であるため、説明を省略する。
 次に、図9を参照して、撮像システムによる撮像処理について説明する。図9は、本実施形態による撮像処理の手順を示すフローチャートである。
 本実施形態では、第2の撮像装置600が転送画像データから人物領域に対応する画像データを抽出して、第1の撮像装置500に送信する。図9(a)は第1の撮像装置500における撮像処理の手順を示すフローチャートであり、図9(b)は第2の撮像装置600における撮像処理の手順を示すフローチャートである。
 まず、ステップS501において、第1の撮像装置500が備えるシャッターボタン(第1の操作部550)が、ユーザによって押下されたことを検知する。次に、ステップS502において、撮影通知送信部531が、第2の撮像装置600に撮影通知を送信する。続いて、ステップS503において、第1の撮像部520が撮影を行い、撮影画像データを生成する。続いて、ステップS504において、第1の撮像装置500は、第1の撮像部520が生成した撮影画像データを第1のメモリ部580に書き込むことにより保存する。次に、ステップS505において、第1の人物領域抽出部571が、撮影画像データから人物領域を抽出する。そして、第1の撮像装置500は、第2の撮像装置600から転送人物領域画像データが送信されるまで待機する。
 一方、第2の撮像装置600では、ステップS601において、撮影通知受信部532が、撮影通知送信部531が送信した撮影通知を受信する。続いて、ステップS602において、第2の撮像部620が撮影を行い、転送画像データを生成する。続いて、ステップS603において、第2の人物領域抽出部671が、転送画像データから人物領域を抽出し、転送人物領域画像データを生成する。続いて、ステップS604において、第2の人物領域抽出部671は、生成した転送人物領域画像データ及び転送画像データを第2のメモリ部680に書き込むことにより保存する。そして、ステップS605において、画像送信部533が、転送人物領域画像データを第1の撮像装置500に送信し、処理を終了する。
 そして、第1の撮像装置500では、ステップS506において、画像受信部534が、第2の撮像装置600から送信された転送人物領域画像データを受信し、受信した転送人物領域画像データを第1のメモリ部580に書き込むことにより保存する。続いて、ステップS507において、合成部572が、撮影画像データと転送人物領域画像データとを合成することにより合成画像データを生成する。具体的には、合成部572は、転送人物領域画像データを、撮影画像データにおける人物領域以外の領域に重畳する。最後に、ステップS508において、合成部572は、生成した合成画像データを第1のメモリ部580に書き込むことにより保存し、処理を終了する。
 このように、本実施形態によれば、第2の撮像装置600が転送画像データから人物領域を抽出する。これにより、第1の撮像装置500にて転送画像データから人物領域を抽出する処理を行う必要がなくなり、第1の撮像装置500における処理負荷が軽減する。
更に、第1の撮像装置500と第2の撮像装置600とに画像処理を分散することにより、撮像システム全体における処理速度が向上する。
 また、図3,7,9に示す各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、撮像処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
 さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
 また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 例えば、上述した実施形態では、第2の撮像装置を1台ずつのみ記載したが、それぞれ複数台設けてもよい。この場合、第1の撮像装置は、各第2の撮像装置から受信した複数の転送画像データを全て撮影画像データに重畳して1枚の合成画像データを生成する。
 また、上述した実施形態では、転送画像データにおける人物領域を、撮影画像データにおける人物領域以外の領域に重畳したが、これに限られることはなく、例えば、予め設定された所定の領域に転送画像データにおける人物領域を重畳してもよい。
 図10は、複数の撮像装置が撮影した画像の他の合成例を示すイメージ図である。図に示す合成画像4000は、第1の撮像装置が撮影した撮影画像に、4台の第2の撮像装置(カメラ#1~#4)が撮影した画像を合成した画像である。合成部は、カメラ#1が撮影した画像の人物領域#1と、カメラ#2が撮影した画像の人物領域#2と、カメラ#3が撮影した画像の人物領域#3と、カメラ#4が撮影した画像の人物領域#4とをそれぞれ撮影画像に重畳して合成画像4000を生成する。このとき、合成部は、人物領域#1を領域Aに、人物領域#2を領域Bに、人物領域#3を領域Cに、人物領域#4を領域Dに、それぞれ重畳する。
 また、上述した実施形態では、第2の撮像装置200(又は400,600)が撮像した画像データ(以下、第2の画像データとする)の人物領域を、その大きさを変更することなく、第1の撮像装置100(又は300,500)が撮像した画像データ(以下、第1の画像データとする)に重畳しているが、人物の顔の大きさがほぼ同等となるように第1の画像データ又は第2の画像データのうち一方の人物領域を画像合成時に拡大又は縮小してもよい。例えば、合成部172(又は372,572)は、第1の画像データにおける顔領域(以下、第1の顔領域とする)の大きさ(例えば、面積)と第2の画像データにおける顔領域(以下、第2の顔領域とする)の大きさ(例えば、面積)とを比較する。そして、合成部172(又は372,572)は、第1の顔領域の大きさが第2の顔領域の大きさより所定値以上大きい場合に、第2の顔領域の大きさが第1の顔領域の大きさとほぼ同等(差が所定値より小さくなる)ように、第2の画像データにおける人物領域を拡大して、第1の画像データに重畳する。一方、合成部172(又は372,572)は、第2の顔領域の大きさが第1の顔領域の大きさより所定値以上大きい場合に、第2の顔領域の大きさが第1の顔領域の大きさとほぼ同等(差が所定値より小さくなる)ように、第2の画像データにおける人物領域を縮小して、第1の画像データに重畳する。なお、合成部172(又は372,572)は、第1の顔領域の大きさと第2の顔領域の大きさの差が所定値より小さい場合には、第2の画像データにおける人物領域の大きさを変更することなく第1の画像データに重畳する。
 また、上述した実施形態では、第1の撮像装置100(又は300,500)から第2の撮像装置200(又は400,600)へ撮影を指示する撮影通知を送信しているが、撮影の指示に加えて撮像制御条件を撮影通知に含ませてもよい。撮像制御条件とは、例えば、絞り値、ISO感度、AE(Automatic Exposure)補正値、フォーカス値、シャッタースピード、撮像感度、ストロボの発光状態の情報等である。第2の撮像装置200(又は400,600)のCPU13(又は33)は、受信した撮像制御条件に基づいて光学系11(又は31)及び撮像部12(又は32)を制御して撮像させる。すなわち、第2の撮像装置200(又は400,600)は、受信した撮像制御条件で被写体を撮像する。例えば、第1の撮像装置100(又は300,500)が自装置の撮像制御条件を含む撮影通知を第2の撮像装置200(又は400,600)へ送信することにより、第1の撮像装置100(又は300,500)と第2の撮像装置200(又は400,600)とが同じ条件で撮像することができる。
 また、画像データに複数人物が写っている場合には、主要な人物以外の不要な人物領域を消す処理を行ってもよい。例えば、人物領域抽出部171(又は371,571,671)は、第2の画像データにおいて顔領域の最も大きい人物を主要な人物と判定し、その人物のみの人物領域を抽出する。合成部172(又は372,572)は、抽出された主要な人物の人物領域を第1の画像データに重畳する。
 また、各ユーザがそれぞれ撮像装置を持ち、向き合って互いを同時刻に撮影を行うと、互いの撮像装置と撮像装置を持つ手とが写ることがある。この場合、画像データから撮像装置の領域と撮像装置を持つ手の領域とを消す処理を行ってもよい。なお、第1の撮像装置100(又は300,500)及び第2の撮像装置200(又は400,600)を総称して撮像装置とする。例えば、人物領域抽出部171(又は371,571,671)は、予め記憶している撮像装置と手の画像特徴量とパターンマッチングすることにより撮像装置と手の領域を抽出し、人物領域から撮像装置と手の領域を除く。合成部172(又は372,572)は、第2の画像データにおける撮像装置の領域と手の領域とを除く人物領域を、第1の画像データにおける撮像装置の領域と手の領域とを除く人物領域以外の領域に重畳する。
 また、上述した実施形態では、人物領域を抽出して合成しているが、例えば、ペット(例えば、犬や猫等)等の他のオブジェクトの領域を抽出して合成してもよい。ペットを抽出する方法としては、例えば、予めユーザがペットを撮像して登録する方法等がある。この場合、人物領域抽出部(オブジェクト抽出部)171(又は371,571,671)が、登録されたペットの画像データからペットの画像特徴量を抽出し、抽出した画像特徴量を予め記憶しておく。そして、人物領域抽出部(オブジェクト抽出部)171(又は371,571,671)は、記憶している画像特徴量とパターンマッチングすることにより撮像された画像データ(第1の画像データ又は第2の画像データ)からペットを抽出する。或いは、人物領域抽出部(オブジェクト抽出部)171(又は371,571,671)は、予め記憶している任意の画像特徴量(例えば、動物の毛並みのテクスチャ(模様))を持つ領域をペットの領域として抽出してもよい。
 また、上述した実施形態では、撮影直後に画像データを合成しているが、所定の操作が行われたときに画像データを合成してもよい。図11は、画像合成を指示する操作のイメージ図である。具体的には、第1の撮像装置100(又は300,500)は、液晶や有機EL(Electro Luminescence)等のディスプレイ(表示部D)を備え、表示部Dの表示面に設置されたタッチパネル(操作部)における操作に基づいて画像を合成する。例えば、合成部172(又は372,572)は、画像合成前の2枚の画像(例えば、撮影画像1000及び転送画像2000)を表示部Dが表示しているときに、ユーザが各画像上にそれぞれ指を載せ、載せている2本の指(片手の2本の指、もしくは両手の1本ずつの指)の間隔を縮める動作を行ったことを検知すると、その2枚の画像を合成する。各画像上に載せた指の間隔を縮める動作が画像合成開始の指示である。また、合成部172(又は372,572)は、3枚以上の画像を表示部Dが表示しているときに、ユーザがそれらの画像から選択した2枚の画像上にそれぞれ指を載せて、載せている2本の指の間隔を縮める動作を行ったことを検知すると、選択した(指を載せている)2枚の画像を合成するようにしてもよい。3枚以上の画像のうち2枚の画像上にそれぞれ指を載せる動作が、合成する画像の選択をする操作である。また、載せている2本の指の間隔を縮める動作が画像合成開始の指示である。これにより、撮影から時間が経った後に、装置内に記憶させていた画像を簡単な操作で合成することができる。
 また、上述した実施形態では、2台の撮像装置(第1の撮像装置100(又は300,500)と第2の撮像装置200(又は400,600))がそれぞれ撮像した画像データを合成しているが、1台の撮像装置で撮像した2枚の画像データを合成してもよい。
 1,3…撮像装置 11,31…光学系 12,32…撮像部 16,36…無線部 17,37…画像処理部 18,38…メモリ部 100,300,500…第1の撮像装置 200,400,600…第2の撮像装置 120,320,520…第1の撮像部 131,331,531…撮影通知送信部 132,332,532…撮影通知受信部 133,333,533…画像送信部 134,334,534…画像受信部 150,350,550…第1の操作部 171,371…人物領域抽出部 172,372,572…合成部 180,380,580…第1のメモリ部 220,420,620…第2の撮像部 260,460,660…第2の無線部 280,480,680…第2のメモリ部 336…撮影時刻設定部 571…第1の人物領域抽出部 671…第2の人物領域抽出部 D…表示部
 

Claims (15)

  1.  撮像部と、
     他の撮像部に、撮影の指示を送信する送信部と、
     前記他の撮像部が前記撮影の指示に応じて撮像した、画像の部分領域を受信する受信部と、
     前記受信部が受信した画像の部分領域と、前記撮像部が撮像した画像の部分領域とを合成する合成部と
     を備えることを特徴とする撮像装置。
  2.  請求項1に記載の撮像装置において、
     前記撮像部が撮像した画像から人物を含む領域を抽出する人物領域抽出部を更に備え、
     前記合成部は、前記受信部が受信した画像の人物を含む領域を、前記人物領域抽出部が抽出した人物を含む領域以外の領域に重畳する
     ことを特徴とする撮像装置。
  3.  撮像部と、
     他の撮像部に、撮影の指示を送信する送信部と、
     前記他の撮像部が前記撮影の指示に応じて撮像した、画像を受信する受信部と、
     前記受信部が受信した画像の部分領域と、前記撮像部が撮像した画像の部分領域とを合成する合成部と
     を備えることを特徴とする撮像装置。
  4.  請求項3に記載の撮像装置において、
     前記撮像部が撮像した画像および前記受信部が受信した画像から人物を含む領域を抽出する人物領域抽出部を更に備え、
     前記合成部は、前記受信部が受信した画像から前記人物領域抽出部が抽出した人物を含む領域を、前記撮像部が撮像した画像から前記人物領域抽出部が抽出した人物を含む領域以外の領域に重畳する
     ことを特徴とする撮像装置。
  5.  請求項1から4の何れか1項に記載の撮像装置において、
     前記撮像部による撮像と、前記他の撮像部による撮像とが連動して行なわれることを特徴とする撮像装置。
  6.  請求項1から5の何れか1項に記載の撮像装置において、
     時刻を計時する計時部と、
     前記計時部が計時する時刻を参照して撮影時刻を設定する撮影時刻設定部と
     を更に備え、
     前記撮像部は、前記計時部が計時する時刻を参照して、前記撮影時刻設定部が設定した撮影時刻に撮像し、
     前記送信部は、前記撮影時刻設定部が設定した撮影時刻を含む撮影の指示を前記他の撮像部に送信し、
     前記受信部は、前記他の撮像部から前記撮影時刻に撮像された画像を受信する
     ことを特徴とする撮像装置。
  7.  第1の撮像部と、
     第2の撮像装置に、撮影の指示を送信する第1の送信部と、
     前記第2の撮像装置が前記撮影の指示に応じて撮像した、画像の部分領域を受信する第1の受信部と、
     前記第1の受信部が受信した画像の部分領域と、前記第1の撮像部が撮像した画像の部分領域とを合成する合成部と
     を備える第1の撮像装置と、
     前記第1の撮像装置から、前記撮影の指示を受信する第2の受信部と、
     前記第2の受信部が撮影の指示を受信すると、光学系による像を撮像する第2の撮像部と、
     前記第2の撮像部が撮像した画像の部分領域を前記第1の撮像装置に送信する第2の送信部と
     を備える第2の撮像装置と
     を有することを特徴とする撮像システム。
  8.  請求項7に記載の撮像システムにおいて、
     前記第1の撮像装置は、
     前記第1の撮像部が撮像した画像から人物を含む領域を抽出する第1の人物領域抽出部を更に備え、
     前記合成部は、前記第1の受信部が受信した画像の人物を含む領域を、前記第1の人物領域抽出部が抽出した人物を含む領域以外の領域に重畳し、
     前記第2の撮像装置は、
     前記第2の撮像部が撮像した画像から人物を含む領域を抽出する第2の人物領域抽出部を更に備え、
     前記第2の送信部は、前記第2の人物領域抽出部が抽出した人物を含む領域を前記第1の撮像装置に送信する
     ことを特徴とする撮像システム。
  9.  第1の撮像部と、
     第2の撮像装置に、撮影の指示を送信する第1の送信部と、
     前記第2の撮像装置が前記撮影の指示に応じて撮像した、画像を受信する第1の受信部と、
     前記第1の受信部が受信した画像の部分領域と、前記第1の撮像部が撮像した画像の部分領域とを合成する合成部と
     を備える第1の撮像装置と、
     前記第1の撮像装置から、前記撮影の指示を受信する第2の受信部と、
     前記第2の受信部が撮影の指示を受信すると、光学系による像を撮像する第2の撮像部と、
     前記第2の撮像部が撮像した画像を前記第1の撮像装置に送信する第2の送信部と
     を備える第2の撮像装置と
     を有することを特徴とする撮像システム。
  10.  請求項9に記載の撮像システムにおいて、
     前記第1の撮像装置は、
     前記第1の撮像部が撮像した画像および前記受信部が受信した画像から人物を含む領域を抽出する人物領域抽出部を更に備え、
     前記合成部は、前記第1の受信部が受信した画像から前記人物領域抽出部が抽出した人物を含む領域を、前記第1の撮像部が撮像した画像から前記人物領域抽出部が抽出した人物を含む領域以外の領域に重畳する
     ことを特徴とする撮像システム。
  11.  請求項7から10の何れか1項に記載の撮像システムにおいて、
     前記第1の撮像装置による撮像と、前記第2の撮像装置による撮像とが連動して行なわれることを特徴とする撮像システム。
  12.  請求項7から11の何れか1項に記載の撮像システムにおいて、
     前記第1の撮像装置は、
     時刻を計時する第1の計時部と、
     前記第1の計時部が計時する時刻を参照して撮影時刻を設定する撮影時刻設定部と
     を更に備え、
     前記第1の撮像部は、前記第1の計時部が計時する時刻を参照して、前記撮影時刻設定部が設定した撮影時刻に撮像し、
     前記第1の送信部は、前記撮影時刻設定部が設定した撮影時刻を含む撮影の指示を前記第2の撮像装置に送信し、
     前記第1の受信部は、前記第2の撮像装置から送信された前記撮影時刻に撮像された画像を受信し、
     前記第2の撮像装置は、
     時刻を計時する第2の計時部を更に備え、
     前記第2の撮像部は、前記第2の受信部が撮影時刻を含む撮影の指示を受信すると、前記第2の計時部が計時する時刻を参照して前記撮影時刻に撮像する
     ことを特徴とする撮像システム。
  13.  他の撮像部から、撮影の指示を受信する受信部と、
     前記受信部が撮影の指示を受信すると、光学系による像を撮像する撮像部と、
     前記撮像部が撮像した画像の部分領域を前記他の撮像部に送信する送信部と
     を備えることを特徴とする撮像装置。
  14.  請求項13に記載の撮像装置において、
     前記撮像部が撮像した画像から人物を含む領域を抽出する人物領域抽出部を更に備え、
     前記送信部は、前記人物領域抽出部が抽出した人物を含む領域を前記他の撮像部に送信する
     ことを特徴とする撮像装置。
  15.  請求項13又は14に記載の撮像装置において、
     時刻を計時する計時部を更に備え、
     前記撮像部は、前記受信部が撮影時刻を含む撮影の指示を受信すると、前記計時部が計時する時刻を参照して前記撮影時刻に撮像する
     ことを特徴とする撮像装置。 
PCT/JP2011/069038 2010-08-25 2011-08-24 撮像装置及び撮像システム WO2012026485A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010-188051 2010-08-25
JP2010188051 2010-08-25
JP2011-177567 2011-08-15
JP2011177567A JP2012070362A (ja) 2010-08-25 2011-08-15 撮像装置及び撮像システム

Publications (1)

Publication Number Publication Date
WO2012026485A1 true WO2012026485A1 (ja) 2012-03-01

Family

ID=45723479

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/069038 WO2012026485A1 (ja) 2010-08-25 2011-08-24 撮像装置及び撮像システム

Country Status (2)

Country Link
JP (1) JP2012070362A (ja)
WO (1) WO2012026485A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020188878A1 (ja) 2019-03-15 2020-09-24 富士フイルム株式会社 プリンタ付きデジタルカメラ

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333327A (ja) * 2000-03-14 2001-11-30 Fuji Photo Film Co Ltd デジタルカメラおよび画像処理方法
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP2005130030A (ja) * 2003-10-21 2005-05-19 Olympus Corp 携帯電話機
JP2005252955A (ja) * 2004-03-08 2005-09-15 Canon Inc 撮像システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333327A (ja) * 2000-03-14 2001-11-30 Fuji Photo Film Co Ltd デジタルカメラおよび画像処理方法
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP2005130030A (ja) * 2003-10-21 2005-05-19 Olympus Corp 携帯電話機
JP2005252955A (ja) * 2004-03-08 2005-09-15 Canon Inc 撮像システム

Also Published As

Publication number Publication date
JP2012070362A (ja) 2012-04-05

Similar Documents

Publication Publication Date Title
JP5182352B2 (ja) 撮像装置、画像合成方法、及びプログラム
EP2903258B1 (en) Image-processing device and method, and image pickup device
US20160127672A1 (en) Electronic apparatus
JP5753323B2 (ja) 撮像装置及び画像表示方法
TW200935878A (en) Multiple image sensor system with shared processing
JP6241467B2 (ja) 撮像装置、撮像制御装置、撮像方法、撮像制御方法及びプログラム
US11528432B2 (en) Imaging device and image processing method
WO2018173597A1 (ja) 撮像装置、撮像方法、及び撮像プログラム
WO2020158070A1 (ja) 撮像装置、撮像方法、及びプログラム
CN110419210B (zh) 摄像装置、摄像方法及记录介质
JP2007208903A (ja) 撮影システム及び撮影指示装置
WO2012026485A1 (ja) 撮像装置及び撮像システム
JP5136326B2 (ja) 撮像装置及びそのプログラム、並びに電子機器
JP2020187239A (ja) 撮像装置、撮像装置の制御方法、プログラム、および記憶媒体
JP5332497B2 (ja) 撮像装置及び画像転送方法
WO2014097792A1 (ja) 撮像装置、信号処理方法、信号処理プログラム
JP6426969B2 (ja) 撮像装置及びその制御方法、システム、並びにプログラム
JP6573730B2 (ja) 撮像装置、撮像方法、及び、撮像プログラム
JP2017199972A (ja) 端末装置、情報取得システム、情報取得方法およびプログラム
JP7266102B2 (ja) 撮像装置、撮像方法、及び撮像プログラム
KR101396334B1 (ko) 이미지 파일에 gps 정보를 입력하는 디지털 이미지 처리장치 및 그 제어 방법
JP2010130590A (ja) 撮像装置及び撮像方法
WO2015052959A1 (ja) 撮像装置、撮像システム、撮像方法、及び撮像プログラム
JP2008005240A (ja) カメラ
JP5665434B2 (ja) 撮像装置、その制御方法及びプログラム並びに記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11819948

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11819948

Country of ref document: EP

Kind code of ref document: A1