WO2014115414A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2014115414A1
WO2014115414A1 PCT/JP2013/081433 JP2013081433W WO2014115414A1 WO 2014115414 A1 WO2014115414 A1 WO 2014115414A1 JP 2013081433 W JP2013081433 W JP 2013081433W WO 2014115414 A1 WO2014115414 A1 WO 2014115414A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image processing
image
communication
state
Prior art date
Application number
PCT/JP2013/081433
Other languages
English (en)
French (fr)
Inventor
吉野薫
葛西洋志
幸島知之
伊藤繭子
鶴田香
関口政一
亀原博
村越雄
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to CN201380075014.3A priority Critical patent/CN105052122A/zh
Priority to US14/762,357 priority patent/US9667851B2/en
Priority to EP13872539.5A priority patent/EP2950517B1/en
Priority to JP2014558448A priority patent/JP6432349B2/ja
Publication of WO2014115414A1 publication Critical patent/WO2014115414A1/ja
Priority to US15/581,482 priority patent/US10868949B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/55Details of cameras or camera bodies; Accessories therefor with provision for heating or cooling, e.g. in aircraft

Definitions

  • the present invention relates to an imaging apparatus.
  • the imaging apparatus described in Patent Document 1 does not take into account factors such as heat and magnetism that may affect the operation of the apparatus.
  • the present invention has been made in view of the above-described problems, and an object thereof is to provide an imaging apparatus that takes into consideration factors that may affect the operation and the like.
  • An imaging apparatus includes a first unit that includes a first communication unit that transmits image data captured by an image sensor, and a first image processing unit that performs image processing on the image data.
  • a first communication unit including a second communication unit configured to receive the image data transmitted from the first communication unit; and a second image processing unit configured to perform image processing on the image data.
  • the first image in a state in which the first unit and the second unit are separated from each other, and a second unit capable of transitioning between an integral state and a state separated from the first unit
  • a selection unit that selects one of the processing unit and the second image processing unit.
  • the selection unit may select one of the first image processing unit and the second image processing unit in accordance with the influence of heat by the image processing.
  • the first unit includes a first housing having an attachment portion for attaching the second unit.
  • the attachment portion includes the first unit and the second unit.
  • a first heat radiating section for radiating at least heat generated in the first image processing section may be provided in a state where the unit is separated.
  • the second unit A second housing having a portion attached to one unit, and the first unit and the second unit are integrated with at least a part of the second housing other than the attached portion. In this state and the separated state, at least a second heat radiating section for radiating heat generated in the second image processing section may be provided.
  • the selection unit may hold information on a unit of which the influence of heat generated by performing image processing among the first and second units is smaller.
  • the selection unit causes the second image processing unit to execute the image processing in a state where the first unit and the second unit are integrated, and the first unit and the second unit. In a state where the unit is separated, the first image processing unit may execute the image processing.
  • the imaging apparatus of the present invention includes a first casing for the first unit and a second casing for the second unit, and the first casing and the second casing At least one of the second housings may be provided with an opening for heat dissipation.
  • the heat release opening is provided in the second casing, and the first unit and the second unit of the second casing are integrated and separated.
  • the heat radiation opening may be provided in a portion exposed to the outside.
  • An imaging device of the present invention stores therein an imaging element, stores therein a first unit having a first housing having a metal part, and an electronic component that receives at least one of magnetism and radio waves, and at least A second casing having a non-metallic portion that allows at least one of the magnetism and radio waves to pass therethrough partially functions as a unit with the first unit, and is separated from the first unit.
  • a second unit that functions independently even in a state.
  • the metal part may dissipate at least the heat generated by the image sensor.
  • the second unit may include a display unit.
  • a conductive member that conducts at least the heat generated in the image sensor to the metal part may be provided.
  • the first housing has an attachment portion for attaching the second housing, and the conductive member contacts a location different from the attachment portion of the first housing. The heat generated in at least the image sensor may be conducted.
  • the electronic component may include an orientation sensor that detects geomagnetism and measures the orientation.
  • the electronic component may include a GPS sensor that receives radio waves from the outside of the second unit and measures the position of the second unit.
  • the electronic component may include a wireless power feeding mechanism.
  • An image pickup apparatus of the present invention stores an image pickup element inside, stores at least a first unit having a first casing having a metal part that dissipates heat generated by the image pickup element, and an electronic component inside.
  • a second housing having a non-metal portion at least partially and functioning integrally with the first unit and functioning independently even when separated from the first unit. And a unit.
  • the imaging apparatus of the present invention includes a first unit having a first communication unit that transmits image data generated by an imaging element, and a second unit that receives the image data transmitted from the first communication unit.
  • the imaging apparatus is configured to acquire the heat generation information acquisition unit that acquires information about heat generation in at least one of the first unit and the second unit, and based on the information acquired by the heat generation information acquisition unit.
  • a first control unit that controls transmission of the image data from one communication unit to the second communication unit.
  • the heat generation information acquisition unit acquires the temperature of at least one of the first image processing unit or the first communication unit and the second communication unit as information about the heat generation, and performs the first control.
  • the unit may control transmission of the image data from the first communication unit to the second communication unit based on the temperature.
  • the imaging device may receive the first processing unit from the first communication unit based on the processing amount acquisition unit that acquires the data processing amount of the first image processing unit and the data processing amount acquired by the processing amount acquisition unit. And a second control unit that controls transmission of the image data to the two communication units.
  • first communication unit and the second communication unit can perform wireless communication and wired communication.
  • first communication unit And the second communication unit performs either the wired communication or the wireless communication, and in a state where the first unit and the second unit are separated, the first communication unit and the second communication unit
  • the communication unit may perform the wireless communication.
  • the imaging apparatus may be configured to detect the first communication unit based on the communication speed detection unit that detects the wireless communication speed and the first wireless communication speed in a state where the first unit and the second unit are separated.
  • a third control unit that controls transmission of the image data from the communication unit to the second communication unit.
  • the first unit includes a second image processing unit that performs image processing on the image data, and the second image processing unit receives the second communication from the first communication unit.
  • Image processing may be performed on image data that is not transmitted to the unit.
  • the first unit may include a storage unit that temporarily stores image data that is not transmitted from the first communication unit to the second communication unit.
  • the imaging apparatus of the present invention has an effect that it is possible to provide an imaging apparatus that takes into consideration factors that may affect the operation and the like.
  • FIG. 1A is a perspective view illustrating a state in which the imaging apparatus according to the first embodiment is viewed from the back side
  • FIG. 1B is a perspective view illustrating a state in which the imaging apparatus is viewed from the front side.
  • FIG. 2 is a diagram illustrating a state in which the imaging devices illustrated in FIGS. 1A and 1B are separated.
  • FIG. 3 is a block diagram illustrating a configuration of the imaging apparatus (integral state) according to the first embodiment.
  • FIG. 4 is a block diagram illustrating a configuration of the imaging apparatus (separated state) according to the first embodiment.
  • FIG. 5 is a diagram illustrating a heat sink provided inside the imaging apparatus according to the first embodiment.
  • FIG. 6 is a partial cross-sectional view of the imaging apparatus according to the first embodiment.
  • FIG. 7 is a perspective view illustrating an imaging apparatus (separated state) according to the second embodiment.
  • FIG. 8 is a block diagram illustrating a configuration of an imaging apparatus according to the second embodiment.
  • FIG. 9 is a flowchart illustrating processing of the imaging apparatus according to the second embodiment.
  • FIG. 10 is a block diagram illustrating a configuration of an imaging apparatus according to the third embodiment.
  • FIG. 11 is a flowchart illustrating processing of the imaging apparatus according to the third embodiment.
  • FIG. 12 is a block diagram illustrating a configuration of an imaging apparatus according to the fourth embodiment.
  • FIG. 13 is a flowchart illustrating processing of the imaging apparatus according to the fourth embodiment.
  • FIG. 14 is a flowchart showing a specific process of step S66 of FIG.
  • FIG. 15A and FIG. 15B are diagrams for explaining a modified example (No. 1).
  • FIG. 16A and FIG. 16B are diagrams for explaining a modified example (No. 2).
  • FIG. 1A is a perspective view illustrating a state in which the imaging apparatus 1a according to the first embodiment is viewed from the back side
  • FIG. 1B illustrates a state in which the imaging apparatus 1a is viewed from the front side. It is a perspective view shown.
  • the imaging device 1a includes a first unit 10a and a second unit 100a.
  • the first unit 10a and the second unit 100a are in an integrated state (integrated state) as shown in FIGS. 1 (a) and 1 (b) and in a separated state (separated state) as shown in FIG. And can transition between.
  • the second unit 100a is attached to the attachment portion 25aa of the first unit 10a.
  • FIG. 3 shows a block diagram of each unit 10a, 100a (when in an integrated state).
  • FIG. 4 shows a block diagram of the units 10a and 100a (in the separated state).
  • the first unit 10a includes a control unit 11, a photographing lens 20, a lens driving unit 21, an image sensor 12, an A / D conversion unit 13, an image processing unit 14, an operation unit 15, a RAM 17, and a ROM 18. , An angular velocity sensor 19, a battery 23, a power supply unit 22, a wireless control unit 16, an antenna 24, and a connector 33.
  • the control unit 11 has a CPU, is connected to each component in the first unit 10a, and controls the operation of the entire first unit 10a.
  • the controller 11 recognizes whether the first unit 10a and the second unit 100a are in an integrated state or in a separated state, and performs control according to each state.
  • the photographing lens 20 is composed of a plurality of lens groups including, for example, a zoom lens and a focusing lens, and forms a subject image on the imaging surface of the image sensor 12.
  • the taking lens 20 may be replaceable with respect to the first unit 10a.
  • the taking lens 20 is driven by the lens driving unit 21 under the control of the control unit 11.
  • the imaging device 12 includes a CMOS image sensor in which light receiving elements are two-dimensionally arranged on the imaging surface, and generates an analog image signal.
  • the A / D converter 13 converts the analog image signal generated by the image sensor 12 into a digital image signal and inputs the digital image signal to the image processor 14.
  • the image processing unit 14 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, image compression processing) on the digital image signal data input from the A / D conversion unit 13. , An image expansion process, etc.).
  • image processing color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, image compression processing
  • the output of the image processing unit 14 is input to the control unit 11.
  • the RAM 17 is connected to the control unit 11 and is used as a temporary storage area in processing by the control unit 11 and is also used as a buffer area when transferring data from the first unit 10a to the second unit 100a.
  • the ROM 18 is, for example, a non-volatile semiconductor memory, and stores a control program and various parameters of the first unit 10a executed by the control unit 11. Further, the ROM 18 stores still image and moving image image data generated by the image processing unit 14.
  • the operation unit 15 has a plurality of operation buttons and switches, and has a function of accepting various operations from the user.
  • the operation unit 15 includes a release switch 15a, a menu button 15b, a cross key (multi-selector) 15c, and the like.
  • the operation unit 15 may include a touch panel that receives an information input operation in response to a touch by the user.
  • the angular velocity sensor 19 is a sensor that detects an angular velocity generated in the first unit 10a.
  • the detection value (angular velocity) of the angular velocity sensor 19 is input to the control unit 11.
  • camera shake correction is performed by moving (shifting) a part of the photographic lens 20 or the image sensor 12 based on the angular velocity detected by the angular velocity sensor 19 using a known camera shake correction technique.
  • the battery 23 is a secondary battery such as a lithium ion battery.
  • the battery 23 is connected to the connector 33.
  • the power supply unit 22 is connected to the battery 23, converts the voltage generated by the battery 23 into a voltage used in each unit such as the control unit 11, and supplies the voltage to each unit.
  • the wireless control unit 16 is connected to the control unit 11 and controls wireless communication with an external device such as the second unit 100a via the antenna 24.
  • the connector 33 is connected to the control unit 11, and is connected to the connector 133 of the second unit 100a when the first unit 10a and the second unit 100a are in an integrated state.
  • the control unit 11 can recognize that the units 10a and 100a are integrated.
  • data transmission / reception between the control unit 11 and the control unit 101 of the second unit 100a is possible.
  • power can be exchanged between the battery 23 and the battery 113 of the second unit 100a.
  • the first casing 25a is made of a metal such as magnesium, and a heat radiating plate 26 is provided in the first casing 25a as indicated by a broken line in FIG.
  • the heat sink 26 has a shape (substantially U-shaped) obtained by bending a rectangular plate member at two locations.
  • each flat part of the heat sink 26 shall be called the 1st part 26a, the 2nd part 26b, and the 3rd part 26c.
  • a material of the heat sink 26 a material having high thermal conductivity, for example, an aluminum alloy, SUS (stainless steel), a copper alloy, a magnesium alloy, a zinc alloy, a graphite sheet, or the like can be used.
  • FIG. 6 which is a partial cross-sectional view of FIG. 5
  • the heat sink 26 is in contact with a portion other than the mounting portion 25aa of the first housing 25a in the second portion 26b and the third portion 26c. It is in a state.
  • the heat sink 26 holds the image sensor 12 in the first portion 26a and also holds the image processing unit 14 (the image processing unit 14 is not shown in FIG. 6).
  • the imaging device 12 and the image processing unit 14 in the configuration of the imaging device 1a are components that generate a particularly large amount of heat.
  • the heat generated by the imaging device 12 and the image processing unit 14 is used. Is conducted from the back side of the image pickup device 12 to the first portion 26a of the heat sink 26, further conducted through the heat sink 26, and conducted to the second portion 26b and the third portion 26c, and the first first made of metal. Conducted to the housing 25a. Then, heat is radiated from the entire surface of the first casing 25a (particularly, a portion other than the attachment portion 25aa).
  • the heat generated in the imaging device 12 and the image processing unit 14 can be efficiently radiated from the entire surface of the first housing 25a.
  • the heat radiating plate 26 is in contact with the first housing 25a at a portion other than the attachment portion 25aa, and therefore the second unit 100a is attached to the attachment portion 25aa (FIG. 1).
  • the thermal influence with respect to the 2nd unit 100a can be reduced.
  • the second unit 100a includes a control unit 101, a display unit 110, a display driving unit 109, a RAM 107, a ROM 108, an operation unit 105, a touch panel 115, a direction sensor 102, a GPS module 103, a power receiving coil 111, A battery 113, a power supply unit 112, a wireless control unit 106, an antenna 114, and a connector 133 are included.
  • the control unit 101 has a CPU, is connected to each component in the second unit 100a, and controls the operation of the entire second unit 100a. In the first embodiment, the control unit 101 recognizes whether the units 10a and 100a are in an integrated state or a separated state, and performs control according to each state.
  • the display unit 110 includes a liquid crystal panel, an organic EL panel, and the like, and displays images, operation menu screens, and the like.
  • the display unit 110 is driven by the display driving unit 109 under the control of the control unit 101.
  • the operation unit 105 receives various operations by the user, and includes a release switch 105a shown in FIG.
  • the touch panel 115 is provided on the surface of the display unit 110 and accepts an information input operation in response to a touch by the user.
  • the RAM 107 is connected to the control unit 101 and is used as a temporary storage area or the like in processing by the control unit 101.
  • the ROM 108 is, for example, a nonvolatile semiconductor memory, and is connected to the control unit 101 and stores a control program and various parameters of the second unit 100a executed by the control unit 101. Further, the ROM 108 stores still image data, moving image data, and the like transferred from the first unit 10a.
  • the orientation sensor 102 detects magnetism (geomagnetism) from the outside of the second unit 100a and obtains the orientation of the second unit 100a (the orientation indicated by the reference axis of the second unit 100a). Information on the orientation of the second unit 100 a obtained by the orientation sensor 102 is displayed on the display unit 110. Further, according to the operation (setting) of the operation unit 105 by the user, the direction information is stored in the ROM 18 or the ROM 108 together with the image data of the still image and the moving image.
  • the GPS module 103 includes an antenna for receiving radio waves from a GPS (Global Positioning System) satellite, and detects position information (latitude, longitude, etc.) of the second unit 100a.
  • the position information detected by the GPS module 103 is displayed on the display unit 110. Further, according to the operation (setting) of the operation unit 105 by the user, the position information is stored in the ROM 18 or the ROM 108 together with the image data of still images and moving images.
  • the power receiving coil 111 generates an electromotive force by a magnetic flux from an external power transmission coil by a non-contact power feeding method (wireless power feeding method), and charges the battery 113 (electromagnetic induction method).
  • a wireless power feeding method an electromagnetic field resonance method or a radio wave method may be adopted in addition to the electromagnetic induction method.
  • the battery 113 is a secondary battery such as a lithium ion battery.
  • the battery 113 is connected to the connector 133 and supplies power to the battery 23 via the connector 133 and the connector 33.
  • the power supply unit 112 is connected to the battery 113, converts the voltage generated by the battery 113 into a voltage used in each unit such as the control unit 101, and supplies the voltage to each unit.
  • the wireless control unit 106 is connected to the control unit 101 and controls wireless communication with an external device 114 such as the first unit 10a.
  • the connector 133 is connected to the control unit 101, and is connected to the connector 33 of the first unit 10a when the first unit 10a and the second unit 100a are integrated as described above.
  • the second casing 125a In the first embodiment, among the above-described configurations of the second unit 100a, configurations other than the display unit 110, the operation unit 105, and the touch panel 115 are stored in the second casing 125a (see FIG. 2). Yes.
  • the second casing 125a is formed of a non-metallic member such as resin.
  • a decrease in radio wave reception sensitivity of the GPS module 103 that occurs when the electronic component is housed in a metal highly conductive casing magnetic flux generated in the vicinity of the GPS module 103 is absorbed by the casing, and a resonance phenomenon occurs. It is possible to avoid a situation in which the sensitivity of the direction sensor 102 is lowered and the electromotive force is lowered by the power receiving coil 111.
  • all of the second casing 125a may be formed of a non-metallic member such as resin, but only the vicinity of the electronic component may be formed of a non-metallic member such as resin.
  • the first unit 10a and the second unit 100a are in the separated state (the state shown in FIGS. 2 and 4)
  • the first unit 10a can perform the imaging process independently.
  • the second unit 100a can independently perform a display process (a process for allowing the user to browse still image data and moving image data stored in the ROMs 18 and 108).
  • the second unit 100a can be used as a remote controller for the first unit 10a for remote operation of imaging by the first unit 10a.
  • control units 11 and 101 can determine whether the units 10a and 100a are in an integrated state or a separated state based on whether or not the connectors 33 and 133 are connected.
  • the present invention is not limited to this, and it may be determined using a mechanical switch or a sensor (such as an IC tag reader) whether it is an integrated state or a separated state.
  • the first casing 25a of the first unit 10a is made of a metal member that dissipates heat generated in the image sensor 12 and the image processing unit 14.
  • the formed second housing 125a of the second unit 100a stores therein electronic components (102, 103, 111) that function by receiving magnetism and radio waves, and at least a part of the magnets and radio waves pass therethrough. It is formed of a non-metallic member.
  • the second unit 100a functions in an integrated state with the first unit 10a and functions independently even in a state separated from the first unit 10a.
  • the influence of heat generated in the image sensor 12 and the image processing unit 14 in the first unit 10a can be reduced, and an electronic component ( 102, 103, 111), the function of the electronic component can be effectively exhibited.
  • an electronic component 102, 103, 111
  • Usability can be improved.
  • the second unit 100a since the second unit 100a includes the display unit 110, in the integrated state, an image captured by the image sensor is displayed on the display unit 110, or a through image ( Live view image) can be displayed. In the separated state, the captured image can be displayed on the display unit 110, or an image for remotely operating the first unit 10a can be displayed.
  • the first unit 10a includes a heat radiating plate 26 that conducts heat generated in the image sensor 12 and the image processing unit 14 to the first housing 25a (metal portion). Yes. Thereby, the heat generated in the image sensor 12 and the image processing unit 14 can be efficiently radiated in the metal portion of the first housing 25a. Further, in the present embodiment, the heat radiating plate 26 is in contact with a location different from the attachment portion 25aa of the first housing 25a, and heat generated in the image sensor 12 and the image processing unit 14 is generated in the first housing 25a. Conduct to (metal part). Thereby, it is possible to prevent the second unit 100a from being affected by the heat generated in the image sensor 12 and the image processing unit 14, and the efficiency is improved even when the units 10a and 100a are in an integrated state. It can dissipate heat well.
  • the imaging element 12 and the image processing unit 14 are provided in the heat dissipation plate 26 .
  • the present invention is not limited to this.
  • only the image sensor 12 may be provided on the heat sink 26.
  • components other than the image sensor 12 and the image processing unit 14 may be provided on the heat sink 26.
  • the heat sink 26 was provided in the 1st housing
  • casing 25a was demonstrated in the said 1st Embodiment, it is not restricted to this.
  • the image sensor 12 and the image processing unit 14 may be in direct contact with the first housing 25a (metal part).
  • the azimuth sensor 102, the GPS module 103, and the power receiving coil 111 are employed as electronic components that function by receiving magnetism or radio waves.
  • other electronic components may be employed. It is good.
  • the direction sensor 102, the GPS module 103, and the power receiving coil 111 described in the first embodiment may be provided in the first unit 10a.
  • a part of the first housing 25a is formed of a nonmetal such as a resin.
  • all of the first housing 25a may be formed of a metal member, or only part of the first housing 25a may be formed of a metal member. Further, all of the second casing 125a may be formed of a non-metallic member, or only a part thereof may be formed of a non-metallic member.
  • the present invention is not limited to this, and the battery 23 and the power receiving coil 111 are connected. Thus, the battery 23 may be charged.
  • FIG. 7 is a perspective view showing an imaging apparatus 1b (separated state) according to the second embodiment.
  • FIG. 8 is a block diagram illustrating a configuration of the imaging apparatus 1b.
  • the imaging apparatus 1b includes a first unit 10b and a second unit 100b.
  • the second unit 100b has the image processing unit 104 (see the bold line portion).
  • a plurality of slit-like heat radiation openings 40 are provided in the attachment portion 25ba of the first casing 25b of the first unit 10b.
  • a plurality of slit-shaped heat radiation openings 140 are provided in the second casing 125b of the second unit 100b.
  • Other configurations are the same as those in the first embodiment.
  • the heat radiating plate 26 described in the first embodiment may be provided in the first housing 25b or may not be provided.
  • the image processing unit 104 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, A circuit that performs image compression processing, image expansion processing, and the like.
  • the image processing unit 104 is connected to the control unit 101.
  • the heat radiation opening 40 efficiently radiates heat generated in the first housing 25b (heat generated in the image sensor 12 and the image processing unit 14) to the outside when the units 10b and 100b are separated. (In the integrated state, the heat radiation efficiency is lower than in the separated state because the heat radiation opening 40 is blocked by the second unit 100b).
  • the heat radiation opening 140 radiates heat generated in the second casing 125b (heat generated in the image processing unit 104) with the same efficiency when the units 10b and 100b are integrated and separated. To do.
  • step S10 the control unit 11 and the control unit 101 stand by until there is an imaging instruction from the user.
  • the imaging instruction from the user in this case includes an imaging instruction when the release switch 15a or the release switch 105a is pressed by the user and an imaging instruction from the user by operating the touch panel 115.
  • the control unit 101 receives an imaging instruction, the imaging instruction is transmitted to the control unit 11.
  • the units 10b and 100b are in an integrated state, an imaging instruction is transmitted via the connectors 33 and 133.
  • the radio control units 106 and 16 transmit an imaging instruction. If there is an imaging instruction from the user, the process proceeds to step S11.
  • control unit 11 executes (starts) imaging using the photographing lens 20 and the imaging element 12. And the control part 11 converts the analog image signal produced
  • the digital image signal data acquired by the control unit 11 is raw data (RAW file) before image processing is performed.
  • step S12 the control unit 11 determines whether or not the units 10b and 100b are in an integrated state. When judgment here is affirmed, it transfers to step S14.
  • step S14 the control unit 11 transmits the digital image signal data acquired in step S11 to the control unit 101 of the second unit 100b via the connector 33 and the connector 133. Then, the control unit 101 transmits digital image signal data to the image processing unit 104.
  • the image processing unit 104 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, image compression processing, image expansion processing, etc.) on the digital image signal data. Do.
  • image data that has been subjected to various types of image processing is stored in the ROM 108 via the control unit 101.
  • the image processing unit 104 of the second unit 100b performs image processing in the integrated state in which the heat radiation opening 40 of the first unit 10b is used. This is because the first unit 10b may be thermally affected when the image processing is performed by the image processing unit 14 of the first unit 10b.
  • step S12 determines whether the units 10b and 100b are in the separated state. If transfering it to step S16, the control part 11 will extract the unit with the least influence of the heat
  • the ROM 18 or the like stores in advance data indicating which of the first unit 10b and the second unit 100b is less affected by image processing.
  • the controller 11 Is assumed to read data stored in the ROM 18 or the like. It is assumed that the data is generated by experiments or simulations performed at the design stage, manufacturing stage, etc. of the imaging apparatus and stored in the ROM 18 or the like.
  • the heat generated by the image processing includes heat generated by processing accompanying the image processing such as heat generated by the image processing by the image processing units 14 and 104 and heat generated by wireless communication by the wireless control units 16 and 106. Is also included.
  • step S18 it is determined whether or not the first unit 10b is less affected by heat due to image processing in the separated state. If the determination is negative, the process proceeds to step S14, and as described above, the image processing unit 101 of the second unit 100b performs image processing. On the other hand, if the determination in step S18 is affirmative, that is, if the first unit 10b is less affected by heat in image processing in the separated state, the control unit 11 proceeds to step S20. .
  • step S20 the control unit 11 uses the image processing unit 14 of the first unit 10b to perform various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white enhancement processing) on the digital image signal data. Balance adjustment processing, image compression processing, image expansion processing, etc.). In this case, the control unit 11 stores the image data after image processing in the ROM 18.
  • the control unit 11 of the first unit 10b An image processing unit to be used for image processing is selected from either one of the image processing units 14 and 104 in accordance with the influence of heat from the processing (S18).
  • image processing can be performed using the image processing unit of the unit that is less affected by heat. Reduction can be effectively suppressed.
  • a heat radiation opening 40 for radiating heat is provided.
  • the heat radiation opening 140 is provided in a part of the second housing 125b other than the portion attached to the first housing 25b. Thereby, the heat generated by the image processing unit 104 can be effectively radiated in both the integrated state and the separated state.
  • the ROM 18 or the like retains information on the unit of the first and second units that is less affected by heat generated by performing image processing and is determined for each model. Therefore, the control unit 11 can appropriately determine which of the image processing units 14 and 104 should be used in the separated state.
  • the present invention is not limited to this.
  • the heat radiation opening 40 is closed by the second unit 100b, so image processing is performed using the image processing unit 104 of the second unit 100b, and in the separated state, Since the heat radiation opening 40 is not blocked by the second unit 100b, image processing may be performed using the image processing unit 14 of the first unit 100a. In this way, the heat generated by the image processing can be efficiently radiated, and the image data can be wired by way of the connectors 33 and 133, so that the transmission surface is also efficient. is there.
  • the heat radiation opening 40 is provided in the attachment portion 25ba of the first housing 25b.
  • the heat radiation opening 40 may be provided at a position other than the attachment portion 25ba.
  • the heat radiation opening 40 is provided to dissipate the heat generated in the first housing 25a
  • the heat radiation fin, the heat radiation A plate, a Peltier element or the like may be provided.
  • the second unit 100b includes the direction sensor 102, the GPS module 103, and the power receiving coil 111 has been described. However, at least some of these are described. It may be omitted.
  • FIG. 10 is a block diagram illustrating a configuration of an imaging apparatus 1c according to the third embodiment.
  • the imaging device 1c includes a first unit 10c and a second unit 100c.
  • the image processing unit 14 included in the first unit 10a is omitted.
  • the second unit 100c has an image processing unit 104 as can be seen by comparing FIG. 10 and FIG. Note that the image processing unit 104 is the same image processing unit as the image processing unit 104 included in the second unit 100b of the second embodiment.
  • step S30 as in step S10 of FIG. 9, the control unit 11 and the control unit 101 stand by until there is an imaging instruction from the user.
  • the control unit 101 receives an imaging instruction, the imaging instruction is transmitted to the control unit 11. If there is an imaging instruction from the user, the process proceeds to step S31.
  • control unit 11 executes (starts) imaging using the photographing lens 20 and the image sensor 12 as in step S11 of FIG.
  • the control unit 11 acquires raw data (RAW file) of still images or moving images before image processing is performed as digital image signal data.
  • step S32 the control unit 11 determines whether the units 10c and 100c are in an integrated state as in step S12 of FIG. When judgment here is affirmed, it transfers to step S34.
  • step S34 the control unit 11 transmits the digital image signal data acquired in step S31 to the control unit 101 of the second unit 100c via the connector 33 and the connector 133.
  • step S ⁇ b> 36 the control unit 101 executes various image processes using the image processing unit 104 of the second unit. Note that image data that has been subjected to various types of image processing is stored in the ROM 108 by the control unit 101.
  • step S32 determines whether or not.
  • the “specified value of the wireless communication speed” refers to a speed at which digital image data can be communicated within a predetermined time. The predetermined time varies depending on the file size of the digital image data.
  • step S38 determines whether the wireless speed is sufficiently high. If the determination in step S38 is affirmative, that is, if the wireless speed is sufficiently high, the process proceeds to step S40, and the control unit 11 converts the digital image signal data acquired in step S31 into the wireless control unit 16 and the antenna. 24, and transmitted to the control unit 101 of the second unit 100c by wireless communication using the wireless control unit 106 and the antenna 114. Thereafter, step S36 is executed in the same manner as described above.
  • step S42 the control unit 11 temporarily stores the digital image signal data acquired in step S31 in the RAM 17 or the ROM 18.
  • the process of step S42 is complete
  • finished it returns to step S32.
  • the control unit 11 temporarily stores the data in the RAM 17 or the ROM 18 by wireless communication. The stored data is transmitted to the control unit 101. If the separated state is changed to the integrated state after returning to step S32, the process proceeds to step S34, and the control unit 11 temporarily stores the data in the RAM 17 or the ROM 18 via the connectors 33 and 133. The stored data is transmitted to the control unit 101.
  • the first unit 10c and the second unit 100c are generated by the image sensor 12 regardless of whether the first unit 10c and the second unit 100c are integrated or separated.
  • the processed image data is processed in the image processing unit 104 of the second unit 100c.
  • the image pickup device 12 and the image processing unit 104 that generate a particularly large amount of heat in the entire image pickup apparatus 1c can be mounted in separate units, so that the heat generation source can be separated. Thereby, the heat generated in the image sensor 12 and the image processing unit 104 can be efficiently radiated.
  • wired communication is performed via a connector in an integrated state, and wireless communication is performed in a separated state, so that communication efficiency can be improved.
  • the present invention is not limited to this, and wireless communication may be performed even in an integrated state.
  • control unit 11 since the control unit 11 detects the speed of wireless communication and controls the transmission of image data based on the speed of the wireless communication, appropriate and efficient communication is possible. Become.
  • the first unit 10c includes the RAM 17 or the ROM 18 that temporarily stores image data that is not wirelessly communicated.
  • the image data is stored in the stage where the wireless communication speed is recovered by temporarily storing the image data. It is possible to transmit to the control unit 101.
  • the processing of FIG. 11 can be performed for both still images and moving images.
  • a moving image having a real-time property such as a live view image
  • a moving image having no real-time property can be performed. It is good also as making processing differ.
  • the same processing as in FIG. 11 is performed.
  • the image data is stored in the RAM 17 or ROM 18. It is good also as discarding, without storing temporarily.
  • FIG. 12 is a block diagram illustrating a configuration of an imaging apparatus 1d according to the fourth embodiment.
  • the imaging device 1d includes a first unit 10d and a second unit 100d.
  • the fourth embodiment is different from the third embodiment in that the first unit 10d includes the temperature sensor 42 and the image processing unit 14. Further, the fourth embodiment is different from the third embodiment in that the second unit 100d includes a temperature sensor 116.
  • the temperature sensor 42 is a sensor that is arranged around the image processing unit 14 and the wireless control unit 16 and measures the ambient temperature of the image processing unit 14 and the wireless control unit 16.
  • the temperature sensor 116 is a sensor that is arranged around the image processing unit 104 and the wireless control unit 106 and measures the ambient temperature of the image processing unit 104 and the wireless control unit 106.
  • the temperature sensor 42 is connected to the control unit 11, and the control unit 11 is connected to the control unit 101.
  • FIG. 13 is a flowchart showing the process of the imaging device 1d
  • FIG. 14 is a flowchart showing the specific process of step S66 of FIG.
  • step S50 as in step S10 of FIG. 9 and step S30 of FIG. 11, the control unit 11 and the control unit 101 wait until there is an imaging instruction from the user.
  • the control unit 101 receives an imaging instruction, the imaging instruction is transmitted to the control unit 11. If there is an imaging instruction from the user, the process proceeds to step S51.
  • control unit 11 executes (starts) imaging using the photographing lens 20 and the image sensor 12 as in step S11 of FIG. 9 and step S31 of FIG. In this case, the control unit 11 acquires raw data (RAW file) before image processing is performed as data of a digital image signal.
  • RAW file raw data
  • step S52 the control unit 11 determines whether or not the units 10d and 100d are in an integrated state, similarly to step S12 in FIG. 9 and step S32 in FIG. When judgment here is affirmed, it transfers to step S54.
  • step S54 the control unit 11 determines whether the ambient temperature of the image processing unit 104 measured by the temperature sensor 116 of the second unit 100d via the control unit 101 is equal to or higher than a specified value. If the determination here is affirmative, the process proceeds to step S56, and the control unit 11 passes a part of the data of the digital image signal input from the A / D conversion unit 13 via the connector 33 and the connector 133. To the control unit 101 of the second unit 100d.
  • the data of the digital image signal is moving image data
  • moving image data captured during a predetermined time out of the total imaging time is transmitted to the control unit 101.
  • the data of the digital image signal is data obtained by continuously shooting still images
  • a predetermined number of pieces of data among all the continuously shot images are transmitted to the control unit 101.
  • step S58 the control unit 11 transmits data that has not been transmitted to the control unit 101 among the digital image signal data input from the A / D conversion unit 13 to the image processing unit 14 of the first unit 10d. input.
  • the image processing unit 104 performs various types of image processing on the input digital image signal data under the instruction of the control unit 11.
  • the image processing unit 14 inputs the processed image data to the control unit 11.
  • the control unit 11 stores the image data processed by the image processing unit 14 in the ROM 18.
  • step S58 the control unit 101 of the second unit 100d inputs the digital image signal data input from the control unit 11 to the image processing unit 104.
  • the image processing unit 104 performs various types of image processing on the input digital image signal data in the same manner as the image processing unit 14.
  • the image processing unit 104 inputs the processed image data to the control unit 101.
  • the control unit 101 stores the image data processed by the image processing unit 104 in the ROM 108.
  • step S58 after the image processing of the image processing unit 14 and the image processing unit 104 is completed, the data after the respective image processing is collected by the control unit 11 or the control unit 101 and combined into one. .
  • the collected image data is stored in the ROM 18 or the ROM 108.
  • the ambient temperature of the image processing unit 104 is equal to or higher than a specified value, if the image processing unit 104 tries to perform image processing on all data, the temperature of the image processing unit 104 further increases and erroneous processing is performed.
  • the determination in step S54 is affirmed, the image processing unit 104 and the image processing unit 104 share the image processing. It is possible to reduce the load of the battery and suppress the occurrence of erroneous processing due to temperature rise.
  • the amount of image processing performed by each of the image processing unit 14 and the image processing unit 104 depends on the ambient temperature of the image processing unit 104, the ambient temperature of the image processing unit 14 measured by the temperature sensor 42 of the first unit 10d, and the like. Can be determined accordingly.
  • step S54 determines whether or not the processing amount for the digital image signal data input from the A / D conversion unit 13 is equal to or greater than a specified value. If the determination here is affirmative, steps S56 and S58 are executed in the same manner as described above.
  • the image processing is performed by sharing the image processing between the image processing unit 14 and the image processing unit 104, thereby performing the image processing faster. (To shorten the image processing time).
  • the amounts of image processing performed by the image processing unit 14 and the image processing unit 104 are the ambient temperature of the image processing unit 104 and the ambient temperature of the image processing unit 14 measured by the temperature sensor 42, as described above. It can be determined according to the above.
  • step S60 If the determination in step S60 is negative, the process proceeds to step S62, and the control unit 11 transmits the digital image signal data input from the A / D conversion unit 13 via the connectors 33 and 133. It transmits to the control unit 101 of the second unit 100d.
  • step S ⁇ b> 64 the control unit 101 inputs the digital image signal data input from the control unit 11 to the image processing unit 104.
  • the image processing unit 104 performs various types of image processing on the input digital image signal data under the instruction of the control unit 11.
  • the image processing unit 14 inputs the processed image data to the control unit 101. Note that the control unit 101 stores the image data processed by the image processing unit 14 in the ROM 108.
  • step S64 when there is no problem in processing by the image processing unit 104 of the second unit 100d in terms of temperature and image processing amount, image processing using the image processing unit 104 is performed (step S64).
  • the heat generation source can be separated by performing image processing using the image processing unit 104 arranged in a unit (second unit 100d) different from the imaging element 12 that generates a lot of heat.
  • step S66 the separation state process in step S66 is executed. In this separation state process, the process according to the flowchart of FIG. 14 is executed.
  • step S70 it is determined whether the wireless communication speed is equal to or higher than a specified value.
  • the “specified value of the wireless communication speed” refers to a speed at which digital image data can be communicated within a predetermined time. The predetermined time varies depending on the file size of the digital image data.
  • the control unit 11 inputs the digital image signal data input from the A / D conversion unit 13 to the image processing unit 14.
  • the image processing unit 14 performs various types of image processing on the input digital image signal data.
  • the image processing unit 14 inputs the processed image data to the control unit 11.
  • the control unit 11 stores the image data processed by the image processing unit 14 in the ROM 18. Thereafter, all the processes in FIGS. 14 and 13 are terminated.
  • step S70 determines whether or not the temperatures of the radio control units 16 and 106 of the first and second units 10d and 100d are equal to or higher than a specified value. Determine whether. If the determination here is negative, the wireless control units 16 and 106 may be thermally burdened when wireless communication is performed, and therefore the control unit 11 proceeds to step S86 and performs the above-described process. Image processing using the image processing unit 14 as described above is executed. Thereafter, all the processes in FIGS. 14 and 13 are terminated.
  • step S74 the same determination as in step S54 described above (determination as to whether the temperature of the image processing unit 104 of the second unit 100d is equal to or higher than a specified value) is performed.
  • the control unit 11 converts a part of the data of the digital image signal input from the A / D conversion unit 13 by wireless communication to the control unit 101 of the second unit 100d. Send to.
  • step S78 processing similar to that in step S58 described above (image processing is shared by the image processing units 14 and 104 of the first and second units 10d and 100d) is executed, and the entire processing in FIGS.
  • step S74 when the determination in step S74 is affirmed, the image processing unit 14 and the image processing unit 104 share the image processing (S78), so the load on the image processing unit 104 is reduced. It is possible to reduce the occurrence of erroneous processing due to temperature rise.
  • step S74 determines whether the image processing amount is greater than or equal to a specified value. If the determination here is affirmed, the processes of steps S76 and S78 are executed in the same manner as described above.
  • the image processing is performed by sharing the image processing between the image processing unit 14 and the image processing unit 104, thereby speeding up the image processing. It is possible (to shorten the image processing time).
  • step S80 determines whether the determination in step S80 is negative. If the determination in step S80 is negative, the process proceeds to step S82, and the control unit 11 transmits the digital image signal data input from the A / D conversion unit 13 to the second unit by wireless communication. It transmits to the control unit 101 of 100d.
  • step S84 processing similar to that in step S64 described above (image processing by the image processing unit 104 of the second unit 100d) is executed, and all the processing in FIGS. 14 and 13 ends.
  • the heat generation source can be separated by performing image processing using the image processing unit 104 disposed in a unit different from the image sensor 12 that generates a lot of heat.
  • the temperature sensor 42, 116 is provided in the first unit 10d and the second unit 100d, and the control unit 11 includes the temperature sensor 42, Based on the detection result 116, transmission of image data from the first unit 10d to the second unit 100d is controlled. Accordingly, in the fourth embodiment, it is possible to determine which unit the image processing unit 14 or 104 performs image processing according to the temperature (heat generation) of each unit 10d or 100d. Therefore, the influence of heat in image processing can be reduced.
  • the temperature sensor is provided in both the first and second units 10d and 100d.
  • the temperature sensor is not limited to this, and the temperature sensor is provided in at least one of the units 10d and 100d. What is necessary is just to be provided.
  • a part of the processing of FIGS. 13 and 14 may be changed according to the way of providing the temperature sensor.
  • the case where the temperature sensor 42 of the first unit 10d detects the temperature around the image processing unit 14 and the wireless control unit 16 has been described.
  • the ambient temperature may be detected.
  • the temperature sensor 116 of the second unit 100d detects the temperature around the wireless control unit 106 and the image processing unit 104 has been described. You may make it do.
  • a part of the processing in FIGS. 13 and 14 may be changed in accordance with the objects detected by the temperature sensors 42 and 116.
  • the image processing unit 14 A sharing method may be employed in which image processing of a through image (live view image) is performed, and the image processing unit 104 performs image processing of an actually captured image.
  • FIGS. 15A and 15B may be employed as the imaging device.
  • the imaging device 1e in FIG. 15A includes a first unit 10e and a second unit 100e.
  • the second unit 100e can be separated by sliding it laterally from the first unit 10e.
  • Such a configuration is effective, for example, when the display unit 110 ′ of the second unit 100 e has a large area like a smartphone and the casing is thin. Further, as shown in FIGS.
  • an imaging apparatus 1f configured to slide the second unit 100f upward with respect to the first unit 10f may be employed.
  • each release switch since the two release switches are exposed to the outside as shown in FIG. 16A in the integrated state, each release switch may have a different function.
  • one release switch may have a function for instructing to capture a still image
  • the other release switch may have a function for instructing to capture a moving image.
  • the first unit may be provided with a display unit.
  • the display unit may be provided on the attachment unit 25aa of the first unit.
  • the first unit or the second unit may be provided with a projector that can project a captured image on a wall surface or a screen.
  • the configuration described in the first embodiment (particularly, the direction sensor 102, the GPS module 103, the power receiving coil 111, and the heat dissipation plate 26) and the configuration described in the second embodiment (particularly, the heat dissipation opening 40). 140), the configuration described in the third embodiment (particularly, the configuration in which the image processing unit 104 is provided only in the second unit 100c), and the configuration described in the fourth embodiment (particularly, the temperature sensor 42, 116) may be appropriately selected and combined, or the configuration of one embodiment may be omitted from another embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Television Signal Processing For Recording (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Camera Data Copying Or Recording (AREA)

Abstract

 撮像素子(12)で撮像した画像データを送信する第1の通信部(11)と、前記画像データに対して画像処理を行う第1の画像処理部(14)と、を有する第1のユニット(10b)と、第1の通信部から送信された画像データを受信する第2の通信部(101)と、前記画像データに対して画像処理を行う第2の画像処理部(104)と、を有し、第1のユニットと一体の状態及び第1のユニットから分離した状態の間で遷移可能な第2のユニット(100b)と、少なくとも第1のユニットと第2のユニットとが分離した状態で、第1の画像処理部と第2の画像処理部との一方を選択する選択部(11)と、を備えた、動作等に影響を与える可能性のある要素を考慮した撮像装置を提供する。

Description

撮像装置
 本発明は、撮像装置に関する。
 従来、分離可能な2つのユニットを有し、この2つのユニットを一体状態と分離状態とで使用可能な撮影装置が知られている(例えば、特許文献1参照)。
特開2007-336527号公報
 しかしながら、特許文献1に記載の撮影装置は、装置の動作等に影響を与える可能性のある熱や磁気などの要素まで考慮されたものではなかった。
 本発明は上記の課題に鑑みてなされたものであり、動作等に影響を与える可能性のある要素を考慮した撮像装置を提供することを目的とする。
 本発明の撮像装置は、撮像素子で撮像した画像データを送信する第1の通信部と、前記画像データに対して画像処理を行う第1の画像処理部と、を有する第1のユニットと、前記第1の通信部から送信された前記画像データを受信する第2の通信部と、前記画像データに対して画像処理を行う第2の画像処理部と、を有し、前記第1のユニットと一体の状態及び前記第1のユニットから分離した状態の間で遷移可能な第2のユニットと、少なくとも前記第1のユニットと前記第2のユニットとが分離した状態で、前記第1の画像処理部と前記第2の画像処理部との一方を選択する選択部と、を備える。
 この場合において、前記選択部は、前記画像処理による熱の影響に応じて、前記第1の画像処理部と前記第2の画像処理部との一方を選択することとしてもよい。また、この場合において、前記第1のユニットは、前記第2のユニットを取り付けるための取り付け部を有する第1の筐体を有し、前記取り付け部には、前記第1のユニットと前記第2のユニットとが分離した状態で、少なくとも前記第1の画像処理部で発生する熱を放熱させる第1の放熱部が設けられていることとしてもよい。
 また、前記選択部が、前記画像処理による熱の影響に応じて、前記第1の画像処理部と前記第2の画像処理部との一方を選択する場合、前記第2のユニットは、前記第1のユニットに取り付けられる部分を有する第2の筐体を有し、前記第2の筐体の前記取り付けられる部分以外の少なくとも一部に、前記第1のユニットと前記第2のユニットとが一体の状態及び分離した状態で、少なくとも前記第2の画像処理部で発生する熱を放熱させる第2の放熱部が設けられていることとしてもよい。
 また、前記選択部は、前記第1、第2のユニットのうち画像処理を行うことにより生じる熱の影響が少ない方のユニットの情報を保持していることとしてもよい。
 また、前記選択部は、前記第1のユニットと前記第2のユニットとが一体の状態では、前記第2の画像処理部に前記画像処理を実行させ、前記第1のユニットと前記第2のユニットとが分離した状態では、前記第1の画像処理部に前記画像処理を実行させることとしてもよい。
 また、本発明の撮像装置は、前記第1のユニット用の第1の筐体と、前記第2のユニット用の第2の筐体と、を備えており、前記第1の筐体と前記第2の筐体の少なくとも一方には、放熱用の開口部が設けられていてもよい。
 この場合において、前記第2の筐体に前記放熱用の開口部が設けられており、前記第2の筐体のうち、前記第1のユニットと前記第2のユニットとが一体の状態及び分離した状態のいずれにおいても外部に露出する部分に前記放熱用の開口部が設けられることとしてもよい。
 本発明の撮像装置は、撮像素子を内部に格納し、金属部を有する第1の筐体を有する第1のユニットと、磁気と電波との少なくとも一方を受ける電子部品を内部に格納し、少なくとも一部に前記磁気と電波との少なくとも一方を通過させる非金属部を有する第2の筐体を有し、前記第1のユニットと一体の状態で機能するとともに、前記第1のユニットと分離した状態でも独立して機能する第2のユニットと、を備える。
 この場合において、前記金属部は、少なくとも前記撮像素子で発生した熱を放熱させることとしてもよい。また、前記第2のユニットは、表示部を有することとしてもよい。
 また、前記金属部が、少なくとも前記撮像素子で発生した熱を放熱させる場合、少なくとも前記撮像素子で発生した熱を前記金属部に伝導させる伝導部材を備えることとしてもよい。この場合において、前記第1の筐体は、前記第2の筐体を取り付けるための取り付け部を有し、前記伝導部材は、前記第1の筐体の前記取り付け部とは異なる箇所に接触し、少なくとも前記撮像素子で発生した熱を伝導させることとしてもよい。
 また、前記電子部品は、地磁気を検出して方位を測定する方位センサを含むこととしてもよい。また、前記電子部品は、前記第2のユニットの外部から電波を受信して前記第2のユニットの位置を測定するGPSセンサを含むこととしてもよい。また、前記電子部品は、ワイヤレス給電機構を含むこととしてもよい。
 本発明の撮像装置は、撮像素子を内部に格納し、少なくとも前記撮像素子で発生した熱を放熱させる金属部を有する第1の筐体を有する第1のユニットと、電子部品を内部に格納し、少なくとも一部に非金属部を有する第2の筐体を有し、前記第1のユニットと一体の状態で機能するとともに、前記第1のユニットと分離した状態でも独立して機能する第2のユニットと、を備える。
 本発明の撮像装置は、撮像素子で生成された画像データを送信する第1の通信部を有する第1のユニットと、前記第1の通信部から送信された前記画像データを受信する第2の通信部と、前記第2の通信部で受信した画像データに対して画像処理を行う第1の画像処理部と、を有し、前記第1のユニットと一体の状態と前記第1のユニットから分離した状態との間で遷移可能な第2のユニットと、を備える。
 この場合において、撮像装置は、前記第1のユニット及び前記第2のユニットの少なくとも一方における発熱に関する情報を取得する発熱情報取得部と、前記発熱情報取得部が取得した情報に基づいて、前記第1の通信部から前記第2の通信部に対する前記画像データの送信を制御する第1制御部と、を備えていてもよい。この場合において、前記発熱情報取得部は、前記発熱に関する情報として前記第1の画像処理部又は前記第1の通信部と前記第2の通信部の少なくとも一方の温度を取得し、前記第1制御部は、前記温度に基づいて、前記第1の通信部から前記第2の通信部に対する前記画像データの送信を制御することとしてもよい。
 また、撮像装置は、前記第1の画像処理部のデータ処理量を取得する処理量取得部と、前記処理量取得部が取得したデータ処理量に基づいて、前記第1の通信部から前記第2の通信部に対する前記画像データの送信を制御する第2制御部と、を備えていてもよい。
 また、前記第1の通信部及び前記第2の通信部は、無線通信及び有線通信が可能であり、前記第1のユニットと前記第2のユニットが一体の状態では、前記第1の通信部及び前記第2の通信部は、前記有線通信及び前記無線通信のいずれかを行い、前記第1のユニットと前記第2のユニットが分離した状態では、前記第1の通信部及び前記第2の通信部は、前記無線通信を行うこととしてもよい。
 また、撮像装置は、前記第1のユニットと前記第2のユニットが分離した状態において、前記無線通信の速度を検出する通信速度検出部と、前記無線通信の速度に基づいて、前記第1の通信部から前記第2の通信部に対する前記画像データの送信を制御する第3制御部と、を備えていてもよい。
 また、前記第1のユニットは、前記画像データに対して画像処理を行う第2の画像処理部を有し、前記第2の画像処理部は、前記第1の通信部から前記第2の通信部へ送信されない画像データに対して画像処理を行うこととしてもよい。また、前記第1のユニットは、前記第1の通信部から前記第2の通信部へ送信されない画像データを一時記憶する記憶部を有することとしてもよい。
 本発明の撮像装置は、動作等に影響を与える可能性のある要素を考慮した撮像装置を提供することができるという効果を奏する。
図1(a)は、第1の実施形態に係る撮像装置を背面側から見た状態を示す斜視図であり、図1(b)は、撮像装置を正面側から見た状態を示す斜視図である。 図2は、図1(a)、図1(b)の撮像装置が分離した状態を示す図である。 図3は、第1の実施形態に係る撮像装置(一体状態)の構成を示すブロック図である。 図4は、第1の実施形態に係る撮像装置(分離状態)の構成を示すブロック図である。 図5は、第1の実施形態に係る撮像装置の内部に設けられた放熱板を示す図である。 図6は、第1の実施形態に係る撮像装置の一部断面図である。 図7は、第2の実施形態に係る撮像装置(分離状態)を示す斜視図である。 図8は、第2の実施形態に係る撮像装置の構成を示すブロック図である。 図9は、第2の実施形態の撮像装置の処理を示すフローチャートである。 図10は、第3の実施形態に係る撮像装置の構成を示すブロック図である。 図11は、第3の実施形態の撮像装置の処理を示すフローチャートである。 図12は、第4の実施形態に係る撮像装置の構成を示すブロック図である。 図13は、第4の実施形態の撮像装置の処理を示すフローチャートである。 図14は、図13のステップS66の具体的処理を示すフローチャートである。 図15(a)、図15(b)は、変形例(その1)を説明するための図である。 図16(a)、図16(b)は、変形例(その2)を説明するための図である。
《第1の実施形態》
 以下、第1の実施形態に係る撮像装置について、図1(a)~図6に基づいて詳細に説明する。図1(a)は、本第1の実施形態に係る撮像装置1aを背面側から見た状態を示す斜視図であり、図1(b)は、撮像装置1aを正面側から見た状態を示す斜視図である。
 これらの図に示すように、撮像装置1aは、第1のユニット10aと、第2のユニット100aと、を備える。第1のユニット10aと第2のユニット100aは、図1(a)、図1(b)に示すような一体の状態(一体状態)と、図2に示すような分離した状態(分離状態)との間で遷移することができる。各ユニット10a,100aが一体状態にあるときには、第1のユニット10aの取り付け部25aaに対して、第2のユニット100aが取り付けられるようになっている。
 以下、第1のユニット10aと第2のユニット100aの構成等について、説明する。図3には、各ユニット10a,100a(一体状態にある場合)のブロック図が示されている。また、図4には、各ユニット10a,100a(分離状態にある場合)のブロック図が示されている。
(第1のユニット10a)
 第1のユニット10aは、図3に示すように、制御部11、撮影レンズ20、レンズ駆動部21、撮像素子12、A/D変換部13、画像処理部14、操作部15、RAM17、ROM18、角速度センサ19、電池23、電源部22、無線制御部16、アンテナ24、及びコネクタ33を備える。
 制御部11は、CPUを有し、第1のユニット10a内の各構成と接続され、第1のユニット10a全体の動作を制御する。本第1の実施形態において、制御部11は、第1のユニット10aと第2のユニット100aが一体状態にあるか分離状態にあるかを認識して、それぞれの状態に応じた制御を行う。
 撮影レンズ20は、例えば、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の撮像面に結像させる。なお、撮影レンズ20は、第1のユニット10aに対して交換可能であってもよい。撮影レンズ20は、制御部11の制御の下、レンズ駆動部21により駆動される。
 撮像素子12は、受光素子が撮像面に二次元配列されたCMOSイメージセンサなどを含み、アナログ画像信号を生成する。A/D変換部13は、撮像素子12で生成されたアナログ画像信号をデジタル画像信号に変換して画像処理部14に入力する。
 画像処理部14は、A/D変換部13から入力されたデジタル画像信号のデータに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を行う回路である。画像処理部14の出力は、制御部11に入力される。
 RAM17は、制御部11と接続され、制御部11による処理における一時記憶領域として用いられるとともに、第1のユニット10aから第2のユニット100aに対してデータを転送する際のバッファ領域として用いられる。
 ROM18は、例えば不揮発性の半導体メモリであり、制御部11によって実行される第1のユニット10aの制御プログラムや各種パラメータが記憶されている。さらに、ROM18には、画像処理部14により生成された静止画、動画の各画像データ等が保存される。
 操作部15は、複数の操作ボタンやスイッチを有し、ユーザからの各種操作を受け付ける機能を有する。本第1の実施形態では、操作部15は、レリーズスイッチ15a、メニューボタン15b、十字キー(マルチセレクター)15cなどを有している。なお、操作部15は、ユーザが触れたことに応じて情報の入力操作を受け付けるタッチパネルを有していてもよい。
 角速度センサ19は、第1のユニット10aに生じた角速度を検出するセンサである。角速度センサ19の検出値(角速度)は、制御部11に入力される。制御部11では、公知の手ブレ補正技術により、角速度センサ19で検出された角速度に基づいて撮影レンズ20の一部又は撮像素子12を移動(シフト)させることで、手ブレ補正を行う。
 電池23は、例えばリチウムイオン電池等の二次電池である。電池23は、コネクタ33に接続されている。電源部22は、電池23と接続され、電池23で生成された電圧を制御部11等の各部で使用される電圧に変換し、各部に供給する。
 無線制御部16は、制御部11と接続され、第2のユニット100a等の外部機器とのアンテナ24を介した無線通信の制御を行う。
 コネクタ33は、制御部11と接続されており、第1のユニット10aと第2のユニット100aが一体状態にある場合に、第2のユニット100aのコネクタ133と接続される。制御部11は、コネクタ33とコネクタ133が接続された場合に、各ユニット10a,100aが一体状態となったことを認識することができる。また、コネクタ33とコネクタ133が接続された状態では、制御部11と第2のユニット100aの制御部101との間のデータ送受信が可能となる。更に、コネクタ33とコネクタ133が接続された状態では、電池23と第2のユニット100aの電池113との間の電力のやり取りが可能となる。
 本第1の実施形態では、第1のユニット10aの上記構成のうちの大部分が、第1の筐体25a内に格納されている。第1の筐体25aは、マグネシウムなどの金属を材料とし、その内部には、図5において破線にて示すように、放熱板26が設けられている。
 放熱板26は、矩形状の板部材を2箇所で折り曲げた形状(略U字状)を有している。なお、放熱板26の平板状の部分それぞれを第1部分26a、第2部分26b、第3部分26cと呼ぶものとする。放熱板26の材料としては、熱伝導性の高い材料、例えば、アルミ合金、SUS(ステンレス)、銅合金、マグネシウム合金、亜鉛合金、グラファイトシート等を採用することができる。また、放熱板26は、図5の一部断面図である図6に示すように、第2部分26b,第3部分26cにおいて、第1の筐体25aの取り付け部25aa以外の部分に接触した状態となっている。放熱板26は、第1部分26aにおいて撮像素子12を保持するとともに、画像処理部14も保持している(図6では、画像処理部14については不図示)。
 本第1の実施形態では、撮像装置1aの構成のうち撮像素子12や画像処理部14が、特に多くの熱を発生させる部品であるが、これら撮像素子12や画像処理部14で発生した熱は、撮像素子12の背面側から放熱板26の第1部分26aに伝導し、さらに放熱板26内を伝導して、第2部分26bと第3部分26cに伝導するとともに金属製の第1の筐体25aに伝導する。そして、第1の筐体25aの表面全体(特に取り付け部25aa以外の部分)から放熱されるようになっている。
 このように、第1のユニット10aでは、撮像素子12及び画像処理部14で発生した熱を、第1の筐体25aの表面全体から効率よく放熱させることができる。これにより、撮像素子12や画像処理部14の温度の上昇を抑制することができるので、熱ノイズの発生、ひいては画質の低下を抑制することができる。また、本第1の実施形態では、放熱板26は、取り付け部25aa以外の部分で第1の筐体25aと接触するため、取り付け部25aaに第2のユニット100aが取り付けられた状態(図1(a)、図1(b)に示す一体状態)においても、第1の筐体25aの表面から効率よく放熱させることができる。また、第2のユニット100aに対する熱的な影響を低減させることができる。
(第2のユニット100a)
 第2のユニット100aは、図3に示すように、制御部101、表示部110、表示駆動部109、RAM107、ROM108、操作部105、タッチパネル115、方位センサ102、GPSモジュール103、受電コイル111、電池113、電源部112、無線制御部106、アンテナ114、及びコネクタ133を有する。
 制御部101は、CPUを有し、第2のユニット100a内の各構成と接続され、第2のユニット100a全体の動作を制御する。本第1の実施形態において、制御部101は、各ユニット10a,100aが一体状態にあるか分離状態にあるかを認識して、それぞれの状態に応じた制御を行う。
 表示部110は、液晶パネル、有機ELパネル等を含み、画像や操作メニュー画面などを表示するものである。表示部110は、制御部101による制御の下、表示駆動部109により駆動される。
 操作部105は、ユーザによる各種操作を受け付けるものであり、図2に示すレリーズスイッチ105aなどが含まれる。タッチパネル115は、表示部110の表面に設けられ、ユーザが触れたことに応じて情報の入力操作を受け付ける。
 RAM107は、制御部101と接続され、制御部101による処理における一時記憶領域等として用いられる。ROM108は、例えば不揮発性の半導体メモリであり、制御部101と接続され、制御部101によって実行される第2のユニット100aの制御プログラムや各種パラメータが記憶されている。さらに、ROM108には、第1のユニット10aから転送された静止画、動画の各画像データ等が保存される。
 方位センサ102は、第2のユニット100aの外部からの磁気(地磁気)を検出し、第2のユニット100aの方位(第2のユニット100aの基準軸が指し示す方位)を求めるものである。方位センサ102により求められた第2のユニット100aの方位の情報は、表示部110に表示される。また、使用者による操作部105の操作(設定)に応じて、方位の情報は、静止画、動画の各画像データ等とともにROM18やROM108等に保存される。
 GPSモジュール103は、GPS(Global Positioning System)衛星からの電波を受信するためのアンテナを含み、第2のユニット100aの位置情報(緯度、経度など)を検出する。GPSモジュール103で検出された位置情報は、表示部110に表示される。また、使用者による操作部105の操作(設定)に応じて、位置情報は、静止画、動画の各画像データ等とともにROM18やROM108等に保存される。
 受電コイル111は、非接触給電方式(ワイヤレス給電方式)により、外部の送電コイルからの磁束により起電力を生じて、電池113の充電を行う(電磁誘導方式)。なお、ワイヤレス給電方式としては、上記電磁誘導方式のほか、電磁界共鳴方式や、電波方式を採用することとしてもよい。
 電池113は、例えばリチウムイオン電池等の二次電池である。なお、電池113は、コネクタ133に接続されており、コネクタ133及びコネクタ33を介して、電池23に対して電力を供給する。電源部112は、電池113と接続され、電池113で生成された電圧を制御部101等の各部で使用される電圧に変換し、各部に供給する。
 無線制御部106は、制御部101と接続され、第1のユニット10a等の外部機器とのアンテナ114を介した無線通信の制御を行う。
 コネクタ133は、制御部101と接続されており、前述のように、第1のユニット10aと第2のユニット100aが一体状態にある場合に、第1のユニット10aのコネクタ33と接続される。
 本第1の実施形態では、第2のユニット100aの上記構成のうち、表示部110、操作部105、タッチパネル115以外の構成が、第2の筐体125a(図2参照)内に格納されている。ここで、第2の筐体125aは、その少なくとも一部が樹脂等の非金属部材により形成されている。これにより、第2の筐体125a内に方位センサ102やGPSモジュール103、受電コイル111といった磁気や電波を受けて機能する電子部品を収納しても、第2の筐体125aによってそれらの電子部品の動作が妨げられるのを抑制することができる。すなわち、上記電子部品を金属製の導電性の高い筐体内に収納した場合に生じる、GPSモジュール103の電波受信感度の低下(GPSモジュール103近傍に発生する磁束が筐体に吸収され、共振現象が妨げられることにより生じると考えられる)や、方位センサ102の感度の低下、受電コイル111による起電力の低下という事態を回避することができる。なお、第2の筐体125aの全てが樹脂等の非金属部材により形成されていてもよいが、上記電子部品の近傍のみが樹脂等の非金属部材により形成されていてもよい。
 なお、本第1の実施形態では、図1(a)、図1(b)に示すように、第1のユニット10aと第2のユニット100aとが一体状態にあるときには、各制御部11,101の協働により、一般的な撮像装置と同様の動作・処理が行われるようになっている。また、第1のユニット10aと第2のユニット100aとが分離状態(図2、図4の状態)にあるときには、第1のユニット10aは、撮像処理を独立して行うことができる。また、分離状態では、第2のユニット100aは、表示処理(ROM18,108に格納されている静止画や動画のデータをユーザに閲覧させる処理)を独立して行うことができる。また、分離状態では、第2のユニット100aは、第1のユニット10aのリモートコントローラとして、第1のユニット10aによる撮像の遠隔操作に用いることができる。なお、分離状態におけるユニット10a,100a間のデータのやり取りは、無線制御部16,106が制御する(図4参照)。なお、制御部11、101は、各ユニット10a,100aが一体状態にあるか、分離状態にあるかの判断を、コネクタ33,133が接続されているか否かにより行うことができる。ただし、これに限らず、一体状態であるか分離状態であるかを、メカ的なスイッチやセンサ(ICタグリーダなど)を用いて判断することとしてもよい。
 以上、詳細に説明したように、本第1の実施形態によると、第1のユニット10aの第1の筐体25aが、撮像素子12や画像処理部14で発生した熱を放熱させる金属部材により形成され、第2のユニット100aの第2の筐体125aが、磁気や電波を受けて機能する電子部品(102,103,111)を内部に格納し、少なくとも一部が磁気や電波を通過させる非金属部材により形成されている。また、本第1の実施形態では、第2のユニット100aは、第1のユニット10aと一体の状態で機能するとともに、第1のユニット10aと分離した状態でも独立して機能する。これにより、本第1の実施形態では、第1のユニット10a内における撮像素子12や画像処理部14で発生する熱による影響を低減することができるとともに、第2のユニット100a内に電子部品(102,103,111)を設けることで、電子部品の機能を効果的に発揮させることができる。また、一体状態でも分離状態でも機能する各ユニット10a,100aに放熱のための機構や電子部品を、動作等に影響を与える可能性のある要素を考慮して適切に配置することで、ユーザの使い勝手を向上することができる。
 また、本第1の実施形態では、第2のユニット100aが、表示部110を有しているので、一体状態では、表示部110に撮像素子で撮像された画像を表示したり、スルー画像(ライブビュー画像)を表示したりすることができる。また、分離状態では、表示部110に撮像した画像を表示したり、第1のユニット10aを遠隔操作するための画像を表示したりすることができる。
 また、本第1の実施形態では、第1のユニット10aが、撮像素子12や画像処理部14で発生した熱を第1の筐体25a(金属部分)に伝導させる放熱板26を有している。これにより、撮像素子12や画像処理部14で発生した熱を第1の筐体25aの金属部分において効率的に放熱することができる。また、本実施形態では、放熱板26は、第1の筐体25aの取り付け部25aaとは異なる箇所に接触して、撮像素子12や画像処理部14で発生した熱を第1の筐体25a(金属部分)に伝導させる。これにより、第2のユニット100aに対して撮像素子12や画像処理部14で発生した熱による影響が及ぶのを抑制することができるとともに、各ユニット10a,100aが一体状態にある場合でも、効率よく放熱を行うことができる。
 なお、上記第1の実施形態では、放熱板26に撮像素子12及び画像処理部14が設けられている場合について説明したが、これに限られるものではない。例えば、放熱板26には、撮像素子12のみが設けられてもよい。また、放熱板26上に、撮像素子12や画像処理部14以外の部品が設けられることとしてもよい。
 なお、上記第1の実施形態では、第1の筐体25a内に放熱板26を設ける場合について説明したが、これに限られるものではない。例えば、撮像素子12や画像処理部14が第1の筐体25a(金属部分)に直接接触していてもよい。
 なお、上記第1の実施形態では、磁気や電波を受けて機能する電子部品として、方位センサ102、GPSモジュール103、受電コイル111を採用した場合について説明したが、その他の電子部品を採用することとしてもよい。
 なお、上記第1の実施形態で説明した方位センサ102、GPSモジュール103、受電コイル111のうちの少なくとも1つを第1のユニット10a内に設けることとしてもよい。この場合、第1の筐体25aの一部を樹脂等の非金属で形成することが好ましい。
 なお、上記第1の実施形態では、第1の筐体25aの全てが金属部材で形成されていてもよいし、一部のみが金属部材で形成されていてもよい。また、第2の筐体125aの全てが非金属部材で形成されていてもよいし、一部のみが非金属部材で形成されていてもよい。
 なお、上記第1の実施形態では、一体状態にある場合に、電池23と電池113とが接続される場合について説明したが、これに限らず、電池23と受電コイル111とが接続されることで、電池23の充電が行われることとしてもよい。
《第2の実施形態》
 次に、第2の実施形態に係る撮像装置について、図7~図9に基づいて説明する。図7は、第2の実施形態に係る撮像装置1b(分離状態)を示す斜視図である。また、図8は、撮像装置1bの構成を示すブロック図である。
 図7、図8に示すように、本第2の実施形態では、撮像装置1bは、第1のユニット10bと、第2のユニット100bと、を備える。なお、図8と図3を比較すると分かるように、本第2の実施形態では、第2のユニット100bが画像処理部104(太線部分参照)を有している。また、図7と図2とを比較すると分かるように、本第2の実施形態では、第1のユニット10bの第1の筐体25bの取り付け部25baにスリット状の放熱用開口40が複数設けられ、第2のユニット100bの第2の筐体125bにスリット状の放熱用開口140が複数設けられている。その他の構成については、上記第1の実施形態と同様である。なお、本第2の実施形態では、第1の筐体25b内に第1の実施形態で説明した放熱板26が設けられていてもよいし、設けられていなくてもよい。
 画像処理部104は、第1の実施形態で説明した画像処理部14と同様、デジタル画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を行う回路である。画像処理部104は、制御部101と接続されている。
 放熱用開口40は、各ユニット10b,100bが分離状態の場合に、効率よく第1の筐体25b内で発生した熱(撮像素子12や画像処理部14で発生した熱)を外部に放熱する(一体状態では、第2のユニット100bによって放熱用開口40が塞がれるため分離状態よりも放熱効率は低い)。また、放熱用開口140は、各ユニット10b,100bが一体状態及び分離状態のいずれにおいても同等の効率で第2の筐体125b内で発生した熱(画像処理部104で発生した熱)を放熱する。
 次に、第2の実施形態の撮像装置1bの処理(制御部11,101の処理)について、図9のフローチャートに沿って詳細に説明する。
 図9の処理では、まず、ステップS10において、制御部11及び制御部101は、ユーザからの撮像指示があるまで待機する。この場合のユーザからの撮像指示には、レリーズスイッチ15a又はレリーズスイッチ105aがユーザによって押されることによる撮像指示や、タッチパネル115の操作によるユーザからの撮像指示が含まれる。なお、制御部101が撮像指示を受けた場合には、当該撮像指示を制御部11に対して送信する。この場合、各ユニット10b,100bが一体状態であればコネクタ33,133を介して撮像指示が送信される。一方、各ユニット10b,100bが分離状態であれば、無線制御部106,16により、撮像指示が送信される。ユーザからの撮像指示があった場合には、ステップS11に移行する。
 ステップS11に移行すると、制御部11は、撮影レンズ20や撮像素子12を用いた撮像を実行(開始)する。そして、制御部11は、撮像素子12により生成されたアナログ画像信号を、A/D変換部13でデジタル画像信号に変換し、当該デジタル画像信号を取得する。なお、制御部11が取得したデジタル画像信号のデータは、画像処理が行われる前の生データ(RAWファイル)である。
 次いで、ステップS12では、制御部11は、各ユニット10b,100bが一体状態であるか否かを判断する。ここでの判断が肯定された場合には、ステップS14に移行する。ステップS14では、制御部11は、ステップS11で取得したデジタル画像信号のデータをコネクタ33及びコネクタ133を介して、第2のユニット100bの制御部101に対して送信する。そして、制御部101は、デジタル画像信号のデータを画像処理部104に送信する。この場合、画像処理部104は、デジタル画像信号のデータに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を行う。なお、各種画像処理が実行された画像データは、制御部101を介して、ROM108に保存される。なお、各ユニット10b,100bが一体状態にある場合に、第2のユニット100bの画像処理部104で画像処理を行うこととしているのは、一体状態では、第1のユニット10bの放熱用開口40が第2のユニット100bに塞がれてしまうため、第1のユニット10bの画像処理部14で画像処理を行うと第1のユニット10bが熱的な影響を受ける可能性があるからである。
 一方、ステップS12の判断が否定された場合、すなわち、各ユニット10b,100bが分離状態にある場合には、ステップS16に移行する。ステップS16に移行すると、制御部11は、撮像装置の機種ごとに予め特定されている、分離状態で画像処理を行った場合における熱の影響が少ないほうのユニットを抽出する。ここで、ROM18等には、予め、第1のユニット10bと第2のユニット100bのいずれが画像処理による熱の影響が少ないかのデータが格納されているものとし、ステップS16では、制御部11は、ROM18等に格納されているデータを読み出すものとする。なお、当該データは、撮像装置の設計段階、製造段階等において行われる実験やシミュレーションによって生成され、ROM18等に格納されているものとする。なお、画像処理による熱には、画像処理部14,104による画像処理で発生する熱のほか、無線制御部16,106による無線通信で発生する熱など、画像処理に付随する処理で発生する熱も含まれる。
 次いで、ステップS18では、分離状態において、画像処理による熱の影響が少ないのが第1のユニット10bであったか否かを判断する。ここでの判断が否定された場合には、ステップS14に移行し、上述したように、第2のユニット100bの画像処理部101で画像処理を実行する。一方、ステップS18の判断が肯定された場合、すなわち、分離状態において、画像処理による熱の影響が少ないのが第1のユニット10bであった場合には、制御部11は、ステップS20に移行する。
 ステップS20では、制御部11は、第1のユニット10bの画像処理部14を用いて、デジタル画像信号のデータに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を実行する。この場合、制御部11は、画像処理後の画像データを、ROM18に保存する。
 その後は、撮像装置1bの電源がオフされるまで、図9の処理を繰り返す。
 以上、詳細に説明したように、本第2の実施形態によると、第1のユニット10bの制御部11は、第1のユニット10bと第2のユニット100bとが分離状態にあるときに、画像処理による熱の影響に応じて画像処理に用いる画像処理部を画像処理部14,104のいずれかから選択する(S18)。これにより、本第2の実施形態では、分離状態において、熱の影響が少ないほうのユニットが有する画像処理部を用いて、画像処理を行うことができるので、熱による各ユニットの劣化や画質の低下を効果的に抑制することができる。
 また、本第2の実施形態では、第1の筐体25bの取り付け部25baに、各ユニット10b,100bが分離状態にあるときに、第1のユニット10bが有する画像処理部14で発生する熱を放熱させる放熱用開口40が設けられている。これにより、分離状態で画像処理部14による画像処理を行っても放熱効果により熱による影響を低減することができるとともに、制御部11から制御部101に対して画像データを無線通信する必要がなくなるため、効率的である。
 また、本第2の実施形態では、第2の筐体125bのうち、第1の筐体25bに取り付けられる部分以外の一部に、放熱用開口140が設けられている。これにより、一体状態及び分離状態のいずれにおいても、画像処理部104により発生する熱を効果的に放熱することができる。
 また、本第2の実施形態では、ROM18等において、機種ごとに定められた、第1、第2のユニットのうち画像処理を行うことにより生じる熱の影響が少ない方のユニットの情報を保持しているので、制御部11は、分離状態において、画像処理部14,104のいずれを用いるべきかを適切に判断することができる。
 なお、上記第2の実施形態では、分離状態において、熱の影響が少ないほうのユニットが有する画像処理部14,104を用いた画像処理を行う場合について説明したが、これに限られるものではない。例えば、一体状態では、放熱用開口40が第2のユニット100bに塞がれた状態となっているので、第2のユニット100bの画像処理部104を用いて画像処理を行い、分離状態では、第2のユニット100bによって放熱用開口40が塞がれていないので、第1のユニット100aの画像処理部14を用いて画像処理を行うようにしてもよい。このようにすることで、画像処理によって発生する熱を効率的に放熱することができるとともに、画像データをコネクタ33,133を介して有線にて行うことができるので、送信面においても効率的である。
 なお、上記第2の実施形態では、放熱用開口40を第1の筐体25bの取り付け部25baに設ける場合について説明したが、これに限られるものではない。放熱用開口40は、取り付け部25ba以外の位置に設けられてもよい。
 また、上記第2の実施形態では、第1の筐体25a内で発生した熱を放熱するために放熱用開口40を設ける場合について説明したが、これに代えて又はこれとともに、放熱フィン、放熱板、ペルチェ素子等を設けることとしてもよい。なお、第2の筐体125bの放熱用開口140についても、同様である。
 なお、上記第2の実施形態では、第1の実施形態と同様、第2のユニット100bが、方位センサ102、GPSモジュール103、受電コイル111を有する場合について説明したが、これらの少なくとも一部を省略することとしてもよい。
《第3の実施形態》
 次に、第3の実施形態について、図10、図11に基づいて詳細に説明する。図10は、第3の実施形態に係る撮像装置1cの構成を示すブロック図である。
 図10に示すように、撮像装置1cは、第1のユニット10cと、第2のユニット100cとを備えている。第1のユニット10cにおいては、図10と図3(第1の実施形態)とを比較すると分かるように、第1のユニット10aが有していた画像処理部14が省略されている。一方、第2のユニット100cは、図10と図3とを比較すると分かるように、画像処理部104を有している。なお、画像処理部104は、第2の実施形態の第2のユニット100bが有する画像処理部104と同一の画像処理部である。
 次に、本第3の実施形態の撮像装置1cの処理(制御部11,101の処理)について、図11のフローチャートに沿って説明する。
 図11の処理では、まず、ステップS30において、図9のステップS10と同様、制御部11及び制御部101は、ユーザからの撮像指示があるまで待機する。なお、制御部101が撮像指示を受けた場合には、当該撮像指示を制御部11に対して送信する。ユーザからの撮像指示があった場合には、ステップS31に移行する。
 ステップS31に移行すると、制御部11は、図9のステップS11と同様、撮影レンズ20や撮像素子12を用いた撮像を実行(開始)する。この場合、制御部11は、画像処理が行われる前の静止画または動画の生データ(RAWファイル)を、デジタル画像信号のデータとして取得する。
 次いで、ステップS32では、制御部11は、図9のステップS12と同様、各ユニット10c,100cが一体状態であるか否かを判断する。ここでの判断が肯定された場合には、ステップS34に移行する。ステップS34では、制御部11は、ステップS31で取得したデジタル画像信号のデータをコネクタ33及びコネクタ133を介して、第2のユニット100cの制御部101に対して送信する。次いで、ステップS36では、制御部101が、第2のユニットの画像処理部104を用いて、各種画像処理を実行する。なお、各種画像処理が実行された画像データは、制御部101により、ROM108に保存される。
 一方、ステップS32の判断が否定された場合、すなわち、分離状態にある場合には、ステップS38に移行し、制御部11は、無線制御部16に問い合わせることで、現在の無線速度が規定値以上であるか否かを判断する。なお、「無線通信速度の規定値」とは、所定の時間内にデジタル画像データを通信することができる速度をいう。この所定の時間は、デジタル画像データのファイルサイズ等によって異なるものとする。
 ステップS38の判断が肯定された場合、すなわち、無線速度が十分速い場合には、ステップS40に移行し、制御部11は、ステップS31で取得したデジタル画像信号のデータを、無線制御部16、アンテナ24、無線制御部106及びアンテナ114を用いた無線通信により、第2のユニット100cの制御部101に対して送信する。その後は、ステップS36が上記と同様に実行される。
 これに対し、ステップS38の判断が否定された場合、すなわち、無線速度が規定値未満である場合には、ステップS42に移行する。ステップS42では、制御部11は、ステップS31で取得したデジタル画像信号のデータをRAM17又はROM18に一時的に保存する。なお、ステップS42の処理が終了した後は、ステップS32に戻る。なお、ステップS32に戻った後に、分離状態が維持された状態で無線速度が規定値以上になった場合には、ステップS40に移行し、制御部11は、無線通信により、RAM17又はROM18に一時的に保存しておいたデータを制御部101に対して送信する。また、ステップS32に戻った後に、分離状態から一体状態に遷移した場合には、ステップS34に移行し、制御部11は、コネクタ33,133を介して、RAM17又はROM18に一時的に保存しておいたデータを制御部101に対して送信する。
 以上詳細に説明したように、本第3の実施形態によると、第1のユニット10cと第2のユニット100cとが一体の状態と分離した状態とのいずれであっても、撮像素子12により生成された画像データが、第2のユニット100cの画像処理部104において処理される。これにより、撮像装置1cの全体において特に多くの熱を発生させる撮像素子12と画像処理部104とを別々のユニットに搭載することができるので、熱の発生源を分離させることできる。これにより、撮像素子12及び画像処理部104で発生した熱を効率よく放熱させることができる。
 また、本第3の実施形態では、一体状態ではコネクタを介した有線通信を行い、分離状態で無線通信を行うこととしているので、通信の効率を向上することができる。ただし、これに限らず、一体状態でも無線通信を行うこととしてもよい。
 また、本第3の実施形態では、制御部11が、無線通信の速度を検出し、当該無線通信の速度に基づいて、画像データの送信を制御するので、適切かつ効率的な通信が可能となる。
 また、本第3の実施形態では、第1のユニット10cが、無線通信されない画像データを一時記憶するRAM17又はROM18を有している。これにより、無線通信の速度が遅く、画像データを制御部101に対して送信できなかった場合でも、画像データを一時記憶しておくことで、無線通信の速度が回復した段階で、画像データを制御部101に送信することが可能となる。
 なお、上記第3の実施形態では、静止画であっても動画であっても、図11の処理を行うことができるが、リアルタイム性を有する動画(ライブビュー画像など)とリアルタイム性のない動画の処理を異ならせることとしてもよい。例えば、リアルタイム性のない画像の場合であれば、図11と同様の処理を行うが、リアルタイム性を有する画像の場合には、ステップS38の判断が否定された場合に、画像データをRAM17やROM18に一時記憶せずに、破棄することとしてもよい。
《第4の実施形態》
 次に、第4の実施形態について、図12~図14に基づいて詳細に説明する。図12は、第4の実施形態に係る撮像装置1dの構成を示すブロック図である。撮像装置1dは、第1のユニット10dと、第2のユニット100dとを備える。
 本第4の実施形態では、第1のユニット10dが、温度センサ42を有するとともに、画像処理部14を有している点が、第3の実施形態と異なる。また、本第4の実施形態では、第2のユニット100dが、温度センサ116を有する点が、第3の実施形態と異なる。
 温度センサ42は、画像処理部14及び無線制御部16の周辺に配置され、画像処理部14及び無線制御部16の周辺温度を計測するセンサである。一方、温度センサ116は、画像処理部104及び無線制御部106の周辺に配置され、画像処理部104及び無線制御部106の周辺温度を計測するセンサである。なお、温度センサ42は、制御部11に接続され、制御部11は、制御部101に接続されている。
 次に、本第4の実施形態の撮像装置1dの処理について、図13、図14に基づいて説明する。図13は、撮像装置1dの処理を示すフローチャートであり、図14は、図13のステップS66の具体的処理を示すフローチャートである。
 図13の処理では、まず、ステップS50において、図9のステップS10、図11のステップS30と同様、制御部11及び制御部101は、ユーザからの撮像指示があるまで待機する。なお、制御部101が撮像指示を受けた場合には、当該撮像指示を制御部11に対して送信する。ユーザからの撮像指示があった場合には、ステップS51に移行する。
 ステップS51に移行すると、制御部11は、図9のステップS11、図11のステップS31と同様、撮影レンズ20や撮像素子12を用いた撮像を実行(開始)する。この場合、制御部11は、画像処理が行われる前の生データ(RAWファイル)を、デジタル画像信号のデータとして取得する。
 次いで、ステップS52では、制御部11は、図9のステップS12、図11のステップS32と同様、各ユニット10d,100dが一体状態であるか否かを判断する。ここでの判断が肯定された場合には、ステップS54に移行する。ステップS54では、制御部11は、制御部101を介して第2のユニット100dの温度センサ116によって計測された画像処理部104の周囲温度が規定値以上であるか否かを判断する。ここでの判断が肯定された場合には、ステップS56に移行し、制御部11は、A/D変換部13から入力されたデジタル画像信号のデータの一部を、コネクタ33とコネクタ133を介して、第2のユニット100dの制御部101に送信する。例えば、デジタル画像信号のデータが動画データである場合には、全撮像時間のうちの所定時間において撮像された動画データを制御部101に送信する。また、例えば、デジタル画像信号のデータが静止画を連写したデータである場合には、連写された全画像のうちの所定枚数のデータを制御部101に送信する。
 次いで、ステップS58では、制御部11は、A/D変換部13から入力されたデジタル画像信号のデータのうち、制御部101に送信していないデータを第1のユニット10dの画像処理部14に入力する。この場合、画像処理部104は、制御部11の指示の下、入力されたデジタル画像信号のデータに対して各種の画像処理を行う。そして、画像処理部14は、処理した画像データを制御部11に入力する。なお、制御部11は、画像処理部14において処理された画像データを、ROM18に保存する。
 また、ステップS58では、第2のユニット100dの制御部101は、制御部11から入力されたデジタル画像信号のデータを画像処理部104に入力する。画像処理部104は、画像処理部14と同様に入力されたデジタル画像信号のデータに対して各種の画像処理を行う。画像処理部104は、処理した画像データを制御部101に入力する。なお、制御部101は、画像処理部104において処理された画像データを、ROM108に保存する。
 ここで、ステップS58においては、画像処理部14及び画像処理部104の画像処理が終了した後、それぞれの画像処理後のデータが、制御部11又は制御部101に集約されて一つにまとめられる。そして、まとめられた画像データは、ROM18又はROM108に保存されるようになっている。
 なお、画像処理部104の周囲温度が規定値以上である場合、全てのデータの画像処理を画像処理部104で行おうとすると、画像処理部104の温度が更に上昇し、誤った処理が行われる可能性があるが、本実施形態では、ステップS54における判断が肯定された場合に、画像処理部14と画像処理部104とで分担して画像処理を行うようにしているので、画像処理部104の負荷を減らし、温度上昇による誤処理等の発生を抑制することが可能となる。
 なお、画像処理部14と画像処理部104のそれぞれで行う画像処理の量は、画像処理部104の周囲温度、第1のユニット10dの温度センサ42で計測した画像処理部14の周囲温度等に応じて決定することができる。
 一方、ステップS54の判断が否定された場合、すなわち、第2のユニット100dの画像処理部104の温度が規定値未満であった場合には、ステップS60に移行する。ステップS60では、制御部11は、A/D変換部13から入力されたデジタル画像信号のデータに対する処理の量が規定値以上であるか否かを判断する。ここでの判断が肯定された場合には、ステップS56、S58を上記と同様に実行する。このように、デジタル画像信号のデータに対する処理の量が規定値以上である場合に、画像処理部14及び画像処理部104で分担して画像処理を行うようにすることで、画像処理を速く行うこと(画像処理時間を短縮すること)が可能となる。ここで、画像処理部14と画像処理部104のそれぞれで行う画像処理の量は、前述した場合と同様に、画像処理部104の周囲温度及び温度センサ42で計測した画像処理部14の周囲温度等に応じて決定することができる。
 ところで、ステップS60の判断が否定された場合には、ステップS62に移行し、制御部11は、A/D変換部13から入力されたデジタル画像信号のデータを、コネクタ33,133を介して、第2のユニット100dの制御部101に送信する。そして、次のステップS64では、制御部101が、制御部11から入力されたデジタル画像信号のデータを、画像処理部104に入力する。画像処理部104は、制御部11の指示の下、入力されたデジタル画像信号のデータに対して各種の画像処理を行う。そして、画像処理部14は、処理した画像データを制御部101に入力する。なお、制御部101は、画像処理部14において処理された画像データを、ROM108に保存する。本実施形態では、温度的にも画像処理量的にも第2のユニット100dの画像処理部104で処理して問題ない場合に、画像処理部104を用いた画像処理を行う(ステップS64)ので、多くの熱を発生させる撮像素子12とは異なるユニット(第2のユニット100d)内に配置された画像処理部104を用いた画像処理を行うことで、熱の発生源を分離させることできる。
 次に、ステップS52の判断が否定された場合の処理について、説明する。ステップS52の判断が否定された場合には、ステップS66の分離状態処理を実行する。この分離状態処理においては、図14のフローチャートに沿った処理が実行される。
 図14の処理では、まず、ステップS70において、無線通信速度が規定値以上か否かを判断する。なお、「無線通信速度の規定値」とは、所定の時間内にデジタル画像データを通信することができる速度をいう。この所定の時間は、デジタル画像データのファイルサイズ等によって異なる。このステップS70における判断が否定された場合には、ステップS86に移行し、制御部11は、A/D変換部13から入力されたデジタル画像信号のデータを画像処理部14に入力する。画像処理部14は、入力されたデジタル画像信号のデータに対して各種の画像処理を行う。そして、画像処理部14は、処理した画像データを制御部11に入力する。なお、制御部11は、画像処理部14において処理された画像データを、ROM18に保存する。その後は、図14及び図13の全処理を終了する。
 一方、ステップS70の判断が肯定された場合には、ステップS72に移行し、制御部11は、第1、第2のユニット10d,100dの無線制御部16,106の温度が規定値以上か否かを判断する。ここでの判断が否定された場合には、無線通信を行った場合に無線制御部16,106に熱的な負担がかかる可能性があるため、制御部11は、ステップS86に移行し、上述したような画像処理部14を用いた画像処理を実行する。その後は、図14、図13の全処理を終了する。
 これに対し、ステップS72の判断が肯定された場合(無線通信を行ってもよい場合)、ステップS74に移行する。ステップS74では、上述したステップS54と同様の判断(第2のユニット100dの画像処理部104の温度が規定値以上か否かの判断)を実行する。ステップS74の判断が肯定された場合には、制御部11は、無線通信により、A/D変換部13から入力されたデジタル画像信号のデータの一部を、第2のユニット100dの制御部101に送信する。次いで、ステップS78では、前述したステップS58と同様の処理(第1、第2のユニット10d,100dの画像処理部14,104で画像処理を分担)を実行し、図14、図13の全処理を終了する。本実施形態では、ステップS74における判断が肯定された場合に、画像処理部14と画像処理部104とで分担して画像処理を行うようにしている(S78)ので、画像処理部104の負荷を減らし、温度上昇による誤処理等の発生を抑制することが可能となる。
 また、ステップS74の判断が否定された場合には、ステップS80に移行し、ステップS60と同様の判断(画像処理量が規定値以上か否かの判断)を実行する。ここでの判断が肯定された場合には、ステップS76、S78の処理を上記と同様に実行する。本実施形態では、デジタル画像信号のデータに対する処理の量が規定値以上である場合に、画像処理部14及び画像処理部104で分担して画像処理を行うようにすることで、画像処理を速く行うこと(画像処理時間を短縮すること)が可能となる。一方、ステップS80の判断が否定された場合には、ステップS82に移行し、制御部11は、A/D変換部13から入力されたデジタル画像信号のデータを、無線通信により、第2のユニット100dの制御部101に送信する。そして、次のステップS84では、上述したステップS64と同様の処理(第2のユニット100dの画像処理部104による画像処理)を実行し、図14、図13の全処理を終了する。このように、本実施形態では、温度的にも画像処理量的にも第2のユニット100dの画像処理部104で処理して問題ない場合に、画像処理部104を用いた画像処理を行う(S84)ので、多くの熱を発生させる撮像素子12とは異なるユニット内に配置された画像処理部104を用いた画像処理を行うことで、熱の発生源を分離させることできる。
 以上、詳細に説明したように、本第4の実施形態によると、第1のユニット10dと第2のユニット100dに温度センサ42,116が設けられており、制御部11は、温度センサ42,116の検出結果に基づいて、第1のユニット10dから第2のユニット100dへの画像データの送信を制御する。これにより、本第4の実施形態では、各ユニット10d,100dの温度(発熱)に応じていずれのユニットの画像処理部14,104で画像処理を行うかを決定することができる。したがって、画像処理における熱による影響を低減することができる。
 なお、上記第4の実施形態では、温度センサを第1、第2のユニット10d,100dの両方に設ける場合について説明したが、これに限らず、温度センサは、ユニット10d,100dの少なくとも一方に設けられていればよい。この場合、温度センサの設け方に応じて、図13,図14の処理の一部を変更するようにすればよい。また、上記第4の実施形態では、第1のユニット10dの温度センサ42が画像処理部14及び無線制御部16周辺の温度を検出する場合について説明したが、これに限らず、いずれか一方の周辺の温度を検出することとしてもよい。また、上記第4の実施形態では、第2のユニット100dの温度センサ116が無線制御部106及び画像処理部104周辺の温度を検出する場合について説明したが、いずれか一方の周辺の温度を検出するようにしてもよい。この場合においても、各温度センサ42,116が検出する対象に応じて、図13,図14の処理の一部を変更するようにすればよい。
 なお、上記第4の実施形態では、第1のユニット10dの画像処理部14と、第2のユニット100dの画像処理部104とで画像処理を分担する場合に、例えば、画像処理部14では、スルー画像(ライブビュー画像)の画像処理を行い、画像処理部104では、実際に撮像された画像の画像処理を行う、というような分担方法を採用してもよい。
 なお、上記各実施形態では、第1、第2のユニットが、図1に示すような形状を有する場合について説明したが、これに限られるものではない。例えば、撮像装置として、図15(a)、図15(b)に示すような形状を採用してもよい。図15(a)の撮像装置1eは、第1のユニット10eと、第2のユニット100eと、を備える。第2のユニット100eは、図15(b)に示すように、第1のユニット10eから横方向にスライドさせることで、分離することができるようになっている。このような構成は、例えば、第2のユニット100eの表示部110’を、スマートフォンのように大面積とし、筐体を薄型にする場合に有効である。また、図16(a)、図16(b)に示すように、第2のユニット100fが第1のユニット10fに対して上側にスライドするような構成の撮像装置1fを採用することとしてもよい。この場合、一体状態では、図16(a)に示すように2つのレリーズスイッチが外部に露出した状態となるため、各レリーズスイッチに異なる機能をもたせるようにしてもよい。例えば、一方のレリーズスイッチに、静止画の撮像を指示するための機能を持たせ、他方のレリーズスイッチに、動画の撮像を指示するための機能を持たせることとしてもよい。
 なお、第2のユニット100e(100f)が第1のユニット10e(10f)に対してスライドする場合には、各ユニットが接触する面に凹凸を設けることとしてもよい。このように凹凸を設け、各ユニット(筐体)の表面積を大きくすることで、放熱効率を向上することができる。
 なお、上記各実施形態及び変形例においては、第1のユニットにも表示部を設けることとしてもよい。この場合、表示部は、第1のユニットの取り付け部25aaに設けることとすればよい。
 なお、上記各実施形態及び変形例においては、第1のユニット又は第2のユニットに、撮像した画像を壁面やスクリーンに投影することが可能なプロジェクタを設けることとしてもよい。
 なお、上記第1の実施形態で説明した構成(特に、方位センサ102、GPSモジュール103、受電コイル111や、放熱板26)と、第2の実施形態で説明した構成(特に、放熱用開口40,140)と、第3の実施形態で説明した構成(特に、第2のユニット100cにのみ画像処理部104を設ける構成)と、第4の実施形態で説明した構成(特に、温度センサ42,116)を適宜選択して組み合わせたり、一の実施形態から他の実施形態の構成を省略したりすることとしてもよい。
 上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。

Claims (25)

  1.  撮像素子で撮像した画像データを送信する第1の通信部と、前記画像データに対して画像処理を行う第1の画像処理部と、を有する第1のユニットと、
     前記第1の通信部から送信された前記画像データを受信する第2の通信部と、前記画像データに対して画像処理を行う第2の画像処理部と、を有し、前記第1のユニットと一体の状態及び前記第1のユニットから分離した状態の間で遷移可能な第2のユニットと、
     少なくとも前記第1のユニットと前記第2のユニットとが分離した状態で、前記第1の画像処理部と前記第2の画像処理部との一方を選択する選択部と、を備えたことを特徴とする撮像装置。
  2.  前記選択部は、前記画像処理による熱の影響に応じて、前記第1の画像処理部と前記第2の画像処理部との一方を選択することを特徴とする請求項1に記載の撮像装置。
  3.  前記第1のユニットは、前記第2のユニットを取り付けるための取り付け部を有する第1の筐体を有し、
     前記取り付け部には、前記第1のユニットと前記第2のユニットとが分離した状態で、少なくとも前記第1の画像処理部で発生する熱を放熱させる第1の放熱部が設けられていることを特徴とする請求項2に記載の撮像装置。
  4.  前記第2のユニットは、前記第1のユニットに取り付けられる部分を有する第2の筐体を有し、
     前記第2の筐体の前記取り付けられる部分以外の少なくとも一部に、前記第1のユニットと前記第2のユニットとが一体の状態及び分離した状態で、少なくとも前記第2の画像処理部で発生する熱を放熱させる第2の放熱部が設けられていることを特徴とする請求項2に記載の撮像装置。
  5.  前記選択部は、前記第1、第2のユニットのうち画像処理を行うことにより生じる熱の影響が少ない方のユニットの情報を保持していることを特徴とする請求項1~4のいずれか一項に記載の撮像装置。
  6.  前記選択部は、前記第1のユニットと前記第2のユニットとが一体の状態では、前記第2の画像処理部に前記画像処理を実行させ、前記第1のユニットと前記第2のユニットとが分離した状態では、前記第1の画像処理部に前記画像処理を実行させることを特徴とする請求項1~5のいずれか一項に記載の撮像装置。
  7.  前記第1のユニット用の第1の筐体と、
     前記第2のユニット用の第2の筐体と、を備え、
     前記第1の筐体と前記第2の筐体の少なくとも一方には、放熱用の開口部が設けられていることを特徴とする請求項1~6のいずれか一項に記載の撮像装置。
  8.  前記第2の筐体に前記放熱用の開口部が設けられており、
     前記第2の筐体のうち、前記第1のユニットと前記第2のユニットとが一体の状態及び分離した状態のいずれにおいても外部に露出する部分に前記放熱用の開口部が設けられることを特徴とする請求項7に記載の撮像装置。
  9.  撮像素子を内部に格納し、金属部を有する第1の筐体を有する第1のユニットと、
     磁気と電波との少なくとも一方を受ける電子部品を内部に格納し、少なくとも一部に前記磁気と電波との少なくとも一方を通過させる非金属部を有する第2の筐体を有し、前記第1のユニットと一体の状態で機能するとともに、前記第1のユニットと分離した状態でも独立して機能する第2のユニットと、
    を備えたことを特徴とする撮像装置。
  10.  前記金属部は、少なくとも前記撮像素子で発生した熱を放熱させることを特徴とする請求項9に記載の撮像装置。
  11.  前記第2のユニットは、表示部を有することを特徴とする請求項9に記載の撮像装置。
  12.  少なくとも前記撮像素子で発生した熱を前記金属部に伝導させる伝導部材を備えたことを特徴とする請求項10に記載の撮像装置。
  13.  前記第1の筐体は、前記第2の筐体を取り付けるための取り付け部を有し、
     前記伝導部材は、前記第1の筐体の前記取り付け部とは異なる箇所に接触し、少なくとも前記撮像素子で発生した熱を伝導させることを特徴とする請求項12に記載の撮像装置。
  14.  前記電子部品は、地磁気を検出して方位を測定する方位センサを含むことを特徴とする請求項9~13のいずれか一項に記載の撮像装置。
  15.  前記電子部品は、前記第2のユニットの外部から電波を受信して前記第2のユニットの位置を測定するGPSセンサを含むことを特徴とする請求項9~13のいずれか一項に記載の撮像装置。
  16.  前記電子部品は、ワイヤレス給電機構を含むことを特徴とする請求項9~13のいずれか一項に記載の撮像装置。
  17.  撮像素子を内部に格納し、少なくとも前記撮像素子で発生した熱を放熱させる金属部を有する第1の筐体を有する第1のユニットと、
     電子部品を内部に格納し、少なくとも一部に非金属部を有する第2の筐体を有し、前記第1のユニットと一体の状態で機能するとともに、前記第1のユニットと分離した状態でも独立して機能する第2のユニットと、
    を備えたことを特徴とする撮像装置。
  18.  撮像素子で生成された画像データを送信する第1の通信部を有する第1のユニットと、
     前記第1の通信部から送信された前記画像データを受信する第2の通信部と、前記第2の通信部で受信した画像データに対して画像処理を行う第1の画像処理部と、を有し、前記第1のユニットと一体の状態と前記第1のユニットから分離した状態との間で遷移可能な第2のユニットと、を備えたことを特徴とする撮像装置。
  19.  前記第1のユニット及び前記第2のユニットの少なくとも一方における発熱に関する情報を取得する発熱情報取得部と、
     前記発熱情報取得部が取得した情報に基づいて、前記第1の通信部から前記第2の通信部に対する前記画像データの送信を制御する第1制御部と、を備えたことを特徴とする請求項18に記載の撮像装置。
  20.  前記発熱情報取得部は、前記発熱に関する情報として前記第1の画像処理部又は前記第1の通信部と前記第2の通信部の少なくとも一方の温度を取得し、
     前記第1制御部は、前記温度に基づいて、前記第1の通信部から前記第2の通信部に対する前記画像データの送信を制御することを特徴とする請求項19に記載の撮像装置。
  21.  前記第1の画像処理部のデータ処理量を取得する処理量取得部と、
     前記処理量取得部が取得したデータ処理量に基づいて、前記第1の通信部から前記第2の通信部に対する前記画像データの送信を制御する第2制御部と、を備えたことを特徴とする請求項18~20のいずれか一項に記載の撮像装置。
  22.  前記第1の通信部及び前記第2の通信部は、無線通信及び有線通信が可能であり、
     前記第1のユニットと前記第2のユニットが一体の状態では、前記第1の通信部及び前記第2の通信部は、前記有線通信及び前記無線通信のいずれかを行い、
     前記第1のユニットと前記第2のユニットが分離した状態では、前記第1の通信部及び前記第2の通信部は、前記無線通信を行うことを特徴とする請求項18~20のいずれか一項に記載の撮像装置。
  23.  前記第1のユニットと前記第2のユニットが分離した状態において、前記無線通信の速度を検出する通信速度検出部と、
     前記無線通信の速度に基づいて、前記第1の通信部から前記第2の通信部に対する前記画像データの送信を制御する第3制御部と、を備えたことを特徴とする請求項22に記載の撮像装置。
  24.  前記第1のユニットは、前記画像データに対して画像処理を行う第2の画像処理部を有し、
     前記第2の画像処理部は、前記第1の通信部から前記第2の通信部へ送信されない画像データに対して画像処理を行うことを特徴とする請求項18~20のいずれか一項に記載の撮像装置。
  25.  前記第1のユニットは、前記第1の通信部から前記第2の通信部へ送信されない画像データを一時記憶する記憶部を有することを特徴とする請求項18~20のいずれか一項に記載の撮像装置。
PCT/JP2013/081433 2013-01-24 2013-11-21 撮像装置 WO2014115414A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201380075014.3A CN105052122A (zh) 2013-01-24 2013-11-21 摄像装置
US14/762,357 US9667851B2 (en) 2013-01-24 2013-11-21 Camera with communication unit that communicates with external device
EP13872539.5A EP2950517B1 (en) 2013-01-24 2013-11-21 Imaging device
JP2014558448A JP6432349B2 (ja) 2013-01-24 2013-11-21 電子機器、カメラ及びプログラム
US15/581,482 US10868949B2 (en) 2013-01-24 2017-04-28 Camera with communication unit that communicates with external device

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2013010759 2013-01-24
JP2013010761 2013-01-24
JP2013-010760 2013-01-24
JP2013-010759 2013-01-24
JP2013010760 2013-01-24
JP2013-010761 2013-01-24

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US14/762,357 A-371-Of-International US9667851B2 (en) 2013-01-24 2013-11-21 Camera with communication unit that communicates with external device
US15/581,482 Division US10868949B2 (en) 2013-01-24 2017-04-28 Camera with communication unit that communicates with external device
US15/581,482 Continuation US10868949B2 (en) 2013-01-24 2017-04-28 Camera with communication unit that communicates with external device

Publications (1)

Publication Number Publication Date
WO2014115414A1 true WO2014115414A1 (ja) 2014-07-31

Family

ID=51227218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081433 WO2014115414A1 (ja) 2013-01-24 2013-11-21 撮像装置

Country Status (5)

Country Link
US (2) US9667851B2 (ja)
EP (1) EP2950517B1 (ja)
JP (6) JP6432349B2 (ja)
CN (1) CN105052122A (ja)
WO (1) WO2014115414A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219458A (ja) * 2018-06-18 2019-12-26 株式会社シグマ 撮像装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6752640B2 (ja) 2016-06-27 2020-09-09 キヤノン株式会社 撮像装置
KR102489238B1 (ko) * 2016-09-26 2023-01-16 한화테크윈 주식회사 인도어-아웃도어 겸용 카메라 어셈블리
US10958845B2 (en) * 2019-04-16 2021-03-23 Microsoft Technology Licensing, Llc Camera with rotatable sensor
CN111953903A (zh) * 2020-08-13 2020-11-17 北京达佳互联信息技术有限公司 拍摄方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003172862A (ja) * 2001-12-05 2003-06-20 Chinontec Kk カメラ
JP2006041952A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置、情報機器及び情報機器の制御方法
JP2007306224A (ja) * 2006-05-10 2007-11-22 Fujifilm Corp デジタルカメラ
JP2007336527A (ja) 2006-05-16 2007-12-27 Canon Inc モニター分離可能な撮像装置、その制御方法
JP2009004511A (ja) * 2007-06-20 2009-01-08 Panasonic Electric Works Co Ltd 非接触型給電装置
JP2011114390A (ja) * 2009-11-24 2011-06-09 Canon Inc 撮像装置、その制御方法
JP2012032704A (ja) * 2010-08-02 2012-02-16 Canon Inc 撮像装置

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4039775B2 (ja) * 1999-07-30 2008-01-30 富士フイルム株式会社 画像通信システムならびにそのシステムを構成するディジタル・カメラおよびその動作制御方法
JP2003023564A (ja) 2001-07-09 2003-01-24 Mazda Motor Corp 車両用撮像装置及びその制御方法、並びにコンピュータ・プログラム
JP3703414B2 (ja) * 2001-09-06 2005-10-05 キヤノン株式会社 プリンタ付カメラ、通信装置、その制御方法、制御プログラム及び記憶媒体
JP2003337374A (ja) 2002-05-22 2003-11-28 Canon Inc カメラの付属品、カメラ,フラッシュ装置及びカメラシステム
JP2004088396A (ja) * 2002-08-27 2004-03-18 Nikon Corp 電子機器システム、電子カメラシステム、電子カメラ本体、着脱式外部表示装置および着脱式外部カメラ装置
JP2004096165A (ja) 2002-08-29 2004-03-25 Nikon Corp 電子カメラおよび電子カメラシステム
JP4508596B2 (ja) 2002-11-06 2010-07-21 キヤノン株式会社 通信装置、画像記憶装置およびそれらの制御方法
KR100598494B1 (ko) * 2003-02-11 2006-07-11 정연경 씨디엠에이모듈을 내장한 무선카메라 및 이를 이용한동영상정보전송시스템
KR100556861B1 (ko) * 2003-06-24 2006-03-10 엘지전자 주식회사 휴대 단말기 영상 통화 중 선택적 영상 전송 방법
KR100678226B1 (ko) * 2004-11-11 2007-02-02 삼성전자주식회사 무선 착탈 표시창이 구비된 이동통신단말기의 동작 방법
JP4556178B2 (ja) * 2005-03-15 2010-10-06 セイコーエプソン株式会社 撮像システム
JP4612866B2 (ja) 2005-05-20 2011-01-12 キヤノン株式会社 撮像方法および撮像システム
JP4504873B2 (ja) * 2005-05-31 2010-07-14 富士フイルム株式会社 カメラシステム、本体アダプタおよびヘッドアダプタ
JP2007129645A (ja) * 2005-11-07 2007-05-24 Fujifilm Corp 撮影装置
US7616232B2 (en) * 2005-12-02 2009-11-10 Fujifilm Corporation Remote shooting system and camera system
JP2007158609A (ja) * 2005-12-02 2007-06-21 Fujifilm Corp カメラシステム
JP4621157B2 (ja) * 2006-03-09 2011-01-26 富士フイルム株式会社 携帯型画像通信システムならびにそのシステムを構成する送信装置および受信装置ならびにそれらの制御方法
US7956921B2 (en) 2006-05-16 2011-06-07 Canon Kabushiki Kaisha Imaging apparatus including a separable monitor and capable of wireless communication, and method for controlling the imaging apparatus
US8036469B2 (en) 2006-05-16 2011-10-11 Canon Kabushiki Kaisha Imaging apparatus including a separable monitor, and method for controlling the imaging apparatus
JP4607818B2 (ja) * 2006-05-22 2011-01-05 富士フイルム株式会社 カメラ
JP2008193457A (ja) * 2007-02-06 2008-08-21 Fujifilm Corp デジタルカメラ、及びデジタルカメラの制御方法
JP2009027647A (ja) 2007-07-23 2009-02-05 Fujifilm Corp 撮影画像記録システム、撮影装置、撮影画像記録方法
JP5401810B2 (ja) * 2008-03-18 2014-01-29 株式会社ニコン 電子機器及び電池パック
US8199251B2 (en) 2008-07-07 2012-06-12 Woodman Labs, Inc. Camera housing with integrated expansion module
JP5347144B2 (ja) * 2009-02-03 2013-11-20 リコーイメージング株式会社 定点撮影が可能なカメラ
JP2011077654A (ja) * 2009-09-29 2011-04-14 Canon Inc 撮像装置、その制御方法、及びプログラム
JP5493729B2 (ja) * 2009-11-06 2014-05-14 株式会社リコー 撮像システムと、本体ユニットおよびこれに接続の外部電子機器
JP2011259065A (ja) * 2010-06-07 2011-12-22 Ricoh Co Ltd 撮像装置
JP2012027422A (ja) * 2010-07-28 2012-02-09 Jvc Kenwood Corp 撮像装置
JP2012037791A (ja) * 2010-08-10 2012-02-23 Nikon Corp 撮像装置
JP2012129807A (ja) 2010-12-15 2012-07-05 Sony Corp 画像記録装置、画像記録方法およびプログラム
JP5733614B2 (ja) * 2011-03-29 2015-06-10 リコーイメージング株式会社 撮影情報管理方法、及び撮影情報管理装置
US20130077932A1 (en) * 2011-09-26 2013-03-28 David James Cornell Digital video camera system having two microphones
JP2013093826A (ja) 2011-10-05 2013-05-16 Sanyo Electric Co Ltd 電子カメラ
CN202385170U (zh) * 2011-11-16 2012-08-15 天津三星光电子有限公司 一种具有gps定位功能的数码相机

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003172862A (ja) * 2001-12-05 2003-06-20 Chinontec Kk カメラ
JP2006041952A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置、情報機器及び情報機器の制御方法
JP2007306224A (ja) * 2006-05-10 2007-11-22 Fujifilm Corp デジタルカメラ
JP2007336527A (ja) 2006-05-16 2007-12-27 Canon Inc モニター分離可能な撮像装置、その制御方法
JP2009004511A (ja) * 2007-06-20 2009-01-08 Panasonic Electric Works Co Ltd 非接触型給電装置
JP2011114390A (ja) * 2009-11-24 2011-06-09 Canon Inc 撮像装置、その制御方法
JP2012032704A (ja) * 2010-08-02 2012-02-16 Canon Inc 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2950517A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219458A (ja) * 2018-06-18 2019-12-26 株式会社シグマ 撮像装置
JP7055369B2 (ja) 2018-06-18 2022-04-18 株式会社シグマ 撮像装置

Also Published As

Publication number Publication date
JPWO2014115414A1 (ja) 2017-01-26
EP2950517A4 (en) 2016-07-13
US20170230564A1 (en) 2017-08-10
US9667851B2 (en) 2017-05-30
JP6806229B2 (ja) 2021-01-06
US10868949B2 (en) 2020-12-15
JP6645558B2 (ja) 2020-02-14
JP2020061767A (ja) 2020-04-16
EP2950517B1 (en) 2020-12-23
CN105052122A (zh) 2015-11-11
US20160014317A1 (en) 2016-01-14
JP6795081B2 (ja) 2020-12-02
EP2950517A1 (en) 2015-12-02
JP6432349B2 (ja) 2018-12-05
JP2021040339A (ja) 2021-03-11
JP6645559B2 (ja) 2020-02-14
JP2019057920A (ja) 2019-04-11
JP2019054528A (ja) 2019-04-04
JP2020061768A (ja) 2020-04-16

Similar Documents

Publication Publication Date Title
JP6806229B2 (ja) 電子機器及びプログラム
JP5194650B2 (ja) 電子カメラ
US20150049233A1 (en) Photographing apparatus and method of controlling the same
JP6700768B2 (ja) 撮像装置
US9049317B2 (en) Communication system, communication terminal, and method of controlling a communication system
JP6553986B2 (ja) 通信装置およびその制御方法、プログラム
US20160205386A1 (en) Digital photographing apparatus and control method thereof
US8600226B2 (en) Focusing methods and apparatus, and recording media for recording the methods
TW201442510A (zh) 影像設備、用戶端設備、影像系統、控制影像設備之方法、控制用戶端設備之方法及控制影像系統之方法
US20120320255A1 (en) Digital photographing apparatus and method of controlling the same
JP4896066B2 (ja) 電子装置及びデータ通信方法
JP2008245109A (ja) 撮影装置
KR101575261B1 (ko) 복수개의 이미지센서를 갖는 카메라모듈 패키지
EP4379520A1 (en) Method for providing image, and electronic device supporting same
JP2012216885A (ja) 撮像装置及び画像共有システム
JP2011081076A (ja) 位置測位機能内蔵装置およびカメラ
JP2009094890A (ja) デジタルカメラ
JP5223554B2 (ja) 電子カメラおよび電子機器
JP2004253915A (ja) 撮影装置、方法、プログラム、及びコンピュータ読み取り可能な記憶媒体
JP5665434B2 (ja) 撮像装置、その制御方法及びプログラム並びに記録媒体
JP2004254230A (ja) 撮影装置
JP2016053665A (ja) 撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380075014.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13872539

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014558448

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013872539

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14762357

Country of ref document: US