WO2016038913A1 - 撮像装置、及び撮像装置の制御方法、及び撮像システム - Google Patents

撮像装置、及び撮像装置の制御方法、及び撮像システム Download PDF

Info

Publication number
WO2016038913A1
WO2016038913A1 PCT/JP2015/059216 JP2015059216W WO2016038913A1 WO 2016038913 A1 WO2016038913 A1 WO 2016038913A1 JP 2015059216 W JP2015059216 W JP 2015059216W WO 2016038913 A1 WO2016038913 A1 WO 2016038913A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
parameter
operation unit
imaging apparatus
assigned
Prior art date
Application number
PCT/JP2015/059216
Other languages
English (en)
French (fr)
Inventor
裕純 荒井
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201580006519.3A priority Critical patent/CN105960795B/zh
Priority to JP2016501689A priority patent/JP6157714B2/ja
Publication of WO2016038913A1 publication Critical patent/WO2016038913A1/ja
Priority to US15/203,403 priority patent/US10084956B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Definitions

  • Embodiments described herein relate generally to an imaging apparatus, an imaging apparatus control method, and an imaging system.
  • the imaging device generally includes an imaging device that acquires an image based on light, an optical system such as a lens that focuses light on the imaging device, and a display device such as liquid crystal or organic EL.
  • the imaging apparatus includes a plurality of operation units to which functions for changing parameter setting values such as an aperture value (F value), shutter speed (SS), ISO sensitivity, and exposure value (Ev value) related to imaging can be assigned.
  • F value aperture value
  • SS shutter speed
  • ISO sensitivity ISO sensitivity
  • Ev value exposure value
  • Japanese Patent Application Laid-Open Nos. 8-339020 and 2003-319211 disclose an apparatus that displays an external view of an apparatus, an operation procedure, and the like on a display device to allow a user to recognize the device.
  • An imaging apparatus including a plurality of operation units to which a function for changing a parameter for imaging as described above can be arbitrarily assigned is generally popular.
  • functions can be assigned to the operation unit according to personal preference, but there is a problem that the user needs to recognize the function assigned to a certain operation unit. For example, when there is a function that is used infrequently, when the assignment of a familiar function is changed, or when a function assigned to a plurality of operation parts is changed, the user assigns the function assigned to the operation part. It may not be fully recognized. In such a case, it is difficult to instantaneously operate the imaging device as intended by the user, and there is a problem that convenience may be impaired.
  • An imaging apparatus includes a plurality of operation units to which a plurality of parameters for imaging are respectively assigned as assignment parameters, and a parameter control unit that controls a setting value of the assignment parameter based on an operation of each operation unit And on the operation unit layout diagram showing the positions of the plurality of operation units, an allocation parameter corresponding to each operation unit is displayed based on a parameter database indicating the operation unit allocated to each allocation parameter.
  • a screen generation unit that generates a help screen.
  • FIG. 1 is a diagram for describing an example of a control system of an imaging apparatus according to an embodiment.
  • FIG. 2 is a diagram for explaining an example of the appearance of the imaging apparatus according to the embodiment.
  • FIG. 3 is a diagram for explaining an example of the appearance of the imaging apparatus according to the embodiment.
  • FIG. 4 is a diagram for explaining a display example of the imaging apparatus according to the embodiment.
  • FIG. 5 is a diagram for describing an example of information stored in the storage unit of the imaging apparatus according to the embodiment.
  • FIG. 6 is a diagram for explaining a display example of the imaging apparatus according to the embodiment.
  • FIG. 7 is a diagram for explaining a display example of the imaging apparatus according to the embodiment.
  • FIG. 8 is a diagram for explaining a display example of the imaging apparatus according to the embodiment.
  • FIG. 1 is a diagram for describing an example of a control system of an imaging apparatus according to an embodiment.
  • FIG. 2 is a diagram for explaining an example of the appearance of the imaging apparatus according to the embodiment
  • FIG. 9 is a diagram for explaining an example of the operation of the imaging apparatus according to the embodiment.
  • FIG. 10 is a diagram for explaining an example of the operation of the imaging apparatus according to the embodiment.
  • FIG. 11 is a diagram for describing an example of a configuration of a mobile terminal according to an embodiment.
  • FIG. 12 is a diagram for explaining an example of the operation and display of the mobile terminal according to the embodiment.
  • FIG. 13 is a diagram for explaining an example of the operation of the mobile terminal according to the embodiment.
  • FIG. 14 is a diagram for explaining an example of the operation of the imaging apparatus according to the embodiment.
  • FIG. 15 is a diagram for describing an example of a configuration of a lens-type imaging device according to an embodiment.
  • FIG. 16 is a diagram for describing an example of a portable terminal to which a lens-type imaging device according to an embodiment is attached.
  • FIG. 17 is a diagram for describing an example of a portable terminal to which a lens-type imaging device according to an embodiment is attached.
  • FIG. 18 is a diagram for explaining an example of the operation of the lens-type imaging device according to the embodiment.
  • FIG. 19 is a diagram for explaining an example of the operation of the mobile terminal that controls the lens-type imaging device according to the embodiment.
  • FIG. 1 shows an example of a control system of the imaging apparatus 100 and an imaging system 1 including the imaging apparatus 100.
  • 2 and 3 show examples of the appearance of the imaging apparatus 100.
  • FIG. 1 shows an example of a control system of the imaging apparatus 100 and an imaging system 1 including the imaging apparatus 100.
  • 2 and 3 show examples of the appearance of the imaging apparatus 100.
  • FIG. 1 shows an example of a control system of the imaging apparatus 100 and an imaging system 1 including the imaging apparatus 100.
  • 2 and 3 show examples of the appearance of the imaging apparatus 100.
  • the imaging system 1 includes an imaging device 100 and an interchangeable lens (hereinafter referred to as a lens 200).
  • the imaging system 1 may further include a slate PC (mobile terminal) 300 such as a tablet PC, a smartphone, or a PC in which an input device such as a keyboard is combined with a slate display device.
  • the imaging device 100 and the slate PC 300 can communicate with each other by wire or wirelessly.
  • the imaging apparatus 100 can execute an imaging operation and change of various parameters based on the control of the slate PC 300.
  • the slate PC 300 can execute reproduction of an image or a moving image recorded on a recording medium in the imaging apparatus 100.
  • the imaging apparatus 100 acquires the subject image that has passed through the lens 200 as an image by the imaging element.
  • the imaging apparatus 100 also has a live view display (or through image display) function for displaying this image on a display device such as a liquid crystal monitor or an organic EL display in real time. Further, the imaging apparatus 100 can save an image in a storage medium when the shutter button 33b is fully pressed.
  • the imaging device 100 includes an imaging element 17, a signal processing unit 18, an analog / digital converter (A / D) 19, an image processing unit 21, an AE processing unit 22, a Jpeg processing unit 31, a display unit 32, an operation unit 33, and a sound collecting unit.
  • the A / D 19, the image processing unit 21, the AE processing unit 22, the Jpeg processing unit 31, the display unit 32, the operation unit 33, the sound collection unit 41, the microcomputer 50, the memory I / F 61, and the communication unit 71 are connected to the data bus 80. Are connected to each other.
  • the imaging apparatus 100 includes a mount (not shown) on which an interchangeable lens can be attached. Contact terminals are provided on the mount. The imaging device 100 can communicate with the lens 200 attached to the mount by the contact terminal. Thereby, the imaging apparatus 100 can acquire various information regarding the lens 200 such as the focal length and the aperture value from the lens 200.
  • the lens 200 receives light and focuses the received light on the image sensor 17.
  • the lens 200 includes an optical system 200a in which a plurality of lenses are combined, a CPU 200b, a ROM 200c, and the like.
  • the lens 200 includes a first operation ring 210 and a second operation ring 220 as shown in FIG.
  • the first operation ring 210 and the second operation ring 220 can be assigned parameters for imaging such as an in-focus distance, a focal length, and an aperture value (F value), respectively.
  • the optical system 200a includes, for example, a focusing lens, a zooming lens, and a diaphragm blade.
  • the lens 200 drives the focusing lens of the optical system 200 a based on the control of the microcomputer 50 of the imaging apparatus 100.
  • the lens 200 can operate the first operation ring 210 or the second operation ring 220. Accordingly, the focusing distance can be changed by driving the focusing lens.
  • the lens 200 is used for zooming according to the operation of the first operation ring 210 or the second operation ring 220.
  • the lens can be driven to change the focal length.
  • the lens 200 responds to the operation of the first operation ring 210 or the second operation ring 220.
  • the aperture value can be changed by driving the aperture blade.
  • the lens 200 may be configured to perform zooming, focusing, and change of the aperture value based on a control signal received from the imaging device 100 via the mount.
  • the imaging apparatus 100 may have a configuration in which the lens 200 is incorporated in the housing 100a of the imaging apparatus, instead of mounting the lens 200 via a mount.
  • the image sensor 17 is provided at the rear part (inside the housing 100a of the image capturing apparatus 100) in the mount to which the lens 200 is attached.
  • the image sensor 17 includes a pixel array in which a plurality of pixels that photoelectrically convert a subject image that has passed through the lens 200 are two-dimensionally arranged. Each pixel of the image sensor 17 can store the electric charge by photoelectrically converting the light that has passed through the lens 200.
  • the image pickup device 17 is, for example, Charge Coupled Devices (CCD), Complementary Metal Oxide Semiconductor (CMOS), or other two-dimensional image pickup device.
  • the signal processing unit 18 performs signal processing on the signal output from the image sensor 17. For example, the signal processing unit 18 reads out charges accumulated in each pixel of the image sensor 17. That is, the signal processing unit 18 reads an image generated by the image sensor 17. Further, the signal processing unit 18 performs predetermined signal processing such as analog amplification on the read image, and outputs the signal subjected to signal processing to the A / D 19.
  • the A / D 19 quantizes the signal supplied from the signal processing unit 18 and acquires image data.
  • the A / D 19 outputs image data to the image processing unit 21, the AE processing unit 22, the Jpeg processing unit 31, and the like based on the control of the microcomputer 50. That is, an imaging unit is configured by the lens 200, the imaging device 17, the signal processing unit 18, the A / D 19, and the like. Further, the imaging unit is supported by the housing 100a.
  • the image processing unit 21 performs various image processing such as color correction, gamma ( ⁇ ) correction, contrast correction, monochrome / color mode processing, and live view image processing on the image data digitized by the A / D 19. Do.
  • the AE processing unit 22 acquires subject luminance information used for exposure control and the like using the image data digitized by the A / D 19.
  • the imaging apparatus 100 controls the ISO sensitivity (ISO), the aperture value, and the shutter speed (SS) according to the exposure value (Ev value) based on the subject luminance information.
  • the Jpeg processing unit 31 compresses the image data digitized by the A / D 19 using the Jpeg method, and generates Jpeg method image data (Jpeg data).
  • the Jpeg processing unit 31 outputs Jpeg data to the recording medium M attached to the memory I / F 61 based on the control of the microcomputer 50.
  • the imaging apparatus 100 can store the Jpeg data of the captured image in the recording medium M.
  • the display unit 32 is a module that displays various information based on the control of the microcomputer 50. As shown in FIGS. 4 and 5, the display unit 32 includes a display device and a drive circuit that displays a screen on the display device based on the data.
  • the display unit 32 includes, for example, a liquid crystal monitor 32a provided on the back surface of the housing 100a, an electronic viewfinder (EVF) 32b provided on the viewfinder unit of the housing 100a, and a photographer who is in contact with the viewfinder unit. And an eyepiece sensor 32c for detecting whether or not it is in a state.
  • the display unit 32 may be configured to include another display device such as an organic EL display on the back surface of the housing 100a instead of the liquid crystal monitor 32a.
  • the EVF 32b has a configuration in which a display device such as a liquid crystal monitor or an organic EL display is combined with an eyepiece optical system.
  • the display unit 32 turns off the display of the liquid crystal monitor 32a and causes the EVF 32b to perform display when detecting that the photographer is in the state of eye contact with the finder unit. Further, when the display unit 32 detects that the photographer is not in contact with the finder unit, the display unit 32 turns off the display of the EVF 32b and causes the liquid crystal monitor 32a to perform display.
  • the display unit 32 can perform live view display of the image data acquired by the image sensor 17 on the liquid crystal monitor 32a or the EVF 32b.
  • the microcomputer 50 generates image data (through image) subjected to image processing for live view display by the image processing unit 21.
  • the microcomputer 50 controls the image processing unit 21 to supply the through image to the display unit 32.
  • the microcomputer 50 displays an on-screen display (OSD) display including various icons and characters on the display device 32 based on various setting information and the state of the imaging device 100. Generate OSD data.
  • the microcomputer 50 supplies the OSD data to the display unit 32.
  • OSD on-screen display
  • the microcomputer 50 displays OSD data for causing the display device of the display unit 32 to display the shooting mode of the imaging device 100, various setting information, the remaining battery level, the number of images that can be shot and the time that can be shot, and the AF area. Generate.
  • the microcomputer 50 controls the display unit 32 so that the OSD display based on the OSD data is superimposed on the through image.
  • the display unit 32 displays a screen on the liquid crystal monitor 32a or the EVF 32b based on the control of the microcomputer 50. That is, the display unit 32 superimposes the OSD display on the through image and displays it on the liquid crystal monitor 32a or the EVF 32b.
  • the operation unit 33 includes various operation buttons for receiving operations by the user of the imaging apparatus 100, a dial, and the like. That is, the operation unit 33 includes a plurality of operation units to which a plurality of parameters for imaging are respectively assigned as assignment parameters.
  • the microcomputer 50 functions as a parameter control unit that controls the setting value of the assigned parameter based on various operation buttons of the operation unit 33 and a dial operation.
  • the parameter set values indicate set values such as F value, SS, ISO sensitivity, and Ev value.
  • the microcomputer 50 can control set values such as F value, SS, ISO sensitivity, and Ev value based on various operation buttons of the operation unit 33 and dial operation.
  • the operation unit 33 includes a mode dial 33a, a shutter button 33b, a front dial 33c, a rear dial 33d, a movie button 33e, a first function button 33f, a second function button 33g, A third function button 33h, a fourth function button 33i, a MENU button 33j, a cross button 33k, an OK button 33m, a play button 33n, an erase button 33o, an INFO button 33p, a switching lever 33q, and a power switch 33r are provided.
  • the mode dial 33a is an operation unit for causing the image capturing apparatus 100 to switch the photographing mode.
  • the imaging apparatus 100 has photographing modes such as an aperture priority mode (A mode), a shutter speed priority mode (S mode), and a manual mode (M mode), for example.
  • the imaging apparatus 100 can switch between the A mode, the S mode, and the M mode according to the operation of the mode dial 33a.
  • the A mode is a shooting mode in which an operator (photographer) of the imaging apparatus 100 determines an aperture value.
  • the imaging apparatus 100 automatically sets the shutter speed so that proper exposure can be obtained.
  • S mode is a shooting mode in which the photographer determines the shutter speed.
  • the imaging apparatus 100 automatically sets the aperture value so that proper exposure can be obtained.
  • M mode is a shooting mode in which the photographer determines the aperture value and shutter speed.
  • the imaging apparatus 100 performs imaging based on the shutter speed and the aperture value determined by the operation input.
  • the shutter button 33b is a button for causing the imaging apparatus 100 to perform a release operation and an autofocus (AF) operation. For example, when the shutter button 33b is half-pressed, the imaging apparatus 100 performs an autofocus operation. In other words, the imaging apparatus 100 outputs a control signal to the lens 200 so that the object in the AF area is focused.
  • AF autofocus
  • the imaging apparatus 100 performs shooting. That is, the imaging apparatus 100 generates charges by the imaging element 17 based on the setting information, generates image data by the signal processing unit 18 and the A / D 19 according to the generated charges, and converts the image data to the Jpeg processing unit 31. Is converted into Jpeg data, and the Jpeg data is stored in the recording medium M mounted in the memory I / F 61. Further, the imaging apparatus 100 may be configured to store, for example, both Jpeg data and image data converted by the A / D 19 in the recording medium M mounted in the memory I / F 61.
  • the front dial 33c and the rear dial 33d are operation units that execute a function of changing an assigned parameter.
  • the front dial 33c and the rear dial 33d are provided in an infinitely rotatable state.
  • the front dial 33c and the rear dial 33d are assigned parameters such as an aperture value, shutter speed, ISO, white balance (WB), and exposure value, respectively.
  • the imaging apparatus 100 changes the assigned parameter according to the rotation of the front dial 33c and the rear dial 33d.
  • Movie button 33e is a button for causing the imaging apparatus 100 to perform moving image shooting.
  • the imaging device 100 starts shooting a moving image.
  • the imaging apparatus 100 stops moving image shooting and stores the moving image data in the recording medium M attached to the memory I / F 61.
  • the first function button 33f, the second function button 33g, the third function button 33h, and the fourth function button 33i are configured to be assigned a function for changing the setting value of the parameter for imaging. It is the operation part.
  • the microcomputer 50 changes parameters (assignment parameters) assigned to the first function button 33f, the second function button 33g, the third function button 33h, and the fourth function button 33i.
  • the imaging apparatus 100 further includes, for example, color tone, WB, AF mode, recording image quality, aspect ratio, continuous shooting speed, high dynamic range (HDR), and photometry mode as imaging parameters. Any one of these parameters is assigned to each of the first function button 33f, the second function button 33g, the third function button 33h, and the fourth function button 33i.
  • the imaging apparatus 100 has a function of changing set values of parameters assigned in response to operations of the first function button 33f, the second function button 33g, the third function button 33h, and the fourth function button 33i. Can be executed.
  • the MENU button 33j is a button for causing the imaging apparatus 100 to open the MENU screen.
  • the imaging apparatus 100 displays a menu screen on the liquid crystal monitor 32a or the EVF 32b.
  • the cross button 33k is a button for accepting up / down / left / right operations by the user (photographer).
  • the imaging apparatus 100 can move the AF area according to the operation of the cross button 33k.
  • the cross button 33k includes an OK button 33m at the center.
  • the imaging apparatus 100 can switch the selection item in the menu according to the operation of the cross button 33k in a state where the menu screen is displayed on the liquid crystal monitor 32a or the EVF 32b. Further, the imaging apparatus 100 can change various setting information in accordance with the operation of the OK button 33m. With these button operations, the user can change various shooting parameters and settings.
  • the reproduction button 33n is a button for causing the imaging apparatus 100 to reproduce an image and a moving image recorded on the recording medium M.
  • the imaging apparatus 100 causes the liquid crystal monitor 32a or the EVF 32b to display a playback screen that displays an image or a moving image stored in the recording medium M.
  • the imaging apparatus 100 can switch the displayed image or moving image according to the operation of the cross button 33k in a state where the reproduction screen is displayed on the liquid crystal monitor 32a or the EVF 32b.
  • the erasing button 33o is a button for causing the imaging apparatus 100 to delete images and moving images recorded on the recording medium M.
  • the imaging device 100 deletes the image or moving image stored in the recording medium M when the delete button 33o is pressed during display of the image or moving image.
  • the INFO button 33p is a button for switching the OSD display to be displayed on the liquid crystal monitor 32a or the EVF 32b. For example, every time the INFO button 33p is operated, the imaging apparatus 100 displays only a through image on the liquid crystal monitor 32a or the EVF 32b, and displays a simple OSD display on the through image on the liquid crystal monitor 32a or the EVF 32b. The state and the state in which a detailed OSD display is superimposed on the through image and displayed on the liquid crystal monitor 32a or EVF 32b are switched.
  • the switch lever 33q is a switch for switching parameters assigned to the front dial 33c and the rear dial 33d.
  • the switching lever 33q has two states of “lever 1” and “lever 2”. For example, when the switching lever 33q is in the “lever 1” state, the imaging apparatus 100 assigns an aperture value and a shutter speed to the front dial 33c and the rear dial 33d, respectively, and the switching lever 33q is in the “lever 2” state. In this case, ISO and WB are allocated to the front dial 33c and the rear dial 33d, respectively.
  • the parameters assigned to the front dial 33c and the rear dial 33d according to the state of the switching lever 33q are not limited to those described above, and any parameters may be used.
  • the power switch 33r is a switch for switching the power state of the imaging apparatus 100 between ON and OFF.
  • the operation unit 33 may include a touch sensor 33 s formed integrally with the liquid crystal monitor 32 a of the display unit 32.
  • the touch sensor 33s is, for example, a resistive touch sensor or a capacitive touch sensor.
  • the imaging apparatus 100 may be configured to display various parameters in a changeable state on the liquid crystal monitor 32a of the display unit 32 and change these parameters in accordance with an operation input on the touch sensor 33s.
  • FIG. 4 shows an example of a live view display including a through image displayed by the display unit 32.
  • the live view display includes, for example, a through image 401, an icon 402 indicating a shooting mode, an indicator 403 indicating a shutter speed, an indicator 404 indicating an aperture value, an indicator 405 indicating an exposure value, and various setting information (parameters for imaging).
  • An indicator 407 indicating the number of shootable images and a shootable time
  • an indicator 408 indicating a remaining battery level
  • an indicator 409 indicating an AF area
  • an icon 410 for calling a help screen and the like.
  • the microcomputer 50 sequentially updates the screen to be displayed on the display device of the display unit 32 according to the operation by the operation unit 33, the image acquired by the imaging device 17, and the internal state of the imaging device 100.
  • the help screen displays parameters assigned to the front dial 33c and the rear dial 33d, and the first function button 33f, the second function button 33g, the third function button 33h, and the fourth function button 33i. It is a screen to show. An example of the help screen will be described later.
  • the sound collection unit 41 includes a stereo microphone for acquiring sound when shooting a moving image.
  • the sound collection unit 41 can acquire stereo sound using a stereo microphone.
  • the sound collection unit 41 can also acquire monaural sound using a stereo microphone.
  • the microcomputer 50 is a control unit that controls various operations of the imaging apparatus 100.
  • the microcomputer 50 includes, for example, a CPU and a cache memory.
  • the storage unit 57 stores a program for controlling the imaging apparatus 100, a program for realizing various functions, various setting information, and the like.
  • the CPU is an arithmetic element that executes various arithmetic processes.
  • the cache memory temporarily stores data read by the CPU as a result of calculation by the CPU.
  • the microcomputer 50 executes a program stored in the storage unit 57 based on the operation signal supplied from the operation unit 33 and controls the operation of each unit of the imaging apparatus 100.
  • the microcomputer 50 functions as an imaging control unit, a display control unit, an image processing control unit, an operation determination unit, a communication control unit, and a parameter control unit by executing a program.
  • the microcomputer 50 controls imaging processing according to an operation input or a control signal received from the slate PC 300.
  • the microcomputer 50 controls display processing by the display unit 32.
  • the microcomputer 50 controls image processing by the image processing unit 21, the AE processing unit, and the Jpeg processing unit.
  • the microcomputer 50 determines an operation input by the operation unit 33 and recognizes a control signal input from the slate PC 300 via the communication unit 71.
  • the microcomputer 50 controls communication processing by the communication unit 71.
  • the microcomputer 50 controls the parameter change in accordance with an operation input or a control signal received from the slate PC 300.
  • the memory I / F 61 controls input / output of data between the recording medium M and each unit of the imaging apparatus 100.
  • the memory I / F 61 includes a card slot into which the recording medium M can be inserted.
  • the recording medium M includes a plurality of contact terminals. Further, the memory I / F 61 includes a contact terminal that is electrically connected to the contact terminal of the recording medium M when the recording medium M is inserted into the card slot. Accordingly, the imaging apparatus 100 can execute data storage in the recording medium M and data reading from the recording medium M.
  • the communication unit 71 is a module for performing various data communications with the slate PC 300.
  • the communication unit 71 can communicate with the slate PC 300 by, for example, a wireless LAN or Bluetooth (registered trademark).
  • the communication unit 71 may be configured to communicate with the slate PC 300 via the network by a wireless LAN.
  • the imaging apparatus 100 can communicate with the slate PC 300 or other various devices via the communication unit 71.
  • the storage unit 57 includes a first storage area 57a and a second storage area 57b.
  • the first storage area 57a stores in advance a diagram (button layout diagram) showing positions of various buttons and dials on the appearance of the imaging apparatus 100.
  • the first storage area 57a stores in advance a plurality of button layout diagrams when the imaging device 100 is viewed from a plurality of angles.
  • the first storage area 57a stores in advance a button layout when the imaging device 100 is viewed from the front side and a button layout when the imaging device 100 is viewed from the back side.
  • the first storage area 57a stores in advance a plurality of button layout diagrams drawn from different angles in stages from the front side to the back side of the imaging apparatus 100.
  • the imaging apparatus 100 can display these button layouts so that the button layouts rotate according to the operation by switching these button layouts according to the operation and displaying them on the display unit 32.
  • the second storage area 57b includes, for each of various parameter names related to imaging, presence / absence of operation (operation presence / absence), corresponding operation unit (corresponding operation unit), corresponding button arrangement diagram (corresponding button arrangement diagram). , And a parameter database (parameter DB) in which information indicating the position (operation unit position) on the button layout diagram is associated.
  • FIG. 5 is a diagram showing an example of the parameter DB. Note that the parameters that can be changed differ depending on the shooting mode. For this reason, the second storage area unit 57b includes a parameter DB for each shooting mode, for example. FIG. 5 shows an example of the parameter DB when the shooting mode of the imaging apparatus 100 is the A mode.
  • “Operation presence / absence” is information indicating whether or not the associated parameter is a parameter that can be changed in the shooting mode corresponding to the parameter DB.
  • the “corresponding operation unit” is information indicating an operation unit to which the associated parameter is assigned.
  • the “corresponding button layout” is information indicating a button layout used when displaying the associated “corresponding operation unit” on the help screen.
  • the “operation unit position” is information indicating a position (for example, coordinates) on the button arrangement diagram indicated by the “corresponding button arrangement diagram” of the associated “corresponding operation unit”.
  • the parameter DB includes parameters such as an aperture value, shutter speed, ISO, and exposure value.
  • the shutter speed is automatically fixed. For this reason, in the A mode, “no operation” is associated with the shutter speed parameter.
  • aperture value is associated with “front dial” as a corresponding operation unit.
  • “front”, “right side”, and “back” are associated with “aperture value” as corresponding button layout diagrams. That is, the parameter of “aperture value” can be changed by the front dial 33c, and the front dial 33c is displayed on the button layout diagram of “front”, “right side”, and “back”. .
  • the imaging apparatus 100 reads the above button layout diagram from the first storage area 57a, reads the parameter DB from the second storage area 57b, and based on the read button layout chart and parameter DB, FIG. 6 and FIG. Generate a help screen as shown.
  • the help screen is a screen showing assignment parameters assigned to various operation units.
  • the microcomputer 50 allocates corresponding to each operation unit on the button arrangement diagram (operation unit arrangement diagram) indicating the position of each unit of the operation unit 33 based on the parameter DB indicating the operation unit allocated for each allocation parameter. Display the parameters and generate a help screen. In this case, the microcomputer 50 functions as a screen generation unit.
  • FIG. 6 and 7 are diagrams showing an example of the help screen 601.
  • FIG. 6 shows an example of the help screen 601 on the front side of the imaging apparatus 100.
  • FIG. 7 shows an example of a help screen 601 on the back side of the imaging apparatus 100.
  • the imaging apparatus 100 displays the help screen 601 on the EVF 32b when the eyepiece sensor 32c detects that the photographer is in contact with the viewfinder. In addition, when the imaging device 100 detects that the photographer is not in contact with the finder unit by the eye sensor 32c, the imaging device 100 displays the help screen 601 on the liquid crystal monitor 32a.
  • the imaging apparatus 100 can rotate the button layout on the help screen 601 displayed by the display unit 32 as illustrated in FIG. 8 according to the operation input.
  • the help screen 601o whose button layout is the front
  • the help screen 601p whose button layout is the left side
  • the help screen 601q whose button layout is the back
  • the help screen 601r whose button layout is the right side. It is shown.
  • the microcomputer 50 switches the display of the help screens 601o to 601r.
  • the microcomputer 50 switches the screen in the order of help screen 601o> help screen 601p> help screen 601q> help screen 601r> help screen 601o.
  • the microcomputer 50 switches the screen in the order of help screen 601o> help screen 601r> help screen 601q> help screen 601p> help screen 601o.
  • the microcomputer 50 can rotate the button layout on the help screen 601 according to the left and right flick operations input by the touch sensor 33s.
  • the indicator 601c and the like displayed in FIGS. 6 and 7 are not displayed, so that the visibility is improved so that the posture can be easily grasped.
  • aperture value is associated with “front dial” as a corresponding operation unit.
  • “front”, “right side”, and “back” are associated with “aperture value” as corresponding button layout diagrams. That is, the parameter of “aperture value” can be changed by the front dial 33c, and the front dial 33c is displayed on the button layout diagram of “front”, “right side”, and “back”. .
  • the imaging apparatus 100 rotates the button layout on the help screen 601 based on the operation input of the cross button 33k, the front dial 33c, or the rear dial 33d. be able to.
  • the imaging apparatus 100 can perform an operation input by the touch sensor 33s, the cross button 33k, the front dial 33c, or the rear dial 33d that is formed integrally with the liquid crystal monitor 32a. Based on this, the button layout on the help screen 601 can be rotated.
  • the imaging apparatus 100 draws the read button layout. Further, the imaging apparatus 100 displays information indicating parameters (assignment parameters) assigned to each operation unit and parameters (assignable parameters) that can be assigned by each operation unit in the vicinity of each operation unit on the button layout diagram.
  • the help screen 601 is generated by displaying. That is, the microcomputer 50 displays the assigned parameters in the help screen 601 in association with the operation unit to which the assigned parameters on the button layout diagram are assigned.
  • the imaging apparatus 100 displays the “parameter name” in the parameter DB at the position indicated by the “operation unit position” in the parameter DB on the drawn button layout. That is, the help screen 601 shown in FIG. 6 and FIG. 7 shows the assignment parameter assigned to this operation unit and the assignable parameters that can be assigned to this operation unit at the position corresponding to the operation unit on the button layout diagram. It is the screen that was made.
  • the imaging apparatus 100 holds a list indicating the types of parameters that can be assigned to each operation unit in the storage unit 57 in advance for each operation button or dial. Accordingly, the imaging apparatus 100 can display information indicating parameters that can be assigned to each operation unit of the imaging apparatus 100 on the help screen. Thereby, the imaging apparatus 100 causes the help screen 601 to simultaneously display the assignment parameter set to be changed by each operation unit and the parameter assignable parameter that can be set to be changed by each operation unit. be able to.
  • the ROM 200c of the lens 200 stores in advance a diagram (lens external view) showing the position of the operation unit on the external appearance of the lens 200. Furthermore, the ROM 200 c includes a list indicating the types of parameters that can be assigned to the first operation ring 210 and the second operation ring 220 of the lens 200. The ROM 200c further includes information indicating the position of the operation unit of the lens 200, that is, information indicating the positions of the first operation ring 210 and the second operation ring 220 on the lens external view.
  • the imaging apparatus 100 acquires, from the ROM 200c of the lens 200, lens appearance information, information indicating parameters that can be assigned to the first operation ring 210 and the second operation ring 220, operation unit positions, and the like as lens information. Thereby, the imaging apparatus 100 can further display information indicating parameters that can be assigned to each operation unit of the lens 200 on the help screen 601.
  • the imaging apparatus 100 causes the help screen 601 to display indicators 601a to 601h for displaying the assignment parameters and the assignable parameters.
  • the indicator 601a indicates parameters assigned to the front dial 33c and parameters that can be assigned to the front dial 33c. Further, the indicator 601a can indicate how the parameter is changed according to the rotation direction of the front dial 33c. According to the example of FIGS. 6 and 7, the indicator 601a can be assigned an “aperture value” to the front dial 33c, and can be assigned an “exposure value”, “ISO”, and the like to the front dial 33c. When the front dial 33c is rotated rightward, the "aperture value” changes from “3.5” to "4.0” and the front dial 33c is moved leftward. This indicates that the “aperture value” changes from “3.5” to “3.2” when the rotation is performed.
  • the indicator 601b indicates parameters assigned to the rear dial 33d and parameters that can be assigned to the rear dial 33d. Further, the indicator 601b can indicate how the parameter is changed according to the rotation direction of the rear dial 33d.
  • the indicator 601c indicates parameters assigned to the first function button 33f and parameters that can be assigned to the first function button 33f. Further, the indicator 601c can indicate how the parameter is changed according to the operation of the first function button 33f. According to the example of FIGS. 6 and 7, the indicator 601c is assigned “color tone” to the first function button 33f, “AF mode”, “WB”, “continuous shooting mode” and the like to the first function button 33f. Can be assigned, and the current value of “color tone” is “natural”, and “color tone” changes to “standard”, “natural”, and “vivid” each time the first function button 33f is operated. Is shown.
  • the indicator 601d indicates parameters assigned to the second function button 33g and parameters that can be assigned to the second function button 33g. Further, the indicator 601d can indicate how the parameter is changed according to the operation of the second function button 33g.
  • the indicator 601e indicates parameters assigned to the third function button 33h and parameters that can be assigned to the third function button 33h. Further, the indicator 601e can indicate how the parameter is changed according to the operation of the third function button 33h.
  • the indicator 601f indicates parameters assigned to the fourth function button 33i and parameters that can be assigned to the fourth function button 33i. Further, the indicator 601f can indicate how the parameter is changed according to the operation of the fourth function button 33i.
  • the indicator 601g indicates parameters assigned to the first operation ring 210 of the lens 200 and parameters that can be assigned to the first operation ring 210. Further, the indicator 601g can indicate how the parameter is changed according to the operation of the first operation ring 210. According to the example of FIGS. 6 and 7, the indicator 601 g is assigned “focal length” to the first operation ring 210, and assigns “aperture value”, “focus distance”, and the like to the first operation ring 210. The “focal length” is changed to the telephoto side when the first operation ring 210 is rotated rightward, and the “focal length” is changed when the first operation ring 210 is rotated leftward. It shows that it changes to the wide side.
  • the indicator 601 h indicates parameters assigned to the second operation ring 220 of the lens 200 and parameters that can be assigned to the second operation ring 220. Further, the indicator 601h can indicate how the parameter is changed according to the operation of the second operation ring 220. According to the example of FIGS. 6 and 7, the indicator 601h is assigned the “focus distance” to the second operation ring 220, and assigns “focal length”, “aperture value”, and the like to the second operation ring 220. When the second operation ring 220 is rotated to the right, the “focus distance” changes from “0.32 m” to “0.33 m”, and the second operation ring 220 is moved to the left. It shows that the “focus distance” changes from “0.32 m” to “0.31 m” when rotated.
  • the imaging apparatus 100 may be configured to change the allocation parameter on the help screen 601 when the help screen 601 is displayed on the liquid crystal monitor 32a. Further, the imaging apparatus 100 may be configured to change the parameter setting values on the help screen 601 when the help screen 601 is displayed on the liquid crystal monitor 32a.
  • the imaging apparatus 100 displays the assigned parameters of the operation unit corresponding to the indicators and the parameter setting values.
  • the structure to change may be sufficient.
  • the imaging apparatus 100 has a plurality of indicators 601a on the help screen 601 based on the operation of the cross button 33k, the front dial 33c, and the rear dial 33d when the help screen 601 is displayed on the display unit 32.
  • the configuration may be such that one of the 601h to 601h is selected, and the assignment parameter and the parameter setting value of the operation unit corresponding to the selected indicator are changed.
  • the first function button 33f, the second function button 33g, the third function button 33h, and the fourth function button 33i are configured to change the assigned parameter cyclically each time it is pressed. Yes. Accordingly, the imaging apparatus 100 cyclically sets the assigned parameter setting values in response to pressing of the first function button 33f, the second function button 33g, the third function button 33h, and the fourth function button 33i. Can be changed. Note that information indicating a certain parameter of the operation unit that has already been set may be displayed, for example, by changing the color or density of the character so that it can be identified.
  • the imaging apparatus 100 displays a help screen 601 on the liquid crystal monitor 32a or the EVF 32b when a help operation is input.
  • the help operation is, for example, an operation input by the touch sensor 33s of the icon 410 on the through image 401 shown in FIG. 4 or an operation input by a button in the operation unit 33 to which a help operation is assigned in advance.
  • the imaging apparatus 100 may be configured to display the help screen 601 on the liquid crystal monitor 32a of the display unit 32 for a predetermined time when the power switch 33r is operated to change the power state of the imaging apparatus 100 from off to on. Good.
  • the imaging apparatus 100 may be configured to include an operation unit that functions as a help operation when it is detected by the eye sensor 32c that the photographer is in contact with the viewfinder.
  • an operation unit that functions as a help operation when it is detected by the eye sensor 32c that the photographer is in contact with the viewfinder.
  • the imaging apparatus 100 is configured to recognize that a help operation is input when the erasing button 33o is pressed when it is detected by the eye sensor 32c that the photographer is in contact with the viewfinder. It may be.
  • FIGS. 9 to 10 show an example of the operation of the imaging apparatus 100.
  • FIG. When the power supply of the imaging apparatus 100 is turned on, the imaging apparatus 100 performs the operations illustrated in FIGS.
  • the microcomputer 50 of the imaging apparatus 100 determines whether or not it is in the shooting mode (step S11). If it is determined that the mode is not the shooting mode, the microcomputer 50 proceeds to the process of FIG.
  • step S11 determines whether or not lens replacement has been performed. That is, the microcomputer 50 determines whether or not the lens 200 is removed from the mount portion and the lens 200 is attached again.
  • the microcomputer 50 determines that the lens has been exchanged, the microcomputer 50 acquires lens information from the lens 200. (Step S13).
  • the microcomputer 50 obtains the through image, superimposes the OSD display on the through image, and displays it on the display unit 32 (step S14).
  • the microcomputer 50 determines whether or not there is an operation input while displaying the through image (step S15). When the microcomputer 50 determines that there is no operation input, the microcomputer 50 loops to the process of step S11.
  • step S16 determines whether the operation input is a help operation.
  • the microcomputer 50 determines whether the operation input is an operation of the shutter button 33b (step S17).
  • step S18 the microcomputer 50 performs shooting and loops to the process of step S11 (step S18). That is, the microcomputer 50 generates a charge by the image sensor 17 based on the setting information, and generates image data by the signal processing unit 18 and the A / D 19 according to the generated charge. Further, the microcomputer 50 stores the generated image data in the recording medium M attached to the memory I / F 61, and returns to the process of step S11.
  • step S19 When the microcomputer 50 determines that the operation input is not an operation of the shutter button 33b, the microcomputer 50 executes an operation corresponding to the operated button and loops to the process of step S11 (step S19).
  • step S16 When it is determined in step S16 that the operation input is a help operation, the microcomputer 50 causes the display unit 32 to display the help screen 601. For this purpose, the microcomputer 50 reads the button layout from the first storage area 57a of the storage unit 57 (step S20).
  • the microcomputer 50 reads the parameter DB from the second storage area 57b of the storage unit 57 (step S21).
  • the microcomputer 50 generates a help screen 601 based on the read button layout and parameter DB (step S22).
  • the microcomputer 50 displays the generated help screen 601 on the display unit 32 (step S23).
  • the microcomputer 50 determines whether or not an operation for rotating the button layout diagram has been input based on the operation input being displayed on the help screen 601 (step S24). If the microcomputer 50 determines that an operation for rotating the button layout diagram has been input, the microcomputer 50 loops to the process of step S20 and executes the processing of steps S20 to S23, and the button layout diagram of another angle according to the operation.
  • the help screen 601 is generated using Thereby, the imaging device 100 can sequentially rotate the button layout on the help screen 601 according to the operation input.
  • step S24 determines whether an operation for changing the assigned parameter or the parameter setting value has been input (step S25). If it is determined that an operation for changing the allocation parameter or the parameter setting value has been input, the microcomputer 50 changes the allocation parameter or the parameter setting value (step S26).
  • the microcomputer 50 determines whether or not the end operation of the help screen 601 has been performed (step S27). For example, when the shutter button 33b, movie button 33e, MENU button 33j, play button 33n, delete button 33o, or INFO button 33p is operated while the help screen 601 is displayed, the microcomputer 50 ends the help screen 601. It is determined that the operation has been performed. If it is determined that the end operation of the help screen 601 has been performed, the microcomputer 50 loops to step S11. If it is determined that the end operation of the help screen 601 has not been performed, the microcomputer 50 loops to step S24 and continues displaying the help screen 601.
  • the microcomputer 50 loops to step S20, and stores the button layout and the parameter DB corresponding to the changed shooting mode.
  • the help screen 601 is generated again using the read button layout diagram and parameter DB.
  • the imaging apparatus 100 can switch the content of the help screen 601 according to the operation of the mode dial 33a during display of the help screen 601.
  • the second storage area 57b of the storage unit 57 may include different parameter DBs for each photographing mode depending on the state of the “lever 1” and the state of the “lever 2” of the switching lever 33q.
  • the microcomputer 50 loops to step S20, and stores the button layout and the parameter DB corresponding to the changed state of the switching lever 33q.
  • the help screen 601 is generated again using the button layout diagram and parameter DB read out from the unit 57. Thereby, the imaging device 100 can switch the content of the help screen 601 according to the operation of the switching lever 33q while the help screen 601 is displayed.
  • the imaging apparatus 100 displays the assigned parameters of the operation unit corresponding to the indicators and the parameter setting values.
  • the structure to change may be sufficient.
  • the imaging apparatus 100 has a plurality of indicators 601a on the help screen 601 based on the operation of the cross button 33k, the front dial 33c, and the rear dial 33d when the help screen 601 is displayed on the display unit 32.
  • the configuration may be such that one of the 601h to 601h is selected, and the assignment parameter and the parameter setting value of the operation unit corresponding to the selected indicator are changed.
  • the microcomputer 50 responds to the operation by the touch sensor 33s while the help screen 601 is displayed on the liquid crystal monitor 32a, the angle of the button layout diagram, the display state of the assignment parameter, the setting value of the assignment parameter, etc. Can be changed.
  • step S11 If it is determined in step S11 that the shooting mode is not selected, the microcomputer 50 proceeds to step S31 in FIG.
  • the microcomputer 50 determines whether or not the imaging device 100 is in the reproduction mode (step S31).
  • the imaging apparatus 100 shifts to a playback mode in which a playback screen that displays an image or a moving image stored in the recording medium M is displayed on the liquid crystal monitor 32a.
  • the microcomputer 50 causes the display unit 32 to reproduce a reproduction screen for reproducing an image or a moving image (step S32).
  • the microcomputer 50 determines whether or not an operation for switching an image or a moving image to be displayed in a state where the reproduction screen is displayed on the display unit 32 is input (step S33).
  • the microcomputer 50 determines that an operation for switching an image or a moving image has been input, the microcomputer 50 switches the image or the moving image to be displayed by the display unit 32 (step S34).
  • the microcomputer 50 determines whether or not the display screen display end operation has been performed (step S35). For example, when the shutter button 33b, movie button 33e, or MENU button 33j is operated during display of the playback screen, the microcomputer 50 determines that the playback screen end operation has been performed. If it is determined that the end operation of the help screen 601 has been performed, the microcomputer 50 loops to step S11 in FIG. If it is determined that the playback screen end operation has not been performed, the microcomputer 50 loops to step S33 and continues displaying the playback screen.
  • step S31 If it is determined in step S31 that the playback mode is not selected, the microcomputer 50 recognizes that the communication state with the slate PC 300 is established. The microcomputer 50 determines whether or not a status confirmation request for confirming the setting status of various parameters in the imaging apparatus 100 and the assigned parameters assigned to each operation unit has been transmitted from the slate PC 300 (step S36). .
  • the microcomputer 50 When the microcomputer 50 does not recognize that the state confirmation request is transmitted from the slate PC 300, that is, when it does not receive the state confirmation request transmitted from the slate PC 300, the microcomputer 50 displays the reproduction screen as described above. Is transmitted to the slate PC 300 (step S37).
  • the slate PC 300 When the slate PC 300 receives an image or a moving image from the imaging device 100, the slate PC 300 can reproduce the image or the moving image received from the imaging device 100 on its own display device. Furthermore, the microcomputer 50 can transmit an arbitrary image or moving image to the slate PC 300 in response to a request from the slate PC 300.
  • step S36 when it is recognized in step S36 that the status confirmation request has been transmitted from the slate PC 300, that is, when the status confirmation request transmitted from the slate PC 300 is received, the above-described help screen and various kinds of information are displayed on the slate PC 300. Various information for displaying the parameter setting status is transmitted to the slate PC 300 (step S38).
  • the microcomputer 50 when the microcomputer 50 receives the state confirmation request output from the slate PC 300, the microcomputer 50 reads the button layout from the first storage area 57 a of the storage unit 57 and reads the parameter DB into the second storage area of the storage unit 57.
  • the button layout diagram and parameter DB read out from 57b are transmitted to the slate PC 300.
  • the slate PC 300 When the slate PC 300 receives the button layout diagram and the parameter DB from the imaging device 100, the slate PC 300 performs the same processing as the imaging device 100 to generate a state confirmation screen including the same display as the help screen 601, and the generated state The confirmation screen is displayed on its own display device.
  • FIG. 11 shows an example of the configuration of the slate PC 300.
  • the slate PC 300 includes a control unit 350, an operation input unit 364, a communication unit 371, and a storage device 374. Furthermore, the slate PC 300 includes a camera 310, a speaker 322, a microphone 323, a display 334, and a touch sensor 335.
  • the camera 310 is a camera provided inside the slate PC 300.
  • the camera 310 includes an optical system that receives light and an image sensor that converts the light into an electrical signal.
  • the camera 310 generates light image data by converting light received by the optical system into an electrical signal using the image sensor under the control of the control unit 350.
  • the control unit 350 functions as a control unit that controls the operation of each unit of the slate PC 300.
  • the control unit 350 includes a CPU 351, a ROM 352, a RAM 353, a nonvolatile memory 354, and the like.
  • the control unit 350 performs various processes based on operation signals supplied from the operation input unit 364 or the touch sensor 335.
  • the CPU 351 includes arithmetic elements that execute various arithmetic processes.
  • the CPU 351 realizes various functions by executing programs stored in the ROM 352, the nonvolatile memory 354, or the like.
  • the ROM 352 stores a program for controlling the slate PC 300, a program for realizing various functions, and the like.
  • the CPU 351 activates a program stored in the ROM 352 based on the operation signal supplied from the operation input unit 364. Thereby, the control part 350 controls operation
  • the RAM 353 functions as a work memory for the CPU 351. That is, the RAM 353 stores the calculation result of the CPU 351, data read by the CPU 351, and the like.
  • the nonvolatile memory 354 is a nonvolatile memory that stores various setting information, programs, and the like.
  • the CPU 351 can execute various processes based on data such as applications stored in the storage device 374.
  • control unit 350 can generate video signals such as various screens and display them on the display 334 according to the application executed by the CPU 351.
  • control unit 350 can generate various audio signals such as audio according to the application being executed by the CPU 351 and output the audio signals through the speaker 322.
  • Speaker 322 reproduces sound based on the supplied audio signal.
  • the microphone 323 is a sound collection unit that generates a signal (recorded signal) based on sound outside the slate PC 300.
  • the microphone 323 supplies the recording signal to the control unit 350.
  • the display 334 includes, for example, a liquid crystal display device including a liquid crystal display panel including a plurality of pixels arranged in a matrix and a backlight that illuminates the liquid crystal panel.
  • the display 334 displays a video based on the video signal.
  • the touch sensor 335 is a device that generates position information based on a capacitive sensor, a thermo sensor, or another method.
  • the touch sensor 335 is provided integrally with the display 334. Accordingly, the touch sensor 335 can generate an operation signal based on an operation on the screen displayed on the display 334 and supply the operation signal to the control unit 350.
  • the operation input unit 364 includes, for example, a key that generates an operation signal in response to an operation input by the user.
  • the operation input unit 364 includes, for example, a volume adjustment key for adjusting the volume, a brightness adjustment key for adjusting the display brightness of the display 334, and a power key for switching the power state of the slate PC 300.
  • the operation input unit 364 may further include a trackball for causing the slate PC 300 to perform various selection operations.
  • the operation input unit 364 generates an operation signal in response to the above-described key operation, and supplies the operation signal to the control unit 350.
  • the operation input unit 364 may be configured to receive an operation signal from a keyboard, a mouse, or another input device that can generate an operation signal.
  • the operation input unit 364 receives an operation signal from an input device connected via USB or Bluetooth, and supplies the operation signal to the control unit 350.
  • the communication unit 371 can communicate with other devices on a network such as the Internet or an intranet via a wireless LAN. Further, the communication unit 371 may be configured to communicate directly with other devices via a wireless LAN.
  • the slate PC 300 includes a power supply unit (not shown).
  • the power supply unit includes a battery and a terminal (for example, a DC jack) for connecting to an adapter that receives power from a commercial power source or the like.
  • the power supply unit charges the battery with the power received from the commercial power supply.
  • the power supply unit supplies the power charged in the battery to each unit in the slate PC 300.
  • the storage device 374 includes a hard disk drive (HDD), a solid state drive (SSD), or a semiconductor memory.
  • the storage device 374 can store programs executed by the CPU 351 of the control unit 350, applications, various data, and the like.
  • the storage device 374 stores, for example, an operating system (OS) and various applications that can be executed on the OS.
  • the storage device 374 includes, for example, an application (control application) for controlling a device (for example, the imaging device 100) that can communicate with the slate PC 300.
  • the control unit 350 of the slate PC 300 is set by the imaging device 100 by executing a control application, shooting by the imaging device 100, playback of images and moving images stored in the storage medium M in the imaging device 100, and the imaging device 100. Processing such as generation of a status confirmation screen for confirming various parameters can be executed.
  • FIG. 12 to 14 show examples of the operation of the slate PC 300.
  • FIG. FIG. 12 shows an example of a screen displayed on the slate PC 300 when the slate PC generates a state confirmation screen.
  • FIG. 13 is a flowchart illustrating an example of the operation of the slate PC 300 when the slate PC 300 generates a state confirmation screen.
  • FIG. 14 is a flowchart illustrating an example of the operation of the imaging apparatus 100 when the slate PC 300 generates a state confirmation screen.
  • the control unit 350 of the slate PC 300 displays icons for starting various applications on the home screen 1201 displayed on the display 334.
  • the control unit 350 causes the display 334 to display the menu screen 1202 of the control application for external camera control.
  • the control unit 350 displays buttons such as a shooting button 1202a, a reproduction button 1202b, a state confirmation button 1202c, an end button 1202d, and a setting button 1202e on the menu screen 1202 in a state that can be selected by the touch sensor 335.
  • the photographing button 1202a is a button for causing the display to display a screen for causing the imaging apparatus 100 to perform photographing.
  • the playback button 1202b is a button for playing back an image or a moving image stored in the storage medium M in the imaging apparatus 100 on the slate PC 300.
  • the state confirmation button 1202c causes the display 334 to display a state confirmation screen for allowing the user to confirm the setting states of various parameters of the imaging apparatus 100 and the parameters assigned to each operation unit in the same manner as the help screen 601 described above. It is a button for.
  • the end button 1202d is a button for ending the control application.
  • the setting button 1202e is a button for executing various settings of the control application.
  • the control unit 350 generates a state confirmation request (step S41).
  • the status confirmation request is information for requesting the imaging apparatus 100 for information for generating a status confirmation screen.
  • the control unit 350 transmits the generated state confirmation request to the imaging device 100 (step S42).
  • the control unit 350 determines whether or not the parameter DB and the button layout are received (step S43). When it is determined that the parameter DB and the button layout diagram have not been received (step S43, NO), the control unit 350 performs the process of step S43 again. That is, after transmitting the state confirmation request, the control unit 350 waits until the parameter DB and the button layout diagram transmitted from the imaging device 100 are received.
  • step S43 If it is determined that the parameter DB and the button layout diagram have been received (step S43, YES), the control unit 350 generates the state confirmation screen 1203 shown in FIG. 12 based on the received parameter DB and button layout diagram (see FIG. 12). Step S44). The control unit 350 displays the generated state confirmation screen 1203 on the display 334 (step S45).
  • the microcomputer 50 of the imaging device 100 executes the operation shown in FIG.
  • the microcomputer 50 receives the status confirmation request transmitted from the slate PC 300 (step S46).
  • the microcomputer 50 When the microcomputer 50 receives the state confirmation request transmitted from the slate PC 300, the microcomputer 50 reads the button layout from the first storage area 57 a of the storage unit 57 (step S 47), and stores the parameter DB in the second storage unit 57. Read from the storage area 57b (step S48).
  • the microcomputer 50 transmits the parameter DB and the button layout to the slate PC 300 (step S49).
  • the status confirmation screen 1203 can be assigned to an indicator 1203a for allowing the user to confirm various parameters set in the imaging apparatus 100, an assigned parameter assigned to each operation unit of the imaging apparatus 100, and each operation part.
  • a help screen 1203b showing assignable parameters and an end button 1203c for ending the display of the status confirmation screen 1203 are included.
  • the control unit 350 of the slate PC 300 may be configured to change the parameters of the imaging device 100 based on a touch operation on an indicator corresponding to each operation unit on the help screen 1203b. .
  • the control unit 350 generates a control signal for changing the parameters of the imaging apparatus 100 based on the touch operation, and transmits the generated control signal to the imaging apparatus 100.
  • the slate PC 300 can cause the user to check various parameters of the imaging apparatus 100 and can change various parameters based on operations on the slate PC.
  • the imaging apparatus 100 can display the assignment parameters assigned to each operation unit and the assignable parameters that can be assigned by each operation unit in a state associated with the button layout diagram. it can. Accordingly, in the imaging apparatus 100 including a plurality of operation units to which a function for changing various parameters can be arbitrarily assigned, which parameter is assigned to which operation unit is displayed to the user on one screen. Can be recognized. For example, even when there is a function that is used infrequently, when the assignment of a familiar function is changed, or when the function assigned to a plurality of operation units is changed, the imaging apparatus 100 may It is possible to make the user recognize the function assigned to the one on one screen.
  • the user can easily confirm the function assigned to the operation unit.
  • it is easy to operate the imaging device instantaneously as intended by the user, and it is possible to prevent the convenience from being impaired.
  • the slate PC 300 can display the assignment parameters assigned to each operation unit of the imaging apparatus 100 and the assignable parameters that can be assigned by each operation unit in a state associated with the button layout diagram. Thereby, the slate PC 300 can make the user recognize which parameter is assigned to the operation unit of the imaging apparatus 100 on one screen.
  • the imaging device 100 transmits the parameter DB and the button layout diagram to the slate PC 300, and the imaging device 100 and the slate when the slate PC 300 generates a help screen based on the parameter DB and the button layout diagram.
  • the imaging apparatus 100 may be configured to generate a help screen based on the parameter DB and the button layout when receiving a status confirmation request from the slate PC 300, and transmit the generated help screen to the slate PC 300.
  • the slate PC 300 transmits a status confirmation request to the imaging apparatus 100, receives a help screen as a response to the request, and displays the received help screen on the display 334.
  • the imaging apparatus 100 includes the front dial 33c, the rear dial 33d, the first function button 33f, the second function button 33g, the third function button 33h, and the fourth function on the help screen 601.
  • the assignment parameter and assignable parameter of the button 33i are displayed, the present invention is not limited to this structure.
  • the assignment parameter and assignable parameter displayed on the help screen 601 may correspond to any operation unit. Further, for example, the assignment parameters and assignable parameters displayed on the help screen 601 may be further narrowed down according to the shooting mode.
  • the imaging apparatus 100 may include a motor for switching the mode dial 33a.
  • the imaging apparatus 100 can change the shooting mode based on an operation on the help screen 601. That is, when an operation for changing the shooting mode is input on the help screen 601, the imaging apparatus 100 can change the shooting mode by driving the motor and rotating the mode dial 33a.
  • FIG. 15 to 17 show an example of a lens-type imaging device 500 that operates in cooperation with the slate PC 300.
  • FIG. 15 shows an example of a control system of the imaging apparatus 500.
  • 16 and 17 show examples of the appearance of the imaging apparatus 500.
  • FIG. 15 shows an example of a control system of the imaging apparatus 500.
  • the lens-type imaging device 500 receives various control signals from a slate PC 300 such as a tablet PC, a smartphone, or a PC in which an input device such as a keyboard is combined with a slate-like display device, and based on the received control signals.
  • a slate PC 300 such as a tablet PC, a smartphone, or a PC in which an input device such as a keyboard is combined with a slate-like display device, and based on the received control signals.
  • An imaging process can be performed and an image or a moving image can be stored in the storage medium M.
  • the lens-type imaging device 500 can display an image or a moving image stored in the storage medium M by transmitting it to the slate PC.
  • the lens-type imaging device 500 can acquire a through image and sequentially transmit it to the slate PC 300 for display.
  • the lens-type imaging device 500 acquires the subject image that has passed through the lens as an image by the imaging device.
  • the imaging apparatus 100 can store an image in a storage medium when the shutter button is fully pressed.
  • the lens-type imaging device 500 includes a lens 510, an imaging element 520, a signal processing unit 530, an image processing unit 540, a microcomputer 550, a storage unit 555, a sound collection unit 560, an operation unit 570, a memory interface (I / F) 580, And a communication unit 590.
  • the signal processing unit 530, the image processing unit 540, the microcomputer 550, the sound collection unit 560, the operation unit 570, the memory interface (I / F) 580, and the communication unit 590 are connected to each other via the data bus 80.
  • the lens-type imaging device 500 may be configured to include a mount on which an interchangeable lens can be attached instead of the lens 510.
  • the mount is provided with a contact terminal.
  • the lens-type imaging device 500 can communicate with the interchangeable lens mounted on the mount through the contact terminal. Thereby, the lens-type imaging device 500 can acquire various lens information regarding the interchangeable lens such as the focal length, the aperture value, the lens external view of the interchangeable lens, and the parameter DB from the interchangeable lens.
  • the lens 510 receives light and forms an image on the image sensor 520 with the received light.
  • the lens 510 includes an optical system in which a plurality of lenses are combined, a CPU, a ROM, and the like.
  • the image sensor 520 has the same configuration as the image sensor 17 and photoelectrically converts the subject image that has passed through the lens 510.
  • the signal processing unit 530 has the same configuration as the signal processing unit 18 and the A / D 19, performs signal processing on the signal output from the image sensor 520, quantizes the signal, and acquires image data.
  • the image processing unit 540 performs various types of image processing such as color correction, gamma ( ⁇ ) correction, contrast correction, black and white / color mode processing, and live view image processing on the image data under the control of the microcomputer 550. Do. Further, the image processing unit 540 acquires subject luminance information used for exposure control and the like using the image data.
  • the lens-type imaging device 500 controls the ISO, the aperture value, and the shutter speed according to the exposure value based on the subject luminance information.
  • the image processing unit 540 compresses the image data using the Jpeg method, and generates Jpeg method image data (Jpeg data).
  • the image processing unit 540 outputs Jpeg data to the recording medium M mounted on the memory I / F 580 based on the control of the microcomputer 550.
  • the lens-type imaging device 500 can store the Jpeg data of the captured image in the recording medium M.
  • the microcomputer 550 is a control unit that controls various operations of the lens-type imaging device 500.
  • the microcomputer 550 includes, for example, a CPU and a cache memory.
  • the storage unit 555 stores a program for controlling the lens-type imaging device 500, a program for realizing various functions, various setting information, and the like.
  • the CPU is an arithmetic element that executes various arithmetic processes.
  • the cache memory temporarily stores data read by the CPU as a result of calculation by the CPU.
  • the microcomputer 550 executes a program stored in the storage unit 555 based on the operation signal supplied from the operation unit 570, and controls the operation of each unit of the lens-type imaging device 500.
  • the sound collection unit 560 includes a stereo microphone for acquiring sound when shooting a moving image.
  • the sound collection unit 560 can acquire stereo sound using a stereo microphone.
  • the sound collecting unit 560 can also acquire monaural sound using a stereo microphone.
  • the operation unit 570 includes an operation button and an operation ring for receiving an operation by the user of the lens-type imaging device 500. As shown in FIGS. 16 and 17, the operation unit 570 includes a shutter button 570a, a first operation ring 570b, and a second operation ring 570c. The first operation ring 570b and the second operation ring 570c can be assigned parameters for imaging such as an in-focus distance, a focal length, and an aperture value, respectively. Furthermore, the operation unit 570 may include a power switch that switches the power state of the lens-type imaging device 500 between ON and OFF.
  • the shutter button 570a is a button for causing the lens-type imaging device 500 to perform a release operation and an autofocus (AF) operation. For example, when the shutter button 570a is half-pressed, the lens-type imaging device 500 performs an autofocus operation. In other words, the lens-type imaging device 500 outputs a control signal to the lens 510 so that the object in the AF area is focused.
  • AF autofocus
  • the lens-type imaging device 500 when the shutter button 570a is fully pressed, the lens-type imaging device 500 performs shooting. That is, the lens-type imaging device 500 generates charges by the image sensor 520 based on the setting information, generates image data by the signal processing unit 530 according to the generated charges, and converts the image data by the image processing unit 540. Processing is performed to convert the data into Jpeg data, and the Jpeg data is stored in the recording medium M attached to the memory I / F 580.
  • the lens-type imaging device 500 may be configured to store, for example, both the Jpeg data and the image data converted by the signal processing unit 530 in the recording medium M attached to the memory I / F 580.
  • the optical system of the lens 510 includes, for example, a focusing lens, a zooming lens, and a diaphragm blade.
  • the lens 510 drives a focusing lens of the optical system based on the control of the microcomputer 550.
  • the lens 510 is used for focusing according to the operation of the first operation ring 570b or the second operation ring 570c when a focusing distance is assigned to the first operation ring 570b or the second operation ring 570c. This lens can be driven to change the in-focus distance.
  • the lens 510 responds to the operation of the first operation ring 570b or the second operation ring 570c.
  • the lens for zooming can be driven to change the focal length.
  • the lens 510 responds to the operation of the first operation ring 570b or the second operation ring 570c.
  • the aperture value can be changed by driving the aperture blade.
  • the lens 510 may be configured to perform zooming, focusing, and change of the aperture value based on a control signal received from the slate PC 300 via the communication unit 590.
  • the memory I / F 580 controls data input / output between the recording medium M and each unit of the lens-type imaging device 500.
  • the memory I / F 580 includes a card slot into which the recording medium M can be inserted.
  • the recording medium M includes a plurality of contact terminals.
  • the memory I / F 580 includes a contact terminal that is electrically connected to the contact terminal of the recording medium M when the recording medium M is inserted into the card slot. Thereby, the lens-type imaging device 500 can execute storing data in the recording medium M and reading data from the recording medium M.
  • the communication unit 590 is a module for performing various data communications with the slate PC 300.
  • the communication unit 590 can communicate with the slate PC 300 by, for example, a wireless LAN or Bluetooth.
  • the communication unit 590 may communicate with the slate PC 300 via the network using a wireless LAN.
  • the lens-type imaging device 500 can communicate with the slate PC 300 or other various devices via the communication unit 590.
  • the storage unit 555 includes a first storage area 555a and a second storage area 555b.
  • the first storage area 555a stores in advance a diagram (lens exterior view) showing the positions of various buttons and operation rings on the exterior of the lens-type imaging device 500.
  • the first storage area 555a stores in advance a plurality of button layout diagrams when the lens-type imaging device 500 is viewed from a plurality of angles.
  • the second storage area 57b stores information indicating the presence / absence of an operation (operation presence / absence), a corresponding operation unit (corresponding operation unit), and a position on the lens external view (operation unit position) for each parameter name. Is stored in a parameter database (parameter DB) associated with.
  • the lens-type imaging device 500 as described above is assumed to be used by being mounted on the slate PC 300, for example. As shown in FIGS. 16 and 17, the lens-type imaging device 500 is attached to the slate PC 300 via the attachment tool 301.
  • the attachment device 301 is formed in a bowl shape, and a convex lens attachment portion 303 is provided on the attachment flat plate 302.
  • the lens-type imaging device 500 is attached by locking with respect to the lens attachment portion 303.
  • the lens-type imaging device 500 can sequentially transmit the obtained through image to the slate PC 300 and display the through image on the display 334 of the slate PC 300.
  • the lens-type imaging device 500 transmits a lens appearance diagram and a parameter DB to the slate PC 300 in response to a request from the slate PC 300. Accordingly, the lens-type imaging device 500 causes the slate PC 300 to generate a help screen for allowing the user to recognize the assignment parameters assigned to the respective units of the operation unit 570 of the lens-type imaging device 500, and displays the help screen on the display 334 of the slate PC 300. Can be displayed.
  • FIG. 18 and 19 are flowcharts showing an example of the operation of the lens-type imaging device 500 and the slate PC 300 that controls the lens-type imaging device 500.
  • FIG. 18 shows an example of the operation of the lens-type imaging device 500.
  • FIG. 19 shows an example of the operation of the slate PC 300 that controls the lens-type imaging device 500.
  • the lens-type imaging device 500 waits for data communication with the slate PC 300 to be established. Data communication is established by performing a predetermined protocol between the slate PC 300 and the lens-type imaging device 500.
  • the microcomputer 550 of the lens-type imaging device 500 performs mode communication (step S51).
  • the microcomputer 550 has modes such as a shooting mode, a playback mode, and a confirmation communication mode.
  • the microcomputer 550 recognizes which mode is instructed based on the control of the slate PC 300, and operates by switching to the recognized mode.
  • the microcomputer 550 determines whether or not the shooting mode is instructed by the slate PC 300 (step S52). If it is determined that the shooting mode is instructed, the microcomputer 550 drives the lens 510 to form an image of the received light on the image sensor 520. The microcomputer 550 acquires a through image from the imaged light based on the image sensor 520, the signal processing unit 530, and the image processing unit 540. The microcomputer 550 sequentially transmits the acquired through image to the slate PC 300 (step S53).
  • the microcomputer 550 determines whether or not there is a photographing operation (step S54). When the shutter button 570a is operated or a control signal instructing imaging is received from the slate PC 300, the microcomputer 550 determines that there is an imaging operation.
  • step S55 the microcomputer 550 executes shooting and loops to the process of step S51 (step S55). That is, the microcomputer 550 generates electric charges by the image sensor 520 based on the setting information, and generates image data by the signal processing unit 530 and the image processing unit 540 according to the generated electric charges. Further, the microcomputer 550 stores the generated image data in the recording medium M attached to the memory I / F 580, and returns to the process of step S11.
  • the microcomputer 550 determines whether or not the playback mode is instructed by the slate PC 300 (step S56). If it is determined that the playback mode is instructed, the microcomputer 550 transmits the image or moving image designated by the slate PC 300 to the slate PC 300 (step S57).
  • the microcomputer 550 determines whether or not the confirmation communication mode is instructed by the slate PC 300 (step S58). When determining that the confirmation communication mode is instructed, the microcomputer 550 determines whether it is necessary to change the display on the slate PC 300 based on the control signal received from the slate PC 300 (step S59). For example, when an operation that requires changing the lens appearance diagram, changing parameters, or changing other displays is performed on the slate PC 300, the microcomputer 550 determines that the display needs to be changed. Further, the microcomputer 550 determines that the display on the slate PC 300 needs to be changed even when the parameter for imaging is changed by the operation of the operation unit 570. For example, even when an operation for opening a help screen is first input on the slate PC 300, the microcomputer 550 determines that the display needs to be changed.
  • the microcomputer 550 When it is determined that display change on the slate PC 300 is necessary, the microcomputer 550 generates a help screen and transmits it to the slate PC 300. For this purpose, the microcomputer 550 reads the lens external view from the first storage area 555a of the storage unit 555 (step S60).
  • microcomputer 550 reads the parameter DB from the second storage area 555b of the storage unit 555 (step S61).
  • the microcomputer 550 generates a help screen based on the read lens appearance diagram and parameter DB (step S62). For example, as with the help screen 601, the microcomputer 550 generates a help screen that displays assignment parameters assigned to positions corresponding to the respective portions of the operation unit 570 on the lens external view, assignable parameters, and the like.
  • the microcomputer 550 transmits the generated help screen to the slate PC 300 via the communication unit 590 (step S63). Accordingly, the slate PC 300 can display a help screen on the display 334 that allows the user to confirm the assignment parameters and assignable parameters of each part of the lens-type imaging device 500 at a time.
  • the microcomputer 550 determines whether or not an operation for changing the assigned parameter or the set value of the parameter has been input (step S64). If it is determined that an operation for changing the allocation parameter or the parameter setting value has been input, the microcomputer 550 changes the allocation parameter or the parameter setting value and loops to step S51 (step S65).
  • FIG. 19 shows an example of the operation of the slate PC 300 that operates corresponding to the operation shown in FIG.
  • the control unit 350 of the slate PC 300 causes the display 334 to display a home screen on which an icon for starting an application for controlling the lens-type imaging device 500 (a control application corresponding to the lens-type imaging device 500) is displayed (step S3). S71).
  • a control application for controlling the lens-type imaging device 500 is selected on the home screen (step S72)
  • the control unit 350 causes the display 334 to display a menu screen of the control application.
  • the control unit 350 selects one of a shooting mode, a playback mode, and a confirmation communication mode for checking the state of the lens-type imaging device 500 in accordance with an operation on the menu screen. Further, the control unit 350 performs mode communication control for causing the lens-type imaging device 500 to recognize the mode selected via the communication unit 371 (step S73).
  • Control unit 350 determines whether or not communication with lens-type imaging device 500 has been normally performed (step S74). If it is determined that communication with the lens-type imaging device 500 is not normally performed, a communication NG process is performed (step S75). In this case, for example, the control unit 350 causes the display 334 to display an alert indicating that a communication failure has occurred with the lens-type imaging device 500, and loops to step S73.
  • step S74 determines whether the communication with the lens-type imaging device 500 has been normally performed. If it is determined in step S74 that the communication with the lens-type imaging device 500 has been normally performed, the control unit 350 determines whether the lens-type imaging device 500 has been instructed to perform a shooting mode (step S76). When determining that the photographing mode is instructed to the lens-type imaging device 500, the control unit 350 receives a through image from the lens-type imaging device 500, and displays the received through image on the display 334 (step S77).
  • control unit 350 determines whether or not a photographing operation has been input (step S79). For example, when the lens-type imaging device 500 is in the shooting mode, the control unit 350 displays a shooting button for causing the lens-type imaging device 500 to perform shooting on the display 334. When this shooting button is operated, it is determined that a shooting operation has been input. In addition, when the shutter button 570a of the lens-type imaging device 500 is operated, the control unit 350 determines that a shooting operation has been input.
  • control unit 350 If it is determined that the shooting operation has been input, the control unit 350 generates a control signal for instructing the lens-type imaging device 500 to perform shooting, transmits the generated control signal to the lens-type imaging device 500, and in step S73.
  • step S76 If it is determined in step S76 that the imaging mode is not instructed to the lens type imaging apparatus 500, the control unit 350 determines whether or not the playback mode has been instructed to the lens type imaging apparatus 500 (step S80).
  • the control unit 350 designates a reproduction image or a reproduction moving image (step S81). For example, the control unit 350 acquires a list (for example, thumbnails) of images and moving images stored in the storage medium M attached to the lens-type imaging device 500. The control unit 350 designates a reproduced image, or a reproduced image or a reproduced moving image in accordance with an operation from the acquired list.
  • a list for example, thumbnails
  • the lens-type imaging device 500 transmits the image or moving image instructed by the slate PC 300 in step S57 of FIG. 18 to the slate PC 300 as described above.
  • Control unit 350 determines whether a reproduced image or a reproduced moving image has been received (step S82). When determining that the playback image or playback video has been received, the control unit 350 displays the received playback image or playback video on the display 334 and loops to the process of step S73 (step S83).
  • control unit 350 when it is determined that the reproduced image or the reproduced moving image is not received in step S82, the control unit 350 performs a communication NG process (step S84). In this case, for example, the control unit 350 causes the display 334 to display an alert indicating that a communication failure has occurred with the lens-type imaging device 500, and loops to step S73.
  • step S80 If it is determined in step S80 that the reproduction mode is not instructed to the lens type imaging apparatus 500, the control unit 350 determines whether or not the confirmation communication mode is instructed to the lens type imaging apparatus 500 (step S85).
  • the control unit 350 executes confirmation communication (step S86). In this case, the control unit 350 transmits a control signal related to confirmation communication to the lens-type imaging device 500. For example, when opening a help screen for checking parameters assigned to each operation unit of the lens-type imaging device 500 for the first time, the control unit 350 requests the lens-type imaging device 500 for a help screen. In addition, when the help screen is already open on the display 334, the control unit 350 determines whether or not the display on the help screen needs to be changed. When determining that the display on the help screen needs to be changed, the control unit 350 requests the lens-type imaging device 500 for a new help screen.
  • the lens-type imaging device 500 generates the help screen requested by the slate PC 300 in steps S60 to S63 in FIG. 18 as described above, and transmits the generated help screen to the slate PC 300.
  • the control unit 350 determines whether an image of the help screen has been received (step S87). When determining that the help screen image has been received, the control unit 350 displays the help screen on the display 334 based on the received image, and loops to the process of step S73 (step S88).
  • control unit 350 determines in step S87 that the help screen image has not been received, the control unit 350 performs communication NG processing (step S89). In this case, for example, the control unit 350 causes the display 334 to display an alert indicating that a communication failure has occurred with the lens-type imaging device 500, and loops to step S73.
  • the lens-type imaging device 500 generates a help screen in a state where the assignment parameters assigned to each operation unit and the assignable parameters that can be assigned by each operation unit are associated with the lens external view.
  • the generated help screen can be displayed on the slate PC 300 which is a control-side device.
  • the storage unit 57 of the imaging device 100 has a button layout
  • the ROM 200c of the lens 200 has a configuration of a lens appearance.
  • the slate PC 300 may include a button layout diagram and a lens external view.
  • the application (control application) for controlling the imaging device 100 or the lens-type imaging device 500 may be configured to include a button layout diagram and a lens external view.
  • the slate PC 300 can acquire a button layout diagram and a lens appearance diagram when the control application is downloaded from, for example, a server.
  • the slate PC 300 may be configured to acquire a button layout diagram and a lens external view from the imaging device 100 when performing communication for initial setting with the imaging device 100.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

 一実施形態に係る撮像装置(100)は、撮像の為の複数のパラメータが割当パラメータとしてそれぞれ割り当てられた複数の操作部(33)と、前記各操作部の操作に基づいて割当パラメータの設定値を制御するパラメータ制御部(50)と、前記複数の操作部の位置を示す操作部配置図上に、前記割当パラメータ毎に割り当てられている前記操作部を示すパラメータデータベースに基づいて前記各操作部に対応した割当パラメータを表示させてヘルプ画面を生成する画面生成部(50)と、を具備する。

Description

撮像装置、及び撮像装置の制御方法、及び撮像システム
 本発明の実施形態は、撮像装置、及び撮像装置の制御方法、及び撮像システムに関する。
 撮像装置は、一般的に、光に基づいて画像を取得する撮像素子と、撮像素子に光を結像させるレンズなどの光学系と、液晶または有機ELなどの表示装置を備える。撮像装置は、撮像に関する絞り値(F値)、シャッター速度(SS)、ISO感度、及び露出値(Ev値)などのパラメータの設定値を変更する機能を割り当て可能な複数の操作部を備える。
 例えば日本国特開平8-339020号公報及び特開2003-319211号公報には、機器の外観図と、操作手順などを表示装置に表示してユーザに認識させる装置が開示されている。
 上記のような撮像の為のパラメータを変更する為の機能を任意で割り当てることができる複数の操作部を複数備える撮像装置が一般的に普及している。このような撮像装置では、個人の好みに合わせて操作部に機能を割り当てることができる反面、ある操作部に割り当てられた機能をユーザが認識している必要があるという問題がある。例えば、使用頻度が低い機能が存在する場合、使い慣れた機能の割当が変更された場合、または複数の操作部に割り当てられた機能が変更された場合、操作部に割り当てられている機能をユーザが十分に認識できていない可能性がある。このような場合、ユーザが意図した通りに撮像装置を瞬時に操作することが難しくなり、利便性を損なう可能性があるという課題がある。
 本発明は、複数の操作部に対する機能を変更しても利便性を損なうことのない撮像装置、及び撮像装置の制御方法、及び撮像システムを提供することを目的とする。
 一実施形態に係る撮像装置は、撮像の為の複数のパラメータが割当パラメータとしてそれぞれ割り当てられた複数の操作部と、前記各操作部の操作に基づいて割当パラメータの設定値を制御するパラメータ制御部と、前記複数の操作部の位置を示す操作部配置図上に、前記割当パラメータ毎に割り当てられている前記操作部を示すパラメータデータベースに基づいて前記各操作部に対応した割当パラメータを表示させてヘルプ画面を生成する画面生成部と、を具備する。
 本発明によれば、より利便性の高い撮像装置、及び撮像装置の制御方法、及び撮像システムを提供することができる。
図1は、一実施形態に係る撮像装置の制御系の例について説明する為の図である。 図2は、一実施形態に係る撮像装置の外観の例について説明する為の図である。 図3は、一実施形態に係る撮像装置の外観の例について説明する為の図である。 図4は、一実施形態に係る撮像装置の表示例について説明する為の図である。 図5は、一実施形態に係る撮像装置の記憶部に記憶される情報の例について説明する為の図である。 図6は、一実施形態に係る撮像装置の表示例について説明する為の図である。 図7は、一実施形態に係る撮像装置の表示例について説明する為の図である。 図8は、一実施形態に係る撮像装置の表示例について説明する為の図である。 図9は、一実施形態に係る撮像装置の動作の例について説明する為の図である。 図10は、一実施形態に係る撮像装置の動作の例について説明する為の図である。 図11は、一実施形態に係る携帯端末の構成の例について説明する為の図である。 図12は、一実施形態に係る携帯端末の動作及び表示の例について説明する為の図である。 図13は、一実施形態に係る携帯端末の動作の例について説明する為の図である。 図14は、一実施形態に係る撮像装置の動作の例について説明する為の図である。 図15は、一実施形態に係るレンズ型撮像装置の構成の例について説明する為の図である。 図16は、一実施形態に係るレンズ型撮像装置が装着された携帯端末の例について説明する為の図である。 図17は、一実施形態に係るレンズ型撮像装置が装着された携帯端末の例について説明する為の図である。 図18は、一実施形態に係るレンズ型撮像装置の動作の例について説明する為の図である。 図19は、一実施形態に係るレンズ型撮像装置を制御する携帯端末の動作の例について説明する為の図である。
 以下、図を参照しながら、一実施形態に係る撮像装置、及び撮像装置の制御方法、及び撮像システムについて詳細に説明する。
 (第1の実施形態) 
 図1は、撮像装置100の制御系、及び撮像装置100を含む撮像システム1の例を示す。図2及び図3は、撮像装置100の外観の例を示す。
 撮像システム1は、撮像装置100及び交換レンズ(以下レンズ200と称する)を含む。また、撮像システム1は、例えば、タブレットPC、スマートフォン、またはスレート状の表示装置にキーボードなどの入力装置が組み合わされたPCなどのスレートPC(携帯端末)300をさらに含んでいてもよい。撮像装置100とスレートPC300とは、有線または無線で互いに通信することができる。撮像装置100は、例えば、スレートPC300の制御に基づいて撮像動作、及び種々のパラメータの変更を実行することができる。またさらに、スレートPC300は、撮像装置100内の記録媒体に記録されている画像または動画の再生を実行することができる。
 撮像装置100は、レンズ200を通過した被写体像を撮像素子によって画像として取得する。また、撮像装置100は、この画像を液晶モニタ、有機ELディスプレイ等の表示装置にリアルタイムで表示させるライブビュー表示(またはスルー画表示)の機能を備える。また、撮像装置100は、シャッターボタン33bが全押し操作された場合に画像を記憶媒体に保存することができる。
 撮像装置100は、撮像素子17、信号処理部18、アナログディジタル変換器(A/D)19、画像処理部21、AE処理部22、Jpeg処理部31、表示部32、操作部33、集音部41、マイクロコンピュータ50、記憶部57、メモリインターフェース(I/F)61、及び通信部71を備える。
 A/D19、画像処理部21、AE処理部22、Jpeg処理部31、表示部32、操作部33、集音部41、マイクロコンピュータ50、メモリI/F61、及び通信部71は、データバス80を介して互いに接続されている。
 また、撮像装置100は、交換レンズを装着可能な図示されないマウントを備える。マウントには接触端子が設けられている。撮像装置100は、この接触端子によりマウントに装着されたレンズ200と通信を行うことができる。これにより、撮像装置100は、レンズ200から焦点距離、及び絞り値などのレンズ200に関する種々の情報をレンズ200から取得することができる。
 レンズ200は、光を受光し、受光した光を撮像素子17に結像させる。レンズ200は、複数のレンズが組み合わされた光学系200a、CPU200b、及びROM200cなどを備える。
 さらに、レンズ200は、図2に示されるように、第1の操作リング210、及び第2の操作リング220を備える。第1の操作リング210及び第2の操作リング220には、それぞれ合焦距離、焦点距離、及び絞り値(F値)などの撮像の為のパラメータをそれぞれ割り当てることができる。
 光学系200aは、例えば、フォーカシング用のレンズ、ズーミング用のレンズ、及び絞り羽根などを含む。レンズ200は、撮像装置100のマイクロコンピュータ50の制御に基づいて、光学系200aの合焦用のレンズを駆動する。また、レンズ200は、第1の操作リング210または第2の操作リング220に合焦距離が割り当てられている場合、レンズ200は、第1の操作リング210または第2の操作リング220の操作に応じてフォーカシング用のレンズを駆動して合焦距離を変更することができる。
 また、レンズ200は、第1の操作リング210または第2の操作リング220に焦点距離が割り当てられている場合、第1の操作リング210または第2の操作リング220の操作に応じてズーミング用のレンズを駆動し、焦点距離を変更することができる。
 また、レンズ200は、第1の操作リング210または第2の操作リング220に絞り値が割り当てられている場合、レンズ200は、第1の操作リング210または第2の操作リング220の操作に応じて絞り羽根を駆動して絞り値を変更することができる。
 また、レンズ200は、マウントを経由して撮像装置100から受信した制御信号に基づいて、ズーミング、フォーカシング、及び絞り値の変更を行う構成であってもよい。
 なお、撮像装置100は、レンズ200がマウントを介して装着されるのではなく、撮像装置の筐体100aにレンズ200が組み込まれている構成であってもよい。
 撮像素子17は、レンズ200が装着されるマウント内の後部(撮像装置100の筐体100aの内部側)に設けられる。撮像素子17は、レンズ200を通った被写体像を光電変換する画素が二次元的に複数配列された画素アレイを備える。撮像素子17の各画素は、レンズ200を通った光をそれぞれ光電変換し電荷を蓄えることができる。撮像素子17は、例えば、Charge Coupled Devices(CCD)、Complementary Metal Oxide Semiconductor(CMOS)、または他の二次元撮像素子である。
 信号処理部18は、撮像素子17から出力された信号に対して信号処理を施す。例えば、信号処理部18は、撮像素子17の各画素に蓄積された電荷を読み出す。即ち、信号処理部18は、撮像素子17により生成された画像を読み出す。さらに、信号処理部18は、読み出した画像に対して例えばアナログ増幅等の所定の信号処理を施し、信号処理を施した信号をA/D19に出力する。
 A/D19は、信号処理部18から供給された信号を量子化し、画像データを取得する。A/D19は、マイクロコンピュータ50の制御に基づいて画像データを画像処理部21、AE処理部22、及びJpeg処理部31などに出力する。即ち、レンズ200、撮像素子17、信号処理部18、及びA/D19などにより撮像部が構成される。また、撮像部は、筐体100aにより支持されている。
 画像処理部21は、A/D19によりディジタル化された画像データに対して、色補正、ガンマ(γ)補正、コントラスト補正、白黒・カラーモード処理、及びライブビュー画像処理などの各種の画像処理を行う。
 AE処理部22は、A/D19によりディジタル化された画像データを用いて、露出制御等に用いる被写体輝度情報を取得する。撮像装置100は、被写体輝度情報に基づいて露出値(Ev値)に応じたISO感度(ISO)、絞り値、及びシャッター速度(SS)の制御を行う。
 Jpeg処理部31は、A/D19によりディジタル化された画像データに対してJpeg方式で圧縮し、Jpeg方式の画像データ(Jpegデータ)を生成する。Jpeg処理部31は、マイクロコンピュータ50の制御に基づいてJpegデータをメモリI/F61に装着された記録媒体Mに出力する。これにより、撮像装置100は、撮像された画像のJpegデータを記録媒体Mに保存することができる。
 表示部32は、マイクロコンピュータ50の制御に基づいて種々の情報を表示するモジュールである。表示部32は、図4及び5により示されるように、表示装置と、データに基づいて画面を表示装置に表示させる駆動回路などを備える。表示部32は、例えば、筐体100aの背面に設けられた液晶モニタ32aと、筐体100aのファインダー部に設けられた電子ビューファインダー(EVF)32bと、撮影者がファインダー部に接眼している状態であるか否かを検出する接眼センサ32cとを備える。なお、表示部32は、液晶モニタ32aの代わりに有機ELディスプレイなどの他の表示装置を筐体100aの背面に備える構成であってもよい。また、EVF32bは、液晶モニタまたは有機ELディスプレイなどの表示装置と接眼光学系とが組み合わされた構成を備える。
 表示部32は、撮影者がファインダー部に接眼している状態であることを検出した場合、液晶モニタ32aの表示をオフにし、EVF32bにより表示を行わせる。また、表示部32は、撮影者がファインダー部に接眼していない状態であることを検出した場合、EVF32bの表示をオフにし、液晶モニタ32aにより表示を行わせる。
 表示部32は、撮像素子17によって取得された画像データを液晶モニタ32aまたはEVF32bにライブビュー表示することができる。この為に、マイクロコンピュータ50は、画像処理部21によりライブビュー表示用に画像処理が施された画像データ(スルー画)を生成する。マイクロコンピュータ50は、スルー画を表示部32に供給するように画像処理部21を制御する。
 さらに、マイクロコンピュータ50は、各種の設定情報及び撮像装置100の状態などに基づいて種々のアイコン及び文字などの表示を含むオンスクリーンディスプレイ(OSD)表示を表示部32の表示装置に表示させるためのOSDデータを生成する。マイクロコンピュータ50は、OSDデータを表示部32に供給する。
 例えば、マイクロコンピュータ50は、撮像装置100の撮影モード、各種の設定情報、バッテリー残量、撮影可能枚数及び撮影可能時間、並びにAFエリアなどを表示部32の表示装置に表示させるためのOSDデータを生成する。マイクロコンピュータ50は、スルー画にOSDデータに基づくOSD表示を重畳させるように表示部32を制御する。
 表示部32は、マイクロコンピュータ50の制御に基づいて画面を液晶モニタ32aまたはEVF32bに表示させる。即ち、表示部32は、スルー画に上記のOSD表示を重畳させて液晶モニタ32aまたはEVF32bに表示させる。
 操作部33は、撮像装置100のユーザによる操作を受け付ける各種の操作ボタン、及びダイアルなどを含む。即ち、操作部33は、撮像の為の複数のパラメータが割当パラメータとしてそれぞれ割り当てられた複数の操作部から構成される。マイクロコンピュータ50は、操作部33の各種の操作ボタン、及びダイアル操作に基づいて、割当パラメータの設定値を制御するパラメータ制御部として機能する。パラメータの設定値は、例えばF値、SS、ISO感度、及びEv値などの設定値を示す。マイクロコンピュータ50は、操作部33の各種の操作ボタン、及びダイアル操作に基づいて、F値、SS、ISO感度、及びEv値などの設定値を制御することができる。
 図2及び図3に示されるように、操作部33は、モードダイアル33a、シャッターボタン33b、フロントダイアル33c、リアダイアル33d、ムービーボタン33e、第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、第4のファンクションボタン33i、MENUボタン33j、十字ボタン33k、OKボタン33m、再生ボタン33n、消去ボタン33o、INFOボタン33p、切替レバー33q、及び電源スイッチ33rなどを備える。
 モードダイアル33aは、撮像装置100に撮影モードを切替させる為の操作部である。撮像装置100は、例えば、絞り優先モード(Aモード)、シャッター速度優先モード(Sモード)、及びマニュアルモード(Mモード)などの撮影モードを有する。撮像装置100は、モードダイアル33aの操作に応じてAモード、Sモード、及びMモードを切り替えることができる。
 Aモードは、撮像装置100の操作者(撮影者)が絞り値を決める撮影モードである。操作入力により絞り値が決定された場合、撮像装置100は、適正露出が得られるようにシャッター速度を自動的に設定する。
 Sモードは、撮影者がシャッター速度を決める撮影モードである。操作入力によりシャッター速度が決定された場合、撮像装置100は、適正露出が得られるように絞り値を自動的に設定する。
 Mモードは、撮影者が絞り値及びシャッター速度を決める撮影モードである。撮像装置100は、操作入力により決定されたシャッター速度及び絞り値に基づいて撮影を実行する。
 シャッターボタン33bは、撮像装置100にレリーズ動作及びオートフォーカス(AF)動作を行わせるためのボタンである。例えばシャッターボタン33bが半押しされた場合、撮像装置100は、オートフォーカス動作を行う。即ち、撮像装置100は、AFエリア内での対象物で合焦するようにレンズ200に制御信号を出力する。
 また、例えばシャッターボタン33bが全押しされた場合、撮像装置100は、撮影を実行する。即ち、撮像装置100は、設定情報に基づいて撮像素子17により電荷を生成し、生成された電荷に応じて信号処理部18及びA/D19により画像データを生成し、画像データをJpeg処理部31によりJpegデータに変換し、JpegデータをメモリI/F61に装着されている記録媒体Mに保存する。また、撮像装置100は、例えばJpegデータとA/D19により変換された画像データとの両方をメモリI/F61に装着されている記録媒体Mに保存する構成であってもよい。
 フロントダイアル33c及びリアダイアル33dは、割り当てられたパラメータを変更する機能を実行する操作部である。フロントダイアル33c及びリアダイアル33dは、それぞれ無限に回転可能な状態で設けられている。フロントダイアル33c及びリアダイアル33dは、絞り値、シャッター速度、ISO、ホワイトバランス(WB)、及び露出値などのパラメータのうちのいずれかがそれぞれ割り当てられる。撮像装置100は、フロントダイアル33c及びリアダイアル33dの回転に応じて割り当てられたパラメータを変更する。
 ムービーボタン33e、撮像装置100に動画撮影を実行させる為のボタンである。撮像装置100は、ムービーボタン33eが押された場合、動画の撮影を開始する。また、撮像装置100は、動画撮影中にムービーボタン33eが押された場合、動画の撮影を停止し、動画データをメモリI/F61に装着されている記録媒体Mに保存する。
 第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、及び第4のファンクションボタン33iは、撮像のためのパラメータの設定値を変更する機能を割り当てることが可能に構成された操作部である。マイクロコンピュータ50は、第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、及び第4のファンクションボタン33iに割り当てるパラメータ(割当パラメータ)を変更する。撮像装置100は、例えば、色調、WB、AFモード、記録画質、アスペクト比、連射速度、ハイダイナミックレンジ(HDR)、及び測光モードなどを撮像の為のパラメータとしてさらに有する。第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、及び第4のファンクションボタン33iには、これらの複数のパラメータのうちのいずれかがそれぞれ割り当てられる。
 撮像装置100は、第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、及び第4のファンクションボタン33iの操作に応じてそれぞれ割り当てられたパラメータの設定値を変更する機能を実行することができる。
 MENUボタン33jは、MENU画面を撮像装置100に開かせる為のボタンである。撮像装置100は、MENUボタン33jが押された場合、メニュー画面を液晶モニタ32aまたはEVF32bに表示させる。
 十字ボタン33k、ユーザ(撮影者)による上下左右の操作を受け付ける為のボタンである。例えば、撮像装置100は、十字ボタン33kの操作に応じて、AFエリアを移動させることができる。また、十字ボタン33kは、中央にOKボタン33mを備える。撮像装置100は、メニュー画面が液晶モニタ32aまたはEVF32bに表示されている状態での十字ボタン33kの操作に応じて、メニュー中の選択項目を切り替えることができる。また、撮像装置100は、OKボタン33mの操作に応じて各種の設定情報を変更を実行することができる。こうしたボタン操作で、ユーザは様々な撮影パラメータ及び設定の変更を行うことが出来る。
 再生ボタン33nは、記録媒体Mに記録されている画像及び動画の再生を撮像装置100に実行させる為のボタンである。撮像装置100は、再生ボタン33nが押された場合、記録媒体Mに保存されている画像または動画を表示する再生画面を液晶モニタ32aまたはEVF32bに表示させる。撮像装置100は、再生画面を液晶モニタ32aまたはEVF32bに表示させている状態での十字ボタン33kの操作に応じて、表示する画像または動画を切り替えることができる。
 消去ボタン33oは、記録媒体Mに記録されている画像及び動画の消去を撮像装置100に実行させる為のボタンである。撮像装置100は、画像または動画の表示中に消去ボタン33oが押された場合、記録媒体Mに保存されている画像または動画を消去する。
 INFOボタン33pは、液晶モニタ32aまたはEVF32bに表示させるOSD表示を切り替えるためのボタンである。撮像装置100は、例えば、INFOボタン33pが操作される毎に、スルー画のみを液晶モニタ32aまたはEVF32bに表示させる状態、スルー画に簡易なOSD表示を重畳させて液晶モニタ32aまたはEVF32bに表示させる状態、スルー画に詳細なOSD表示を重畳させて液晶モニタ32aまたはEVF32bに表示させる状態とを切り替える。
 切替レバー33qは、フロントダイアル33c及びリアダイアル33dに割り当てられているパラメータを切り替えるためのスイッチである。切替レバー33qは、「レバー1」と「レバー2」の二つの状態を有する。例えば、撮像装置100は、切替レバー33qが「レバー1」の状態である場合、フロントダイアル33c及びリアダイアル33dに絞り値及びシャッター速度をそれぞれ割り当て、切替レバー33qが「レバー2」の状態である場合、フロントダイアル33c及びリアダイアル33dにISO及びWBをそれぞれ割り当てる。なお、切替レバー33qの状態に応じてフロントダイアル33c及びリアダイアル33dに割り当てるパラメータは、上記のものに限らず、如何なるものであってもよい。
 電源スイッチ33rは、撮像装置100の電源の状態をON/OFFとで切り替える為のスイッチである。
 またさらに、操作部33は、表示部32の液晶モニタ32aと一体に形成されたタッチセンサ33sを備える構成であってもよい。タッチセンサ33sは、例えば抵抗膜式タッチセンサ、または静電容量式タッチセンサである。撮像装置100は、各種のパラメータを変更可能な状態で表示部32の液晶モニタ32aに表示させ、タッチセンサ33s上での操作入力に応じてこれらのパラメータを変更する構成であってもよい。
 図4は、表示部32により表示されるスルー画を含むライブビュー表示の例を示す。 
 ライブビュー表示は、例えば、スルー画401、撮影モードを示すアイコン402、シャッター速度を示すインジケータ403、絞り値を示すインジケータ404、露出値を示すインジケータ405、各種の設定情報(撮像の為のパラメータ)を示すアイコン群406、撮影可能枚数及び撮影可能時間を示すインジケータ407、バッテリー残量を示すインジケータ408、AFエリアを示すインジケータ409、及びヘルプ画面を呼び出すためのアイコン410などを含む。
 マイクロコンピュータ50は、操作部33による操作、撮像素子17により取得した画像、及び撮像装置100の内部の状態に応じて、表示部32の表示装置に表示させる画面を逐次更新する。
 なお、ヘルプ画面は、フロントダイアル33c及びリアダイアル33d、並びに、第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、及び第4のファンクションボタン33iに割り当てられたパラメータを示す画面である。ヘルプ画面の例については後述する。
 集音部41は、動画の撮影時に音声を取得する為のステレオマイクを備える。集音部41は、ステレオマイクによりステレオの音声を取得することができる。また、集音部41は、ステレオマイクによりモノラルの音声を取得することもできる。
 マイクロコンピュータ50は、撮像装置100の各種の動作を制御する制御部である。マイクロコンピュータ50は、例えばCPU及びキャッシュメモリなどを備える。記憶部57は、撮像装置100を制御する為のプログラム、各種の機能を実現する為のプログラム、及び各種の設定情報などを記憶する。CPUは、種々の演算処理を実行する演算素子である。キャッシュメモリは、CPUによる演算の結果、CPUにより読み込まれたデータなどを一時的に記憶する。マイクロコンピュータ50は、操作部33から供給された操作信号に基づいて、記憶部57に記憶されているプログラムを実行し、撮像装置100の各部の動作を制御する。
 例えば、マイクロコンピュータ50は、プログラムを実行することにより、撮影制御部、表示制御部、画像処理制御部、操作判定部、通信制御部、及びパラメータ制御部として機能する。撮影制御部として機能する場合、マイクロコンピュータ50は、操作入力またはスレートPC300から受信した制御信号に従って、撮像処理を制御する。表示制御部として機能する場合、マイクロコンピュータ50は、表示部32による表示処理を制御する。画像処理制御部として機能する場合、マイクロコンピュータ50は、画像処理部21、AE処理部、及びJpeg処理部による画像処理を制御する。操作判定部として機能する場合、マイクロコンピュータ50は、操作部33により入力された操作の判定、及び通信部71を介してスレートPC300から入力された制御信号の認識を行う。通信制御部として機能する場合、マイクロコンピュータ50は、通信部71による通信処理を制御する。パラメータ制御部として機能する場合、マイクロコンピュータ50は、操作入力またはスレートPC300から受信した制御信号に従って、パラメータの変更を制御する。
 メモリI/F61は、記録媒体Mと撮像装置100の各部との間でのデータの入出力を制御する。メモリI/F61は、記録媒体Mを挿入可能なカードスロットなどを備える。記録媒体Mは、複数の接触端子を備える。また、メモリI/F61は、記録媒体Mがカードスロットに挿入された場合に記録媒体Mの接触端子と電気的に接続される接触端子を備える。これにより、撮像装置100は、記録媒体Mにデータを保存することと、記録媒体Mからデータを読み出すこととを実行することができる。
 通信部71は、スレートPC300と種々のデータ通信を行う為のモジュールである。通信部71は、例えば、無線LAN、またはBluetooth(登録商標)等によりスレートPC300と通信を行うことができる。また、スレートPC300が例えばイントラネット等のネットワークに接続されている場合、通信部71は、無線LANによりネットワークを経由してスレートPC300と通信する構成であってもよい。撮像装置100は、通信部71によりスレートPC300または他の種々の機器と通信することができる。
 また、記憶部57は、第1の記憶領域57aと第2の記憶領域57bとを具備する。第1の記憶領域57aは、撮像装置100の外観上での各種のボタン及びダイアル等の位置を示す図(ボタン配置図)を予め記憶する。なお、第1の記憶領域57aは、撮像装置100を複数の角度から見た場合の複数のボタン配置図を予め記憶する。例えば、第1の記憶領域57aは、撮像装置100を前面側から見た場合のボタン配置図、及び撮像装置100を背面側から見た場合のボタン配置図を予め記憶する。またさらに、第1の記憶領域57aは、撮像装置100の前面側から背面側にかけて段階的に異なる角度から描写された複数のボタン配置図を予め記憶する。
 撮像装置100は、これらのボタン配置図を操作に応じて切り替えて表示部32により表示させることにより、操作に応じてボタン配置図が回転するように表示させることができる。
 第2の記憶領域57bは、撮像に関する各種のパラメータ名毎に、操作の有無(操作有無)、対応している操作部(対応操作部)、対応しているボタン配置図(対応ボタン配置図)、及びボタン配置図上での位置(操作部位置)を示す情報が対応付けられたパラメータデータベース(パラメータDB)を記憶する。
 図5は、パラメータDBの例を示す図である。なお、変更可能なパラメータは、撮影モード毎に異なる。この為、第2の記憶領域部57bは、例えば撮影モード毎にパラメータDBを備える。図5は、撮像装置100の撮影モードがAモードである場合のパラメータDBの例を示す。
 「操作有無」は、対応付けられているパラメータが、パラメータDBに対応した撮影モードで変更可能なパラメータであるか否かを示す情報である。「対応操作部」は、対応付けられているパラメータが割り当てられた操作部を示す情報である。「対応ボタン配置図」は、対応付けられている「対応操作部」を上記のヘルプ画面に表示する場合に用いるボタン配置図を示す情報である。「操作部位置」は、対応付けられている「対応操作部」の「対応ボタン配置図」により示されたボタン配置図上での位置(例えば座標など)を示す情報である。
 図5に示されるように、パラメータDBは、例えば絞り値、シャッター速度、ISO、露出値などのパラメータを含む。なお、Aモードでは、シャッター速度がオートで固定された設定になる。この為、Aモードでは、シャッター速度のパラメータに「操作有無」として「無」が対応付けられている。
 例えば、「絞り値」には、対応操作部として「フロントダイアル」が対応付けられている。さらに、「絞り値」には、対応ボタン配置図として「前面」、「右側面」、及び「背面」が対応付けられている。即ち、「絞り値」のパラメータがフロントダイアル33cにより変更可能であり、フロントダイアル33cが「前面」、「右側面」、及び「背面」のボタン配置図上で表示されることが示されている。
 撮像装置100は、上記のボタン配置図を第1の記憶領域57aから読み出し、パラメータDBを第2の記憶領域57bから読み出し、読み出したボタン配置図及びパラメータDBに基づいて、図6及び図7に示されるようなヘルプ画面を生成する。ヘルプ画面は、各種の操作部に割り当てられた割当パラメータを示す画面である。
 マイクロコンピュータ50は、操作部33の各部の位置を示すボタン配置図(操作部配置図)上に、割当パラメータ毎に割り当てられている操作部を示すパラメータDBに基づいて各操作部に対応した割当パラメータを表示させてヘルプ画面を生成する。この場合、マイクロコンピュータ50は、画面生成部として機能する。
 図6及び図7は、ヘルプ画面601の例を示す図である。図6は、撮像装置100の前面側のヘルプ画面601の例を示す。図7は、撮像装置100の背面側のヘルプ画面601の例を示す。
 撮像装置100は、接眼センサ32cにより撮影者がファインダー部に接眼している状態であることを検出した場合、ヘルプ画面601をEVF32bに表示させる。また、撮像装置100は、接眼センサ32cにより撮影者がファインダー部に接眼していない状態であることを検出した場合、ヘルプ画面601を液晶モニタ32aに表示させる。
 なお、撮像装置100は、図8に示されるように表示部32により表示されたヘルプ画面601上のボタン配置図を操作入力に応じて回転させることができる。
 図8では、ボタン配置図が正面であるヘルプ画面601o、ボタン配置図が左側面であるヘルプ画面601p、ボタン配置図が背面であるヘルプ画面601q、及びボタン配置図が右側面であるヘルプ画面601rが示されている。例えば画面801乃至804を液晶モニタ32aに表示している状態でタッチセンサ33sにより左右のフリック操作(回転操作)が入力された場合、マイクロコンピュータ50は、ヘルプ画面601o乃至ヘルプ画面601rの表示を切り替える。例えば、左方向のフリック操作が入力された場合、マイクロコンピュータ50は、ヘルプ画面601o>ヘルプ画面601p>ヘルプ画面601q>ヘルプ画面601r>ヘルプ画面601oの順で画面を切り替える。また、例えば、右方向のフリック操作が入力された場合、マイクロコンピュータ50は、ヘルプ画面601o>ヘルプ画面601r>ヘルプ画面601q>ヘルプ画面601p>ヘルプ画面601oの順で画面を切り替える。これにより、マイクロコンピュータ50は、タッチセンサ33sにより入力された左右のフリック操作に応じてヘルプ画面601上のボタン配置図を回転させることができる。本実施例では、ボタン配置図の変更中は、図6、図7で表示されるインジケータ601c等は非表示にすることで、姿勢がより把握しやすくなるように視認性を高めている。
 例えば、「絞り値」には、対応操作部として「フロントダイアル」が対応付けられている。さらに、「絞り値」には、対応ボタン配置図として「前面」、「右側面」、及び「背面」が対応付けられている。即ち、「絞り値」のパラメータがフロントダイアル33cにより変更可能であり、フロントダイアル33cが「前面」、「右側面」、及び「背面」のボタン配置図上で表示されることが示されている。
 なお、ヘルプ画面601がEVF32bに表示されている場合、撮像装置100は、十字ボタン33k、フロントダイアル33c、またはリアダイアル33dの操作入力に基づいて、ヘルプ画面601上でのボタン配置図を回転させることができる。
 また、ヘルプ画面601が液晶モニタ32aに表示されている場合、撮像装置100は、液晶モニタ32aと一体に形成されたタッチセンサ33s、十字ボタン33k、フロントダイアル33c、またはリアダイアル33dによる操作入力に基づいて、ヘルプ画面601上でのボタン配置図を回転させることができる。
 撮像装置100は、読み出したボタン配置図を描画する。さらに、撮像装置100は、各操作部に割り当てられたパラメータ(割当パラメータ)、及び各操作部により割り当てが可能なパラメータ(割当可能パラメータ)を示す情報をボタン配置図上の各操作部の近傍に表示させてヘルプ画面601を生成する。即ち、マイクロコンピュータ50は、ボタン配置図図上の割当パラメータが割り当てられている操作部と関連付けて、割当パラメータをヘルプ画面601内に表示させる。
 より具体的には、撮像装置100は、描画したボタン配置図上のパラメータDB内の「操作部位置」により示された位置に、パラメータDB内の「パラメータ名」を表示させる。即ち、図6及び図7に示すヘルプ画面601は、ボタン配置図上の操作部に対応する位置に、この操作部に割り当てられた割当パラメータ及びこの操作部に割り当てが可能な割当可能パラメータが示された画面である。
 さらに、例えば、撮像装置100は、各操作部に割当が可能なパラメータの種類を示すリストを各操作ボタンまたはダイアル毎に予め記憶部57内に保持している。これにより、撮像装置100は、撮像装置100の各操作部に割り当てが可能なパラメータを示す情報をヘルプ画面に表示させることができる。これにより、撮像装置100は、各操作部により変更するように設定されている割当パラメータと、各操作部により変更するように設定することができるパラメータ割当可能パラメータとを同時にヘルプ画面601に表示させることができる。
 またさらに、レンズ200のROM200cは、レンズ200の外観上での操作部の位置を示す図(レンズ外観図)を予め記憶する。さらに、ROM200cは、レンズ200の第1の操作リング210及び第2の操作リング220に割当可能なパラメータの種類を示すリストを備える。またさらに、ROM200cは、レンズ200の操作部位置を示す情報、即ち、レンズ外観図上での第1の操作リング210及び第2の操作リング220の位置を示す情報を備える。
 撮像装置100は、レンズ200のROM200cからレンズ外観図、第1の操作リング210及び第2の操作リング220に割当可能なパラメータを示す情報、及び操作部位置などをレンズ情報として取得する。これにより、撮像装置100は、レンズ200の各操作部に割り当てが可能なパラメータを示す情報をヘルプ画面601にさらに表示させることができる。
 図6の例によると、撮像装置100は、ヘルプ画面601に、割当パラメータ及び割当可能パラメータを表示する為のインジケータ601a乃至601hを表示させる。
 インジケータ601aは、フロントダイアル33cに割り当てられたパラメータ及び、フロントダイアル33cに割り当てが可能なパラメータを示す。さらに、インジケータ601aは、フロントダイアル33cの回転方向に応じてどのようにパラメータが変更されるのかを示すこともできる。図6及び図7の例によると、インジケータ601aは、フロントダイアル33cに「絞り値」が割り当てられ、フロントダイアル33cに「露出値」、及び「ISO」などを割り当て可能であり、「絞り値」の現行値が「3.5」であり、フロントダイアル33cが右方向に回転された場合に「絞り値」が「3.5」から「4.0」に変化し、フロントダイアル33cが左方向に回転された場合に「絞り値」が「3.5」から「3.2」に変化することを示している。
 インジケータ601bは、リアダイアル33dに割り当てられたパラメータ及び、リアダイアル33dに割り当てが可能なパラメータを示す。さらに、インジケータ601bは、リアダイアル33dの回転方向に応じてどのようにパラメータが変更されるのかを示すこともできる。
 インジケータ601cは、第1のファンクションボタン33fに割り当てられたパラメータ及び、第1のファンクションボタン33fに割り当てが可能なパラメータを示す。さらに、インジケータ601cは、第1のファンクションボタン33fの操作に応じてどのようにパラメータが変更されるのかを示すこともできる。図6及び図7の例によると、インジケータ601cは、第1のファンクションボタン33fに「色調」が割り当てられ、第1のファンクションボタン33fに「AFモード」、「WB」、及び「連射モード」などを割り当て可能であり、「色調」の現行値が「natural」であり、第1のファンクションボタン33fが操作される毎に「色調」が「standard」、「natural」、「vivid」と変化することを示している。
 インジケータ601dは、第2のファンクションボタン33gに割り当てられたパラメータ及び、第2のファンクションボタン33gに割り当てが可能なパラメータを示す。さらに、インジケータ601dは、第2のファンクションボタン33gの操作に応じてどのようにパラメータが変更されるのかを示すこともできる。
 インジケータ601eは、第3のファンクションボタン33hに割り当てられたパラメータ及び、第3のファンクションボタン33hに割り当てが可能なパラメータを示す。さらに、インジケータ601eは、第3のファンクションボタン33hの操作に応じてどのようにパラメータが変更されるのかを示すこともできる。
 インジケータ601fは、第4のファンクションボタン33iに割り当てられたパラメータ及び、第4のファンクションボタン33iに割り当てが可能なパラメータを示す。さらに、インジケータ601fは、第4のファンクションボタン33iの操作に応じてどのようにパラメータが変更されるのかを示すこともできる。
 インジケータ601gは、レンズ200の第1の操作リング210に割り当てられたパラメータ及び、第1の操作リング210に割り当てが可能なパラメータを示す。さらに、インジケータ601gは、第1の操作リング210の操作に応じてどのようにパラメータが変更されるのかを示すこともできる。図6及び図7の例によると、インジケータ601gは、第1の操作リング210に「焦点距離」が割り当てられ、第1の操作リング210に「絞り値」、及び「合焦距離」などを割り当て可能であり、第1の操作リング210が右方向に回転された場合に「焦点距離」が望遠側に変化し、第1の操作リング210が左方向に回転された場合に「焦点距離」がワイド側に変化することを示している。
 インジケータ601hは、レンズ200の第2の操作リング220に割り当てられたパラメータ及び、第2の操作リング220に割り当てが可能なパラメータを示す。さらに、インジケータ601hは、第2の操作リング220の操作に応じてどのようにパラメータが変更されるのかを示すこともできる。図6及び図7の例によると、インジケータ601hは、第2の操作リング220に「合焦距離」が割り当てられ、第2の操作リング220に「焦点距離」、及び「絞り値」などを割り当て可能であり、第2の操作リング220が右方向に回転された場合に「合焦距離」が「0.32m」から「0.33m」に変化し、第2の操作リング220が左方向に回転された場合に「合焦距離」が「0.32m」から「0.31m」に変化することを示している。
 また、撮像装置100は、ヘルプ画面601が液晶モニタ32aに表示されている場合、ヘルプ画面601上で割当パラメータを変更する構成であってもよい。またさらに、撮像装置100は、ヘルプ画面601が液晶モニタ32aに表示されている場合、ヘルプ画面601上でパラメータの設定値を変更する構成であってもよい。
 例えば、撮像装置100は、ヘルプ画面601上のインジケータ601a乃至601hに対してタッチセンサ33sにより左右のフリック操作が入力された場合、インジケータに対応している操作部の割当パラメータ及びパラメータの設定値を変更する構成であってもよい。また、例えば、撮像装置100は、ヘルプ画面601が表示部32に表示されている場合の十字ボタン33k、フロントダイアル33c、及びリアダイアル33dの操作に基づいて、ヘルプ画面601上の複数のインジケータ601a乃至601hのうちの1つを選択し、選択したインジケータに対応している操作部の割当パラメータ及びパラメータの設定値を変更する構成であってもよい。
 なお、第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、及び第4のファンクションボタン33iは、押下される毎に割当パラメータをサイクリックに変更するように構成されている。これにより、撮像装置100は、第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、及び第4のファンクションボタン33iの押下に応じて割当パラメータの設定値をサイクリックに変更することができる。なお、既に設定されている操作部のあるパラメータを示す情報については、設定済みであることを識別できるように例えば文字の色や濃度を変えて表示するようにしてもよい。
 撮像装置100は、ヘルプ操作が入力された場合にヘルプ画面601を液晶モニタ32aまたはEVF32bに表示させる。ヘルプ操作は、例えば、図4に示されたスルー画401上のアイコン410のタッチセンサ33sによる操作入力、または予めヘルプ操作が割り当てられた操作部33の中のボタンによる操作入力などである。また、撮像装置100は、電源スイッチ33rが操作されて撮像装置100の電源状態がオフからオンになった場合に所定時間ヘルプ画面601を表示部32の液晶モニタ32aに表示させる構成であってもよい。
 またさらに、撮像装置100は、接眼センサ32cにより撮影者がファインダー部に接眼している状態であることを検出した場合にヘルプ操作として機能する操作部を備える構成であってもよい。例えば、消去ボタン33oは、撮影者がファインダー部に接眼している状態で使用される頻度が低いことが予想される。そこで、例えば、撮像装置100は、接眼センサ32cにより撮影者がファインダー部に接眼している状態であることを検出した場合に消去ボタン33oが押下された場合にヘルプ操作が入力されたと認識する構成であってもよい。
 図9乃至図10は、撮像装置100の動作の例を示す。 
 撮像装置100の電源がONされた場合、撮像装置100は、図9乃至図11に示す動作を実行する。
 撮像装置100のマイクロコンピュータ50は、撮影モードであるか否か判断する(ステップS11)。撮影モードではないと判断した場合、マイクロコンピュータ50は、後述する図10の処理に移行する。
 ステップS11で撮影モードであると判断した場合、マイクロコンピュータ50は、レンズ交換が行われたか否か判断する(ステップS12)。すなわち、マイクロコンピュータ50は、マウント部からレンズ200が取り外され、且つ再度レンズ200が装着されたか否か判断する。
 マイクロコンピュータ50は、レンズ交換が行われたと判断した場合、レンズ情報をレンズ200から取得する。(ステップS13)。
 マイクロコンピュータ50は、スルー画を取得し、スルー画にOSD表示を重畳させて表示部32により表示させる(ステップS14)。
 マイクロコンピュータ50は、スルー画の表示中に操作入力があるか否か判断する(ステップS15)。マイクロコンピュータ50は、操作入力がないと判断した場合、ステップS11の処理にループする。
 マイクロコンピュータ50は、操作入力があったと判断した場合、操作入力がヘルプ操作であるか否か判断する(ステップS16)。
 マイクロコンピュータ50は、操作入力がヘルプ操作ではないと判断した場合、操作入力がシャッターボタン33bの操作であるか否か判断する(ステップS17)。
 マイクロコンピュータ50は、操作入力がシャッターボタン33bの操作であると判断した場合、撮影を実行し、ステップS11の処理にループする(ステップS18)。即ち、マイクロコンピュータ50は、設定情報に基づいて撮像素子17により電荷を生成し、生成された電荷に応じて信号処理部18及びA/D19により画像データを生成する。さらに、マイクロコンピュータ50は、生成された画像データをメモリI/F61に装着されている記録媒体Mに保存し、ステップS11の処理に戻る。
 マイクロコンピュータ50は、操作入力がシャッターボタン33bの操作ではないと判断した場合、操作されたボタンに応じた動作を実行し、ステップS11の処理にループする(ステップS19)。
 ステップS16で操作入力がヘルプ操作であると判断した場合、マイクロコンピュータ50は、ヘルプ画面601を表示部32により表示させる。この為に、マイクロコンピュータ50は、ボタン配置図を記憶部57の第1の記憶領域57aから読み出す(ステップS20)。
 さらに、マイクロコンピュータ50は、パラメータDBを記憶部57の第2の記憶領域57bから読み出す(ステップS21)。
 マイクロコンピュータ50は、読み出したボタン配置図及びパラメータDBに基づいて、ヘルプ画面601を生成する(ステップS22)。
 マイクロコンピュータ50は、生成したヘルプ画面601を表示部32により表示させる(ステップS23)。
 さらに、マイクロコンピュータ50は、ヘルプ画面601の表示中の操作入力に基づいて、ボタン配置図を回転させる操作が入力されたか否か判断する(ステップS24)。ボタン配置図を回転させる操作が入力されたと判断した場合、マイクロコンピュータ50は、ステップS20の処理にループしてステップS20乃至ステップS23の処理を実行し、操作に応じた別の角度のボタン配置図を用いてヘルプ画面601を生成する。これにより、撮像装置100は、操作入力に応じてヘルプ画面601上のボタン配置図を逐次回転させることができる。
 また、ステップS24でボタン配置図を回転させる操作が入力されていないと判断した場合、マイクロコンピュータ50は、割当パラメータまたはパラメータの設定値を変更する操作が入力されたか否か判断する(ステップS25)。割当パラメータまたはパラメータの設定値を変更する操作が入力されたと判断した場合、マイクロコンピュータ50は、割当パラメータまたはパラメータの設定値を変更する(ステップS26)。
 さらに、マイクロコンピュータ50は、ヘルプ画面601の終了操作が行われたか否かを判断する(ステップS27)。例えば、マイクロコンピュータ50は、ヘルプ画面601の表示中にシャッターボタン33b、ムービーボタン33e、MENUボタン33j、再生ボタン33n、消去ボタン33o、またはINFOボタン33pなどが操作された場合、ヘルプ画面601の終了操作が行われたと判断する。ヘルプ画面601の終了操作が行われたと判断した場合、マイクロコンピュータ50は、ステップS11にループする。また、ヘルプ画面601の終了操作が行われていないと判断した場合、マイクロコンピュータ50は、ステップS24にループし、ヘルプ画面601の表示を継続する。
 また、例えば、マイクロコンピュータ50は、ヘルプ画面601の表示中にモードダイアル33aが操作された場合、ステップS20にループし、ボタン配置図と、変更後の撮影モードに対応したパラメータDBとを記憶部57から読み出し、読み出したボタン配置図及びパラメータDBを用いてヘルプ画面601を再度生成する。これにより、撮像装置100は、ヘルプ画面601の表示中のモードダイアル33aの操作に応じてヘルプ画面601の内容を切り替えることができる。
 また、記憶部57の第2の記憶領域57bは、切替レバー33qの「レバー1」の状態と「レバー2」の状態とでそれぞれ異なるパラメータDBを各撮影モード毎に備えていてもよい。さらに、マイクロコンピュータ50は、ヘルプ画面601の表示中に切替レバー33qが操作された場合、ステップS20にループし、ボタン配置図と、変更後の切替レバー33qの状態に対応したパラメータDBとを記憶部57から読み出し、読み出したボタン配置図及びパラメータDBを用いてヘルプ画面601を再度生成する。これにより、撮像装置100は、ヘルプ画面601の表示中の切替レバー33qの操作に応じてヘルプ画面601の内容を切り替えることができる。
 例えば、撮像装置100は、ヘルプ画面601上のインジケータ601a乃至601hに対してタッチセンサ33sにより左右のフリック操作が入力された場合、インジケータに対応している操作部の割当パラメータ及びパラメータの設定値を変更する構成であってもよい。また、例えば、撮像装置100は、ヘルプ画面601が表示部32に表示されている場合の十字ボタン33k、フロントダイアル33c、及びリアダイアル33dの操作に基づいて、ヘルプ画面601上の複数のインジケータ601a乃至601hのうちの1つを選択し、選択したインジケータに対応している操作部の割当パラメータ及びパラメータの設定値を変更する構成であってもよい。
 即ち、マイクロコンピュータ50は、ヘルプ画面601が液晶モニタ32aに表示されている状態でのタッチセンサ33sによる操作に応じて、ボタン配置図の角度、割当パラメータの表示状態、及び割当パラメータの設定値などを変更することができる。
 また、ステップS11で撮影モードではないと判断した場合、マイクロコンピュータ50は、図10のステップS31に移行する。
 マイクロコンピュータ50は、撮像装置100が再生モードであるか否か判断する(ステップS31)。撮像装置100は、再生ボタン33nが押された場合、記録媒体Mに保存されている画像または動画を表示する再生画面を液晶モニタ32aに表示させる再生モードに移行する。撮像装置100が再生モードである場合、マイクロコンピュータ50は、画像または動画を再生する再生画面を表示部32により再生させる(ステップS32)。
 さらに、マイクロコンピュータ50は、再生画面を表示部32によりに表示させている状態で表示する画像または動画を切り替える操作が入力されたか否か判断する(ステップS33)。マイクロコンピュータ50は、画像または動画を切り替える操作が入力されたと判断した場合、表示部32により表示させる画像または動画を切り替える(ステップS34)。
 マイクロコンピュータ50は、再生画面の表示の終了操作が行われたか否かを判断する(ステップS35)。例えば、マイクロコンピュータ50は、再生画面の表示中にシャッターボタン33b、ムービーボタン33e、またはMENUボタン33jなどが操作された場合、再生画面の終了操作が行われたと判断する。ヘルプ画面601の終了操作が行われたと判断した場合、マイクロコンピュータ50は、図9のステップS11にループする。また、再生画面の終了操作が行われていないと判断した場合、マイクロコンピュータ50は、ステップS33にループし、再生画面の表示を継続する。
 また、ステップS31で再生モードではないと判断した場合、マイクロコンピュータ50は、スレートPC300との通信状態であることを認識する。マイクロコンピュータ50は、撮像装置100内の各種のパラメータの設定状況及び各操作部に割り当てられた割当パラメータなどを確認するための状態確認要求がスレートPC300から送信されたか否か判断する(ステップS36)。
 マイクロコンピュータ50は、状態確認要求がスレートPC300から送信されたことを認識しなかった場合、即ち、スレートPC300から送信された状態確認要求を受信しなかった場合、スレートPC300に上記のような再生画面を表示させる為に画像または動画をスレートPC300に送信する(ステップS37)。
 スレートPC300は、撮像装置100から画像または動画などを受信した場合、自身の表示装置に撮像装置100から受信した画像または動画を再生することができる。またさらに、マイクロコンピュータ50は、スレートPC300の要求に応じて任意の画像または動画をスレートPC300に送信することができる。
 また、ステップS36で状態確認要求がスレートPC300から送信されたことを認識した場合、即ち、スレートPC300から送信された状態確認要求を受信した場合、スレートPC300に上記のようなヘルプ画面、及び各種のパラメータの設定状況を表示させる為の各種の情報をスレートPC300に送信する(ステップS38)。
 例えば、マイクロコンピュータ50は、スレートPC300から出力された状態確認要求を受信した場合にボタン配置図を記憶部57の第1の記憶領域57aから読み出し、パラメータDBを記憶部57の第2の記憶領域57bから読み出し、読み出したボタン配置図及びパラメータDBをスレートPC300に送信する。
 スレートPC300は、撮像装置100からボタン配置図及びパラメータDBを受信した場合、撮像装置100と同様の処理を行って上記のヘルプ画面601と同様の表示を含む状態確認画面を生成し、生成した状態確認画面を自身の表示装置に表示する。
 図11は、スレートPC300の構成の例を示す。 
 スレートPC300は、制御部350、操作入力部364、通信部371、及び記憶装置374を備える。さらに、スレートPC300は、カメラ310、スピーカ322、マイク323、ディスプレイ334、タッチセンサ335を備える。
 カメラ310は、スレートPC300の内部に設けられたカメラである。カメラ310は、光を受光する光学系と、光を電気信号に変換する撮像素子とを備える。カメラ310は、制御部350の制御に基づいて光学系により受光した光を撮像素子により電気信号に変換し、画像データを生成する。
 制御部350は、スレートPC300の各部の動作を制御する制御部として機能する。制御部350は、CPU351、ROM352、RAM353、及び不揮発性メモリ354などを備えている。制御部350は、操作入力部364、またはタッチセンサ335から供給される操作信号に基づいて、種々の処理を行う。
 CPU351は、種々の演算処理を実行する演算素子などを備える。CPU351は、ROM352、または不揮発性メモリ354などに記憶されているプログラムを実行することにより種々の機能を実現する。
 ROM352は、スレートPC300を制御する為のプログラム、及び各種の機能を実現する為のプログラムなどを記憶する。CPU351は、操作入力部364から供給される操作信号に基づいて、ROM352に記憶されているプログラムを起動する。これにより、制御部350は、各部の動作を制御する。
 RAM353は、CPU351のワークメモリとして機能する。即ち、RAM353は、CPU351の演算結果、CPU351により読み込まれたデータなどを記憶する。
 不揮発性メモリ354は、各種の設定情報、及びプログラムなどを記憶する不揮発性メモリである。
 また、CPU351は、記憶装置374に格納されているアプリケーションなどのデータに基づいて、種々の処理を実行することができる。
 また、制御部350は、CPU351が実行しているアプリケーションに応じて、種々の画面などの映像信号を生成し、ディスプレイ334に表示させることができる。また、制御部350は、CPU351が実行しているアプリケーションに応じて、種々の音声などの音声信号を生成し、スピーカ322により出力させることができる。
 スピーカ322は、供給されるオーディオ信号に基づいて音を再生する。
 マイク323は、スレートPC300の外部の音に基づいて信号(録音信号)を生成する集音部である。マイク323は、録音信号を制御部350に供給する。
 ディスプレイ334は、例えば、マトリクス状に配列された複数の画素を備える液晶表示パネルと、この液晶パネルを照明するバックライトとを備える液晶表示装置などを備える。ディスプレイ334は、映像信号に基づいて映像を表示する。
 タッチセンサ335は、静電容量式センサ、サーモセンサ、または他の方式に基づいて位置情報を生成するデバイスである。例えば、タッチセンサ335は、ディスプレイ334と一体に設けられる。これにより、タッチセンサ335は、ディスプレイ334に表示されている画面上での操作に基づいて操作信号を生成し、制御部350に供給することができる。
 操作入力部364は、例えば、ユーザによる操作入力に応じて操作信号を生成するキーを備える。操作入力部364は、例えば、音量を調整する為の音量調整キー、ディスプレイ334の表示輝度を調整する為の輝度調整キー、及び、スレートPC300電源状態を切り替える為の電源キーなどを備える。また、操作入力部364は、種々の選択操作などをスレートPC300に実行させる為のトラックボールなどをさらに備えていてもよい。操作入力部364は、上記したキーの操作に応じて操作信号を生成し、操作信号を制御部350に供給する。
 また、操作入力部364は、キーボード、マウス、または操作信号を生成する事ができる他の入力装置などから操作信号を受け取る構成であってもよい。例えば、スレートPC300がUSB端子、またはBluetoothのモジュールなどを備えている場合、操作入力部364は、USB、またはBluetoothにより接続された入力装置から操作信号を受け取り、制御部350に供給する。
 通信部371は、無線LANによりインターネット、またはイントラネットなどのネットワーク上の他の機器と通信を行なうことができる。また、通信部371は、他の機器と直接無線LANにより通信する構成であってもよい。
 また、スレートPC300は、図示しない電源部を備える。電源部は、バッテリーと、商用電源などから電力を受け取るアダプタと接続する為の端子(例えばDCジャック)と、を備える。電源部は、商用電源から受け取った電力をバッテリーに充電する。また、電源部は、バッテリーに充電されている電力をスレートPC300内の各部へ供給する。
 記憶装置374は、ハードディスクドライブ(HDD)、ソリッドステイトドライブ(SSD)、または半導体メモリなどを備える。記憶装置374は、制御部350のCPU351により実行されるプログラム、アプリケーション、及び種々のデータなどを記憶することができる。
 記憶装置374は、例えば、オペレーティングシステム(OS)、及びOS上で実行可能な種々のアプリケーションを記憶している。記憶装置374は、例えば、スレートPC300と通信可能な機器(例えば撮像装置100)をコントロールするためのアプリケーション(コントロールアプリ)を有する。スレートPC300の制御部350は、コントロールアプリを実行することにより、撮像装置100による撮影、撮像装置100内の記憶媒体Mに保存されている画像及び動画の再生、及び撮像装置100で設定されている各種のパラメータなどを確認する為の状態確認画面の生成などの処理を実行することができる。
 図12乃至図14は、スレートPC300の動作の例を示す。図12は、スレートPCが状態確認画面を生成する際にスレートPC300に表示される画面の例を示す。図13は、スレートPC300が状態確認画面を生成する際のスレートPC300の動作の例を示すフローチャートである。図14は、スレートPC300が状態確認画面を生成する際の撮像装置100の動作の例を示すフローチャートである。
 スレートPC300の制御部350は、ディスプレイ334に表示させるホーム画面1201に種々のアプリケーションを起動する為のアイコンを表示させる。ホーム画面で撮像装置100を制御する為の上記のコントロールアプリが選択された場合、制御部350は、外部カメラ制御用のコントロールアプリのメニュー画面1202をディスプレイ334に表示させる。制御部350は、メニュー画面1202に撮影ボタン1202a、再生ボタン1202b、状態確認ボタン1202c、終了ボタン1202d、及び設定ボタン1202eなどのボタンをタッチセンサ335により選択可能な状態で表示する。
 撮影ボタン1202aは、撮像装置100に撮影を実行させる為の画面をディスプレイに表示させる為のボタンである。再生ボタン1202bは、撮像装置100内の記憶媒体Mに保存されている画像または動画をスレートPC300で再生する為のボタンである。状態確認ボタン1202cは、撮像装置100の各種のパラメータの設定状態、及び上記のヘルプ画面601と同様に各操作部に割り当てられたパラメータをユーザに確認させるための状態確認画面をディスプレイ334に表示させる為のボタンである。終了ボタン1202dは、コントロールアプリを終了させる為のボタンである。設定ボタン1202eは、コントロールアプリの各種の設定を実行する為のボタンである。
 メニュー画面1202で状態確認ボタン1202cが選択された場合、スレートPC300の制御部350は、図13に示された動作を実行する。
 制御部350は、状態確認要求を生成する(ステップS41)。状態確認要求は、状態確認画面を生成する為の情報を撮像装置100に要求する為の情報である。制御部350は、生成した状態確認要求を撮像装置100に対して送信する(ステップS42)。
 制御部350は、パラメータDB及びボタン配置図を受信したか否か判断する(ステップS43)。パラメータDB及びボタン配置図を受信していないと判断した場合(ステップS43、NO)、制御部350は、再度ステップS43の処理を行う。即ち、制御部350は、状態確認要求を送信した後、撮像装置100から送信されたパラメータDB及びボタン配置図を受信するまで待機する。
 パラメータDB及びボタン配置図を受信したと判断した場合(ステップS43、YES)、制御部350は、受信したパラメータDB及びボタン配置図に基づいて、図12に示される状態確認画面1203を生成する(ステップS44)。制御部350は、生成した状態確認画面1203をディスプレイ334に表示する(ステップS45)。
 スレートPC300から状態確認要求が送信された場合、撮像装置100のマイクロコンピュータ50は、図14に示された動作を実行する。マイクロコンピュータ50は、スレートPC300から送信された状態確認要求を受信する(ステップS46)。
 スレートPC300から送信された状態確認要求を受信した場合、マイクロコンピュータ50は、ボタン配置図を記憶部57の第1の記憶領域57aから読み出し(ステップS47)、パラメータDBを記憶部57の第2の記憶領域57bから読み出す(ステップS48)。
 マイクロコンピュータ50は、パラメータDB及びボタン配置図をスレートPC300に対して送信する(ステップS49)。
 状態確認画面1203は、撮像装置100で設定されている各種のパラメータをユーザに確認させる為のインジケータ1203aと、撮像装置100の各操作部に割り当てられた割当パラメータ及び各操作部に割当が可能な割当可能パラメータを示すヘルプ画面1203bと、状態確認画面1203の表示を終了させる為の終了ボタン1203cとを含む。
 例えば、スレートPC300の制御部350は、ヘルプ画面601と同様に、ヘルプ画面1203b上の各操作部に対応したインジケータに対するタッチ操作に基づいて、撮像装置100のパラメータを変更する構成であってもよい。この場合、制御部350は、タッチ操作に基づいて、撮像装置100のパラメータを変更する為の制御信号を生成し、生成した制御信号を撮像装置100に対して送信する。これにより、スレートPC300は、撮像装置100の各種のパラメータをユーザに確認させ、且つ各種のパラメータをスレートPC上の操作に基づいて変更させることができる。
 上記のような構成によると、撮像装置100は、各操作部に割り当てられている割当パラメータ及び各操作部により割り当てが可能な割当可能パラメータを、ボタン配置図に対応付けた状態で表示させることができる。これにより、種々のパラメータを変更する為の機能を任意で割り当てることができる複数の操作部を複数備える撮像装置100において、どの操作部にどのパラメータが割り当てられているかを1つの画面上でユーザに認識させることができる。例えば、使用頻度が低い機能が存在する場合、使い慣れた機能の割当が変更された場合、または複数の操作部に割り当てられた機能が変更された場合であっても、撮像装置100は、操作部に割り当てられている機能を1つの画面上でユーザに認識させることができる。これにより、操作部に割り当てられている機能をユーザが十分に認識できていない場合であっても、操作部に割り当てられている機能をユーザが容易に確認することができる。この結果、ユーザが意図した通りに撮像装置を瞬時に操作することが容易になり、利便性を損なうことを防ぐことができる。
 またさらに、スレートPC300は、撮像装置100の各操作部に割り当てられている割当パラメータ及び各操作部により割り当てが可能な割当可能パラメータを、ボタン配置図に対応付けた状態で表示させることができる。これにより、スレートPC300は、撮像装置100の操作部にどのパラメータが割り当てられているかを1つの画面上でユーザに認識させることができる。
 この結果、複数の操作部に対する機能を変更しても利便性を損なうことのない撮像装置、撮像装置の制御方法、及び撮像システムを提供することができる。
 なお、図13及び図14では、撮像装置100がパラメータDB及びボタン配置図をスレートPC300に送信し、スレートPC300がパラメータDB及びボタン配置図に基づいてヘルプ画面を生成する場合の撮像装置100及びスレートPC300の動作の例を示した。しかし、撮像装置100は、スレートPC300から状態確認要求を受信した場合にパラメータDB及びボタン配置図に基づいてヘルプ画面を生成し、生成したヘルプ画面をスレートPC300に送信する構成であってもよい。この場合、スレートPC300は、撮像装置100に状態確認要求を送信し、そのレスポンスとしてヘルプ画面を受信し、受信したヘルプ画面をディスプレイ334に表示する。
 なお、上記の例では、撮像装置100は、ヘルプ画面601にフロントダイアル33c、リアダイアル33d、第1のファンクションボタン33f、第2のファンクションボタン33g、第3のファンクションボタン33h、及び第4のファンクションボタン33iの割当パラメータ及び割当可能パラメータを表示させる構成であると説明したが、この構成に限定されない。ヘルプ画面601に表示させる割当パラメータ及び割当可能パラメータは、どの操作部に対応するものであってもよい。また、例えば、撮影モードによってヘルプ画面601に表示させる割当パラメータ及び割当可能パラメータをさらに絞り込んでもよい。
 またさらに、撮像装置100は、モードダイアル33aを切り替える為のモータを備えていてもよい。この場合、撮像装置100は、ヘルプ画面601上での操作に基づいて撮影モードを変更することができる。即ち、撮像装置100は、ヘルプ画面601上で撮影モードを変更する操作が入力された場合、上記のモータを駆動してモードダイアル33aを回転させて撮影モードを変更することができる。
 (第2の実施形態) 
 図15乃至図17は、スレートPC300と連携して動作するレンズ型撮像装置500の例を示す。図15は、撮像装置500の制御系の例を示す。図16及び図17は、撮像装置500の外観の例を示す。
 レンズ型撮像装置500は、例えば、タブレットPC、スマートフォン、またはスレート状の表示装置にキーボードなどの入力装置が組み合わされたPCなどのスレートPC300から種々の制御信号を受け取り、受け取った制御信号に基づいて撮像処理を行い、記憶媒体Mに画像または動画などを保存することができる。さらに、レンズ型撮像装置500は、記憶媒体Mに保存されている画像または動画などをスレートPCに送信して表示させることができる。さらに、レンズ型撮像装置500は、スルー画を取得して逐次スレートPC300に送信して表示させることができる。
 レンズ型撮像装置500は、レンズを通過した被写体像を撮像素子によって画像として取得する。撮像装置100は、シャッターボタンが全押し操作された場合に画像を記憶媒体に保存することができる。
 レンズ型撮像装置500は、レンズ510、撮像素子520、信号処理部530、画像処理部540、マイクロコンピュータ550、記憶部555、集音部560、操作部570、メモリインターフェース(I/F)580、及び通信部590を備える。
 信号処理部530、画像処理部540、マイクロコンピュータ550、集音部560、操作部570、メモリインターフェース(I/F)580、及び通信部590は、データバス80を介して互いに接続されている。
 また、レンズ型撮像装置500は、レンズ510の代わりに交換レンズを装着可能なマウントを備える構成であってもよい。この場合、マウントには接触端子が設けられる。レンズ型撮像装置500は、この接触端子によりマウントに装着された交換レンズと通信を行うことができる。これにより、レンズ型撮像装置500は、交換レンズから焦点距離、絞り値、交換レンズのレンズ外観図、及びパラメータDBなどの交換レンズに関する種々のレンズ情報を交換レンズから取得することができる。
 レンズ510は、光を受光し、受光した光を撮像素子520に結像させる。レンズ510は、複数のレンズが組み合わされた光学系、CPU、及びROMなどを備える。
 撮像素子520は、撮像素子17と同様の構成であり、レンズ510を通った被写体像を光電変換する。
 信号処理部530は、信号処理部18及びA/D19と同様の構成であり、撮像素子520から出力された信号に対して信号処理を施し、信号を量子化して画像データを取得する。
 画像処理部540は、マイクロコンピュータ550の制御に基づいて画像データに対して、色補正、ガンマ(γ)補正、コントラスト補正、白黒・カラーモード処理、及びライブビュー画像処理などの各種の画像処理を行う。さらに、画像処理部540は、画像データを用いて、露出制御等に用いる被写体輝度情報を取得する。レンズ型撮像装置500は、被写体輝度情報に基づいて露出値に応じたISO、絞り値、及びシャッター速度の制御を行う。
 また、画像処理部540は、画像データをJpeg方式で圧縮し、Jpeg方式の画像データ(Jpegデータ)を生成する。画像処理部540は、マイクロコンピュータ550の制御に基づいてJpegデータをメモリI/F580に装着された記録媒体Mに出力する。これにより、レンズ型撮像装置500は、撮像された画像のJpegデータを記録媒体Mに保存することができる。
 マイクロコンピュータ550は、レンズ型撮像装置500の各種の動作を制御する制御部である。マイクロコンピュータ550は、例えばCPU及びキャッシュメモリなどを備える。記憶部555は、レンズ型撮像装置500を制御する為のプログラム、各種の機能を実現する為のプログラム、及び各種の設定情報などを記憶する。CPUは、種々の演算処理を実行する演算素子である。キャッシュメモリは、CPUによる演算の結果、CPUにより読み込まれたデータなどを一時的に記憶する。マイクロコンピュータ550は、操作部570から供給された操作信号に基づいて、記憶部555に記憶されているプログラムを実行し、レンズ型撮像装置500の各部の動作を制御する。
 集音部560は、動画の撮影時に音声を取得する為のステレオマイクを備える。集音部560は、ステレオマイクによりステレオの音声を取得することができる。また、集音部560は、ステレオマイクによりモノラルの音声を取得することもできる。
 操作部570は、レンズ型撮像装置500のユーザによる操作を受け付ける操作ボタン及び操作リングなどを含む。図16及び図17に示されるように、操作部570は、シャッターボタン570a、第1の操作リング570b、及び第2の操作リング570cを備える。第1の操作リング570b及び第2の操作リング570cには、それぞれ合焦距離、焦点距離、及び絞り値などの撮像の為のパラメータをそれぞれ割り当てることができる。さらに、操作部570は、レンズ型撮像装置500の電源状態をONとOFFとで切り替える電源スイッチを備えていてもよい。
 シャッターボタン570aは、レンズ型撮像装置500にレリーズ動作及びオートフォーカス(AF)動作を行わせるためのボタンである。例えばシャッターボタン570aが半押しされた場合、レンズ型撮像装置500は、オートフォーカス動作を行う。即ち、レンズ型撮像装置500は、AFエリア内での対象物で合焦するようにレンズ510に制御信号を出力する。
 また、例えばシャッターボタン570aが全押しされた場合、レンズ型撮像装置500は、撮影を実行する。即ち、レンズ型撮像装置500は、設定情報に基づいて撮像素子520により電荷を生成し、生成された電荷に応じて信号処理部530により画像データを生成し、画像データを画像処理部540により画像処理を行ってJpegデータに変換し、JpegデータをメモリI/F580に装着されている記録媒体Mに保存する。また、レンズ型撮像装置500は、例えばJpegデータと信号処理部530により変換された画像データとの両方をメモリI/F580に装着されている記録媒体Mに保存する構成であってもよい。
 レンズ510の光学系は、例えば、フォーカシング用のレンズ、ズーミング用のレンズ、及び絞り羽根などを含む。レンズ510は、マイクロコンピュータ550の制御に基づいて、光学系の合焦用のレンズを駆動する。また、レンズ510は、第1の操作リング570bまたは第2の操作リング570cに合焦距離が割り当てられている場合、第1の操作リング570bまたは第2の操作リング570cの操作に応じてフォーカシング用のレンズを駆動して合焦距離を変更することができる。
 また、レンズ510は、第1の操作リング570bまたは第2の操作リング570cに焦点距離が割り当てられている場合、レンズ510は、第1の操作リング570bまたは第2の操作リング570cの操作に応じてズーミング用のレンズを駆動し、焦点距離を変更することができる。
 また、レンズ510は、第1の操作リング570bまたは第2の操作リング570cに絞り値が割り当てられている場合、レンズ510は、第1の操作リング570bまたは第2の操作リング570cの操作に応じて絞り羽根を駆動して絞り値を変更することができる。
 また、レンズ510は、通信部590を経由してスレートPC300から受信した制御信号に基づいて、ズーミング、フォーカシング、及び絞り値の変更を行う構成であってもよい。
 メモリI/F580は、記録媒体Mとレンズ型撮像装置500の各部との間でのデータの入出力を制御する。メモリI/F580は、記録媒体Mを挿入可能なカードスロットなどを備える。記録媒体Mは、複数の接触端子を備える。また、メモリI/F580は、記録媒体Mがカードスロットに挿入された場合に記録媒体Mの接触端子と電気的に接続される接触端子を備える。これにより、レンズ型撮像装置500は、記録媒体Mにデータを保存することと、記録媒体Mからデータを読み出すこととを実行することができる。
 通信部590は、スレートPC300と種々のデータ通信を行う為のモジュールである。通信部590は、例えば、無線LAN、またはBluetooth等によりスレートPC300と通信を行うことができる。また、スレートPC300が例えばイントラネット等のネットワークに接続されている場合、通信部590は、無線LANによりネットワークを経由してスレートPC300と通信する構成であってもよい。レンズ型撮像装置500は、通信部590によりスレートPC300または他の種々の機器と通信することができる。
 また、記憶部555は、第1の記憶領域555aと第2の記憶領域555bとを具備する。第1の記憶領域555aは、レンズ型撮像装置500の外観上での各種のボタン及び操作リングの位置を示す図(レンズ外観図)を予め記憶する。なお、第1の記憶領域555aは、レンズ型撮像装置500を複数の角度から見た場合の複数のボタン配置図を予め記憶する。第2の記憶領域57bは、各種のパラメータ名毎に、操作の有無(操作有無)、対応している操作部(対応操作部)、レンズ外観図上での位置(操作部位置)を示す情報が対応付けられたパラメータデータベース(パラメータDB)を記憶する。
 上記のようなレンズ型撮像装置500は、例えば、スレートPC300に装着されて使用されることが想定される。図16及び図17により示されるように、スレートPC300には、取り付け器具301を介してレンズ型撮像装置500が取り付けられる。取り付け器具301は、鉤型に形成され、その取付け平板302に凸状のレンズ取付け部303が設けられている。レンズ型撮像装置500は、レンズ取付け部303に対する係止により取り付けられる。
 レンズ型撮像装置500は、スレートPC300との間で通信が確立された場合、取得したスルー画をスレートPC300に逐次送信し、スルー画をスレートPC300のディスプレイ334に表示させることができる。
 さらに、レンズ型撮像装置500は、スレートPC300からの要求に応じてレンズ外観図及びパラメータDBをスレートPC300に送信する。これにより、レンズ型撮像装置500は、レンズ型撮像装置500の操作部570の各部に割り当てられている割当パラメータをユーザに認識させる為のヘルプ画面をスレートPC300により生成させ、スレートPC300のディスプレイ334に表示させることができる。
 図18及び図19は、レンズ型撮像装置500及びレンズ型撮像装置500を制御するスレートPC300の動作の例を示すフローチャートである。図18は、レンズ型撮像装置500の動作の例を示す。図19は、レンズ型撮像装置500を制御するスレートPC300の動作の例を示す。
 レンズ型撮像装置500は、電源がONである場合、スレートPC300との間でのデータ通信が確立されるのを待つ。データ通信は、スレートPC300とレンズ型撮像装置500との間で所定のプロトコルが行われることにより確立する。
 レンズ型撮像装置500のマイクロコンピュータ550は、モード通信を行う(ステップS51)。マイクロコンピュータ550は、例えば撮影モード、再生モード、及び確認通信モードなどのモードを有する。マイクロコンピュータ550は、スレートPC300の制御に基づいてどのモードが指示されているかを認識し、認識したモードに切り替えて動作する。
 マイクロコンピュータ550は、撮影モードがスレートPC300により指示されているか否か判断する(ステップS52)。撮影モードが指示されていると判断した場合、マイクロコンピュータ550は、レンズ510を駆動して受光した光を撮像素子520に結像させる。マイクロコンピュータ550は、結像された光から撮像素子520、信号処理部530、及び画像処理部540に基づいてスルー画を取得する。マイクロコンピュータ550は、取得したスルー画をスレートPC300に逐次送信する(ステップS53)。
 さらに、マイクロコンピュータ550は、撮影操作があるか否か判断する(ステップS54)。マイクロコンピュータ550は、シャッターボタン570aが操作された、またはスレートPC300から撮像を指示する制御信号を受け取った場合、撮影操作があったと判断する。
 撮影操作があったと判断した場合、マイクロコンピュータ550は、撮影を実行し、ステップS51の処理にループする(ステップS55)。即ち、マイクロコンピュータ550は、設定情報に基づいて撮像素子520により電荷を生成し、生成された電荷に応じて信号処理部530及び画像処理部540により画像データを生成する。さらに、マイクロコンピュータ550は、生成された画像データをメモリI/F580に装着されている記録媒体Mに保存し、ステップS11の処理に戻る。
 また、マイクロコンピュータ550は、再生モードがスレートPC300により指示されているか否か判断する(ステップS56)。再生モードが指示されていると判断した場合、マイクロコンピュータ550は、スレートPC300により指定された画像または動画をスレートPC300に送信する(ステップS57)。
 さらに、マイクロコンピュータ550は、確認通信モードがスレートPC300により指示されているか否か判断する(ステップS58)。確認通信モードが指示されていると判断した場合、マイクロコンピュータ550は、スレートPC300から受け取る制御信号に基づいてスレートPC300上の表示を変更する必要があるか否か判断する(ステップS59)。例えば、スレートPC300上でレンズ外観図の変更、パラメータの変更、または他の表示の変更を必要とする操作が行われた場合、マイクロコンピュータ550は、表示を変更する必要があると判断する。また、マイクロコンピュータ550は、操作部570の操作により撮像の為のパラメータが変更された場合も、スレートPC300上での表示の変更が必要であると判断する。例えば、最初にスレートPC300でヘルプ画面を開く操作が入力された場合も、マイクロコンピュータ550は、表示を変更する必要があると判断する。
 スレートPC300上での表示の変更が必要であると判断した場合、マイクロコンピュータ550は、ヘルプ画面を生成し、スレートPC300に送信する。この為に、マイクロコンピュータ550は、レンズ外観図を記憶部555の第1の記憶領域555aから読み出す(ステップS60)。
 さらに、マイクロコンピュータ550は、パラメータDBを記憶部555の第2の記憶領域555bから読み出す(ステップS61)。
 マイクロコンピュータ550は、読み出したレンズ外観図及びパラメータDBに基づいて、ヘルプ画面を生成する(ステップS62)。例えば、マイクロコンピュータ550は、ヘルプ画面601と同様に、レンズ外観図上の操作部570の各部に対応する位置に割り当てられた割当パラメータ、及び割当可能パラメータなどを表示させたヘルプ画面を生成する。
 マイクロコンピュータ550は、生成したヘルプ画面を通信部590を介してスレートPC300に送信する(ステップS63)。これにより、スレートPC300は、レンズ型撮像装置500の各部の割当パラメータと、割当可能パラメータとを一度にユーザに確認させることができるヘルプ画面をディスプレイ334に表示させることができる。
 また、マイクロコンピュータ550は、割当パラメータまたはパラメータの設定値を変更する操作が入力されたか否か判断する(ステップS64)。割当パラメータまたはパラメータの設定値を変更する操作が入力されたと判断した場合、マイクロコンピュータ550は、割当パラメータまたはパラメータの設定値を変更し、ステップS51にループする(ステップS65)。
 図19は、レンズ型撮像装置500の図18により示された動作に対応して動作するスレートPC300の動作の例を示す。
 スレートPC300の制御部350は、レンズ型撮像装置500を制御する為のアプリケーション(レンズ型撮像装置500に対応したコントロールアプリ)を起動する為のアイコンを表示したホーム画面をディスプレイ334に表示させる(ステップS71)。 
 ホーム画面でレンズ型撮像装置500を制御する為のコントロールアプリが選択された場合(ステップS72)、制御部350は、コントロールアプリのメニュー画面をディスプレイ334に表示させる。制御部350は、メニュー画面上での操作に応じて、撮影モード、再生モード、及びレンズ型撮像装置500の状態を確認する確認通信モードのうちのいずれかを選択する。さらに、制御部350は、通信部371を介して選択されたモードをレンズ型撮像装置500に認識させる為のモード通信制御を行う(ステップS73)。
 制御部350は、レンズ型撮像装置500との間で通信が正常に行われたか否か判断する(ステップS74)。レンズ型撮像装置500との間で通信が正常に行われていないと判断した場合、通信NG処理を行う(ステップS75)。この場合、制御部350は、例えばレンズ型撮像装置500との間で通信不良が発生したことを示すアラートをディスプレイ334に表示させ、ステップS73にループする。
 また、ステップS74でレンズ型撮像装置500との間で通信が正常に行われたと判断した場合、制御部350は、レンズ型撮像装置500に撮影モードを指示したか否か判断する(ステップS76)。レンズ型撮像装置500に撮影モードを指示したと判断した場合、制御部350は、レンズ型撮像装置500からスルー画を受信し、受信したスルー画をディスプレイ334に表示する(ステップS77)。
 さらに、制御部350は、撮影操作が入力されたか否か判断する(ステップS79)。例えば、制御部350は、レンズ型撮像装置500が撮影モードである場合、ディスプレイ334にレンズ型撮像装置500に撮影を実行させる為の撮影ボタンを表示する。この撮影ボタンが操作された場合、撮影操作が入力されたと判断する。また、制御部350は、レンズ型撮像装置500のシャッターボタン570aが操作された場合、撮影操作が入力されたと判断する。
 撮影操作が入力されたと判断した場合、制御部350は、レンズ型撮像装置500に撮影を指示する為の制御信号を生成し、生成した制御信号をレンズ型撮像装置500に送信し、ステップS73の処理にループする(ステップS79)。
 また、ステップS76でレンズ型撮像装置500に撮影モードを指示していないと判断した場合、制御部350は、レンズ型撮像装置500に再生モードを指示したか否か判断する(ステップS80)。
 レンズ型撮像装置500に再生モードを指示したと判断した場合、制御部350は、再生画像または再生動画を指定する(ステップS81)。例えば、制御部350は、レンズ型撮像装置500に装着されている記憶媒体Mに保存されている画像及び動画のリスト(例えばサムネイル)を取得する。制御部350は、取得したリストの中から再生画像、または再生画像または再生動画を操作に応じて指定する。
 レンズ型撮像装置500は、上記のように図18のステップS57でスレートPC300により指示された画像または動画をスレートPC300に送信する。制御部350は、再生画像、または再生動画を受信したか否か判断する(ステップS82)。制御部350は、再生画像または再生動画を受信したと判断した場合、受信した再生画像または再生動画をディスプレイ334に表示し、ステップS73の処理にループする(ステップS83)。
 また、制御部350は、ステップS82で再生画像または再生動画を受信していないと判断した場合、通信NG処理を行う(ステップS84)。この場合、制御部350は、例えばレンズ型撮像装置500との間で通信不良が発生したことを示すアラートをディスプレイ334に表示させ、ステップS73にループする。
 また、ステップS80でレンズ型撮像装置500に再生モードを指示していないと判断した場合、制御部350は、レンズ型撮像装置500に確認通信モードを指示したか否か判断する(ステップS85)。
 レンズ型撮像装置500に確認通信モードを指示したと判断した場合、制御部350は、確認通信を実行する(ステップS86)。この場合、制御部350は、確認通信に関する制御信号をレンズ型撮像装置500に送信する。例えば、最初にレンズ型撮像装置500の各操作部に割り当てられたパラメータを確認する為のヘルプ画面を開く場合、制御部350は、レンズ型撮像装置500にヘルプ画面を要求する。また、制御部350は、既にヘルプ画面をディスプレイ334に開いている場合、ヘルプ画面上の表示を変更する必要があるか否か判断する。ヘルプ画面上の表示を変更する必要があると判断した場合、制御部350は、レンズ型撮像装置500に新たなヘルプ画面を要求する。
 レンズ型撮像装置500は、上記のように図18のステップS60乃至63でスレートPC300により要求されたヘルプ画面を生成し、生成したヘルプ画面をスレートPC300に送信する。制御部350は、ヘルプ画面の画像を受信したか否か判断する(ステップS87)。制御部350は、ヘルプ画面の画像を受信したと判断した場合、受信した画像に基づいてヘルプ画面をディスプレイ334に表示し、ステップS73の処理にループする(ステップS88)。
 また、制御部350は、ステップS87でヘルプ画面の画像を受信していないと判断した場合、通信NG処理を行う(ステップS89)。この場合、制御部350は、例えばレンズ型撮像装置500との間で通信不良が発生したことを示すアラートをディスプレイ334に表示させ、ステップS73にループする。
 上記したように、レンズ型撮像装置500は、各操作部に割り当てられている割当パラメータ及び各操作部により割り当てが可能な割当可能パラメータを、レンズ外観図に対応付けた状態でヘルプ画面を生成し、生成したヘルプ画面を制御側の機器であるスレートPC300に表示させることができる。これにより、種々のパラメータを変更する為の機能を任意で割り当てることができる複数の操作部を複数備えるレンズ型撮像装置500において、どの操作部にどのパラメータが割り当てられているかを1つの画面上でユーザに認識させることができる。
 この結果、より利便性の高い撮像装置、撮像装置の制御方法、及び撮像システムを提供することができる。
 なお、上記の実施形態では、撮像装置100の記憶部57がボタン配置図を有し、レンズ200のROM200cがレンズ外観図を有する構成であると説明したが、この構成に限定されない。ボタン配置図及びレンズ外観図をスレートPC300が備える構成であってもよい。また、例えば、撮像装置100またはレンズ型撮像装置500をコントロールするためのアプリケーション(コントロールアプリ)がボタン配置図及びレンズ外観図を備える構成であってもよい。この場合、スレートPC300は、コントロールアプリを例えばサーバ上などからダウンロードした際にボタン配置図及びレンズ外観図を取得することができる。またさらに、スレートPC300は、撮像装置100と初期設定の為の通信を行う際に撮像装置100からボタン配置図及びレンズ外観図を取得する構成であってもよい。
 なお、上述の各実施の形態で説明した機能は、ハードウエアを用いて構成するに留まらず、ソフトウエアを用いて各機能を記載したプログラムをコンピュータに読み込ませて実現することもできる。また、各機能は、適宜ソフトウエア、ハードウエアのいずれかを選択して構成するものであっても良い。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。

Claims (11)

  1.  撮像の為の複数のパラメータが割当パラメータとしてそれぞれ割り当てられた複数の操作部と、
     前記各操作部の操作に基づいて割当パラメータの設定値を制御するパラメータ制御部と、
     前記複数の操作部の位置を示す操作部配置図上に、前記割当パラメータ毎に割り当てられている前記操作部を示すパラメータデータベースに基づいて前記各操作部に対応した割当パラメータを表示させてヘルプ画面を生成する画面生成部と、
     を具備する撮像装置。
  2.  前記画面生成部は、前記操作部配置図上の前記割当パラメータが割り当てられている前記操作部と関連付けて前記割当パラメータを前記ヘルプ画面に表示させる請求項1に記載の撮像装置。
  3.  前記パラメータデータベースは、前記割当パラメータ毎にパラメータ名と、前記割当パラメータが割り当てられている前記操作部と、この操作部が示されている前記操作部配置図と、この操作部の前記操作部配置図上での位置を示す操作部位置と、をそれぞれ示す情報を対応付けて保持し、
     前記画面生成部は、前記パラメータデータベースにより示された前記操作部配置図上の前記操作部位置により示された位置に、前記パラメータ名を表示させる請求項2に記載の撮像装置。
  4.  前記画面生成部は、前記操作部配置図上の前記操作部に関連付けて前記操作部に割り当てが可能な割当可能パラメータを前記ヘルプ画面にさらに表示させる請求項1に記載の撮像装置。
  5.  前記ヘルプ画面を表示する表示装置と、
     前記表示装置に対するタッチ操作を検出するタッチセンサと、
     をさらに具備し、
     前記画面生成部は、前記ヘルプ画面が前記表示装置に表示されている状態での前記タッチセンサによる操作に応じて、前記操作部配置図及び前記割当パラメータの表示状態を切り替える請求項1に記載の撮像装置。
  6.  前記画面生成部は、異なる角度から描写された複数の前記操作部配置図が存在する場合、前記ヘルプ画面が前記表示装置に表示されている状態での前記タッチセンサによる操作に応じて前記操作部配置図を回転させる請求項5に記載の撮像装置。
  7.  前記パラメータ制御部は、前記ヘルプ画面が前記表示装置に表示されている状態での前記タッチセンサによる操作に応じて前記割当パラメータの設定値を制御する請求項5に記載の撮像装置。
  8.  前記操作部が回転操作を受け付ける操作部である場合、前記画面生成部は、前記操作部の回転操作に応じてどのように割当パラメータが変更されるのかをさらに前記ヘルプ画面に示す請求項1に記載の撮像装置。
  9.  外部機器と通信する通信部をさらに具備し、
     前記画面生成部は、前記外部機器からの要求に基づいて前記ヘルプ画面を生成し、生成した前記ヘルプ画面を前記通信部を介して前記外部機器に送信する請求項1に記載の撮像装置。
  10.  撮像の為の複数のパラメータが割当パラメータとしてそれぞれ割り当てられた複数の操作部と、前記各操作部の操作に基づいて割当パラメータの設定値を制御するパラメータ制御部と、を具備し、
     前記複数の操作部の位置を示す操作部配置図上に、前記割当パラメータ毎に割り当てられている前記操作部を示すパラメータデータベースに基づいて前記各操作部に対応した割当パラメータを表示させてヘルプ画面を生成する撮像装置の制御方法。
  11.  撮像装置と、前記撮像装置と通信する携帯端末とを備える撮像システムであって、
     前記撮像装置は、
     前記携帯端末と通信する第1の通信部と、
     撮像の為の複数のパラメータが割当パラメータとしてそれぞれ割り当てられた第1の複数の操作部と、
     前記各操作部の操作に基づいて割当パラメータの設定値を制御するパラメータ制御部と、
     を具備し、
     前記携帯端末は、
     前記撮像装置と通信する第2の通信部と、
     操作入力を受け付ける第2の操作部と、
     前記第2の通信部を介して前記撮像装置にヘルプ画面の要求を送信する制御部と、
     を具備し、
     前記撮像装置は、前記携帯端末からの前記要求に応じて、前記第1の複数の操作部の位置を示す操作部配置図上に、前記割当パラメータ毎に割り当てられている前記第1の操作部を示すパラメータデータベースに基づいて前記各第1の操作部に対応した割当パラメータを表示させてヘルプ画面を生成し、生成した前記ヘルプ画面を前記携帯端末に前記第1の通信部を介して送信する撮像システム。
PCT/JP2015/059216 2014-09-10 2015-03-25 撮像装置、及び撮像装置の制御方法、及び撮像システム WO2016038913A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580006519.3A CN105960795B (zh) 2014-09-10 2015-03-25 摄像装置、摄像装置的控制方法和摄像系统
JP2016501689A JP6157714B2 (ja) 2014-09-10 2015-03-25 撮像装置、及び撮像装置の制御方法、及び撮像システム
US15/203,403 US10084956B2 (en) 2014-09-10 2016-07-06 Imaging apparatus, and imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014183961 2014-09-10
JP2014-183961 2014-09-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/203,403 Continuation US10084956B2 (en) 2014-09-10 2016-07-06 Imaging apparatus, and imaging system

Publications (1)

Publication Number Publication Date
WO2016038913A1 true WO2016038913A1 (ja) 2016-03-17

Family

ID=55458677

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/059216 WO2016038913A1 (ja) 2014-09-10 2015-03-25 撮像装置、及び撮像装置の制御方法、及び撮像システム

Country Status (4)

Country Link
US (1) US10084956B2 (ja)
JP (1) JP6157714B2 (ja)
CN (1) CN105960795B (ja)
WO (1) WO2016038913A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173126A1 (ja) * 2017-03-21 2018-09-27 三菱電機株式会社 監視画面データ生成装置、監視画面データ生成方法、および監視画面データ生成プログラム
WO2019035262A1 (ja) 2017-08-14 2019-02-21 富士フイルム株式会社 レンズユニット、およびカメラシステム
JP7057139B2 (ja) * 2018-01-16 2022-04-19 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラムおよび記録媒体
US11588971B2 (en) * 2019-04-03 2023-02-21 Sony Group Corporation Imaging apparatus with two operation interfaces for setting imaging conditions

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007221371A (ja) * 2006-02-15 2007-08-30 Canon Inc 撮像装置及び表示制御方法
JP2010187200A (ja) * 2009-02-12 2010-08-26 Canon Inc 画像再生装置、その制御方法、プログラムおよび記憶媒体
JP2012034300A (ja) * 2010-08-02 2012-02-16 Canon Inc 電子機器、その制御方法及びプログラム
JP2012123079A (ja) * 2010-12-07 2012-06-28 Canon Inc 撮像装置
JP2013239785A (ja) * 2012-05-11 2013-11-28 Olympus Imaging Corp 撮影機器
JP2014042164A (ja) * 2012-08-22 2014-03-06 Canon Inc 電子機器、その制御方法、プログラムおよび記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2865060B2 (ja) 1996-06-26 1999-03-08 ミノルタ株式会社 表示機能を有する撮影機器
JP2003319211A (ja) 2002-04-23 2003-11-07 Minolta Co Ltd 撮像装置およびプログラム
JP2007235391A (ja) * 2006-02-28 2007-09-13 Canon Inc ヘルプ機能を備えた撮像装置、ヘルプ機能を備えた撮像装置の制御方法及びプログラム
US8886033B2 (en) * 2012-03-22 2014-11-11 Source Photonics, Inc. Enhanced status monitoring, storage and reporting for optical transceivers

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007221371A (ja) * 2006-02-15 2007-08-30 Canon Inc 撮像装置及び表示制御方法
JP2010187200A (ja) * 2009-02-12 2010-08-26 Canon Inc 画像再生装置、その制御方法、プログラムおよび記憶媒体
JP2012034300A (ja) * 2010-08-02 2012-02-16 Canon Inc 電子機器、その制御方法及びプログラム
JP2012123079A (ja) * 2010-12-07 2012-06-28 Canon Inc 撮像装置
JP2013239785A (ja) * 2012-05-11 2013-11-28 Olympus Imaging Corp 撮影機器
JP2014042164A (ja) * 2012-08-22 2014-03-06 Canon Inc 電子機器、その制御方法、プログラムおよび記録媒体

Also Published As

Publication number Publication date
CN105960795A (zh) 2016-09-21
US10084956B2 (en) 2018-09-25
US20160316139A1 (en) 2016-10-27
CN105960795B (zh) 2019-05-03
JP6157714B2 (ja) 2017-07-05
JPWO2016038913A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP7276393B2 (ja) 撮影装置および撮影方法
JP5436019B2 (ja) 制御装置、制御方法、プログラム及び記録媒体
JP2005128437A (ja) 撮影装置
JP6157714B2 (ja) 撮像装置、及び撮像装置の制御方法、及び撮像システム
JP2010035107A (ja) 撮像装置
JP2012095167A (ja) 撮像装置
JP2011170194A (ja) 撮影装置及び撮影制御方法
JP2011172094A (ja) 撮像装置
US11778319B2 (en) Image capturing apparatus that can distribute recorded content at a set time, and control method and non-transitory computer-readable storage medium
JP2018023046A (ja) 画像処理装置、制御方法、プログラム、及び記憶媒体
JP2019193131A (ja) 電子機器、電子機器の制御方法、プログラム、及び、記録媒体
JP2019092121A (ja) 撮像制御装置およびその制御方法
US20050117030A1 (en) Digital photographing apparatus and file management method thereof
JP2009260599A (ja) 画像表示装置、電子カメラ
KR101812656B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
CN109218607B (zh) 摄像设备、控制方法和存储介质
JP4292940B2 (ja) 電子カメラ、及び電子カメラの制御プログラム
WO2019187447A1 (ja) 撮像装置、表示制御方法、プログラム
JP2021002746A (ja) 画像処理装置、画像処理方法およびプログラム
US20050225658A1 (en) Digital camera
JP7171876B2 (ja) 撮像装置及びその制御方法、並びに、プログラム
JP2009141978A (ja) カメラ装置、スルー画像表示方法及びそのプログラム
JP2016129313A (ja) ストリーム記録装置、及びストリーム記録装置の制御方法
JP2023161441A (ja) 情報処理装置及びその制御方法及びプログラム
JP2021082998A (ja) 電子機器及びその制御方法及びプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016501689

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15840228

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15840228

Country of ref document: EP

Kind code of ref document: A1