WO2016208562A1 - 電子機器、電子機器の動作方法及び制御プログラム - Google Patents

電子機器、電子機器の動作方法及び制御プログラム Download PDF

Info

Publication number
WO2016208562A1
WO2016208562A1 PCT/JP2016/068344 JP2016068344W WO2016208562A1 WO 2016208562 A1 WO2016208562 A1 WO 2016208562A1 JP 2016068344 W JP2016068344 W JP 2016068344W WO 2016208562 A1 WO2016208562 A1 WO 2016208562A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
electronic device
image
display
standard
Prior art date
Application number
PCT/JP2016/068344
Other languages
English (en)
French (fr)
Inventor
清貴 彭
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US15/738,530 priority Critical patent/US10602063B2/en
Publication of WO2016208562A1 publication Critical patent/WO2016208562A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/18Motion-picture cameras
    • G03B19/22Double cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Definitions

  • the present invention relates to an electronic device.
  • an electronic device having a camera can easily obtain a photographed image desired by the user.
  • the present invention has been made in view of the above points, and an object thereof is to provide a technique that makes it easy to obtain a photographed image desired by a user.
  • the electronic device includes first and second cameras that can be used by switching, a determination unit that determines a camera to be used from the first and second cameras, and captured images of the first and second cameras. And a display unit for displaying.
  • the first camera is a camera that can shoot at a wider angle than the second camera.
  • the first camera has a first shooting range.
  • the second camera has a second shooting range.
  • the display unit displays the second shooting range so as to overlap the first through image when the first through image shot by the first camera as the camera in use is displayed.
  • the operation method of the electronic device includes the first and second cameras that can be switched and used, and the first camera is a camera that can shoot at a wider angle than the second camera. Is the operation method.
  • the operation method of the electronic device includes a step of displaying the through image and the shooting range so that the shooting range of the second camera overlaps the through image shot with the first camera.
  • control program includes an electronic device that includes first and second cameras that can be used by switching, and the first camera is a camera that can shoot at a wider angle than the second camera.
  • the control program is for causing the electronic device to display the through image and the shooting range so that the shooting range of the second camera overlaps the through image shot by the first camera.
  • ⁇ Appearance of electronic equipment> 1 to 3 are a perspective view, a front view, and a rear view, respectively, showing an example of the external appearance of the electronic device 1.
  • the electronic device 1 is a mobile phone such as a smartphone, for example.
  • the electronic device 1 includes a plate-like device case 2 that is substantially rectangular in plan view.
  • a display screen (display region) 20 on which various information such as characters, symbols, and figures is displayed.
  • a touch panel 130 described later is provided on the back side of the display screen 20.
  • the user can input various information to the electronic device 1 by operating the display screen 20 on the front surface 1a of the electronic device 1 with a finger or the like.
  • the user can also input various types of information to the electronic apparatus 1 by operating the display screen 20 with an operator other than a finger, for example, an electrostatic touch panel pen such as a stylus pen.
  • a receiver hole 21 is provided at the upper end of the front surface of the device case 2. From the upper end of the front surface of the device case 2, a lens 171 included in a third camera 170 described later is visible. As shown in FIG. 3, lenses 151 and 161 included in a first camera 150 and a second camera 160 described later are visible from the back surface 1 b of the electronic device 1, that is, the back surface of the device case 2.
  • a speaker hole 22 is provided at the lower end of the front surface of the device case 2.
  • an operation key group 140 including a plurality of operation keys 141 is provided inside the device case 2.
  • Each operation key 141 is a push button, for example, and the surface thereof is exposed from the lower end of the front surface of the device case 2.
  • the user can give an instruction to the electronic device 1 by pressing the operation key 141 with a finger or the like.
  • the plurality of operation keys 141 include, for example, a home key, a back key, and a history key.
  • the home key is an operation key for displaying the home screen on the display screen 20.
  • the back key is an operation key for switching the display on the display screen 20 to the previous display.
  • the history key is an operation key for causing the display screen 20 to display the history of the application started on the electronic device 1.
  • FIG. 4 is a block diagram mainly showing an electrical configuration of the electronic apparatus 1.
  • the electronic device 1 includes a control unit 100, a wireless communication unit 110, a display panel 120, a touch panel 130, an operation key group 140, a first camera 150, a second camera 160, and a third camera 170. Is provided. Furthermore, the electronic device 1 is provided with a receiver 180, an external speaker 190, a microphone 200, and a battery 210. These components provided in the electronic device 1 are housed in the device case 2.
  • the control unit 100 is a control circuit including a processor such as a CPU (Central Processing Unit) 101 and a DSP (Digital Signal Processor) 102, a storage unit 103, and the like.
  • the control unit 100 can comprehensively manage the operation of the electronic device 1 by controlling other components of the electronic device 1.
  • the storage unit 103 is configured by a non-transitory recording medium that can be read by the control unit 100 (the CPU 101 and the DSP 102) such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the storage unit 103 stores various programs for controlling the operation of the electronic device 1, specifically, the operation of each component such as the wireless communication unit 110 and the display panel 120 included in the electronic device 1.
  • Various functions of the control unit 100 are realized by the CPU 101 and the DSP 102 executing various programs in the storage unit 103.
  • the storage unit 103 may include a computer-readable non-transitory recording medium other than the ROM and RAM.
  • the storage unit 103 may include, for example, a small hard disk drive and an SSD (Solid State Drive). Further, all the functions of the control unit 100 or a part of the functions of the control unit 100 may be configured by a hardware circuit that does not require software for realizing the function.
  • the storage unit 103 stores various applications (application programs).
  • the storage unit 103 stores, for example, a telephone application for making a call using a telephone function, a browser for displaying a website, and a mail application for creating, browsing, and transmitting / receiving e-mails.
  • the storage unit 103 also includes a camera application for photographing a subject using the first camera 150, the second camera 160, and the third camera 170, a map display application for displaying a map, and a puzzle in the electronic device 1.
  • a game application for playing a game such as a game, a music playback control application for controlling playback of music data stored in the storage unit 103, and the like are stored.
  • the wireless communication unit 110 has an antenna 111.
  • the wireless communication unit 110 can receive a signal from a mobile phone different from the electronic device 1 or a signal from a communication device such as a web server connected to the Internet via an antenna 111 via a base station or the like. It is.
  • the wireless communication unit 110 can perform amplification processing and down-conversion on the received signal and output the processed received signal to the control unit 100.
  • the control unit 100 can perform demodulation processing or the like on the input reception signal and acquire a sound signal indicating voice or music included in the reception signal.
  • the wireless communication unit 110 can up-convert and amplify the transmission signal including the sound signal generated by the control unit 100 and wirelessly transmit the processed transmission signal from the antenna 111. is there.
  • a transmission signal from the antenna 111 is received through a base station or the like by a mobile phone different from the electronic device 1 or a communication device connected to the Internet.
  • the display panel 120 is, for example, a liquid crystal display panel or an organic EL panel.
  • the display panel 120 can display various types of information such as characters, symbols, and graphics by being controlled by the control unit 100.
  • the display panel 120 is disposed in the device case 2 so as to face the display screen 20. Information displayed on the display panel 120 is displayed on the display screen 20.
  • the display screen 20 and the display panel 120 constitute a display unit that displays information to the user by displaying the information.
  • the touch panel 130 can detect an operation with an operator such as a finger on the display screen 20.
  • the touch panel 130 is, for example, a projected capacitive touch panel, and is disposed on the back side of the display screen 20.
  • an electrical signal corresponding to the operation is input from the touch panel 130 to the control unit 100.
  • the control unit 100 can specify the content of the operation performed on the display screen 20 based on the electrical signal from the touch panel 130, and can perform processing according to the content.
  • the microphone 200 can convert a sound input from the outside of the electronic device 1 into an electrical sound signal and output it to the control unit 100. Sound from the outside of the electronic device 1 is taken into the electronic device 1 through a microphone hole provided on the surface of the device case 2 and input to the microphone 200.
  • the microphone hole is provided on, for example, the lower side surface (bottom surface) of the device case 2.
  • the external speaker 190 is a dynamic speaker, for example.
  • the external speaker 190 can convert an electrical sound signal from the control unit 100 into a sound and output the sound. Sound output from the external speaker 190 is output to the outside through the speaker hole 22. The sound output from the speaker hole 22 can be heard at a place away from the electronic device 1.
  • the receiver 180 can output a received sound.
  • the receiver 180 is composed of, for example, a dynamic speaker.
  • the receiver 180 can convert an electrical sound signal from the control unit 100 into sound and output the sound.
  • the sound output from the receiver 180 is output from the receiver hole 21 to the outside.
  • the volume of the sound output from the receiver hole 21 is smaller than the volume of the sound output from the speaker hole 22.
  • a vibration element such as a piezoelectric vibration element that vibrates the front portion of the device case 2 may be provided to transmit sound from the front portion to the user.
  • the battery 210 can output the power of the electronic device 1.
  • the battery 210 is, for example, a rechargeable battery.
  • the power output from the battery 210 is supplied to various circuits such as the control unit 100 and the wireless communication unit 110 included in the electronic device 1.
  • the first camera 150 includes a lens 151 and an image sensor.
  • the second camera 160 includes a lens 161 and an image sensor.
  • the third camera 170 includes a lens 171 and an image sensor.
  • Each of the first camera 150, the second camera 160, and the third camera 170 shoots a subject based on control by the control unit 100, generates a still image or a moving image indicating the photographed subject, and outputs the still image or moving image to the control unit 100.
  • the control unit 100 may be output.
  • the control unit 100 generates a still image or a moving image based on a plurality of lines of images.
  • the lens 171 of the third camera 170 is visible from the front surface of the electronic device 1. Therefore, the third camera 170 can shoot a subject existing on the front side (display screen 20 side) of the electronic device 1.
  • Such a third camera 170 may be referred to as an “in camera”.
  • the third camera 170 may be referred to as an “in camera 170”.
  • the lens 151 of the first camera 150 is visible from the back of the electronic device 1. Therefore, the first camera 150 can photograph a subject that exists on the back side of the electronic device 1.
  • the lens 161 of the second camera 160 is visible from the back surface of the electronic device 1. Therefore, the second camera 160 can capture a subject that exists on the back side of the electronic device 1.
  • Each of such first camera 150 and second camera 160 may be referred to as an “out camera”.
  • the first camera 150 is a camera that can shoot at a wider angle than the second camera 160.
  • a camera that can shoot at a wide angle means that when each of the lenses 151 and 161 is a single focus lens having a fixed angle of view, the fixed angle of view of the first camera 150 is the second camera 160. It means that it is larger than the fixed angle of view.
  • the “camera capable of photographing at a wide angle” means that the fixed angle of view of the first camera 150 is the first angle of view. 2 means that the maximum of the variable angle of view of the camera 160 is larger.
  • the “camera capable of photographing at a wide angle” means that the maximum value of the variable angle of view of the first camera 150 is the second camera 160. It means that it is larger than the fixed angle of view.
  • the “camera capable of shooting at a wide angle” means that the maximum value of the variable angle of view of the first camera 150 is the variable image of the second camera 160. It means that it is larger than the maximum value of the corner.
  • the first camera 150 is referred to as a “wide-angle camera 150” and the second camera 160 is referred to as a “standard camera 160”.
  • the lens 151 of the wide-angle camera 150, the lens 161 of the standard camera 160, and the lens 171 of the in-camera 170 are single focus lenses. Note that at least one of the lenses 151, 161, 171 may be a zoom lens.
  • the electronic apparatus 1 has a zoom function for each of the wide-angle camera 150, the standard camera 160, and the in-camera 170. That is, the electronic device 1 has a wide-angle camera zoom function for zooming in on a subject photographed by the wide-angle camera 150, a standard camera zoom function for zooming in on a subject photographed by the standard camera 160, and an in-zoom that zooms in the subject photographed by the in-camera 170. It has a camera zoom function. In this example, since each of the lenses 151, 161, and 171 is a single focus lens, each of the wide-angle camera zoom function, the standard camera zoom function, and the in-camera zoom function is a digital zoom function. Note that at least one of the wide-angle camera zoom function, the standard camera zoom function, and the in-camera zoom function may be an optical zoom function.
  • FIG. 5 is a diagram schematically illustrating an example of the relationship between the wide-angle shooting range 155 and the standard shooting range 165 when the zoom magnification of the wide-angle camera 150 and the standard camera 160 is 1.
  • FIG. 6 is a flowchart illustrating an example of the operation of the electronic device 1 when the camera application is executed.
  • the control unit 100 starts executing the camera application in the storage unit 103.
  • the wide-angle camera 150, the standard camera 160, and the in-camera 170 are not operating. That is, power is not supplied to the wide-angle camera 150, the standard camera 160, and the in-camera 170.
  • the control unit 100 supplies power only to the wide-angle camera 150 among the wide-angle camera 150, the standard camera 160, and the in-camera 170 in step s2, and activates the wide-angle camera 150.
  • the wide-angle camera 150 becomes the camera to be used.
  • the activation of the camera means that the supply of power to the camera starts.
  • the control unit 100 controls power supply to the wide-angle camera 150, the standard camera 160, and the in-camera 170.
  • the control unit 100 causes the display panel 120 to display a through image captured by the wide-angle camera 150 (hereinafter sometimes referred to as “wide-angle through image”) in step s3. That is, the control unit 100 causes the display panel 120 to display captured images continuously captured at a predetermined frame rate by the wide-angle camera 150 in real time. At this time, the control unit 100 causes the display panel 120 to display the standard imaging range on the wide-angle through image. As a result, the wide-angle through image and the standard imaging range are displayed on the display screen 20.
  • the wide-angle through image obtained by the wide-angle camera 150 is stored in the volatile memory in the storage unit 103 by the control unit 100.
  • FIG. 7 is a diagram showing an example of display on the display screen 20 during execution of the camera application.
  • FIG. 7 shows a display screen 20 that displays the wide-angle through image 300 and the standard imaging range.
  • the wide-angle through image 300 is displayed in the center area 420 (an area other than the upper end 400 and the lower end 410) of the display screen 20. That is, a subject within the wide-angle shooting range is displayed in the center area 420. Then, a standard imaging range frame 350 indicating the outer shape of the standard imaging range is displayed so as to be superimposed on the wide-angle through image 300.
  • the partial image within the standard imaging range frame 350 in the wide-angle through image 300 is an image showing a subject within the standard imaging range.
  • the standard photographing range of the standard camera 160 is displayed on the through image 300 photographed by the wide-angle camera 150. Therefore, the user can confirm both the subject photographed by the wide-angle camera 150 and the subject photographed by the standard camera 160 on one screen.
  • an operation button 310 is displayed at the lower end 410 of the display screen 20 as shown in FIG.
  • a mode switching button 320, a camera switching button 330, and a display switching button 340 are displayed on the upper end 400 of the display screen 20.
  • the mode switching button 320 is an operation button for switching the shooting mode of the electronic device 1.
  • the shooting mode of the electronic device 1 is the still image shooting mode
  • the control unit 100 sets the shooting mode of the electronic device 1 to be stationary. Switch from image capture mode to video capture mode.
  • the shooting mode of the electronic device 1 is the moving image shooting mode
  • the control unit 100 sets the shooting mode of the electronic device 1 to the moving image shooting mode. Switch to still image shooting mode.
  • the camera switching button 320 is an operation button for switching the camera to be used.
  • the control unit 100 switches the camera to be used from the wide-angle camera 150 to the standard camera 160, for example.
  • the control unit 100 switches the camera used from the standard camera 160 to the in-camera 170.
  • the control unit 100 switches the in-camera 170 from the in-camera 170 to the wide-angle camera 150.
  • the display switching button 340 is an operation button for switching display / non-display of the standard photographing range.
  • the display switching button 340 is displayed only when the wide-angle through image 300 is displayed on the display screen 20.
  • the control unit 100 displays the standard shooting range on the display panel 120.
  • the display of the frame 350 is deleted.
  • the control unit 100 causes the display panel 120 to display the standard shooting range frame 350.
  • the operation button 310 functions as a shutter button when the shooting mode of the electronic device 1 is the still image shooting mode.
  • the operation button 310 functions as an operation button for starting and stopping shooting when the shooting mode of the electronic device 1 is the moving image shooting mode.
  • the control unit 100 uses the camera (FIG. 7) when the operation button 310 is operated.
  • the still image taken by the wide-angle camera 150 is stored in the nonvolatile memory in the storage unit 103, and the still image is displayed on the display panel 120.
  • the shooting mode is the moving image shooting mode
  • the control unit 100 controls the moving image (through image) captured by the camera used. Storage in the nonvolatile memory in the storage unit 103 is started. After that, when the touch panel 130 detects a predetermined operation on the operation button 310, the control unit 100 stops storing the moving image captured by the camera in use in the non-volatile memory in the storage unit 103.
  • step s4 the touch panel 130 is displayed on the display screen 20 in the region 420a in the standard photographing range displayed on the display screen 20, that is, on the display screen 20.
  • a predetermined operation for example, a tap operation
  • the control unit 100 switches the camera to be used from the wide-angle camera 150 to the standard camera 160 in step s5.
  • FIG. 8 is a diagram illustrating an example of a state in which the user taps the area 420 a in the standard imaging range frame 350 with his / her finger 500.
  • step s6 the control unit 100 displays a through image (hereinafter also referred to as “standard through image”) 360 taken by the standard camera 160 on the display panel. 120 is displayed.
  • a through image hereinafter also referred to as “standard through image” 360 taken by the standard camera 160 on the display panel. 120 is displayed.
  • the standard through image 360 is displayed in the center area 420 of the display screen 20.
  • step s 7 the touch panel 130 is displayed on the display screen 20 in the region 420 b outside the standard shooting range displayed on the display screen 20, that is, on the display screen 20.
  • a predetermined operation for example, a tap operation
  • the control unit 100 displays the standard imaging range on the display panel 120 in step s8. That is, the display of the standard photographing range frame 350 is deleted. Thereby, as shown in FIG. 11, the display of the standard photographing range frame 350 is erased on the display screen 20.
  • FIG. 10 shows an example in which the user taps an area 420 b outside the standard shooting range frame 350 on the display screen 20 with his / her finger 500.
  • the display screen 20 is displayed.
  • the standard shooting range is displayed on the through image shot by the wide-angle camera 150.
  • the standard shooting range is displayed so as to be superimposed on the through image shot by the wide-angle camera 150. Therefore, the user can check both the subject photographed by the wide-angle camera 150 and the subject photographed by the standard camera 160 at the same time. Therefore, the user can determine the camera to be used for photographing after simultaneously confirming both the subject photographed by the wide-angle camera 150 and the subject photographed by the standard camera 160. As a result, the user can easily cause the electronic device 1 to perform intended shooting, and a captured image desired by the user can be easily obtained.
  • the user can confirm both the subject photographed by the wide-angle camera 150 and the subject photographed by the standard camera 160 without performing an operation of switching the camera to be used on the electronic device 1. Therefore, the operability of the electronic device 1 is improved.
  • the user switches the camera used in the electronic device 1 from the wide-angle camera 150 to the standard camera 160 by operating an area within the standard imaging range displayed on the display screen 20 in the display screen 20. Can be made. Therefore, the user can easily switch the camera to be used to the standard camera 160 in the electronic device 1.
  • the user can cause the electronic device 1 to delete the display of the standard shooting range by performing an operation on an area outside the standard shooting range displayed on the display screen 20 in the display screen 20. Therefore, the user can easily cause the electronic apparatus 1 to delete the display of the standard shooting range.
  • FIG. 12 is a view showing a display example of the message 600.
  • the message 600 is displayed for a certain time after the wide-angle camera 150 is activated, and then deleted.
  • the wide-angle camera 150 when the execution of the camera application is started, the wide-angle camera 150 is activated.
  • the standard camera 160 may be activated, or the in-camera 170 may be activated.
  • the standard shooting range is displayed on the display screen 20 when the user operates the camera switching button 330 and the camera used is the wide-angle camera 150.
  • the display switching button 340 may not be displayed even when the wide-angle through image 300 is displayed on the display screen 20. That is, the display switching button 340 may not always be displayed.
  • the operation button 310 may not be displayed on the display screen 20, as shown in FIG. In this case, when the user performs a predetermined operation on an area outside the standard shooting range displayed on the display screen 20 in the display screen 20 (see FIG. 10), the display of the standard shooting range is erased. At the same time, an operation button 310 is displayed on the display screen 20 (see FIG. 11). If the standard shooting range is not displayed on the display screen 20, the operation button 310 is displayed on the display screen 20.
  • the user When the electronic device 1 has an autofocus function for the camera used, the user performs a predetermined operation on the display screen 20 that displays a through image captured by the camera used. You may enable it to designate the position which focuses a camera. Specifically, when the user performs an operation (for example, a tap operation) for designating a focus position on the central region 420 of the display screen 20 that displays a through image captured by the camera used, the control unit 100. In the central area 420, the subject indicated at the position where the operation is performed is set as a target to be focused. Then, the control unit 100 executes autofocus processing for adjusting the focus of the used camera to the target.
  • an operation for example, a tap operation
  • the operation for designating the position to be focused is the operation for designating the target to be focused (hereinafter also referred to as “focus target”).
  • position designation operation is the operation for designating the target to be focused (hereinafter also referred to as “focus target”).
  • control unit 100 switches the use camera to the standard camera 160 and then uses the wide-angle camera 150 among the subjects displayed in the central region 420 displaying the through image captured by the standard camera 160.
  • Auto focus processing is performed to adjust the focus of the standard camera 160 to the focus adjustment target specified by the position specifying operation.
  • the control unit 100 displays the standard photographing range on the display panel 120 when the wide-angle camera 150 is activated. However, after the wide-angle camera 150 is activated, the control unit 100 displays the standard photographing range when a predetermined condition is satisfied. It may be displayed on the panel 120. Various modifications in this case will be described below.
  • FIG. 14 is a flowchart showing an example of the operation of the electronic apparatus 1 according to this modification.
  • the control unit 100 displays a through image captured by the wide-angle camera 150 in step s12. Display on the panel 120. At this time, the standard photographing range is not displayed on the display panel 120.
  • the control unit 100 determines whether or not a human face exists within the standard imaging range. At this time, the control unit 100 determines whether or not a human face exists within the standard imaging range based on the image captured by the wide-angle camera 150. Specifically, the control unit 100 extracts a partial image in which a subject within the standard shooting range is shown from a shot image taken with the wide-angle camera 150. Since the control unit 100 recognizes which part of the wide-angle shooting range corresponds to the standard shooting range, the control unit 100 extracts a partial image in which the subject in the standard shooting range is captured from the shot image of the wide-angle camera 150. can do.
  • the control unit 100 determines whether or not a face image indicating a human face is included in the extracted partial image.
  • the control unit 100 determines that the human face exists within the standard imaging range.
  • the control unit 100 determines that there is no human face within the standard imaging range. The control unit 100 repeatedly executes step s13 until it is determined that a human face exists within the standard imaging range.
  • step s14 the control unit 100 determines whether or not a human face exists in an area outside the standard imaging range in the wide-angle imaging range. judge. At this time, the control unit 100 determines whether or not a human face exists in an area outside the standard shooting range in the wide-angle shooting range based on the shot image obtained by the wide-angle camera 150. Specifically, the control unit 100 extracts a partial image in which a subject in an area outside the standard shooting range in the wide-angle shooting range is captured from the shot image taken by the wide-angle camera 150. Then, the control unit 100 determines whether or not a face image indicating a human face is included in the extracted partial image.
  • the control unit 100 determines that a human face exists in an area outside the standard shooting range in the wide-angle shooting range. On the other hand, when the extracted partial image does not include a face image indicating a human face, the control unit 100 determines that there is no human face in an area outside the standard shooting range in the wide-angle shooting range. judge.
  • step s14 determines in an area outside the standard shooting range in the wide-angle shooting range
  • the control unit 100 executes step s13 described above.
  • step s15 as illustrated in FIG.
  • a standard imaging range standard imaging range frame 350
  • a human face is displayed only in the area 420a within the standard shooting range in the display screen 20, as in the display examples of FIGS.
  • step s4 When step s4 is executed after step s15, steps s5 and s6 are executed. Further, when step s7 is executed after step s15, step s8 is executed.
  • the standard imaging range is displayed when a human face exists in the standard imaging range and no human face exists in the wide-angle imaging range outside the standard imaging range. . Therefore, it can be suppressed that the standard photographing range is always displayed and the user feels troublesome to display the standard photographing range.
  • control unit 100 causes the display panel 120 to display the standard imaging range when the attitude of the electronic device 1 is stable after the wide-angle camera 150 is activated.
  • FIG. 16 is a flowchart showing the operation of the electronic apparatus 1 according to this modification.
  • the control unit 100 displays a through image captured by the wide-angle camera 150 in step s22. Display on the panel 120. At this time, the standard photographing range is not displayed on the display panel 120.
  • step s23 the control unit 100 determines whether or not the attitude of the electronic device 1 is stable. For example, the control unit 100 determines whether or not the attitude of the electronic device 1 is stable based on the image captured by the wide-angle camera 150. Specifically, the control unit 100 first compares a plurality of captured images continuously captured by the wide-angle camera 150. Then, the control unit 100 determines that the attitude of the electronic device 1 is stable when the difference between the plurality of captured images is small. On the other hand, the control unit 100 determines that the posture of the electronic device 1 is not stable when the difference is not small. The control unit 100 repeatedly executes step s23 until it is determined that the attitude of the electronic device 1 is stable.
  • the control part 100 may determine whether the attitude
  • step s23 If the control unit 100 determines in step s23 that the attitude of the electronic device 1 is stable, in step s24, as illustrated in FIG. A shooting range frame 350) is displayed.
  • the standard shooting range is displayed when the posture of the electronic device 1 is stable.
  • the electronic device 1 can display the standard shooting range on the display screen 20 when the shooting target is determined, in other words, when the shooting composition is determined. Therefore, it can be suppressed that the standard photographing range is always displayed and the user feels troublesome to display the standard photographing range.
  • control unit 100 may execute the above-described step s13 and subsequent steps when a human face exists within the wide-angle shooting range, and may execute step s23 and subsequent steps when no human face exists within the wide-angle shooting range.
  • FIG. 17 is a flowchart showing the operation of the electronic device 1 in this case.
  • the control unit 100 causes the display panel 120 to display a through image captured by the wide-angle camera 150 in step s32. At this time, the standard photographing range is not displayed on the display panel 120.
  • the control unit 100 determines whether or not a human face exists within the wide-angle shooting range. At this time, the control unit 100 determines whether or not a human face exists within the wide-angle imaging range based on the image captured by the wide-angle camera 150. Specifically, the control unit 100 determines whether or not a face image indicating a human face is included in an image captured by the wide-angle camera 150. When the image captured by the wide-angle camera 150 includes a face image indicating a human face, the control unit 100 determines that the human face exists within the wide-angle imaging range. On the other hand, the control unit 100 determines that a human face does not exist within the wide-angle imaging range when the image captured by the wide-angle camera 150 does not include a face image indicating a human face.
  • step s33 When the control unit 100 determines in step s33 that a human face is present in the image captured by the wide-angle camera 150, the control unit 100 performs the processing from step s13 described above. In this example, when it is determined No in step s13 and when it is determined Yes in step s14, step s33 is executed. On the other hand, when the control unit 100 determines in step s33 that no human face is present in the image captured by the wide-angle camera 150, the control unit 100 executes the processing from step s23 described above. In this example, when it is determined No in step s23, step s33 is executed.
  • FIG. 18 is a flowchart showing the operation of the electronic apparatus 1 according to this modification.
  • the control unit 100 displays a through image captured by the wide-angle camera 150 in step s42. Display on the panel 120. At this time, the standard photographing range is not displayed on the display panel 120.
  • step s43 when the touch panel 130 detects a position specifying operation for the area 421 on the display screen 20 where the subject within the standard imaging range is displayed, in step s44, the above-described FIG. As shown, the standard imaging range (standard imaging range frame 350) is displayed over the wide-angle through image 300.
  • FIG. 19 is a diagram illustrating an example of a state in which the user performs a position designation operation with the finger 500 on an area 421 that displays a subject within the standard shooting range in the display screen 20.
  • the control unit 100 displays the standard photographing range on the display screen 20 and displays it on the display screen 20 at the position where the position designation operation is performed.
  • the autofocus process is performed to adjust the focus of the wide-angle camera 150 to the subject to be processed. That is, the control unit 100 executes an autofocus process for adjusting the focus of the wide-angle camera 150 to the focus adjustment target specified by the position specifying operation among subjects within the wide-angle shooting range displayed on the display screen 20. Thereby, in the through image 300 displayed on the display screen 20, the position designated by the user is focused.
  • the control unit 100 detects the position detected in step s43 among the subjects shown in the standard through image displayed on the display screen 20.
  • An autofocus process for focusing the standard camera 160 on the focus target designated by the designation operation may be executed.
  • the control unit 100 is displayed on the display screen 20 in the subsequent step s6.
  • the focus of the standard camera 160 is adjusted to the person A included in the subject shown in the standard through image. This eliminates the need for the user to perform the position designation operation again after the camera used is switched from the wide-angle camera 150 to the standard camera 160. Therefore, the operability of the electronic device 1 is improved.
  • FIG. 20 is a flowchart showing the operation of the electronic apparatus 1 according to this modification.
  • step s52 the touch panel 130 detects that a zoom-in operation for zooming in on a subject within the wide-angle shooting range has been performed on the display screen 20. Then, the control unit 100 determines a zoom magnification according to the detected zoom-in operation in step s53. In step s54, the control unit 100 determines whether or not the determined zoom magnification exceeds a threshold value. On the other hand, when determining the zoom magnification, the control unit 100 zooms the subject imaged by the wide-angle camera 150 by the determined zoom magnification. Thereby, in the wide-angle through image displayed on the display screen 20, the subject within the wide-angle shooting range is shown enlarged.
  • control unit 100 determines that the zoom magnification exceeds the threshold value in step s54, the control unit 100 switches the camera to be used from the wide-angle camera 150 to the standard camera 160 in step s55. On the other hand, if the control unit 100 determines in step s54 that the zoom magnification does not exceed the threshold value, the control unit 100 does not switch the camera to be used. After determining No in step s54 and executing step s52, the control unit 100 thereafter operates in the same manner.
  • the threshold used in step s54 is, for example, the size of the wide-angle shooting range when the zoom magnification of the wide-angle camera 150 is 1, and the size of the standard shooting range when the zoom magnification of the standard camera 160 is 1. Can be determined based on Specifically, for example, the ratio of the size of the wide-angle shooting range when the zoom magnification of the wide-angle camera 150 is 1 to the size of the standard shooting range when the zoom magnification of the standard camera 160 is 1 is set as a step. It can be a threshold value used in s54.
  • the threshold value used in step s54 is set to 1.5 times. Note that other threshold value determination methods may be used.
  • FIG. 21 is a diagram illustrating a state in which a pinch-out operation as a zoom-in operation is performed on the central region 420 displaying the wide-angle through image 300 on the display screen 20.
  • the pinch-out operation is an operation in which two fingers (for example, a thumb and an index finger) are in contact with or close to the display screen 20 and the two fingers are separated (opened). It is.
  • the zoom magnification at the time of zooming in is determined by the distance between two fingers that are separated in the pinch-out operation (the angle formed by the two fingers that are opened). The zoom magnification increases as the two fingers performing the pinch-out operation move away.
  • FIG. 22 is a diagram illustrating a state in which a pinch-in operation as a zoom-out operation is performed on the central region 420 displaying the wide-angle through image 300 on the display screen 20.
  • the pinch-in operation is an operation in which two fingers approach (close) with two fingers in contact with or close to the display screen 20.
  • the zoom magnification at the time of zooming out is determined by the distance between two fingers approaching in the pinch-in operation (the angle formed by the two fingers closing). The closer the two fingers performing the pinch-in operation, the smaller the zoom magnification.
  • control unit 100 switches the camera to be used from the wide-angle camera 150 to the standard camera 160 when the zoom magnification exceeds the threshold value. Regardless, the camera used may be switched from the wide-angle camera 150 to the standard camera 160.
  • control unit 100 does not have to execute steps s54 and s55 when the standard photographing range is displayed on the display screen 20.
  • FIG. 23 is a diagram illustrating a state in which a pinch-in operation as a zoom-out operation is performed on the central region 420 displaying the standard through image 360 on the display screen 20.
  • the electronic device 1 is a mobile phone such as a smartphone, but may be a device other than a mobile phone.
  • the electronic device 1 may be a tablet terminal or a personal computer.
  • the electronic device 1 has been described in detail, but the above description is an example in all aspects, and the disclosure is not limited thereto.
  • the various modifications described above can be applied in combination as long as they do not contradict each other. And it is understood that the countless modification which is not illustrated can be assumed without deviating from the scope of this disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

電子機器は、切り替えて使用可能な第1及び第2カメラと、第1及び第2カメラから使用カメラを決定する決定部と、第1及び第2カメラの撮影画像を表示する表示部とを備えている。第1カメラは、第2カメラよりも広角に撮影できるカメラである。第1カメラは第1撮影範囲を有する。第2カメラは第2撮影範囲を有する。表示部は、使用カメラとしての第1カメラで撮影される第1スルー画像を表示している場合に、第2撮影範囲を第1スルー画像に重ねて表示する。

Description

電子機器、電子機器の動作方法及び制御プログラム
 本発明は、電子機器に関する。
 特許文献1にも記載されているように、従来から、カメラを有する電子機器に関して様々な技術が提案されている。
特開2005-101874号公報
 カメラを有する電子機器において、ユーザが望む撮影画像が得られやすいことが望まれる。
 そこで、本発明は上述の点に鑑みて成されたものであり、ユーザが望む撮影画像が得られやすくなる技術を提供することを目的とする。
 電子機器、電子機器の動作方法及び制御プログラムが開示される。一の実施の形態では、電子機器は、切り替えて使用可能な第1及び第2カメラと、第1及び第2カメラから使用カメラを決定する決定部と、第1及び第2カメラの撮影画像を表示する表示部とを備えている。第1カメラは、第2カメラよりも広角に撮影できるカメラである。第1カメラは第1撮影範囲を有する。第2カメラは第2撮影範囲を有する。表示部は、使用カメラとしての第1カメラで撮影される第1スルー画像を表示している場合に、第2撮影範囲を第1スルー画像に重ねて表示する。
 また、一の実施の形態では、電子機器の動作方法は、切り替えて使用可能な第1及び第2カメラを備え、当該第1カメラが当該第2カメラよりも広角に撮影できるカメラである電子機器の動作方法である。電子機器の動作方法は、第1カメラで撮影されるスルー画像に第2カメラの撮影範囲が重なるように、当該スルー画像及び当該撮影範囲を表示する工程を備える。
 また、一の実施の形態では、制御プログラムは、切り替えて使用可能な第1及び第2カメラを備え、当該第1カメラが当該第2カメラよりも広角に撮影できるカメラである電子機器を制御するための制御プログラムである。制御プログラムは、電子機器に、第1カメラで撮影されるスルー画像に第2カメラの撮影範囲が重なるように、当該スルー画像及び当該撮影範囲を表示させるためのものである。
 ユーザが望む撮影画像が得られやすくなる。
電子機器の外観の一例を示す斜視図である。 電子機器の外観の一例を示す前面図である。 電子機器の外観の一例を示す背面図である。 電子機器の構成の一例を示すブロック図である。 広角撮影範囲と標準撮影範囲との関係の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 表示画面の表示例を示す図である。 表示画面に対するユーザ操作の一例を示す図である。 表示画面の表示例を示す図である。 表示画面に対するユーザ操作の一例を示す図である。 表示画面の表示例を示す図である。 表示画面の表示例を示す図である。 表示画面の表示例を示す図である。 電子機器の動作の一例を示すフローチャートである。 表示画面の表示例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 表示画面に対するユーザ操作の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 表示画面に対するユーザ操作の一例を示す図である。 表示画面に対するユーザ操作の一例を示す図である。 表示画面に対するユーザ操作の一例を示す図である。
 <電子機器の外観>
 図1~3は、それぞれ、電子機器1の外観の一例を示す斜視図、前面図及び背面図である。電子機器1は、例えば、スマートフォン等の携帯電話機である。図1~3に示されるように、電子機器1は、平面視で略長方形の板状の機器ケース2を備えている。電子機器1の前面1a、つまり機器ケース2の前面には、文字、記号、図形等の各種情報が表示される表示画面(表示領域)20が設けられている。表示画面20の裏側には後述するタッチパネル130が設けられている。これにより、ユーザは、電子機器1の前面1aの表示画面20を指等で操作することによって、電子機器1に対して各種情報を入力することができる。なお、ユーザは、指以外の操作子、例えば、スタイラスペンなどの静電式タッチパネル用ペンで表示画面20を操作することによっても、電子機器1に対して各種情報を入力することができる。
 機器ケース2の前面の上側端部にはレシーバ穴21が設けられている。機器ケース2の前面の上側端部からは、後述する第3カメラ170が有するレンズ171が視認可能となっている。図3に示されるように、電子機器1の背面1b、つまり機器ケース2の背面からは、後述する第1カメラ150及び第2カメラ160がそれぞれ有するレンズ151,161が視認可能となっている。
 機器ケース2の前面の下側端部にはスピーカ穴22が設けられている。機器ケース2の内部には、複数の操作キー141から成る操作キー群140が設けられている。各操作キー141は、例えば押しボタンであって、その表面が、機器ケース2の前面の下側端部から露出している。使用者は、操作キー141を指等で押圧することによって、電子機器1に対して指示を与えることができる。複数の操作キー141には、例えば、ホームキー、バックキー及び履歴キーが含まれている。ホームキーは、表示画面20にホーム画面を表示させるための操作キーである。バックキーは、表示画面20の表示を一つ前の表示に切り替えるための操作キーである。履歴キーは、電子機器1で起動されたアプリケーションの履歴を表示画面20に表示させるための操作キーである。
 <電子機器の電気的構成>
 図4は電子機器1の電気的構成を主に示すブロック図である。図4に示されるように、電子機器1には、制御部100、無線通信部110、表示パネル120、タッチパネル130、操作キー群140、第1カメラ150、第2カメラ160及び第3カメラ170が設けられている。さらに電子機器1には、レシーバ180、外部スピーカ190、マイク200及び電池210が設けられている。電子機器1に設けられたこれらの構成要素は、機器ケース2内に収められている。
 制御部100は、CPU(Central Processing Unit)101及びDSP(Digital Signal Processor)102等のプロセッサと記憶部103等を備える制御回路である。制御部100は、電子機器1の他の構成要素を制御することによって、電子機器1の動作を統括的に管理することが可能である。
 記憶部103は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の、制御部100(CPU101及びDSP102)が読み取り可能な非一時的な記録媒体で構成されている。記憶部103には、電子機器1の動作、具体的には電子機器1が備える無線通信部110、表示パネル120等の各構成要素の動作を制御するための各種プログラムが記憶されている。制御部100の各種機能は、CPU101及びDSP102が記憶部103内の各種プログラムを実行することによって実現される。なお、記憶部103は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていても良い。記憶部103は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)等を備えていても良い。また、制御部100のすべての機能あるいは制御部100の一部の機能は、その機能の実現にソフトウェアを必要としないハードウェア回路で構成されても良い。
 記憶部103には様々なアプリケーション(アプリケーションプログラム)が記憶されている。記憶部103には、例えば、電話機能を用いて通話を行うための電話アプリケーション、ウェブサイトを表示するためのブラウザ、電子メールの作成、閲覧及び送受信を行うためのメールアプリケーションが記憶されている。また、記憶部103には、第1カメラ150、第2カメラ160及び第3カメラ170を利用して被写体を撮影するためのカメラアプリケーション、地図を表示するための地図表示アプリケーション、電子機器1においてパズルゲーム等のゲームを行うためのゲームアプリケーション、記憶部103に記憶されている音楽データの再生制御を行うための音楽再生制御アプリケーションなどが記憶されている。
 無線通信部110は、アンテナ111を有している。無線通信部110は、電子機器1とは別の携帯電話機からの信号、あるいはインターネットに接続されたウェブサーバ等の通信装置からの信号を、基地局等を介してアンテナ111で受信することが可能である。無線通信部110は、受信信号に対して増幅処理及びダウンコンバートを行って、処理後の受信信号を制御部100に出力することが可能である。制御部100は、入力される受信信号に対して復調処理等を行って、当該受信信号に含まれる、音声や音楽などを示す音信号などを取得することが可能である。また無線通信部110は、制御部100で生成された、音信号等を含む送信信号に対してアップコンバート及び増幅処理を行って、処理後の送信信号をアンテナ111から無線送信することが可能である。アンテナ111からの送信信号は、基地局等を通じて、電子機器1とは別の携帯電話機、あるいはインターネットに接続された通信装置で受信される。
 表示パネル120は、例えば、液晶表示パネルあるいは有機ELパネルである。表示パネル120は、制御部100によって制御されることによって、文字、記号、図形などの各種情報を表示することが可能である。表示パネル120は、機器ケース2内において、表示画面20と対向して配置されている。表示パネル120に表示される情報は表示画面20に表示される。表示画面20及び表示パネル120によって、情報を表示することによって当該情報をユーザに示す表示部が構成される。
 タッチパネル130は、表示画面20に対する指等の操作子による操作を検出することが可能である。タッチパネル130は、例えば、投影型静電容量方式のタッチパネルであって、表示画面20の裏側に配置されている。ユーザが指等の操作子によって表示画面20に対して操作を行ったとき、その操作に応じた電気信号がタッチパネル130から制御部100に入力される。制御部100は、タッチパネル130からの電気信号に基づいて、表示画面20に対して行われた操作の内容を特定して、その内容に応じた処理を行うことが可能である。
 操作キー群140の各操作キー141は、ユーザによって押圧されると、操作されたことを示す操作信号を制御部100に出力する。これにより、制御部100は、各操作キー141について、当該操作キー141が操作されたか否かを判断することができる。制御部100は、操作された操作キー141に応じた処理を行う。
 マイク200は、電子機器1の外部から入力される音を電気的な音信号に変換して制御部100に出力することが可能である。電子機器1の外部からの音は、機器ケース2の表面に設けられたマイク穴から電子機器1の内部に取り込まれてマイク200に入力される。マイク穴は、例えば、機器ケース2の下側の側面(底面)に設けられる。
 外部スピーカ190は、例えばダイナミックスピーカである。外部スピーカ190は、制御部100からの電気的な音信号を音に変換して出力することが可能である。外部スピーカ190から出力される音はスピーカ穴22から外部に出力される。スピーカ穴22から出力される音は、電子機器1から離れた場所でも聞こえるようになっている。
 レシーバ180は受話音を出力することが可能である。レシーバ180は例えばダイナミックスピーカで構成されている。レシーバ180は、制御部100からの電気的な音信号を音に変換して出力することが可能である。レシーバ180から出力される音はレシーバ穴21から外部に出力される。レシーバ穴21から出力される音の音量は、スピーカ穴22から出力される音の音量よりも小さくなっている。なお、レシーバ180の代わりに、機器ケース2の前面部分を振動させる、圧電振動素子等の振動素子を設けて、当該前面部分から音をユーザに伝えても良い。
 電池210は電子機器1の電源を出力することが可能である。電池210は例えば充電式の電池である。電池210から出力される電源は、電子機器1が備える制御部100及び無線通信部110などの各種回路に対して供給される。
 第1カメラ150は、レンズ151及び撮像素子などで構成されている。第2カメラ160は、レンズ161及び撮像素子などで構成されている。第3カメラ170は、レンズ171及び撮像素子などで構成されている。第1カメラ150、第2カメラ160及び第3カメラ170のそれぞれは、制御部100による制御に基づいて被写体を撮影し、撮影した被写体を示す静止画像あるいは動画像を生成して制御部100に出力することが可能である。なお、第1カメラ150、第2カメラ160及び第3カメラ170の少なくとも一つは、被写体を1ラインごとに撮影し、1ライン分の画像を生成するたびに当該1ライン分の画像を制御部100に出力しても良い。この場合には、制御部100は、複数ライン分の画像に基づいて静止画像あるいは動画像を生成する。
 第3カメラ170のレンズ171は、電子機器1の前面から視認可能となっている。そのため、第3カメラ170は、電子機器1の前面側(表示画面20側)に存在する被写体を撮影することが可能である。このような第3カメラ170は「インカメラ」と呼ばれることがある。以後、第3カメラ170を「インカメラ170」と呼ぶことがある。
 第1カメラ150のレンズ151は、電子機器1の背面から視認可能となっている。そのため、第1カメラ150は、電子機器1の背面側に存在する被写体を撮影することが可能である。同様に、第2カメラ160のレンズ161は、電子機器1の背面から視認可能となっている。そのため、第2カメラ160は、電子機器1の背面側に存在する被写体を撮影することが可能である。このような第1カメラ150及び第2カメラ160のそれぞれは、「アウトカメラ」と呼ばれることがある。
 第1カメラ150は、第2カメラ160よりも広角に撮影できるカメラである。ここで、「広角に撮影できるカメラ」とは、レンズ151,161のそれぞれが、画角が固定の単焦点レンズである場合には、第1カメラ150の固定の画角が、第2カメラ160の固定の画角よりも大きいことを意味する。また、レンズ151が単焦点レンズであり、レンズ161が、画角が可変のズームレンズである場合には、「広角に撮影できるカメラ」とは、第1カメラ150の固定の画角が、第2カメラ160の可変の画角の最大値よりも大きいことを意味する。また、レンズ151がズームレンズであり、レンズ161が単焦点レンズである場合には、「広角に撮影できるカメラ」とは、第1カメラ150の可変の画角の最大値が、第2カメラ160の固定の画角よりも大きいことを意味する。そして、レンズ151及びレンズ161のそれぞれがズームレンズである場合には、「広角に撮影できるカメラ」とは、第1カメラ150の可変の画角の最大値が、第2カメラ160の可変の画角の最大値よりも大きいことを意味する。
 以後、説明の便宜上、第1カメラ150を「広角カメラ150」と呼び、第2カメラ160を「標準カメラ160」と呼ぶ。本例では、広角カメラ150のレンズ151、標準カメラ160のレンズ161及びインカメラ170のレンズ171のそれぞれは、単焦点レンズである。なお、レンズ151,161,171の少なくとも一つがズームレンズであっても良い。
 電子機器1は、広角カメラ150、標準カメラ160及びインカメラ170のそれぞれについてのズーム機能を有している。つまり、電子機器1は、広角カメラ150が撮影する被写体をズームインする広角カメラズーム機能と、標準カメラ160が撮影する被写体をズームインする標準カメラズーム機能と、インカメラ170が撮影する被写体をズームインするインカメラズーム機能とを有している。本例では、レンズ151,161,171のそれぞれは単焦点レンズであることから、広角カメラズーム機能、標準カメラズーム機能及びインカメラズーム機能のそれぞれはデジタルズーム機能である。なお、広角カメラズーム機能、標準カメラズーム機能及びインカメラズーム機能の少なくとも一つが光学ズーム機能であっても良い。
 広角カメラ150及び標準カメラ160のそれぞれのズーム倍率が1倍である場合には、広角カメラ150の撮影範囲(以後、「広角撮影範囲」と呼ぶ)は、標準カメラ160の撮影範囲(以後、「標準撮影範囲」と呼ぶ)よりも広く、かつ標準カメラ160の撮影範囲を含んでいる。図5は、広角カメラ150及び標準カメラ160のズーム倍率が1倍である場合の広角撮影範囲155及び標準撮影範囲165の関係の一例を模式的に示す図である。
 <カメラアプリケーション実行時の電子機器の動作について>
 図6はカメラアプリケーションが実行される際の電子機器1の動作の一例を示すフローチャートである。表示画面20に対して所定の操作が行われると、図6に示されるように、ステップs1において、制御部100は、記憶部103内のカメラアプリケーションの実行を開始する。カメラアプリケーションが実行されていないときは、広角カメラ150、標準カメラ160及びインカメラ170は動作していない。つまり、広角カメラ150、標準カメラ160及びインカメラ170に対しては電源が供給されていない。制御部100は、カメラアプリケーションの実行を開始すると、ステップs2において、広角カメラ150、標準カメラ160及びインカメラ170のうちの広角カメラ150だけに電源を供給して当該広角カメラ150を起動する。これより、広角カメラ150が使用カメラとなる。本例では、あるカメラが使用カメラである場合には、他のカメラには電源が供給されない。また、カメラが起動するとは、当該カメラに対して電源の供給が開始することを意味する。制御部100は、広角カメラ150、標準カメラ160及びインカメラ170に対する電源の供給を制御する。
 ステップs2の後、制御部100は、ステップs3において、広角カメラ150で撮影されるスルー画像(以後、「広角スルー画像」と呼ぶことがある)を表示パネル120に表示させる。つまり、制御部100は、広角カメラ150において所定のフレームレートで連続的に撮影される撮影画像をリアルタイムに表示パネル120に表示させる。このとき、制御部100は、標準撮影範囲を広角スルー画像に重ねて表示パネル120に表示させる。これにより、広角スルー画像と標準撮影範囲が表示画面20に表示される。広角カメラ150で得られる広角スルー画像は、制御部100によって、記憶部103内の揮発性メモリに記憶される。
 図7はカメラアプリケーション実行中の表示画面20の表示の一例を示す図である。図7には、広角スルー画像300と標準撮影範囲を表示する表示画面20が示されている。
 図7に示されるように、広角スルー画像300は、表示画面20の中央領域420(上側端部400及び下側端部410以外の領域)に表示される。つまり、中央領域420には、広角撮影範囲内の被写体が表示される。そして、広角スルー画像300に重ねて、標準撮影範囲の外形を示す標準撮影範囲枠350が表示される。広角スルー画像300における、標準撮影範囲枠350内の部分画像は、標準撮影範囲内の被写体を示す画像である。
 このように、広角カメラ150が使用される際には、広角カメラ150で撮影されるスルー画像300に重ねて、標準カメラ160の標準撮影範囲が表示される。したがって、ユーザは、一つの画面において、広角カメラ150で撮影される被写体と、標準カメラ160で撮影される被写体との両方を確認することができる。
 カメラアプリケーションの実行中では、図7に示されるように、表示画面20の下側端部410に操作ボタン310が表示される。また、表示画面20の上側端部400にモード切り替えボタン320、カメラ切り替えボタン330及び表示切り替えボタン340が表示される。
 モード切り替えボタン320は、電子機器1の撮影モードを切り替えるための操作ボタンである。電子機器1の撮影モードが静止画像撮影モードである場合に、タッチパネル130が、モード切り替えボタン320に対する所定の操作(例えばタップ操作)を検出すると、制御部100は、電子機器1の撮影モードを静止画像撮影モードから動画像撮影モードに切り替える。また、電子機器1の撮影モードが動画像撮影モードである場合に、タッチパネル130が、モード切り替えボタン320に対する所定の操作を検出すると、制御部100は、電子機器1の撮影モードを動画像撮影モードから静止画像撮影モードに切り替える。
 カメラ切り替えボタン320は、使用カメラを切り替えるための操作ボタンである。使用カメラが広角カメラ150である場合に、タッチパネル130がカメラ切り替えボタン320に対する所定の操作(例えばタップ操作)を検出すると、制御部100は使用カメラを広角カメラ150から例えば標準カメラ160に切り替える。使用カメラが標準カメラ160である場合に、タッチパネル130がカメラ切り替えボタン320に対する所定の操作を検出すると、制御部100は使用カメラを標準カメラ160からインカメラ170に切り替える。使用カメラがインカメラ170である場合に、タッチパネル130がカメラ切り替えボタン320に対する所定の操作を検出すると、制御部100は使用カメラをインカメラ170から広角カメラ150に切り替える。
 表示切り替えボタン340は、標準撮影範囲の表示/非表示を切り替えるための操作ボタンである。表示切り替えボタン340は、例えば、表示画面20に広角スルー画像300が表示されている場合にだけ表示される。表示画面20に標準撮影範囲枠350が表示されている場合に、タッチパネル130が、表示切り替えボタン340に対する所定の操作(例えばタップ操作)を検出すると、制御部100は、表示パネル120に標準撮影範囲枠350の表示を消去させる。表示画面20に標準撮影範囲枠350が表示されていない場合に、タッチパネル130が表示切り替えボタン340に対する所定の操作を検出すると、制御部100は、表示パネル120に標準撮影範囲枠350を表示させる。
 操作ボタン310は、電子機器1の撮影モードが静止画像撮影モードである場合にはシャッターボタンとして機能する。一方で、操作ボタン310は、電子機器1の撮影モードが動画像撮影モードである場合には撮影開始及び停止を行うための操作ボタンとして機能する。撮影モードが静止画像撮影モードである場合に、タッチパネル130が操作ボタン310に対する所定の操作(例えばタップ操作)を検出すると、制御部100は、操作ボタン310が操作されたときに使用カメラ(図7の例では広角カメラ150)で撮影された静止画像を記憶部103内の不揮発性メモリに記憶するとともに、当該静止画像を表示パネル120に表示させる。撮影モードが動画像撮影モードである場合に、タッチパネル130が操作ボタン310に対する所定の操作(例えばタップ操作)を検出すると、制御部100は、使用カメラで撮影される動画像(スルー画像)についての記憶部103内の不揮発性メモリへの記憶を開始する。その後、タッチパネル130が操作ボタン310に対する所定の操作を検出すると、制御部100は、使用カメラで撮影される動画像についての記憶部103内の不揮発性メモリへの記憶を停止する。
 ステップs3の後、ステップs4において、タッチパネル130が、表示画面20のうち、当該表示画面20に表示される標準撮影範囲内の領域420a、つまり表示画面20のうち、当該表示画面20に表示される標準撮影範囲枠350内の領域420aに対する所定の操作(例えばタップ操作)を検出すると、ステップs5において、制御部100は、使用カメラを広角カメラ150から標準カメラ160に切り替える。図8はユーザが自身の指500によって標準撮影範囲枠350内の領域420aをタップ操作する様子の一例を示す図である。
 ステップs5において使用カメラが標準カメラ160に切り替えられると、ステップs6において、制御部100は、標準カメラ160で撮影されるスルー画像(以後、「標準スルー画像」と呼ぶことがある)360を表示パネル120に表示させる。これにより、図9に示されるように、表示画面20の中央領域420に標準スルー画像360が表示される。
 一方で、ステップs3の後、ステップs7において、タッチパネル130が、表示画面20のうち、当該表示画面20に表示される標準撮影範囲外の領域420b、つまり表示画面20のうち、当該表示画面20に表示される標準撮影範囲枠350外の領域420bに対する所定の操作(例えばタップ操作)を検出すると(図10参照)、ステップs8において、制御部100は、表示パネル120に、標準撮影範囲の表示、つまり標準撮影範囲枠350の表示を消去させる。これにより、図11に示されるように、表示画面20において標準撮影範囲枠350の表示が消去される。図10には、ユーザが自身の指500によって表示画面20における、標準撮影範囲枠350外の領域420bをタップ操作する様子の一例が示されている。
 なお、カメラ切り替えボタン330が操作されて、使用カメラが広角カメラ150に設定された場合にも、言い換えれば、カメラ切り替えボタン330が操作されて広角カメラ150が起動した場合にも、表示画面20には、広角カメラ150で撮影されるスルー画像に重ねて標準撮影範囲が表示される。
 以上のように、電子機器1では、広角カメラ150で撮影されるスルー画像に重ねて標準撮影範囲が表示される。そのため、ユーザは、広角カメラ150で撮影される被写体と標準カメラ160で撮影される被写体の両方を同時に確認することができる。よって、ユーザは、広角カメラ150で撮影される被写体と標準カメラ160で撮影される被写体の両方を同時に確認した上で、撮影に使用するカメラを決定することができる。その結果、ユーザは意図した撮影を容易に電子機器1に実行させることができ、ユーザが望む撮影画像が得られやすくなる。
 また、ユーザは、電子機器1に対して使用カメラを切り替える操作を行うことなく、広角カメラ150で撮影される被写体と標準カメラ160で撮影される被写体の両方を確認することができる。よって、電子機器1の操作性が向上する。
 また、ユーザは、表示画面20のうち、当該表示画面20に表示される標準撮影範囲内の領域に対して操作を行うことによって、電子機器1に使用カメラを広角カメラ150から標準カメラ160に切り替えさせることができる。したがって、ユーザは、簡単に、電子機器1に使用カメラを標準カメラ160に切り替えさせることができる。
 また、ユーザは、表示画面20のうち、当該表示画面20に表示される標準撮影範囲外の領域に対して操作を行うことによって、電子機器1に標準撮影範囲の表示を消去させることができる。したがって、ユーザは、簡単に、電子機器1に標準撮影範囲の表示を消去させることができる。
 なお、表示画面20のうち、当該表示画面20に表示される標準撮影範囲内の領域に対して所定の操作を行うことによって、使用カメラが広角カメラ150から標準カメラ160に切り替わることをユーザに通知するメッセージ600を表示しても良い。図12は当該メッセージ600の表示例を示す図である。メッセージ600は、例えば、広角カメラ150が起動してから一定時間表示され、その後消去される。
 また上記の例では、カメラアプリケーションの実行が開始すると、広角カメラ150が起動していたが、標準カメラ160が起動しても良いし、インカメラ170が起動しても良い。この場合には、ユーザがカメラ切り替えボタン330を操作し、使用カメラが広角カメラ150になったときに表示画面20に標準撮影範囲が表示される。
 また、表示切り替えボタン340は、広角スルー画像300が表示画面20に表示されている場合であっても、表示されなくて良い。つまり、表示切り替えボタン340は常に表示されなくても良い。
 また、表示画面20に標準撮影範囲が表示されている場合には、図13に示されるように、操作ボタン310は表示画面20に表示されなくても良い。この場合には、ユーザが、表示画面20のうち、当該表示画面20に表示される標準撮影範囲外の領域に対して所定の操作を行うと(図10参照)、標準撮影範囲の表示が消去されるとともに、操作ボタン310が表示画面20に表示される(図11参照)。なお、表示画面20に標準撮影範囲が表示されていない場合には、操作ボタン310は表示画面20に表示される。
 また、電子機器1が、使用カメラについてのオートフォーカス機能を有する場合には、ユーザが、使用カメラで撮影されるスルー画像を表示する表示画面20に対して所定の操作を行うことによって、当該使用カメラのフォーカスを合わせる位置を指定できるようにしても良い。具体的には、使用カメラで撮影されるスルー画像を表示する表示画面20の中央領域420に対して、ユーザが、フォーカスを合わせる位置を指定する操作(例えばタップ操作)を行うと、制御部100は、当該中央領域420において、当該操作が行われた位置に示される被写体を、フォーカスを合わせる対象とする。そして、制御部100は、当該対象に使用カメラのフォーカスを合わせるオートフォーカス処理を実行する。フォーカスを合わせる位置を指定する操作(以後、「位置指定操作」と呼ぶことがある)は、フォーカスを合わせる対象(以後、「フォーカス合わせ対象」と呼ぶことがある)を指定する操作であると言える。表示画面20に標準撮影範囲が表示されている場合に、表示画面20のうち、当該表示画面20に表示される標準撮影範囲外の領域に対して位置指定操作が行われると、当該位置指定操作に応じたオートフォーカス処理が実行されるとともに、標準撮影範囲の表示が消去される。また、表示画面20に標準撮影範囲が表示されている場合に、表示画面20のうち、当該表示画面20に表示される標準撮影範囲内の領域に対して位置指定操作が行われると、使用カメラが広角カメラ150から標準カメラ160に切り替えられる。このとき、制御部100は、使用カメラを標準カメラ160に切り替えた後、標準カメラ160で撮影されるスルー画像を表示する中央領域420に表示される被写体のうち、使用カメラが広角カメラ150であるときに位置指定操作によって指定されたフォーカス合わせ対象に、標準カメラ160のフォーカスを合わせるオートフォーカス処理を実行する。
 <各種変形例>
 以下に各種変形例について説明する。
 <標準撮影範囲の表示タイミング>
 上記の例では、制御部100は、広角カメラ150の起動時に標準撮影範囲を表示パネル120に表示させていたが、広角カメラ150の起動後、所定の条件が満足したときに標準撮影範囲を表示パネル120に表示させても良い。以下にこの場合の各種変形例について説明する。
 <第1変形例>
 本変形例では、制御部100は、広角カメラ150の起動後、標準撮影範囲内に人の顔が存在し、かつ広角撮影範囲のうち、標準撮影範囲外の領域に人の顔が存在しないときに、標準撮影範囲を表示パネル120に表示させる。図14は本変形例に係る電子機器1の動作の一例を示すフローチャートである。
 カメラアプリケーションの実行が開始したり、カメラ切り替えボタン330が操作されたりして、ステップs11において広角カメラ150が起動すると、ステップs12において、制御部100は、広角カメラ150で撮影されるスルー画像を表示パネル120に表示させる。このとき、表示パネル120では標準撮影範囲が表示されない。
 次にステップs13において、制御部100は、標準撮影範囲内に人の顔が存在するか否かを判定する。このとき、制御部100は、広角カメラ150での撮影画像に基づいて、標準撮影範囲内に人の顔が存在するか否かを判定する。具体的には、制御部100は、広角カメラ150での撮影画像から、標準撮影範囲内の被写体が映る部分画像を抽出する。制御部100は、広角撮影範囲のうちのどの部分が標準撮影範囲に相当するかを認識していることから、広角カメラ150での撮影画像から、標準撮影範囲内の被写体が映る部分画像を抽出することができる。そして、制御部100は、抽出した部分画像内に人の顔を示す顔画像が含まれているか否かを判定する。制御部100は、抽出した部分画像内に人の顔を示す顔画像が含まれている場合には、標準撮影範囲内に人の顔が存在すると判定する。一方で、制御部100は、抽出した部分画像内に人の顔を示す顔画像が含まれていない場合には、標準撮影範囲内に人の顔が存在しないと判定する。制御部100は、標準撮影範囲内に人の顔が存在すると判定するまで、ステップs13を繰り返し実行する。
 制御部100は、ステップs13において、標準撮影範囲内に人の顔が存在すると判定すると、ステップs14において、広角撮影範囲のうち、標準撮影範囲外の領域に人の顔が存在するか否かを判定する。このとき、制御部100は、広角カメラ150での撮影画像に基づいて、広角撮影範囲のうち、標準撮影範囲外の領域に人の顔が存在するか否かを判定する。具体的には、制御部100は、広角カメラ150での撮影画像から、広角撮影範囲における、標準撮影範囲外の領域内の被写体が映る部分画像を抽出する。そして、制御部100は、抽出した部分画像内に人の顔を示す顔画像が含まれているか否かを判定する。制御部100は、抽出した部分画像内に人の顔を示す顔画像が含まれている場合には、広角撮影範囲のうち、標準撮影範囲外の領域に人の顔が存在すると判定する。一方で、制御部100は、抽出した部分画像内に人の顔を示す顔画像が含まれていない場合には、広角撮影範囲のうち、標準撮影範囲外の領域に人の顔が存在しないと判定する。
 制御部100は、ステップs14において、広角撮影範囲のうち、標準撮影範囲外の領域に人の顔が存在すると判定すると、上述のステップs13を実行する。一方で、制御部100は、ステップs14において、広角撮影範囲のうち、標準撮影範囲外の領域に人の顔が存在しないと判定すると、ステップs15において、上述の図7等に示されるように、広角スルー画像300に重ねて標準撮影範囲(標準撮影範囲枠350)を表示する。標準撮影範囲が表示画面20に表示される場合には、図7,8の表示例のように、表示画面20のうち、標準撮影範囲内の領域420aだけに人の顔が表示される。一方で、表示画面20に標準撮影範囲が表示されない場合には、表示画面20に人の顔が表示されていないか、図15に示されるように、表示画面20のうち、標準撮影範囲内の被写体を表示する領域421外の領域422だけに人の顔が表示されている。
 ステップs15の後、上述のステップs4が実行されると、ステップs5,s6が実行される。また、ステップs15の後、ステップs7が実行されると、ステップs8が実行される。
 このように、本変形例では、標準撮影範囲内に人の顔が存在し、かつ広角撮影範囲のうち、標準撮影範囲外の領域に人の顔が存在しないときに標準撮影範囲が表示される。そのため、標準撮影範囲が常に表示されて標準撮影範囲の表示をユーザが煩わしく感じることを抑制することができる。
 <第2変形例>
 本変形例では、制御部100は、広角カメラ150の起動後、電子機器1の姿勢が安定しているときに標準撮影範囲を表示パネル120に表示させる。図16は本変形例に係る電子機器1の動作を示すフローチャートである。
 カメラアプリケーションの実行が開始したり、カメラ切り替えボタン330が操作されたりして、ステップs21において広角カメラ150が起動すると、ステップs22において、制御部100は、広角カメラ150で撮影されるスルー画像を表示パネル120に表示させる。このとき、表示パネル120では標準撮影範囲が表示されない。
 次にステップs23において、制御部100は、電子機器1の姿勢が安定しているか否かを判定する。例えば、制御部100は、広角カメラ150での撮影画像に基づいて、電子機器1の姿勢が安定しているか否かを判定する。具体的には、制御部100は、まず、広角カメラ150において連続的に撮影された複数枚の撮影画像を比較する。そして、制御部100は、当該複数枚の撮影画像の間の差が小さいときには電子機器1の姿勢が安定している判定する。一方で、制御部100は、当該差が小さくはないときには電子機器1の姿勢が安定していないと判定する。制御部100は、電子機器1の姿勢が安定していると判定するまで、ステップs23を繰り返し実行する。
 なお、電子機器1に加速度センサが設けられている場合には、制御部100は、加速度センサの出力信号に基づいて、電子機器1の姿勢が安定しているか否かを判定しても良い。この場合、制御部100は、例えば、加速度センサの出力信号の変化量を求める。そして、制御部100は、求めた変化量がしきい値以下のとき電子機器1の姿勢が安定している判定する。一方で、制御部100は、求めた変化量が当該しきい値よりも大きいとき電子機器1の姿勢が安定していないと判定する。
 制御部100は、ステップs23において、電子機器1の姿勢が安定していると判定すると、ステップs24において、上述の図7等に示されるように、広角スルー画像300に重ねて標準撮影範囲(標準撮影範囲枠350)を表示する。
 このように、本変形例では、電子機器1の姿勢が安定しているときに標準撮影範囲が表示される。そのため、撮影対象が定まっているときに、言い換えれば撮影の構図が定まっているときに、電子機器1は表示画面20に標準撮影範囲を表示することができる。よって、標準撮影範囲が常に表示されて標準撮影範囲の表示をユーザが煩わしく感じることを抑制することができる。
 なお、制御部100は、広角撮影範囲内に人の顔が存在するときには上述のステップs13以降を実行し、広角撮影範囲内に人の顔が存在しないときにはステップs23以降を実行しても良い。図17はこの場合の電子機器1の動作を示すフローチャートである。
 図17に示されるように、ステップs31において広角カメラ150が起動すると、ステップs32において、制御部100は、広角カメラ150で撮影されるスルー画像を表示パネル120に表示させる。このとき、表示パネル120では標準撮影範囲が表示されない。
 次にステップs33において、制御部100は、広角撮影範囲内に人の顔が存在するか否かを判定する。このとき、制御部100は、広角カメラ150での撮影画像に基づいて、広角撮影範囲内に人の顔が存在するか否かを判定する。具体的には、制御部100は、広角カメラ150での撮影画像内に人の顔を示す顔画像が含まれているか否かを判定する。制御部100は、広角カメラ150での撮影画像内に人の顔を示す顔画像が含まれている場合には、広角撮影範囲内に人の顔が存在すると判定する。一方で、制御部100は、広角カメラ150での撮影画像内に人の顔を示す顔画像が含まれていない場合には、広角撮影範囲内に人の顔が存在しないと判定する。
 制御部100は、ステップs33において、広角カメラ150での撮影画像内に人の顔が存在すると判定すると、上述のステップs13以降の処理を動作する。本例では、ステップs13においてNoと判定された場合とステップs14においてYesと判定された場合には、ステップs33が実行される。一方で、制御部100は、ステップs33において、広角カメラ150での撮影画像内に人の顔が存在しないと判定すると、上述のステップs23以降の処理を実行する。本例では、ステップs23においてNoと判定された場合、ステップs33が実行される。
 <第3変形例>
 本変形例では、制御部100は、広角カメラ150の起動後、表示画面20のうち、標準撮影範囲内の被写体を表示する領域421(図15参照)に対して、フォーカスを合わせる位置を指定する位置指定操作が行われたとき、標準撮影範囲を表示する。図18は本変形例に係る電子機器1の動作を示すフローチャートである。
 カメラアプリケーションの実行が開始したり、カメラ切り替えボタン330が操作されたりして、ステップs41において広角カメラ150が起動すると、ステップs42において、制御部100は、広角カメラ150で撮影されるスルー画像を表示パネル120に表示させる。このとき、表示パネル120では標準撮影範囲が表示されない。
 次にステップs43において、制御部100は、タッチパネル130が、表示画面20のうち、標準撮影範囲内の被写体を表示する領域421に対する位置指定操作を検出すると、ステップs44において、上述の図7等に示されるように、広角スルー画像300に重ねて標準撮影範囲(標準撮影範囲枠350)を表示する。図19は、表示画面20のうち、標準撮影範囲内の被写体を表示する領域421に対して、ユーザが指500で位置指定操作を行う様子の一例を示す図である。
 制御部100は、ステップs43において、タッチパネル130が領域421に対する位置指定操作を検出すると、表示画面20に標準撮影範囲を表示するとともに、表示画面20において、当該位置指定操作が行われた位置に表示される被写体に、広角カメラ150のフォーカスを合わせるオートフォーカス処理を実行する。つまり、制御部100は、表示画面20に表示される広角撮影範囲内の被写体のうち、位置指定操作によって指定されたフォーカス合わせ対象に広角カメラ150のフォーカスを合わせるオートフォーカス処理を実行する。これにより、表示画面20に表示されるスルー画像300においては、ユーザによって指定された位置にフォーカスが合うことになる。
 なお、表示画面20のうち、標準撮影範囲内の被写体を表示する領域421外の領域422(図15,19参照)に対して位置指定操作が行われたときには、当該位置指定操作に応じたオートフォーカス処理は実行されるものの、標準撮影範囲は表示されない。
 また、制御部100は、ステップs43,s44の後に上述のステップs4~s6が実行される場合には、表示画面20に表示される標準スルー画像に映る被写体のうち、ステップs43で検出された位置指定操作によって指定されたフォーカス合わせ対象に標準カメラ160のフォーカスを合せるオートフォーカス処理を実行しても良い。例えば、ステップs43において、ユーザが表示画面20に表示される広角スルー画像に映る人物Aを位置指定操作によって指定したとすると、制御部100は、その後のステップs6において、表示画面20に表示される標準スルー画像に映る被写体に含まれる人物Aに標準カメラ160のフォーカスを合わせる。これにより、ユーザは、使用カメラが広角カメラ150から標準カメラ160に切り替わった後に、再度位置指定操作を行う必要がなくなる。よって、電子機器1の操作性が向上する。
 このように、本変形例では、表示画面20のうち、標準撮影範囲内の被写体を表示する領域421に対して位置指定操作が行われたとき、標準撮影範囲が表示されることから、標準撮影範囲が常に表示されて標準撮影範囲の表示をユーザが煩わしく感じることを抑制することができる。
 <広角カメラから標準カメラへの切り替え>
 制御部100は、広角スルー画像が表示画面20に表示されている場合に、電子機器1に対して、広角撮影範囲内の被写体をズームインするズームイン操作が行われたとき、使用カメラを広角カメラ150から標準カメラ160に切り替えても良い。図20は本変形例に係る電子機器1の動作を示すフローチャートである。
 広角スルー画像が表示画面20に表示されている場合に(ステップs51)、ステップs52において、広角撮影範囲内の被写体をズームインするズームイン操作が表示画面20に対して行われたことをタッチパネル130が検出すると、制御部100は、ステップs53において、検出されたズームイン操作に応じたズーム倍率を決定する。そして、制御部100は、ステップs54において、決定したズーム倍率がしきい値を超えているか否かを判定する。一方で、制御部100は、ズーム倍率を決定すると、広角カメラ150で撮影される被写体を、決定したズーム倍率だけズームする。これにより、表示画面20に表示される広角スルー画像では、広角撮影範囲内の被写体が拡大されて示される。
 制御部100は、ステップs54においてズーム倍率がしきい値を超えていると判定すると、ステップs55において使用カメラを広角カメラ150から標準カメラ160に切り替える。一方で、制御部100は、ステップs54においてズーム倍率がしきい値を超えていないと判定すると、使用カメラを切り替えない。制御部100は、ステップs54においてNoと判定した後、ステップs52が実行されると、以後同様に動作する。
 ステップs54で使用されるしきい値は、例えば、広角カメラ150のズーム倍率が1倍のときの広角撮影範囲の大きさと、標準カメラ160のズーム倍率が1倍のときの標準撮影範囲の大きさとに基づいて決定することができる。具体的には、例えば、標準カメラ160のズーム倍率が1倍のときの標準撮影範の大きさに対する、広角カメラ150のズーム倍率が1倍のときの広角撮影範囲の大きさの比を、ステップs54で使用されるしきい値とすることができる。例えば、広角カメラ150のズーム倍率が1倍のときの広角撮影範囲の大きさが、標準カメラ160のズーム倍率が1倍のときの標準撮影範囲の大きさの1.5倍である場合には、ステップs54で使用されるしきい値を1.5倍とする。なお、しきい値の決定方法はこれ以外であっても良い。
 使用カメラの撮影範囲内の被写体をズームインするズームイン操作としては、例えば、ピンチアウト操作を採用することができる。図21は、表示画面20における、広角スルー画像300を表示する中央領域420に対して、ズームイン操作としてのピンチアウト操作が行われる様子を示す図である。ピンチアウト操作とは、図21に示されるように、2本の指(例えば親指と人差し指)が表示画面20に接触した状態、あるいは近接した状態で、当該2本の指が離れる(開く)操作である。ズームイン時のズーム倍率は、ピンチアウト操作において離れていく2本の指の間の距離(開いていく2本の指が成す角度)によって決定される。ピンチアウト操作を行う2本の指が離れるほど、ズーム倍率が大きくなる。
 また使用カメラの撮影範囲内の被写体をズームアウトするズームアウト操作としては、例えば、ピンチイン操作を採用することができる。図22は、表示画面20における、広角スルー画像300を表示する中央領域420に対して、ズームアウト操作としてのピンチイン操作が行われている様子を示す図である。ピンチイン操作とは、図22に示されるように、2本の指が表示画面20に接触した状態、あるいは近接した状態で、当該2本の指が近づく(閉じる)操作である。ズームアウト時のズーム倍率は、ピンチイン操作において近づいていく2本の指の間の距離(閉じていく2本の指が成す角度)によって決定される。ピンチイン操作を行う2本の指が近づくほど、ズーム倍率が小さくなる。
 なお図20の例では、制御部100は、ズーム倍率がしきい値を超えている場合に、使用カメラを広角カメラ150から標準カメラ160に切り替えているが、ズームイン操作が行われたら、ズーム倍率にかかわらず、使用カメラを広角カメラ150から標準カメラ160に切り替えても良い。
 また制御部100は、上述の図7等に示されるように、表示画面20に標準撮影範囲が表示されているときには、ステップs54,s55を実行しなくても良い。
 このように、本変形例では、広角スルー画像が表示画面20に表示されている場合に、電子機器1に対して、広角撮影範囲内の被写体をズームインするズームイン操作が行われたとき、使用カメラが広角カメラ150から標準カメラ160に切り替えられる。そのため、ユーザは、簡単に、電子機器1に使用カメラを広角カメラ150から標準カメラ160に切り替えさせることができる。よって、電子機器1の操作性が向上する。
 <標準カメラから広角カメラへの切り替え>
 制御部100は、標準スルー画像360が表示画面20に表示されている場合であって、標準カメラ160のズーム倍率が1倍である場合に、標準撮影範囲内の被写体をズームアウトするズームアウト操作が行われたとき、使用カメラを標準カメラ160から広角カメラ150に切り替えても良い。これにより、ユーザは、簡単に、電子機器1に使用カメラを標準カメラ160から広角カメラ150に切り替えさせることができる。よって、電子機器1の操作性が向上する。図23は、表示画面20における、標準スルー画像360を表示する中央領域420に対して、ズームアウト操作としてのピンチイン操作が行われる様子を示す図である。
 上記の各例では、電子機器1は、スマートフォン等の携帯電話機であったが、携帯電話機以外の装置であっても良い。例えば、電子機器1は、タブレット端末あるいはパーソナルコンピュータなどであっても良い。
 以上のように、電子機器1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この開示の範囲から外れることなく想定され得るものと解される。
 1 電子機器
 20 表示画面
 100 制御部
 120 表示パネル
 130 タッチパネル
 150 第1カメラ(広角カメラ)
 160 第2カメラ(標準カメラ)

Claims (13)

  1.  切り替えて使用可能な第1及び第2カメラと、
     前記第1及び第2カメラから使用カメラを決定する決定部と、
     前記第1及び第2カメラの撮影画像を表示する表示部と
    を備え、
     前記第1カメラは、前記第2カメラよりも広角に撮影できるカメラであり、
     前記第1カメラは第1撮影範囲を有し、
     前記第2カメラは第2撮影範囲を有し、
     前記表示部は、前記使用カメラとしての前記第1カメラで撮影される第1スルー画像を表示している場合に、前記第2撮影範囲を前記第1スルー画像に重ねて表示する、電子機器。
  2.  請求項1に記載の電子機器であって、
     前記決定部は、前記表示部の表示画面のうち、前記表示画面に表示される前記第2撮影範囲内の領域に対して第1操作が行われたとき、前記使用カメラを前記第1カメラから前記第2カメラに切り替える、電子機器。
  3.  請求項2に記載の電子機器であって、
     前記第1操作は、フォーカスを合わせる位置を指定する操作を含む、電子機器。
  4.  請求項1乃至請求項3のいずれか一つに記載の電子機器であって、
     前記表示部は、前記表示部の表示画面のうち、前記表示画面に表示される前記第2撮影範囲外の領域に対して第2操作が行われたとき、前記第2撮影範囲の表示を消去する、電子機器。
  5.  請求項4に記載の電子機器であって、
     前記第2操作は、フォーカスを合わせる位置を指定する操作を含む、電子機器。
  6.  請求項1乃至請求項5のいずれか一つに記載の電子機器であって、
     前記表示部が前記第1スルー画像を表示している場合に、前記第2撮影範囲内に人の顔が存在するか否かの第1判定と、前記第1撮影範囲のうち、前記第2撮影範囲外の領域に人の顔が存在するか否かの第2判定とを行う第1判定部をさらに備え、
     前記表示部は、前記第1スルー画像を表示している場合に、前記第1判定部が、前記第2撮影範囲内に人の顔が存在し、かつ前記第1撮影範囲のうち、前記第2撮影範囲外の領域に人の顔が存在しないと判定したとき、前記第2撮影範囲を前記第1スルー画像に重ねて表示する、電子機器。
  7.  請求項1乃至請求項6のいずれか一つに記載の電子機器であって、
     前記表示部が前記第1スルー画像を表示している場合に、前記電子機器の姿勢が安定しているか否かを判定する第2判定部をさらに備え、
     前記表示部は、前記第1スルー画像を表示している場合に、前記第2判定部が、前記姿勢が安定していると判定したとき、前記第2撮影範囲を前記第1スルー画像に重ねて表示する、電子機器。
  8.  請求項1乃至請求項7のいずれか一つに記載の電子機器であって、
     前記表示部は、前記第1スルー画像を表示している場合に、前記表示部の表示画面のうち、前記第2撮影範囲内の被写体を表示する領域に対して、フォーカスを合わせる位置を指定する操作が行われたとき、前記第2撮影範囲を前記第1スルー画像に重ねて表示する、電子機器。
  9.  請求項1乃至請求項8のいずれか一つに記載の電子機器であって、
     前記表示部は、前記第1スルー画像を表示している場合に、前記第2撮影範囲の表示/非表示を切り替える切替ボタンを表示する、電子機器。
  10.  請求項1乃至請求項9のいずれか一つに記載の電子機器であって、
     前記電子機器は、前記第1カメラが撮影する第1被写体をズームする機能を有し、
     前記決定部は、前記表示部が前記第1スルー画像を表示している場合に、前記電子機器に対して前記第1被写体をズームインするズームイン操作が行われたとき、前記使用カメラを前記第1カメラから前記第2カメラに切り替える、電子機器。
  11.  請求項1乃至請求項10のいずれか一つに記載の電子機器であって、
     前記電子機器は、前記第2カメラが撮影する第2被写体をズームする機能を有し、
     前記決定部は、前記使用カメラとしての前記第2カメラで撮影される第2スルー画像を前記表示部が表示している場合であって、前記第2カメラのズーム倍率が1倍である場合に、前記電子機器に対して前記第2被写体をズームアウトするズームアウト操作が行われたとき、前記使用カメラを前記第2カメラから前記第1カメラに切り替える、電子機器。
  12.  切り替えて使用可能な第1及び第2カメラを備え、当該第1カメラが当該第2カメラよりも広角に撮影できるカメラである電子機器の動作方法であって、
     前記第1カメラで撮影されるスルー画像に前記第2カメラの撮影範囲が重なるように、当該スルー画像及び当該撮影範囲を表示する工程を備える、電子機器の動作方法。
  13.  切り替えて使用可能な第1及び第2カメラを備え、当該第1カメラが当該第2カメラよりも広角に撮影できるカメラである電子機器を制御するための制御プログラムであって、
     前記電子機器に、前記第1カメラで撮影されるスルー画像に前記第2カメラの撮影範囲が重なるように、当該スルー画像及び当該撮影範囲を表示させるための制御プログラム。
PCT/JP2016/068344 2015-06-26 2016-06-21 電子機器、電子機器の動作方法及び制御プログラム WO2016208562A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/738,530 US10602063B2 (en) 2015-06-26 2016-06-21 Electronic apparatus, electronic apparatus operating method, and non-transitory computer readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-128777 2015-06-26
JP2015128777A JP6293706B2 (ja) 2015-06-26 2015-06-26 電子機器及び電子機器の動作方法

Publications (1)

Publication Number Publication Date
WO2016208562A1 true WO2016208562A1 (ja) 2016-12-29

Family

ID=57585864

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/068344 WO2016208562A1 (ja) 2015-06-26 2016-06-21 電子機器、電子機器の動作方法及び制御プログラム

Country Status (3)

Country Link
US (1) US10602063B2 (ja)
JP (1) JP6293706B2 (ja)
WO (1) WO2016208562A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018113683A (ja) * 2017-01-06 2018-07-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11743583B2 (en) * 2016-05-20 2023-08-29 Maxell, Ltd. Imaging apparatus and setting screen thereof
KR102593824B1 (ko) 2016-08-31 2023-10-25 삼성전자주식회사 카메라를 제어하기 위한 방법 및 그 전자 장치
KR102386398B1 (ko) 2017-03-17 2022-04-14 삼성전자주식회사 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
US10194078B2 (en) * 2017-06-09 2019-01-29 Immersion Corporation Haptic enabled device with multi-image capturing abilities
US11412132B2 (en) * 2018-07-27 2022-08-09 Huawei Technologies Co., Ltd. Camera switching method for terminal, and terminal
KR20200100498A (ko) 2019-02-18 2020-08-26 삼성전자주식회사 전자 장치 및 그 전자 장치의 자동 초점 제어 방법
KR102664705B1 (ko) 2019-02-19 2024-05-09 삼성전자주식회사 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법
CN115104299A (zh) 2020-02-21 2022-09-23 索尼集团公司 程序、信息处理方法和电子设备
JP7558700B2 (ja) 2020-07-22 2024-10-01 キヤノン株式会社 電子機器およびその制御方法
WO2022019134A1 (ja) * 2020-07-22 2022-01-27 キヤノン株式会社 電子機器およびその制御方法
WO2022034938A1 (ko) * 2020-08-11 2022-02-17 엘지전자 주식회사 이미지 촬영 장치 및 그 제어 방법
US11671704B2 (en) * 2020-11-13 2023-06-06 Samsung Electronics Co., Ltd. Electronic device including a plurality of image sensors and method for thereof
JP2023062381A (ja) * 2021-10-21 2023-05-08 キヤノン株式会社 撮像装置及びその制御方法とプログラム
WO2023167728A1 (en) * 2022-03-03 2023-09-07 Microsoft Technology Licensing, Llc. Device for replacing intrusive object in images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244369A (ja) * 2008-03-28 2009-10-22 Sony Corp 撮像装置及び撮像方法
JP4748023B2 (ja) * 2006-10-10 2011-08-17 株式会社ニコン カメラ
JP2012049651A (ja) * 2010-08-24 2012-03-08 Ricoh Co Ltd 撮像装置及び撮像方法
JP2013106289A (ja) * 2011-11-16 2013-05-30 Konica Minolta Advanced Layers Inc 撮像装置
JP2016032125A (ja) * 2014-07-25 2016-03-07 シャープ株式会社 画像処理装置、画像処理プログラム、電子機器及び画像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4210189B2 (ja) 2003-09-24 2009-01-14 フジノン株式会社 撮像装置
US8964054B2 (en) * 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
US9749543B2 (en) * 2015-07-21 2017-08-29 Lg Electronics Inc. Mobile terminal having two cameras and method for storing images taken by two cameras
US9800975B1 (en) * 2016-04-18 2017-10-24 mPerpetuo, Inc. Audio system for a digital camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4748023B2 (ja) * 2006-10-10 2011-08-17 株式会社ニコン カメラ
JP2009244369A (ja) * 2008-03-28 2009-10-22 Sony Corp 撮像装置及び撮像方法
JP2012049651A (ja) * 2010-08-24 2012-03-08 Ricoh Co Ltd 撮像装置及び撮像方法
JP2013106289A (ja) * 2011-11-16 2013-05-30 Konica Minolta Advanced Layers Inc 撮像装置
JP2016032125A (ja) * 2014-07-25 2016-03-07 シャープ株式会社 画像処理装置、画像処理プログラム、電子機器及び画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018113683A (ja) * 2017-01-06 2018-07-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7073092B2 (ja) 2017-01-06 2022-05-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP6293706B2 (ja) 2018-03-14
US20180227489A1 (en) 2018-08-09
JP2017017376A (ja) 2017-01-19
US10602063B2 (en) 2020-03-24

Similar Documents

Publication Publication Date Title
JP6293706B2 (ja) 電子機器及び電子機器の動作方法
JP7169383B2 (ja) 夜間撮影モード処理を使用する撮影及びユーザインターフェイス
KR101373333B1 (ko) 터치인식을 통한 영상촬영 기능을 구비한 휴대 단말기 및그 촬영방법
US8976270B2 (en) Imaging device and imaging device control method capable of taking pictures rapidly with an intuitive operation
US9389758B2 (en) Portable electronic device and display control method
JP6426484B2 (ja) 携帯端末
JP6266577B2 (ja) 電子機器
WO2017092128A1 (zh) 预览图像的显示方法和装置
JP2005117661A (ja) 携帯用端末機の自動ズーミング制御装置及び方法
CN105578045A (zh) 一种终端及终端拍摄的方法
WO2022089284A1 (zh) 拍摄处理方法、装置、电子设备和可读存储介质
US10397482B2 (en) Imaging control apparatus and method for controlling the same
KR20110006243A (ko) 휴대용 단말기에서 매뉴얼 포커싱 방법 및 장치
US20140111679A1 (en) Imaging device, display device, control method, and method for controlling area change
CN105744170A (zh) 一种照片拍摄装置和方法
JP2017069618A (ja) 電子機器及び撮像方法
JP2010183200A (ja) 撮像機能を備えた携帯端末
US9641746B2 (en) Image capturing apparatus and control method for selecting from successively-captured images
JP5594485B2 (ja) 携帯通信装置
CN115134505B (zh) 预览画面生成方法及装置、电子设备、存储介质
US20170199621A1 (en) Display control apparatus and control method thereof
JP2014154905A (ja) 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム
JP6700693B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
WO2019080294A1 (zh) 移动终端及其拍摄方法
JP2012243266A (ja) 電子機器及び表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16814332

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15738530

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16814332

Country of ref document: EP

Kind code of ref document: A1