WO2014136521A1 - 撮像装置、撮像方法及びプログラム - Google Patents

撮像装置、撮像方法及びプログラム Download PDF

Info

Publication number
WO2014136521A1
WO2014136521A1 PCT/JP2014/052728 JP2014052728W WO2014136521A1 WO 2014136521 A1 WO2014136521 A1 WO 2014136521A1 JP 2014052728 W JP2014052728 W JP 2014052728W WO 2014136521 A1 WO2014136521 A1 WO 2014136521A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging
instruction
housing
display
Prior art date
Application number
PCT/JP2014/052728
Other languages
English (en)
French (fr)
Inventor
由香利 石塚
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to CN201480012108.0A priority Critical patent/CN105103536B/zh
Priority to JP2015504209A priority patent/JPWO2014136521A1/ja
Priority to US14/768,328 priority patent/US9742989B2/en
Priority to EP14759623.3A priority patent/EP2966854B1/en
Publication of WO2014136521A1 publication Critical patent/WO2014136521A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B9/00Exposure-making shutters; Diaphragms
    • G03B9/64Mechanism for delaying opening of shutter
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Definitions

  • the present invention relates to an imaging apparatus, an imaging method, and a program.
  • Portable imaging devices that can be folded in a mobile phone with a camera, a portable information terminal with a camera, and the like have become widespread.
  • Patent Document 1 Various techniques related to such a background are known (see, for example, Patent Document 1).
  • Patent Document 1 describes a foldable portable image pickup device having an imaging unit having an optical system for photographing a subject and having a structure in which a key operation unit side body and a display unit side body are folded at a hinge part.
  • this foldable portable imaging device captures an image when it is held in a state where an opening / closing angle within a predetermined range is formed by relatively rotating the key operation unit side body and the display unit side body.
  • the photographing mode of the means is automatically set to the self-timer mode. In this way, depending on the folding portable imaging device, when self-timer shooting is desired, it is only necessary to form and hold the key operation unit side body and the display unit side body with a predetermined range of opening and closing angles. This saves you the trouble of setting the self-timer mode each time in the mode menu of the folding portable imaging device.
  • Patent Document 2 Various techniques relating to such a background are known (see, for example, Patent Document 2).
  • Patent Document 2 describes an imaging device such as a digital camera that can capture still images and moving images. More specifically, it detects the face area data of the subject, the extracted feature points, and the set trigger information.
  • the imaging apparatus includes a control unit that detects a facial expression or gesture of a subject that triggers the release from a through image (an image before pressing the shutter) of the buffer memory based on the detected information.
  • main shooting is automatically executed when a facial expression or gesture of a subject that triggers a release is detected from a through image based on trigger information. Therefore, according to this imaging apparatus, it is possible to easily shoot a facial expression of a subject or a gesture of the subject that matches a shooting scene or a shooting mode without trouble.
  • Information processing devices such as personal computers, mobile phones, and television receivers include a display unit such as a liquid crystal display and an input unit such as a keyboard, buttons, remote control, mouse, or touch panel for inputting predetermined operation contents and characters. And is composed of.
  • Patent Document 3 Various techniques related to such a background are known (see, for example, Patent Document 3).
  • Patent Document 3 describes an information processing method performed using an information processing device that can be operated by a gesture. More specifically, the mirroring processing unit cuts out the outer shape of the gesture target video whose shape has been determined, and performs the mirroring process on the gesture target video. Then, the gesture display control unit displays the gesture object subjected to the mirroring process.
  • the imaging apparatus it is possible to know the gesture start position with respect to the camera position of the gesture target, and the user can learn how to perform the gesture function to lead to the intended command.
  • the locus is drawn when the gesture function is actually performed. Therefore, the user can complete the desired command input while confirming the gesture reception status on the device side. Thereby, depending on this imaging device, anxiety about a user's gesture input can be eliminated.
  • the self-timer mode is set only when the opening / closing angle of the second housing with respect to the first housing is within a range of 45 degrees to 135 degrees, thereby preventing a shooting mistake. can do.
  • the technique described in Patent Document 1 cannot perform the shooting when a facial expression or gesture of a subject corresponding to the shooting scene or shooting mode is detected.
  • Patent Document 2 Although the technique described in Patent Document 2 has an advantage of being able to capture an image even when the subject is located away from the imaging device, it captures an image when the subject unintentionally makes a movement similar to a predetermined gesture. End up. For this reason, in the technique described in Patent Document 2, whether to use a predetermined gesture function of a subject is switched by a user operation, and the operation is complicated.
  • Patent Document 3 can eliminate anxiety about the user's gesture input, the user's operation switches whether or not to use a predetermined gesture function of the subject. Become.
  • the objective of this invention is providing the imaging device, the imaging method, and program which solve the subject mentioned above.
  • the present invention provides a case, an image pickup unit that is provided in the case, picks up an image of a subject, an operation input unit that inputs an operation, and an image input operation is input by the operation input unit
  • a first instruction unit that instructs to perform imaging by the imaging unit
  • a second instruction unit that instructs to perform imaging by the imaging unit based on an opportunity other than the imaging operation
  • a state of the housing Based on the above, an imaging apparatus is provided that includes a control unit that controls to suppress one of the instruction from the first instruction unit and the instruction from the second instruction unit.
  • the present invention also executes imaging by the imaging unit based on a first instruction stage for instructing to perform imaging by the imaging unit and an opportunity other than the imaging operation when an imaging operation is input by the operation input unit.
  • a control stage for controlling to suppress any one of the instruction in the first instruction stage and the instruction in the second instruction stage based on the state of the housing.
  • An imaging method is also provided.
  • the present invention also provides a first instruction unit for instructing a computer to execute imaging by the imaging unit when an imaging operation is input by the operation input unit, and imaging by the imaging unit based on an opportunity other than the imaging operation.
  • Control for controlling either one of the instruction by the first instruction unit and the instruction by the second instruction unit based on the state of the housing, the second instruction unit instructing to execute
  • FIG. 1 is a plan view of a smartphone 100.
  • FIG. 4 is a bottom view of the smartphone 100.
  • FIG. 1 is an external perspective view of one use state of a smartphone 100.
  • FIG. It is a figure which shows an example of the 1st imaging method with the smart phone. It is a figure which shows an example of the 2nd imaging method by the smart phone. It is a figure which shows an example of the 3rd imaging method by the smart phone. It is a figure which shows an example of the 4th imaging method by the smart phone. It is a figure which shows an example of the 5th imaging method by the smart phone.
  • FIG. 7 is a flowchart illustrating a control operation of smartphone 100. Similarly, it is a flowchart explaining the control operation of the smartphone 100.
  • 2 is a diagram illustrating an example of a minimum configuration of a smartphone 100.
  • FIG. 1 shows an example of a block configuration of a smartphone 100 according to an embodiment of the present invention.
  • the smartphone 100 is a mobile phone having the functions of a personal mobile computer.
  • the smartphone 100 is an example of the “imaging device” in the present invention.
  • the smartphone 100 includes a first housing 12, a second housing 13, an operation input unit 14, a first instruction unit 15, a second instruction unit 16, an imaging unit 17, a motion detection unit 18, a time measurement unit 19, and a facial expression detection unit 20.
  • the first housing 12 includes a first display unit 23, and the second housing 13 can be opened and closed with respect to the first housing 12, and includes a second display unit 24.
  • the first display unit 23 and the second display unit 24 are provided on the surface that is on the outer side when the first housing 12 and the second housing 13 are closed.
  • the operation input unit 14 is displayed on the first display unit 23 and inputs a user operation to the smartphone 100.
  • the first instruction unit 15 instructs the imaging unit 17 to perform imaging when an imaging operation (by the user) is input by the operation input unit 14.
  • the second instruction unit 16 instructs to perform imaging by the imaging unit 17 based on an opportunity other than the imaging operation. Specifically, the second instruction unit 16 instructs the imaging unit 17 to perform imaging when the motion detection unit 18 detects a predetermined movement of the subject.
  • the second instruction unit 16 instructs the imaging unit 17 to perform imaging when a predetermined time has elapsed by the time measuring unit 19.
  • the second instruction unit 16 instructs the imaging unit 17 to perform imaging when the facial expression detection unit 20 detects a predetermined facial expression of the subject.
  • the second instruction unit 16 instructs the imaging unit 17 to perform imaging even when the subject specifying unit 21 specifies a predetermined subject.
  • the imaging unit 17 is provided on one of the surfaces of the first housing 12 and the second housing 13 that are on the outside when the closed state and the surface that is on the inside when the closed state is established. It has been.
  • the motion detector 18 detects the motion of the subject.
  • the timer unit 19 is a timer that measures elapsed time.
  • the expression detection unit 20 detects the expression of the subject.
  • the subject specifying unit 21 specifies a subject.
  • the ground detection unit 22 detects the ground state of the smartphone 100.
  • the display control unit 25 controls to display an image captured by the imaging unit 17 on the first display unit 23 or the second display unit 24.
  • the display control unit 25 is an image captured by the imaging unit 17 when the operation input unit 14 inputs an operation that instructs the first display unit 23 or the second display unit 24 as a display destination.
  • the display switching to the display unit 23 or 24 is controlled.
  • the display control unit 25 controls the first display unit 23 and the second display unit 24 so that the image captured by the imaging unit 17 is displayed as a mirror image.
  • the control unit 26 Based on the open / closed state of the first housing 12 and the second housing 13, the control unit 26 suppresses either one of the instruction from the first instruction unit 15 and the instruction from the second instruction unit 16. Control as much as possible. Specifically, when the first housing 12 and the second housing 13 are open at a predetermined angle (see FIG. 4 described later), the control unit 26 does not suppress the instruction from the second instruction unit 16. To control. Further, the control unit 26 sets the predetermined grounding state of the first housing 12 and the second housing 13 by the ground detection unit 22 in the open state of the first housing 12 and the second housing 13 at a predetermined angle. When it detects, it controls so that the instruction
  • control unit 26 performs control so as to suppress an instruction from the second instruction unit 16 in the closed state of the first housing 12 and the second housing 13. Furthermore, the control unit 26 performs control so as to suppress an instruction from the first instruction unit 15 when control is performed so as not to suppress an instruction from the second instruction unit 16 based on a user input instruction or the like.
  • FIG. 2 is a plan view of the smartphone 100.
  • FIG. 3 is a bottom view of the smartphone 100.
  • FIG. 4 is an external perspective view of the smartphone 100 in one usage state.
  • the smartphone 100 has a hinge member 31 attached between the inner side surface of the long side of the first housing 12 and the inner side surface of the long side of the second housing 13. Therefore, the first housing 12 and the second housing 13 can be rotated about their respective longitudinal directions.
  • the hinge member 31 incorporates an angle sensor 32.
  • the angle sensor 32 detects whether the first housing 12 and the second housing 13 are open, in that case, opened at a predetermined angle, or closed, and sends an electrical signal to the control unit 26. give.
  • a distance sensor installed in the two casings 12 and 13 may be used to detect the angles of the two casings 12 and 13.
  • a plurality of protrusions and recesses may be provided, and any detection method can be applied.
  • a first camera 41 as the imaging unit 17 of the present embodiment is attached to the first housing 12 in the vicinity of the first display unit 23.
  • a microphone 33 is attached to the first housing 12 at the side of the first camera 41.
  • a first ground sensor 34 and a second ground sensor 35 as the ground detection unit 22 of the present embodiment are attached to the first housing 12 at positions apart from each other on the long side outer surface.
  • a second camera 42 as the imaging unit 17 of the present embodiment is attached to the back surface of the second display unit 24.
  • the second casing 13 is provided with a third ground sensor 36 and a fourth ground sensor 37 as the ground detection part 22 of the present invention, respectively, at positions separated from each other on the outer surface on the long side.
  • the four ground sensors 34, 35, 36, and 37 are pressure sensors, and when two (two points) of at least one of the casings 12 or 13 are in contact with, for example, a desk or the like, the smartphone Detect that 100 is deferred. Conversely, the four ground sensors 34, 35, 36, and 37 do not detect that the smartphone 100 is stationary when not in contact with a desk or the like. Each ground sensor 34, 35, 36, 37 gives the detected electrical signal to the control unit 26. Note that, as a means for detecting whether or not it is in contact with a desk or the like, instead of the ground sensor, the posture may be detected by an acceleration sensor, or the acceleration sensor may be combined with two ground sensors.
  • any detection method can be applied such as determining that the pressure sensor is grounded when a pressure at a combination of predetermined locations is detected by the pressure sensor.
  • a first magnetic sensor 38 is attached to the first housing 12, for example, at the center on the outer side of the long side, and a long side facing the first magnetic sensor 38 is attached to the second housing 13.
  • a second magnetic sensor 39 is attached to the center of the outer side surface.
  • the two magnetic sensors 38 and 39 detect opening and closing of the two casings 12 and 13. Specifically, when the two magnetic sensors 38 and 39 detect a predetermined magnetic force, the two magnetic sensors 38 and 39 determine the closed state of the two casings 12 and 13 and give an electric signal to the control unit 26. On the other hand, when the two magnetic sensors 38 and 39 do not detect a predetermined magnetic force, the two magnetic sensors 38 and 39 determine the open state of the two casings 12 and 13 and give an electric signal to the control unit 26. Note that these two magnetic sensors 38 and 39 are not always necessary, and serve as an auxiliary function of the angle sensor 32.
  • the smartphone 100 is used, for example, by opening the second housing 13 at a predetermined angle with respect to the first housing 12 and placing it on the top surface of a desk or the like in this state.
  • the angle sensor 32 detects the open state of the two housings 12 and 13 at a predetermined angle, and the control unit 26 is provided with the open state electrical signal.
  • the four ground sensors 34, 35, 36 and 37 are all in contact with a desk or the like, so that an electrical signal indicating that they are in a ground state is given to the controller 26.
  • FIG. 5 shows an example of a first imaging method by the smartphone 100.
  • FIG. 6 shows an example of a second imaging method by the smartphone 100.
  • FIG. 7 shows an example of a third imaging method by the smartphone 100.
  • FIG. 8 shows an example of a fourth imaging method by the smartphone 100.
  • FIG. 9 shows an example of a fifth imaging method by the smartphone 100.
  • FIG. 10 shows an example of a sixth imaging method by the smartphone 100.
  • FIG. 11 shows an example of a seventh imaging method by the smartphone 100.
  • FIG. 12 shows an example of an eighth imaging method by the smartphone 100.
  • 13 and 14 are flowcharts for explaining the control operation of the smartphone 100.
  • the first imaging method is when the user P folds the two casings 12 and 13 and holds them with both hands. Since the two housings 12 and 13 are folded, the angle sensor 32 does not detect the open state of the two housings 12 and 13. Further, the four ground sensors 34, 35, 36, and 37 do not detect that they are placed. That is, as shown in FIG. 13, in step S101, the control unit 26 does not determine that the casings 12 and 13 are open. Therefore, the process proceeds from step S101 to step S102, and step S102 is performed. As shown in FIG. 14, in step S102, the control unit 26 does not determine that the casings 12 and 13 are placed. Therefore, the process proceeds from step S102 to step S103, and step S103 is performed.
  • step S103 when the setting by the control unit 26 is not set not to suppress the instruction from the second instruction unit 16, it is determined that the priority mode (the selected shooting mode) is the first imaging method. For this reason, the process proceeds from step S103 to step S104 to perform step S104.
  • step S104 the control unit 26 turns on the first instruction unit 15 and turns off the second instruction unit 16. Therefore, in the first imaging method, the smartphone 100 instructs hand-held landscape photography by the first camera 41 in accordance with the shutter operation of the operation input unit 14 of the user P. At this time, the smartphone 100 displays the image captured by the imaging unit 17 on the second display unit 24 of the second housing 13.
  • the second imaging method is a case where the two housings 12 and 13 are opened (at a predetermined angle) by the user P and placed on a desk. Since the two housings 12 and 13 are opened, the angle sensor 32 detects the open state of the two housings 12 and 13. Further, the four ground sensors 34, 35, 36, and 37 detect that they are placed. That is, as shown in FIG. 13, in step S101, the control unit 26 determines that the casings 12 and 13 are open. Therefore, the process proceeds from step S101 to step S105, and step S105 is performed. In step S105, the control unit 26 determines that the casings 12 and 13 are placed. Therefore, the process proceeds from step S105 to step S106, and step S106 is performed.
  • step S106 the control unit 26 determines that the priority mode is the second imaging method because the two housings 12 and 13 are open at a predetermined angle. Therefore, the process proceeds from step S106 to step S107, and step S107 is performed.
  • step S107 the control unit 26 turns off the first instruction unit 15 and turns on the second instruction unit 16. Therefore, in the second imaging method, the smartphone 100 displays the image captured by the first camera 41 on the first display unit 23 with the first display unit 23 as a mirror image display, and takes a self-portrait that is not held by a hand. Instruct. Then, the smartphone 100 instructs a shutter operation according to the movement of the subject by the first camera 41.
  • the third imaging method is a case where the user P closes the two casings 12 and 13 and holds them with one hand. Since the two housings 12 and 13 are closed, the angle sensor 32 detects the closed state of the two housings 12 and 13. Further, the four ground sensors 34, 35, 36, and 37 do not detect that they are placed. That is, as shown in FIG. 13, in step S101, the control unit 26 does not determine that the casings 12 and 13 are open. Therefore, the process proceeds from step S101 to step S102, and step S102 is performed. As shown in FIG. 14, in step S102, the control unit 26 does not determine that the casings 12 and 13 are placed. Therefore, the process proceeds from step S102 to step S103, and step S103 is performed.
  • step S103 if the setting by the control unit 26 is set so as not to suppress the instruction from the second instruction unit 16, it is determined that the priority mode is the third imaging method. For this reason, the process proceeds from step S103 to step S108 to perform step S108.
  • step S108 the control unit 26 turns off the first instruction unit 15 and turns on the second instruction unit 16. Therefore, in the third imaging method, the smartphone 100 displays the image captured by the first camera 41 on the first display unit 23 with the first display unit 23 as a mirror image display, Instructs the shutter operation according to the movement of the camera.
  • step S101 the control unit 26 determines that the casings 12 and 13 are open. Therefore, the process proceeds from step S101 to step S105, and step S105 is performed.
  • step S105 since each housing
  • step S106 the control unit 26 determines that the priority mode is the fourth imaging method because the two casings 12 and 13 are not open at a predetermined angle. Therefore, the process proceeds from step S106 to step S109, and step S109 is performed.
  • step S109 the control unit 26 turns on the first instruction unit 15 and turns off the second instruction unit 16. Therefore, in the fourth imaging method, the smartphone 100 is a fixed landscape shooting, and instructs the user P to perform a shutter operation using the second camera 42. At this time, the smartphone 100 displays an image captured by the second camera 42 on the second display unit 24 and displays an operation screen on the first display unit 23.
  • the fifth imaging method is a case where the two cases 12 and 13 are closed by the user P and placed on a desk or the like. Since the two housings 12 and 13 are closed, the angle sensor 32 detects the closed state of the two housings 12 and 13. Further, since the four ground sensors 34, 35, 36, and 37 are grounded, it is detected that they are placed. That is, as shown in FIG. 13, in step S101, the control unit 26 does not determine that the casings 12 and 13 are open. Therefore, the process proceeds from step S101 to step S102. As shown in FIG. 14, since each housing
  • step S110 when the setting by the control unit 26 is not set not to suppress the instruction from the second instruction unit 16, it is determined that the priority mode is the fifth imaging method. Therefore, the process proceeds from step S110 to step S111, and step S111 is performed.
  • step S111 the control unit 26 turns on the first instruction unit 15 and turns off the second instruction unit 16. Therefore, in the fifth imaging method, the smartphone 100 is a landscape shooting using the first camera 41 in a fixed state, and instructs the user P to perform a shutter operation. At this time, the smartphone 100 displays the image captured by the first camera 41 on the second display unit 24.
  • the sixth imaging method is when the two casings 12 and 13 are closed and placed on a desk or the like. Since the two housings 12 and 13 are closed, the angle sensor 32 detects the closed state of the two housings 12 and 13. Further, since the two ground sensors 36 and 37 are grounded, it is detected that they are placed. That is, as shown in FIG. 13, in step S101, the control unit 26 does not determine that the casings 12 and 13 are open. Therefore, the process proceeds from step S101 to step S102, and step S102 is performed. As shown in FIG. 14, since each housing
  • step S110 when the setting by the control unit 26 does not suppress the instruction from the second instruction unit 16, it is determined that the priority mode is the sixth imaging method. Therefore, it transfers to step S112 from step S110 and performs step S112.
  • step S112 the control unit 26 turns off the first instruction unit 15 and turns on the second instruction unit 16. Therefore, in the sixth imaging method, the smartphone 100 instructs to perform fisheye photography placed on a desk or the like by a timer photography shutter operation corresponding to the movement of the subject by the first camera 41.
  • the seventh imaging method is a case where the two housings 12 and 13 are opened and held with one hand.
  • the angle sensor 32 detects the open state of the two housings 12 and 13. Further, the four ground sensors 34, 35, 36, and 37 do not detect that they are placed. That is, as shown in FIG. 13, in step S ⁇ b> 101, the control unit 26 determines that the casings 12 and 13 are open. Therefore, the process proceeds from step S101 to step S105, and step S105 is performed. In step S105, since each housing
  • step S113 the control unit 26 determines that the priority mode is the seventh imaging method because the two casings 12 and 13 are not open at a predetermined angle. For this reason, the process proceeds from step S113 to step S114 to perform step S114.
  • step S114 the control unit 26 turns on the first instruction unit 15 and turns off the second instruction unit 16. Therefore, in the seventh imaging method, the smartphone 100 is a one-handed selfie by the first camera 41 and instructs the user P to perform a shutter operation. At this time, the smartphone 100 displays the image captured by the first camera 41 using the first display unit 23 as a mirror image display, and displays an operation screen on the second display unit 24.
  • the eighth imaging method is when the two casings 12 and 13 are opened and held with both hands.
  • the angle sensor 32 detects the open state of the two housings 12 and 13. Further, the four ground sensors 34, 35, 36, and 37 do not detect that they are placed. That is, as shown in FIG. 13, in step S ⁇ b> 101, the control unit 26 determines that the casings 12 and 13 are open. Therefore, the process proceeds from step S101 to step S105, and step S105 is performed. In step S105, since each housing
  • step S113 the control unit 26 determines that the priority mode is the eighth imaging method because the two casings 12 and 13 are open at a predetermined angle. For this reason, the process proceeds from step S113 to step S115 to perform step S115.
  • step S115 the control unit 26 turns off the first instruction unit 15 and turns on the second instruction unit 16.
  • the smartphone 100 is a hand-held person photographing and instructs a shutter operation corresponding to the movement of the subject. At this time, the smartphone 100 displays the image captured by the first camera 41 on the second display unit 24.
  • This eighth imaging method is suitable, for example, when photographing a subject over a crowd in a crowd.
  • the control unit 26 determines whether or not to suppress the instruction from the first instruction unit 15 based on the state of each housing 12 and 13, and It is controlled whether or not to suppress the instruction from the second instruction unit 16. Therefore, according to the smartphone 100, it is possible to appropriately control by avoiding a complicated operation by the user P.
  • control unit 26 controls the user to control whether or not to suppress the instruction from the second instruction unit 16 based on the open / closed state of the housings 12 and 13. An instruction meeting P's request can be given.
  • control part 26 is controlled so that the instruction
  • control unit 26 allows the ground detection unit 22 to perform the predetermined grounding state of the housings 12 and 13 when the housings 12 and 13 are open at a predetermined angle. Is detected so as not to suppress the instruction by the second instruction unit 16. Therefore, according to the smartphone 100, a complicated operation by the user P can be surely avoided.
  • control unit 26 controls the user P to control to suppress the instruction from the second instruction unit 16 when the casings 12 and 13 are in the closed state. Instructions that meet the needs of
  • control unit 26 suppresses the instruction from the first instruction unit 15 when control is performed so as not to suppress the instruction from the second instruction unit 16 based on a user input instruction or the like. In order to control to do so, an instruction that meets the user's P request can be given.
  • the second instruction unit 16 instructs the imaging unit 17 to perform imaging when the motion detection unit 18 detects a predetermined movement of the subject. In addition, it is possible to avoid missing a photo opportunity.
  • indication part 16 reliably performs timer imaging
  • the second instruction unit 16 instructs the imaging unit 17 to perform imaging when the facial expression detection unit 20 detects a predetermined facial expression of the subject. Therefore, gesture shooting can be performed reliably.
  • the second instruction unit 16 uses a specific instruction to instruct the imaging unit 17 to perform imaging when the subject specifying unit 21 specifies a predetermined subject. Shooting can be performed with the subject selected.
  • each of the two casings 12 and 13 that can be opened and closed is provided with the display units 23 and 24 on the surface that becomes the outer side when it is closed,
  • the imaging unit 17 is provided on one of the surfaces that becomes the outer side and one of the surfaces that becomes the inner side when the closed state is reached. Therefore, according to the smartphone 100, a new handling property can be provided to the user P.
  • the display control unit 25 controls the display units 23 and 24 so that the images captured by the imaging unit 17 are displayed as mirror images. Can be easily performed.
  • the display control unit 25 displays the image captured by the imaging unit 17 when an operation that instructs the display unit 23 or 24 is input by the operation input unit 14. Controls switching of display to 23 or 24. Therefore, according to the smart phone 100, the instruction
  • the smart phone 100 can avoid the complicated operation by the user P, and can control appropriately.
  • imaging apparatus imaging method, and program are not limited to the above-described embodiment, and appropriate modifications and improvements can be made.
  • FIG. 15 shows an example of the minimum configuration of the smartphone 100.
  • the smartphone 100 includes at least a housing, an imaging unit 17, an operation input unit 14, a first instruction unit 15, a second instruction unit 16, and a control unit 26.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

 筐体に設けられて被写体を撮像する撮像部と、撮像操作を入力する操作入力部と、前記撮像操作が入力された場合に、前記撮像部による撮像を実行するように指示する第1指示部と、前記撮像操作以外の契機に基づいて前記撮像部による撮像を実行するように指示する第2指示部と、前記筐体の状態に基づいて、前記第1指示部による指示と、前記第2指示部による指示とのうち、いずれか一方の指示を抑制すべく制御する制御部とを備える撮像装置。

Description

撮像装置、撮像方法及びプログラム

 本発明は、撮像装置、撮像方法及びプログラムに関する。

 カメラ付き携帯電話やカメラ付き携帯情報端末等で、折りたためる形式の携帯撮像機が普及している。

 このような背景に関連する技術としては、様々なものが知られている(例えば、特許文献1参照。)。

 例えば、特許文献1には、被写体を撮影する光学系を備えた撮像手段を有し、キー操作部側本体と表示部側本体とをヒンジ部で折りたためる構造とした折りたたみ式携帯撮像機が記載されている。
 より具体的に説明すると、この折りたたみ式携帯撮像機は、キー操作部側本体と表示部側本体とを相対回転させて所定範囲の開閉角度を形成させた状態で保持された場合には、撮像手段の撮影モードが自動でセルフタイマーモードに設定される。このようにして、この折りたたみ式携帯撮像機によっては、セルフタイマー撮影をしたいときに、キー操作部側本体と表示部側本体とを所定範囲の開閉角度を形成させて保持させるだけで済むので、折りたたみ式携帯撮像機のモードメニューでその都度セルフタイマーモードに設定する手間が省ける。

 また、近年、笑顔を検出してレリーズ動作(シャッターボタンを押さずに撮影する動作)を行うデジタルカメラが普及している。

 このような背景に関連する技術としては、様々なもの が知られている(例えば、特許文献2参照。)。

 例えば、特許文献2には、静止画や動画の撮影が可能なデジタルカメラ等の撮像装置が記載されている。
 より具体的に説明すると、被写体の顔領域のデータと、抽出した特徴点と、設定されたトリガー情報とを検出する。そして、この撮像装置は、検出した情報に基づき、バッファメモリのスルー画像(シャッターを押す前の画像)からレリーズの契機となる被写体の表情又はジェスチャーを検出する制御部を有する。そして、この撮像装置によっては、フェイス・アドバンスド・モードで撮影を行うと、トリガー情報に基づきスルー画像からレリーズの契機となる被写体の表情又はジェスチャーを検出すると本撮影を自動的に実行する。
 従って、この撮像装置によっては、撮影シーンや撮影モードにマッチした被写体の表情又は被写体のジェスチャーを、手間無く、簡単に、撮影することができる。

 また、パソコンや携帯電話機、テレビジョン受像機等の情報処理機器は、液晶ディスプレイ等の表示部と、所定の操作内容や文字を入力するためのキーボード、ボタン、リモコン、マウス又はタッチパネル等の入力部とによって構成されている。

 このような背景に関連する技術としては、様々なものが知られている(例えば、特許文献3参照。)。

 例えば、特許文献3には、ジェスチャーにより操作可能な情報処理機器を用いて行う情報処理方法が記載されている。
 より具体的に説明すると、鏡像化処理部により、形状判定したジェスチャー対象の映像について外形を切り出し、ジェスチャー対象の映像を鏡像化処理する。そして、ジェスチャー表示制御部により、鏡像化処理されたジェスチャー対象を表示する。
 このように、この撮像装置によっては、ジェスチャー対象のカメラ位置に対するジェスチャー開始位置を知ることができ、ユーザは、どのようにジェスチャー機能を行えば、意図したコマンドにつながるかを学習できる。そして、この撮像装置によっては、実際にジェスチャー機能を行えば軌跡が描画されるので、ユーザは、機器側のジェスチャー受け取り状況を確認しつつ所望のコマンド入力までを完遂できる。これにより、この撮像装置によっては、ユーザのジェスチャー入力への不安を解消できる。

特開2004-336514号公報 特開2010-273280号公報 特開2011-118725号公報

 特許文献1に記載の技術によっては、第一筐体に対する第二筐体の開閉角度が45度から135度の範囲内にあるときにのみセルフタイマーモードを設定することにより、撮影のミスを防止することができる。しかしながら、特許文献1に記載の技術は、撮影シーンや撮影モードに応じた被写体の表情又はジェスチャーを検出したときに当該の撮影を行うことができない。

 特許文献2に記載の技術は、被写体が撮像装置から離れた位置にいても撮像できるという利点があるものの、被写体が所定のジェスチャーと似た動きを意図せずにしてしまった場合に撮像してしまう。そのため、特許文献2に記載の技術では、被写体の所定のジェスチャー機能を利用するか否かをユーザの操作によって切り替えており、その操作が煩雑である。

 特許文献3に記載の技術は、ユーザのジェスチャー入力への不安を解消できるものの、被写体の所定のジェスチャー機能を利用するか否かをユーザの操作によって切り替えているために煩雑な操作を行うことになる。

 本発明の目的は、上述した課題を解決する撮像装置、撮像方法及びプログラムを提供することにある。

 上記課題を解決するために、本発明は、筐体と、筐体に設けられて、被写体を撮像する撮像部と、操作を入力する操作入力部と、操作入力部によって撮像操作が入力された場合に、撮像部による撮像を実行するように指示する第1指示部と、撮像操作以外の契機に基づいて、撮像部による撮像を実行するように指示する第2指示部と、筐体の状態に基づいて、第1指示部による指示と、第2指示部による指示とのうち、いずれか一方の指示を抑制すべく制御する制御部とを備える撮像装置を提供する。

 本発明はまた、操作入力部によって撮像操作が入力された場合に、撮像部による撮像を実行するように指示する第1指示段階と、撮像操作以外の契機に基づいて、撮像部による撮像を実行するように指示する第2指示段階と、筐体の状態に基づいて、第1指示段階による指示と、第2指示段階による指示とのうち、いずれか一方の指示を抑制すべく制御する制御段階とを備える撮像方法も提供する。

 本発明はまた、コンピュータを、操作入力部によって撮像操作が入力された場合に、撮像部による撮像を実行するように指示する第1指示部、撮像操作以外の契機に基づいて、撮像部による撮像を実行するように指示する第2指示部、筐体の状態に基づいて、第1指示部による指示と、第2指示部による指示とのうち、いずれか一方の指示を抑制すべく制御する制御部として機能させるプログラムも提供する。

 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、本発明となり得る。

 以上の説明から明らかなように、この発明によっては、ユーザによる煩雑な操作を回避して、適切な撮像制御を行うことができる。

本発明の一実施形態に係るスマートフォン100のブロック構成の一例を示す図である。 スマートフォン100の平面図である。 スマートフォン100の底面図である。 スマートフォン100における一使用状態の外観斜視図である。 スマートフォン100による第1の撮像方法の一例を示す図である。 スマートフォン100による第2の撮像方法の一例を示す図である。 スマートフォン100による第3の撮像方法の一例を示す図である。 スマートフォン100による第4の撮像方法の一例を示す図である。 スマートフォン100による第5の撮像方法の一例を示す図である。 スマートフォン100による第6の撮像方法の一例を示す図である。 スマートフォン100による第7の撮像方法の一例を示す図である。 スマートフォン100による第8の撮像方法の一例を示す図である。 スマートフォン100の制御動作を説明するフローチャートである。 同様に、スマートフォン100の制御動作を説明するフローチャートである。 スマートフォン100の最小構成の一例を示す図である。

 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。

 図1は、本発明の一実施形態に係るスマートフォン100のブロック構成の一例を示す。ここで、スマートフォン100とは、個人用の携帯コンピュータの機能を併せ持った携帯電話である。なお、スマートフォン100は、この発明における「撮像装置」の一例である。

 スマートフォン100は、第1筐体12、第2筐体13、操作入力部14、第1指示部15、第2指示部16、撮像部17、動き検出部18、計時部19、表情検出部20、被写体特定部21、接地検出部22、第1表示部23、第2表示部24、表示制御部25、制御部26を備える。

 第1筐体12は、第1表示部23を備え、第2筐体13は、第1筐体12に対して開閉可能であって、第2表示部24を備える。
 第1表示部23、第2表示部24は、第1筐体12及び第2筐体13の閉状態において外側になる面に備えられている。
 操作入力部14は、第1表示部23に表示されて、ユーザの操作をスマートフォン100に入力する。

 第1指示部15は、操作入力部14によって(ユーザによる)撮像操作が入力された場合に、撮像部17による撮像を実行するように指示する。
 第2指示部16は、上記撮像操作以外の契機に基づいて、撮像部17による撮像を実行するように指示する。
 具体的には、第2指示部16は、動き検出部18によって、被写体の所定の動きを検出した場合に、撮像部17による撮像を実行するように指示する。また、第2指示部16は、計時部19によって所定時間が経過した場合に、撮像部17による撮像を実行するように指示する。更にまた、第2指示部16は、表情検出部20によって、被写体の所定の表情を検出した場合に、撮像部17による撮像を実行するように指示する。第2指示部16は、被写体特定部21によって、所定の被写体を特定した場合にも、撮像部17による撮像を実行するように指示する。

 撮像部17は、第1筐体12及び第2筐体13の、閉状態になったときに外側になる面の一方、および、この閉状態になったときに内側になる面の一方に備えられている。
 動き検出部18は、被写体の動きを検出する。
 計時部19は、経過時間を測定するタイマーである。
 表情検出部20は、被写体の表情を検出する。
 被写体特定部21は、被写体を特定する。
 接地検出部22は、スマートフォン100の接地状態を検出する。
 表示制御部25は、撮像部17によって撮像される画像を第1表示部23または第2表示部24に表示するように制御する。
 具体的には、表示制御部25は、操作入力部14によって、表示先として第1表示部23または第2表示部24を指示する操作が入力された場合に、撮像部17によって撮像される画像の表示部23または24への表示の切り替えを制御する。
 表示制御部25は、第1表示部23及び第2表示部24に、撮像部17によって撮像される画像が鏡像表示されるように制御する。

 制御部26は、第1筐体12及び第2筐体13の開閉状態に基づいて、第1指示部15による指示と、第2指示部16による指示とのうち、いずれか一方の指示を抑制すべく制御する。
 具体的には、制御部26は、第1筐体12及び第2筐体13が所定の角度で開状態にある場合(後述の図4参照)、第2指示部16による指示を抑制しないように制御する。
 また、制御部26は、第1筐体12及び第2筐体13の所定の角度での開状態において、接地検出部22により第1筐体12及び第2筐体13の所定の接地状態を検出した場合に、第2指示部16による指示を抑制しないように制御する。
 また、制御部26は、第1筐体12及び第2筐体13の閉状態において、第2指示部16による指示を抑制するように制御する。
 更にまた、制御部26は、ユーザの入力指示などにより第2指示部16による指示を抑制しないように制御した場合には、第1指示部15による指示を抑制するように制御する。

 図2は、スマートフォン100の平面図である。図3は、スマートフォン100の底面図である。図4は、スマートフォン100における一使用状態の外観斜視図である。
 図2、図3に示すように、スマートフォン100は、第1筐体12の長辺の内側面と第2筐体13の長辺の内側面との間にヒンジ部材31を取り付けている。そのため、第1筐体12と第2筐体13とは、それぞれの長手方向を軸として回動可能である。
 ヒンジ部材31は、角度センサ32を内蔵している。角度センサ32は、第1筐体12と第2筐体13とが開いているか、その場合に所定の角度で開いているか、或いは、閉じているかを検出して、電気信号を制御部26に与える。
 なお、二つの筐体12、13の角度の検出には、角度センサ32に代えて、例えば、二つの筐体12、13に設置された距離センサを用いてもよい。また、二つの筐体12、13の角度の検出には、複数の突起部と凹部を設けてもよく、任意の検出方法を適用することができる。

 第1筐体12には、第1表示部23の近傍に、本実施形態の撮像部17としての第1カメラ41が取り付けられている。また、第1筐体12には、第1カメラ41の側部にマイク33が取り付けられている。更に、第1筐体12には、長辺側の外側面の互いに離れた位置に、本実施形態の接地検出部22としての第1接地センサ34、第2接地センサ35がそれぞれ取り付けられている。
 第2筐体13には、第2表示部24の裏面に、本実施形態の撮像部17としての第2カメラ42が取り付けられている。また、第2筐体13には、長辺側の外側面の互いに離れた位置に、本発明の接地検出部22としての第3接地センサ36、第4接地センサ37がそれぞれ取り付けられている。
 四つの接地センサ34、35、36、37は、圧力センサであり、それらのうちの少なくとも一方の筐体12または13側の二つ(2点)が、例えば机等に接している場合、スマートフォン100が据え置かれていることを検出する。逆に、四つの接地センサ34、35、36、37は、机等に接していない場合、スマートフォン100が据え置かれていることを検出しない。各接地センサ34、35、36、37は、検出した電気信号を制御部26に与える。
 なお、机等に接しているか否かを検出する手段としては、接地センサに代えて、加速度センサによる姿勢の検出でもよく、加速度センサを2点の接地センサと組み合わせてもよい。
 或いは、机等に接しているか否かを検出する手段としては、各筐体12、13の長辺側の2辺のそれぞれに帯状の圧力センサを設けて所定の面積の圧力を検出したら接地と判定するようにしてもよい。さらに、机等に接しているか否かを検出する手段としては、圧力センサにおいて所定の箇所の組み合わせの圧力を検出したら接地と判定する等の任意の検出方法を適用することができる。

 第1筐体12には、長辺側の外側面における、例えば、中央部に第1磁力センサ38が取り付けられており、第2筐体13には、第1磁力センサ38に対向する長辺側の外側面における中央部に、第2磁力センサ39が取り付けられている。
 二つの磁力センサ38、39は、二つの筐体12、13の開閉を検出する。具体的には、二つの磁力センサ38、39は、所定の磁力を検出したら、二つの筐体12、13の閉状態を判定して制御部26に電気信号を与える。これに反して、二つの磁力センサ38、39は、所定の磁力を検出しない場合、二つの筐体12、13の開状態を判定して制御部26に電気信号を与える。
 なお、これら二つの磁力センサ38、39は、必ずしも必要ではなく、角度センサ32の補助的な役目を担う。

 図4に示すように、スマートフォン100は、例えば、第1筐体12に対して所定の角度で第2筐体13を開き、この状態で机等の上面に載置して使用される。
 この場合、角度センサ32は、二つの筐体12、13の所定の角度での開状態を検出して、制御部26に当該開状態の電気信号が与えられる。そして、四つの接地センサ34、35、36、37は、いずれも机等に接していることにより、接地状態にあることの電気信号を制御部26に与える。

 図5は、スマートフォン100による第1の撮像方法の一例を示す。図6は、スマートフォン100による第2の撮像方法の一例を示す。図7は、スマートフォン100による第3の撮像方法の一例を示す。図8は、スマートフォン100による第4の撮像方法の一例を示す。図9は、スマートフォン100による第5の撮像方法の一例を示す。図10は、スマートフォン100による第6の撮像方法の一例を示す。図11は、スマートフォン100による第7の撮像方法の一例を示す。図12は、スマートフォン100による第8の撮像方法の一例を示す。
 また、図13及び図14は、スマートフォン100の制御動作を説明するフローチャートである。

 図5に示すように、第1の撮像方法は、ユーザPが二つの筐体12、13を折り畳んで両手で持っている場合である。
 二つの筐体12、13は、折り畳まれているために、角度センサ32は、二つの筐体12、13の開状態を検出しない。また、四つの接地センサ34、35、36、37は、置かれていることを検出しない。
 すなわち、図13に示すように、ステップS101において、制御部26によって各筐体12、13が開いていると判定されない。そのため、ステップS101からステップS102に移行して、ステップS102を行う。
 図14に示すように、ステップS102において、制御部26によって各筐体12、13は置かれていると判定されない。そのため、ステップS102からステップS103に移行してステップS103を行う。
 そして、ステップS103において、制御部26によって、第2指示部16による指示を抑制しない設定になっていない場合、優先モード(選択される撮影モード)は第1の撮像方法であることを判定する。そのため、ステップS103からステップS104に移行してステップS104を行う。
 ステップS104において、制御部26は、第1指示部15をオンし、第2指示部16をオフする。
 従って、第1の撮像方法において、スマートフォン100は、ユーザPの操作入力部14のシャッター操作に応じて、第1カメラ41による手持ちの風景撮影を指示する。このとき、スマートフォン100は、第2筐体13の第2表示部24に、撮像部17が捕えた画像を表示する。

 図6に示すように、第2の撮像方法は、ユーザPによって二つの筐体12、13が(所定の角度で)開かれ、机の上に置かれている場合である。
 二つの筐体12、13は、開かれているために、角度センサ32は、二つの筐体12、13の開状態を検出している。また、四つの接地センサ34、35、36、37は、置かれていることを検出している。
 すなわち、図13に示すように、ステップS101において、制御部26によって各筐体12、13が開いていると判定される。そのため、ステップS101からステップS105に移行してステップS105を行う。
 ステップS105において、制御部26によって、各筐体12、13は置かれていると判定される。そのため、ステップS105からステップS106に移行してステップS106を行う。
 そして、ステップS106において、制御部26によって、二つの筐体12、13が所定の角度での開状態であるため、優先モードは第2の撮像方法であることを判定する。そのため、ステップS106からステップS107に移行してステップS107を行う。
 ステップS107において、制御部26は、第1指示部15をオフし、第2指示部16をオンする。
 従って、第2の撮像方法において、スマートフォン100は、第1表示部23を鏡像表示として第1表示部23に第1カメラ41の捕えた画像を表示し、手で持たない固定状態の自分撮りを指示する。そして、スマートフォン100は、第1カメラ41による被写体の動きに応じたシャッター操作を指示する。

 図7に示すように、第3の撮像方法は、ユーザPによって二つの筐体12、13を閉じて、片手で持っている場合である。
 二つの筐体12、13は、閉じているために、角度センサ32は、二つの筐体12、13の閉状態を検出している。また、四つの接地センサ34、35、36、37は、置かれていることを検出していない。
 すなわち、図13に示すように、ステップS101において、制御部26によって各筐体12、13が開いていると判定されない。そのため、ステップS101からステップS102に移行してステップS102を行う。
 図14に示すように、ステップS102において、制御部26によって各筐体12、13は置かれていると判定されない。そのため、ステップS102からステップS103に移行してステップS103を行う。
 ステップS103において、制御部26によって、第2指示部16による指示を抑制しない設定になっている場合、優先モードは第3の撮像方法であることを判定する。そのため、ステップS103からステップS108に移行してステップS108を行う。
 ステップS108において、制御部26は、第1指示部15をオフし、第2指示部16をオンする。
 従って、第3の撮像方法において、スマートフォン100は、第1表示部23を鏡像表示として第1表示部23に第1カメラ41の捕えた画像を表示し、手で持っている自分撮りで、被写体の動きに応じたシャッター操作を指示する。

 図8に示すように、第4の撮像方法は、ユーザPによって二つの筐体12、13が開かれ、第1筐体12を下にして机に置き、かつ、両手で持って自分に向けている場合である。
 二つの筐体12、13は、開いているために、角度センサ32は、二つの筐体12、13の開状態を検出している。また、第1筐体12の二つの接地センサ34、35は、接地しているので、置かれていることを検出している。
 すなわち、図13に示すように、ステップS101において、制御部26によって各筐体12、13が開いていると判定される。そのため、ステップS101からステップS105に移行してステップS105を行う。
 ステップS105において、各筐体12、13は置かれているために、ステップS105からステップS106に移行してステップS106を行う。
 ステップS106において、制御部26によって、二つの筐体12、13が所定の角度での開状態ではないため、優先モードは、第4の撮像方法であることを判定する。そのため、ステップS106からステップS109に移行してステップS109を行う。
 ステップS109において、制御部26は、第1指示部15をオンし、第2指示部16をオフする。
 従って、第4の撮像方法において、スマートフォン100は、固定した風景撮影であって、第2カメラ42によるユーザPのシャッター操作を指示する。このとき、スマートフォン100は、第2表示部24に第2カメラ42の捕えた画像を表示し、第1表示部23に操作画面を表示する。

 図9に示すように、第5の撮像方法は、ユーザPによって二つの筐体12、13が閉じられ、机等に置かれている場合である。
 二つの筐体12、13は、閉じているために、角度センサ32は、二つの筐体12、13の閉状態を検出している。また、四つの接地センサ34、35、36、37は接地しているので、置かれていることを検出している。
 すなわち、図13に示すように、ステップS101において、制御部26によって各筐体12、13が開いていると判定されない。そのため、ステップS101からステップS102に移行する。

 図14に示すように、ステップS102において、各筐体12、13は置かれているために、ステップS102からステップS110に移行してステップS110を行う。
 ステップS110において、制御部26によって、第2指示部16による指示を抑制しない設定になっていない場合、優先モードは第5の撮像方法であることを判定する。そのため、ステップS110からステップS111に移行してステップS111を行う。
 ステップS111において、制御部26は、第1指示部15をオンし、第2指示部16をオフする。
 従って、第5の撮像方法において、スマートフォン100は、固定状態で第1カメラ41を用いる風景撮影であって、ユーザPのシャッター操作を指示する。このとき、スマートフォン100は、第2表示部24に第1カメラ41の捕えた画像を表示する。

 図10に示すように、第6の撮像方法は、二つの筐体12、13を閉じて、机等に置いている場合である。
 二つの筐体12、13は、閉じているために、角度センサ32は、二つの筐体12、13の閉状態を検出している。また、二つの接地センサ36、37は接地しているので、置かれていることを検出している。
 すなわち、図13に示すように、ステップS101において、制御部26によって各筐体12、13は開いていると判定されない。そのため、ステップS101からステップS102に移行してステップS102を行う。
 図14に示すように、ステップS102において、各筐体12、13は置かれているために、ステップS102からステップS110に移行してステップS110を行う。
 ステップS110において、制御部26によって、第2指示部16による指示を抑制しない設定になっている場合、優先モードは第6の撮像方法であることを判定する。そのため、ステップS110からステップS112に移行してステップS112を行う。
 ステップS112において、制御部26は、第1指示部15をオフし、第2指示部16をオンする。従って、第6の撮像方法において、スマートフォン100は、机等に置いた魚眼撮影を、第1カメラ41による被写体の動きに応じたタイマー撮影のシャッター操作で行うことを指示する。

 図11に示すように、第7の撮像方法は、二つの筐体12、13を開いて、片手で持っている場合である。
 角度センサ32は、二つの筐体12、13の開状態を検出している。また、四つの接地センサ34、35、36、37は、置かれていることを検出していない。
 すなわち、図13に示すように、ステップS101において、制御部26によって各筐体12、13は開いていると判定される。そのため、ステップS101からステップS105に移行してステップS105を行う。
 ステップS105において、各筐体12、13は置かれていないために、ステップS105からステップS113に移行してステップS113を行う。
 ステップS113において、制御部26によって、二つの筐体12、13が所定の角度での開状態ではないため、優先モードは第7の撮像方法であることを判定する。そのため、ステップS113からステップS114に移行してステップS114を行う。
 ステップS114において、制御部26は、第1指示部15をオンし、第2指示部16をオフする。
 従って、第7の撮像方法において、スマートフォン100は、第1カメラ41による片手持ちの自分撮りであって、ユーザPによるシャター操作を指示する。このとき、スマートフォン100は、第1表示部23を鏡像表示として第1カメラ41の捕えた画像を表示し、第2表示部24に操作画面を表示する。

 図12に示すように、第8の撮像方法は、二つの筐体12、13を開いて、両手で持っている場合である。
 角度センサ32は、二つの筐体12、13の開状態を検出している。また、四つの接地センサ34、35、36、37は、置かれていることを検出していない。
 すなわち、図13に示すように、ステップS101において、制御部26によって各筐体12、13は開いていると判定される。そのため、ステップS101からステップS105に移行してステップS105を行う。
 ステップS105において、各筐体12、13は置かれていないために、ステップS105からステップS113に移行してステップS113を行う。
 ステップS113において、制御部26によって、二つの筐体12、13が所定の角度での開状態であるため、優先モードは第8の撮像方法であることを判定する。そのため、ステップS113からステップS115に移行してステップS115を行う。
 ステップS115において、制御部26は、第1指示部15をオフし、第2指示部16をオンする。
 従って、第8の撮像方法において、スマートフォン100は、手持ちの人物撮影であって、被写体の動きに応じたシャター操作を指示する。このとき、スマートフォン100は、第2表示部24に第1カメラ41の捕えた画像を表示する。この第8の撮像方法は、例えば、群衆の中で、群衆の頭越しに被写体を撮影する場合に好適である。

 以上説明したように、本実施の形態のスマートフォン100によれば、制御部26は、各筐体12、13の状態に基づいて、第1指示部15による指示を抑制するか否か、及び、第2指示部16による指示を抑制するか否かを制御する。従って、スマートフォン100によれば、ユーザPによる煩雑な操作を回避して適切に制御することができる。

 また、本実施の形態のスマートフォン100によれば、制御部26は、各筐体12、13の開閉状態に基づいて第2指示部16による指示を抑制するか否かを制御するために、ユーザPの要望に合う指示を行うことができる。

 そして、本実施の形態のスマートフォン100によれば、制御部26は、各筐体12、13が所定の角度で開状態の場合に、第2指示部16による指示を抑制しないように制御するために、ユーザPの要望に合う指示を行うことができる。

 そしてまた、本実施の形態のスマートフォン100によれば、制御部26は、各筐体12、13が所定の角度での開状態において接地検出部22により各筐体12、13の所定の接地状態を検出した場合に、第2指示部16による指示を抑制しないように制御する。

 従って、スマートフォン100によれば、ユーザPによる煩雑な操作を確実に回避できる。

 そしてさらに、本実施の形態のスマートフォン100によれば、制御部26は、各筐体12、13の閉状態の場合に第2指示部16による指示を抑制するように制御するために、ユーザPの要望に合う指示を行うことができる。

 加えて、本実施の形態のスマートフォン100によれば、制御部26は、ユーザの入力指示などにより第2指示部16による指示を抑制しないように制御した場合に第1指示部15による指示を抑制するように制御するために、ユーザPの要望に合う指示を行うことができる。

 また、本実施の形態のスマートフォン100によれば、第2指示部16は、動き検出部18によって、被写体の所定の動きを検出した場合に、撮像部17による撮像を実行するように指示するために、シャッターチャンスを逃さないようにすることができる。

 そして、本実施の形態のスマートフォン100によれば、第2指示部16は、計時部19によって所定時間が経過した場合に撮像部17による撮像を実行するように指示するために、タイマー撮影を確実に行うことができる。

 そしてまた、本実施の形態のスマートフォン100によれば、第2指示部16は、表情検出部20によって、被写体の所定の表情を検出した場合に、撮像部17による撮像を実行するように指示するために、ジェスチャー撮影を確実に行うことができる。

 さらに、本実施の形態のスマートフォン100によれば、第2指示部16は、被写体特定部21によって所定の被写体を特定した場合に撮像部17による撮像を実行するように指示するために、特定の被写体を選択した撮影を行うことができる。

 さらにまた、本実施の形態のスマートフォン100によれば、開閉可能な二つの筐体12、13のそれぞれに、閉状態になったときに外側になる面に各表示部23、24を備え、また、撮像部17は、上記外側になる面の一方、および、上記閉状態になったときに内側になる面の一方に備えられている。従って、スマートフォン100によれば、ユーザPに対して新しい取り扱い性を提供できる。

 加えて、本実施の形態のスマートフォン100によれば、表示制御部25は、各表示部23、24に、撮像部17によって撮像される画像が鏡像表示されるように制御するために、自分撮りを容易に行うことができる。

 また、本実施の形態のスマートフォン100によれば、表示制御部25は、操作入力部14によって表示部23または24を指示する操作が入力された場合に撮像部17によって撮像される画像の表示部23または24への表示の切り替えを制御する。従って、スマートフォン100によれば、ユーザPの要望に合う指示を行うことができる。

 そして、本実施の形態の撮像方法によれば、スマートフォン100によって、ユーザPによる煩雑な操作を回避して適切に制御することができる。

 さらに、本実施の形態のプログラムによれば、ユーザPによる煩雑な操作を回避して適切に制御することができる。

 なお、撮像装置、撮像方法及びプログラムは、前述した一実施形態に限定するものでなく、適宜な変形や改良等が可能である。

 図15は、スマートフォン100の最小構成の一例を示す。スマートフォン100は、筐体、撮像部17、操作入力部14と、第1指示部15、第2指示部16及び制御部26を少なくとも備える。
この出願は、2013年3月6日に出願された日本出願特願2013-043821号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 この発明によっては、ユーザによる煩雑な操作を回避して、適切な撮像制御を行うことができる。

12 第1筐体
13 第2筐体
14 操作入力部
15 第1指示部
16 第2指示部
17 撮像部
18 動き検出部
19 計時部
20 表情検出部
21 被写体特定部
22 接地検出部
23 第1表示部
24 第2表示部
25 表示制御部
26 制御部
100 スマートフォン

Claims (15)


  1.  筐体と、

     前記筐体に設けられて、被写体を撮像する撮像部と、

     撮像操作を入力する操作入力部と、

     前記操作入力部によって撮像操作が入力された場合に、前記撮像部による撮像を実行するように指示する第1指示部と、

     前記撮像操作以外の契機に基づいて、前記撮像部による撮像を実行するように指示する第2指示部と、

     前記筐体の状態に基づいて、前記第1指示部による指示と、前記第2指示部による指示とのうち、いずれか一方の指示を抑制すべく制御する制御部と

     を備える撮像装置。

  2.  前記筐体は、開閉可能な少なくとも二つを有し、

     前記制御部は、前記筐体の状態としての開閉状態に基づいて、前記第2指示部による指示を抑制するか否かを制御する

     請求項1に記載の撮像装置。

  3.  前記制御部は、前記筐体の状態として、所定の角度で開状態にある場合に、前記第2指示部による指示を抑制しないように制御する

     請求項2に記載の撮像装置。

  4.  前記撮像装置の接地状態を検出する接地検出部

     を更に備え、

     前記制御部は、前記筐体の状態として、前記所定の角度で開状態にあり、かつ、前記接地検出部により前記筐体の所定の接地状態を検出した場合に、前記第2指示部による指示を抑制しないように制御する

     請求項3に記載の撮像装置。

  5.  前記制御部は、前記筐体の状態として、閉状態にある場合に、前記第2指示部による指示を抑制するように制御する

     請求項2に記載の撮像装置。

  6.  前記制御部は、前記第2指示部による指示を抑制しないように制御した場合には、前記第1指示部による指示を抑制するように制御する

     請求項1から4のいずれか一項に記載の撮像装置。

  7.  被写体の動きを検出する動き検出部

     を更に備え、

     前記第2指示部は、前記動き検出部によって、前記被写体の所定の動きを検出した場合に、前記撮像部による撮像を実行するように指示する

     請求項1~4および6のいずれか一項に記載の撮像装置。

  8.  計時部

     を更に備え、

     前記第2指示部は、前記計時部によって所定時間が経過したことを検出した場合に、前記撮像部による撮像を実行するように指示する

     請求項1~4、6、および7のいずれか一項に記載の撮像装置。

  9.  被写体の表情を検出する表情検出部

     を更に備え、

     前記第2指示部は、前記表情検出部によって、前記被写体の所定の表情を検出した場合に、前記撮像部による撮像を実行するように指示する

     請求項1~4、および、6~8のいずれか一項に記載の撮像装置。

  10.  被写体を特定する被写体特定部

     を更に備え、

     前記第2指示部は、前記被写体特定部によって、所定の前記被写体を特定した場合に、前記撮像部による撮像を実行するように指示する

     請求項1~4、および、6~9のいずれか一項に記載の撮像装置。

  11.  開閉可能な少なくとも二つの筐体を含み、前記筐体のそれぞれには、前記筐体が閉状態になったときに外側になる面に表示部を備え、

     前記撮像部は、前記外側になる面のいずれか一方、および、前記閉状態になったときに内側になる面のいずれか一方に備えられる

     請求項1から10のいずれか一項に記載の撮像装置。

  12.  前記撮像部によって撮像される画像を前記表示部に表示するように制御する表示制御部

     を更に備え、

     前記表示制御部は、前記表示部に、前記撮像部によって撮像される画像が鏡像表示されるように制御する

     請求項11に記載の撮像装置。

  13.  前記表示制御部は、前記操作入力部によって前記表示部のいずれかを指示する操作が入力された場合に、前記撮像部によって撮像される前記画像の前記表示部への表示の切り替えを制御する

     請求項12に記載の撮像装置。

  14.  操作入力部によって撮像操作が入力された場合に、撮像部による撮像を実行するように指示する第1指示段階と、

     前記撮像操作以外の契機に基づいて、前記撮像部による撮像を実行するように指示する第2指示段階と、

     筐体の状態に基づいて、前記第1指示段階による指示と、前記第2指示段階による指示とのうち、いずれか一方の指示を抑制すべく制御する制御段階と

     を備える撮像方法。

  15.  コンピュータを、

     操作入力部によって撮像操作が入力された場合に、撮像部による撮像を実行するように指示する第1指示部、

     前記撮像操作以外の契機に基づいて、前記撮像部による撮像を実行するように指示する第2指示部、

     筐体の状態に基づいて、前記第1指示部による指示と、前記第2指示部による指示とのうち、いずれか一方の指示を抑制すべく制御する制御部

     として機能させるプログラム。
PCT/JP2014/052728 2013-03-06 2014-02-06 撮像装置、撮像方法及びプログラム WO2014136521A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480012108.0A CN105103536B (zh) 2013-03-06 2014-02-06 成像设备和成像方法
JP2015504209A JPWO2014136521A1 (ja) 2013-03-06 2014-02-06 撮像装置、撮像方法及びプログラム
US14/768,328 US9742989B2 (en) 2013-03-06 2014-02-06 Imaging device, imaging method and storage medium for controlling execution of imaging
EP14759623.3A EP2966854B1 (en) 2013-03-06 2014-02-06 Imaging device, imaging method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013043821 2013-03-06
JP2013-043821 2013-03-06

Publications (1)

Publication Number Publication Date
WO2014136521A1 true WO2014136521A1 (ja) 2014-09-12

Family

ID=51491046

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/052728 WO2014136521A1 (ja) 2013-03-06 2014-02-06 撮像装置、撮像方法及びプログラム

Country Status (5)

Country Link
US (1) US9742989B2 (ja)
EP (1) EP2966854B1 (ja)
JP (1) JPWO2014136521A1 (ja)
CN (1) CN105103536B (ja)
WO (1) WO2014136521A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105120180A (zh) * 2015-09-24 2015-12-02 广东欧珀移动通信有限公司 一种基于后置摄像头进行自拍的方法、装置及移动终端
WO2017149778A1 (ja) * 2016-03-04 2017-09-08 株式会社オプティム 鏡、画像表示方法及びプログラム
CN110785996A (zh) * 2017-06-30 2020-02-11 微软技术许可有限责任公司 具有多个显示器的设备中的相机资源的动态控制
WO2020184049A1 (ja) * 2019-03-13 2020-09-17 ソニー株式会社 撮像装置および表情検出方法
WO2021162396A1 (ko) * 2020-02-10 2021-08-19 삼성전자 주식회사 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8907906B2 (en) 2011-09-27 2014-12-09 Z124 Secondary single screen mode deactivation
CN103888683B (zh) * 2014-03-24 2015-05-27 深圳市中兴移动通信有限公司 移动终端及其拍摄方法
KR20150126193A (ko) * 2014-05-02 2015-11-11 삼성전자주식회사 복수의 디스플레이를 이용한 컨텐츠 출력 방법 및 그 장치
US9594970B2 (en) * 2014-08-28 2017-03-14 Lenovo (Singapore) Pte. Ltd. Device with camera at or near junction of first panel and second panel
US10812713B2 (en) * 2016-10-25 2020-10-20 Hewlett-Packard Development Company, L.P. Selecting camera modes for electronic devices having multiple display panels
WO2019241920A1 (zh) * 2018-06-20 2019-12-26 优视科技新加坡有限公司 一种终端控制方法和装置
CN110896445A (zh) * 2018-09-13 2020-03-20 网易(杭州)网络有限公司 触发拍照操作的方法、装置,存储介质和电子装置
US11561587B2 (en) * 2019-10-01 2023-01-24 Microsoft Technology Licensing, Llc Camera and flashlight operation in hinged device
US11416130B2 (en) 2019-10-01 2022-08-16 Microsoft Technology Licensing, Llc Moving applications on multi-screen computing device
US11201962B2 (en) 2019-10-01 2021-12-14 Microsoft Technology Licensing, Llc Calling on a multi-display device
KR20210041271A (ko) * 2019-10-07 2021-04-15 삼성전자주식회사 전자 장치에서 카메라의 조명을 제공하는 방법 및 장치
GB2596044A (en) * 2020-04-10 2021-12-22 Henning Victor Controlling a portable electronic device with camera
US11500454B2 (en) * 2020-12-29 2022-11-15 Snap Inc. Body UI for augmented reality components
KR20230124703A (ko) 2020-12-29 2023-08-25 스냅 인코포레이티드 증강 현실 컴포넌트들을 위한 신체 ui

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187182A (ja) * 2002-12-06 2004-07-02 Hitachi Ltd 携帯端末装置
JP2004336514A (ja) 2003-05-09 2004-11-25 Fuji Photo Film Co Ltd 折りたたみ式携帯撮像機
JP2008283502A (ja) * 2007-05-11 2008-11-20 Casio Comput Co Ltd デジタルカメラ、及び撮影制御方法、撮影制御プログラム
JP2010022022A (ja) * 2009-09-03 2010-01-28 Casio Comput Co Ltd 携帯電子機器、携帯電子機器の動作制御方法及びプログラム
JP2010074735A (ja) * 2008-09-22 2010-04-02 Sony Corp 操作入力装置、操作入力方法、プログラム
JP2010153954A (ja) * 2008-12-24 2010-07-08 Sanyo Electric Co Ltd 撮像装置および笑顔記録プログラム
JP2010273280A (ja) 2009-05-25 2010-12-02 Nikon Corp 撮像装置
JP2011118725A (ja) 2009-12-04 2011-06-16 Sharp Corp 情報処理機器、情報処理方法および情報処理プログラム
JP2012115519A (ja) * 2010-12-01 2012-06-21 Konami Digital Entertainment Co Ltd 情報処理装置、情報処理装置の制御方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046287B2 (en) * 1999-12-24 2006-05-16 Nec Corporation Portable information terminal equipped with camera
JP3914855B2 (ja) * 2002-10-15 2007-05-16 パナソニック モバイルコミュニケーションズ株式会社 携帯端末
JP4188810B2 (ja) * 2003-11-26 2008-12-03 富士フイルム株式会社 カメラ付携帯機器
KR100677303B1 (ko) * 2003-12-26 2007-02-05 엘지전자 주식회사 휴대 단말기
JP4789825B2 (ja) * 2007-02-20 2011-10-12 キヤノン株式会社 撮像装置及びその制御方法
JP4260215B1 (ja) * 2007-08-29 2009-04-30 任天堂株式会社 撮像装置
JP5101544B2 (ja) * 2009-02-13 2012-12-19 富士通株式会社 撮影装置、撮影方法、撮影プログラム及び携帯端末装置
US20100302393A1 (en) * 2009-05-26 2010-12-02 Sony Ericsson Mobile Communications Ab Self-portrait assistance in image capturing devices
CN101742114A (zh) * 2009-12-31 2010-06-16 上海量科电子科技有限公司 通过手势识别来决定拍摄操作的方法及装置
WO2012111793A1 (ja) 2011-02-18 2012-08-23 Necカシオモバイルコミュニケーションズ株式会社 ジャイロセンサ付き携帯電子機器、そのジャイロセンサ補正方法及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187182A (ja) * 2002-12-06 2004-07-02 Hitachi Ltd 携帯端末装置
JP2004336514A (ja) 2003-05-09 2004-11-25 Fuji Photo Film Co Ltd 折りたたみ式携帯撮像機
JP2008283502A (ja) * 2007-05-11 2008-11-20 Casio Comput Co Ltd デジタルカメラ、及び撮影制御方法、撮影制御プログラム
JP2010074735A (ja) * 2008-09-22 2010-04-02 Sony Corp 操作入力装置、操作入力方法、プログラム
JP2010153954A (ja) * 2008-12-24 2010-07-08 Sanyo Electric Co Ltd 撮像装置および笑顔記録プログラム
JP2010273280A (ja) 2009-05-25 2010-12-02 Nikon Corp 撮像装置
JP2010022022A (ja) * 2009-09-03 2010-01-28 Casio Comput Co Ltd 携帯電子機器、携帯電子機器の動作制御方法及びプログラム
JP2011118725A (ja) 2009-12-04 2011-06-16 Sharp Corp 情報処理機器、情報処理方法および情報処理プログラム
JP2012115519A (ja) * 2010-12-01 2012-06-21 Konami Digital Entertainment Co Ltd 情報処理装置、情報処理装置の制御方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2966854A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105120180A (zh) * 2015-09-24 2015-12-02 广东欧珀移动通信有限公司 一种基于后置摄像头进行自拍的方法、装置及移动终端
WO2017149778A1 (ja) * 2016-03-04 2017-09-08 株式会社オプティム 鏡、画像表示方法及びプログラム
JPWO2017149778A1 (ja) * 2016-03-04 2018-10-04 株式会社オプティム 鏡、画像表示方法及びプログラム
CN110785996A (zh) * 2017-06-30 2020-02-11 微软技术许可有限责任公司 具有多个显示器的设备中的相机资源的动态控制
CN110785996B (zh) * 2017-06-30 2021-01-12 微软技术许可有限责任公司 具有多个显示器的设备中的相机资源的动态控制
CN112711300A (zh) * 2017-06-30 2021-04-27 微软技术许可有限责任公司 具有多个显示器的设备中的相机资源的动态控制
WO2020184049A1 (ja) * 2019-03-13 2020-09-17 ソニー株式会社 撮像装置および表情検出方法
WO2021162396A1 (ko) * 2020-02-10 2021-08-19 삼성전자 주식회사 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치

Also Published As

Publication number Publication date
US9742989B2 (en) 2017-08-22
US20150365590A1 (en) 2015-12-17
CN105103536A (zh) 2015-11-25
CN105103536B (zh) 2018-10-12
EP2966854B1 (en) 2020-08-26
JPWO2014136521A1 (ja) 2017-02-09
EP2966854A4 (en) 2016-10-26
EP2966854A1 (en) 2016-01-13

Similar Documents

Publication Publication Date Title
WO2014136521A1 (ja) 撮像装置、撮像方法及びプログラム
JP6205067B2 (ja) パン・チルト操作装置、カメラシステム、パン・チルト操作用プログラム及びパン・チルト操作方法
JP6205071B2 (ja) 撮像制御装置、撮像制御方法、カメラシステム及びプログラム
CN107743189B (zh) 显示控制装置和显示控制方法
KR101751347B1 (ko) 이동 단말기 및 이의 제어방법
US20150109475A1 (en) Mobile electronic device with a rotatable camera
WO2015115173A1 (ja) 電子機器
WO2016038971A1 (ja) 撮像制御装置、撮像制御方法、カメラ、カメラシステム及びプログラム
US10158798B2 (en) Imaging apparatus and method of controlling the same
KR20110133698A (ko) 휴대용 단말기에서 카메라 기능 운용 방법 및 장치
CN110163833B (zh) 确定刀闸的开合状态的方法和装置
JP2013013063A (ja) 撮像装置及び撮像システム
KR20180041366A (ko) 이동단말기 및 그 제어방법
JP2017126980A (ja) 情報処理装置、撮像装置、表示装置、情報処理方法、撮像装置の制御方法、表示装置の制御方法、情報処理プログラム、撮像装置の制御プログラム、および表示装置の制御プログラム
WO2017018043A1 (ja) 電子機器、電子機器の動作方法及び制御プログラム
US9742987B2 (en) Image pickup display apparatus, image pickup display method, and recording medium
JP6205068B2 (ja) 撮像装置の操作装置、操作方法、及びプログラム
JP6374535B2 (ja) 操作装置、追尾システム、操作方法、及びプログラム
JP6354190B2 (ja) 電子機器、撮像装置、プログラム、及び電子機器システム
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP6123562B2 (ja) 撮像装置
KR20180068508A (ko) 손동작 인식을 이용한 촬영용 드론 시스템
JP7113255B2 (ja) 電子機器、画像表示方法、プログラム、および画像撮影システム
WO2020174911A1 (ja) 画像表示装置、画像表示方法、及びプログラム
JP2015192362A (ja) 画像再生装置,画像再生方法およびその制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480012108.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14759623

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015504209

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2014759623

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14768328

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE