WO2011052506A1 - 携帯撮像装置 - Google Patents

携帯撮像装置 Download PDF

Info

Publication number
WO2011052506A1
WO2011052506A1 PCT/JP2010/068710 JP2010068710W WO2011052506A1 WO 2011052506 A1 WO2011052506 A1 WO 2011052506A1 JP 2010068710 W JP2010068710 W JP 2010068710W WO 2011052506 A1 WO2011052506 A1 WO 2011052506A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
projection
imaging
phone device
Prior art date
Application number
PCT/JP2010/068710
Other languages
English (en)
French (fr)
Inventor
上野 泰弘
康 北村
政継 中村
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US13/504,266 priority Critical patent/US9170472B2/en
Publication of WO2011052506A1 publication Critical patent/WO2011052506A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0279Improving the user comfort or ergonomics

Definitions

  • the present invention relates to a portable imaging device having an image capturing function for projecting an image on a screen or a wall surface and a photographing function for capturing an image.
  • a digital camera, a digital video camera, etc. as a portable imaging device for taking an image.
  • a device for projecting an image on a wall surface or a screen there is a so-called projector.
  • This projector is mainly a so-called stationary apparatus that is supplied with power from a commercial power source and is used in a fixed state.
  • This stationary projector projects an image on a fixed wall or screen in a fixed state.
  • portable projectors that are small and easy to carry have been proposed.
  • Patent Document 1 projects an image formed on a light image forming element and an imaging device that captures a subject image and outputs an image signal as a portable electronic device having an image capturing function and a projector function.
  • a projector device an image change detection unit that detects a change in the image signal, an instruction unit that gives an instruction regarding the operation of the projector device in accordance with a region in which a change in the image signal is detected in a shooting range of the imaging device, and an imaging
  • a display device capable of displaying an image captured by the device; and display control means for controlling display contents to be displayed on the display device and displaying a display corresponding to the instruction on the display device.
  • a portable electronic device is described.
  • Patent Document 2 describes a portable terminal device that projects an image on a touch panel or a key button by a projector.
  • the portable terminal device described in Patent Literature 2 projects characters, numbers, symbols, and the like assigned in the input mode to each part of the touch panel.
  • the portable imaging device may be fixed with a tripod or the like, and the subject may be photographed as a subject using a release timer, a remote controller, or the like.
  • the state of the angle background can be adjusted to some extent as he / she desires. I can't confirm. Therefore, the positional relationship between the background and itself may not be taken at a desired position and an intended angle. Therefore, in order to take a desired image, it is necessary to repeat the act of taking an image and the act of confirming the image and adjust the standing position, the shooting setting, and the like.
  • the present invention is a portable imaging device, an imaging unit, a projection unit that projects an image, and a storage unit that stores an image captured by the imaging unit.
  • the projection unit includes a first image captured by the imaging unit, a second image related to the first image, and a third image obtained by combining the first image and the second image. Is projected as a projection image onto an area different from the imaging area of the imaging unit, and the storage unit projects the first image when the projection image is projected, or the projection image after the projection image is projected. A first image is stored.
  • the projection unit projects the projection image onto a region where a person who is a subject photographed by the imaging unit can visually recognize the projection image from the imaging region.
  • a display unit that displays the same image as the image projected by the projection unit; and an operation unit that receives an operation for designating a position in the image displayed on the display unit.
  • the image is preferably an image showing a specific position designated by an operation input to the operation unit.
  • the image indicating the specific position is an image suggesting the position of a person who is a subject at the time of imaging.
  • the second image includes an image indicating information related to the imaging control.
  • the storage unit determines that the number of subjects, the motion of the subject, and the position of the subject satisfy a preset condition, the storage unit satisfies the condition, or after satisfying the condition. It is preferable to store the acquired first image.
  • the storage unit detects that the relationship between the person serving as the subject and the specific position satisfies a preset condition
  • the storage unit detects the first image when the condition is satisfied or thereafter Is preferably stored.
  • the projection unit projects an image at a position where a part of the projection image overlaps with the imaging region
  • the storage unit includes a region in which the projection image and the imaging region overlap.
  • the overlapping area is directly below or near the subject.
  • the projection unit displays a mark for instructing imaging in the overlapped area
  • the storage unit is set in advance for a person whose imaging unit is the subject for the mark.
  • the present invention is a portable imaging device, an imaging unit, a projection unit that projects an image, and a storage unit that stores an image captured by the imaging unit.
  • the projection unit uses a third image obtained by synthesizing the first image captured by the imaging unit and the second image stored in advance as a projection image, and the imaging region of the imaging unit. Projecting to a different area, the storage unit stores the third image when the projection image is projected or the third image after the projection image is projected.
  • the present invention it is possible to perform a photographing operation while a person who is a subject confirms an image, and it is possible to easily photograph a desired image of the person who is a subject.
  • FIG. 1 is a diagram illustrating a schematic configuration of a mobile phone device according to the present embodiment.
  • FIG. 2 is a diagram showing a schematic configuration of the mobile phone device according to the present embodiment.
  • FIG. 3 is a block diagram showing a schematic configuration of functions of the mobile phone device shown in FIG.
  • FIG. 4 is a schematic diagram for explaining the operation of the irradiation unit.
  • FIG. 5 is a schematic diagram for explaining the operation of the mirror constituting the irradiation unit.
  • FIG. 6 is an explanatory diagram showing a state in which an image is displayed by the projector of the mobile phone device shown in FIG.
  • FIG. 7 is a schematic diagram showing a drawing method in a scanning projector.
  • FIG. 8 is an explanatory diagram of a projection mode included in the mobile phone device.
  • FIG. 9 is an explanatory diagram of a projection mode included in the mobile phone device.
  • FIG. 10 is an explanatory diagram of a projection mode by the mobile phone device.
  • FIG. 11 is an explanatory diagram of a projection mode by the mobile phone device.
  • FIG. 12 is an explanatory diagram of a projection mode by the mobile phone device.
  • FIG. 13 is a flowchart showing an example of the photographing operation of the mobile phone device.
  • FIG. 14 is an explanatory diagram for explaining an example of the photographing operation of the mobile phone device.
  • FIG. 15 is an explanatory diagram for explaining an example of the photographing operation of the mobile phone device.
  • FIG. 16 is a flowchart showing another example of the photographing operation of the mobile phone device.
  • FIG. 17 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 18 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 19 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 20 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 21 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 22 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 23 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 24 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 25 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 26 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 27 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 28 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 29 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • FIG. 30 is an explanatory diagram for explaining another example of the photographing operation of the mobile phone device.
  • a mobile phone including a projector and a camera is taken as an example of a mobile imaging device (a portable electronic device having a projector function and an image capturing function), but the application target of the present invention is not limited to a mobile phone.
  • the portable imaging device can be applied to, for example, PHS (Personal Handy-phone System), PDA, portable navigation device, notebook computer, game machine, digital camera, digital video camera, and the like.
  • FIG. 1 and FIG. 2 are diagrams each showing a schematic configuration of the mobile phone device according to the present embodiment.
  • the mobile phone device according to this embodiment is a mobile phone device 1 having a projector 34 as shown in FIGS.
  • the housing 1 ⁇ / b> C includes a plurality of housings.
  • the housing 1C is configured to be openable / closable and rotatable by the first housing 1CA and the second housing 1CB. That is, the cellular phone device 1 has a casing that is foldable and that can switch the surface of the first casing 1CA facing the second casing 1CB when in the folded state.
  • the housing of the mobile phone device 1 is not limited to such a structure.
  • casing 1CB are connected by the hinge mechanism 8 which is a connection part.
  • the hinge mechanism 8 By connecting the first casing 1CA and the second casing 1CB with the hinge mechanism 8, the first casing 1CA and the second casing 1CB rotate together around the hinge mechanism 8 and move away from each other. and configured to be rotated (in the direction indicated by arrow R 1 in FIG. 2) toward each other.
  • the cellular phone device 1 is opened when the first housing 1CA and the second housing 1CB are rotated away from each other, and the mobile phone device 1 is rotated in the direction in which the first housing 1CA and the second housing 1CB approach each other. When it moves, it closes and becomes folded (state shown by the dotted line in FIG. 2).
  • the hinge mechanism 8 further rotates the first housing 1CA around the rotation axis with an axis parallel to the longitudinal direction of the surface having the largest area of the first housing 1CA relative to the second housing 1CB as a rotation axis (in FIG. 2). configured to be rotated in the direction) indicated by an arrow R 2. That is, the hinge mechanism 8 is configured to be able to turn the first housing 1CA around the axis that is parallel to the longitudinal direction of the surface having the largest area of the first housing 1CA from the base point. . That is, the hinge mechanism 8 has two rotation shafts, and can rotate the first housing 1CA and the second housing 1CB about the respective rotation shafts.
  • the first housing 1CA is provided with a display 2 shown in FIG. 1 as a display unit.
  • the display 2 displays a standby image when the mobile phone device 1 is waiting for reception, or displays a menu image used to assist the operation of the mobile phone device 1.
  • a touch panel detector 13C is disposed on the upper surface of the display 2, and detects a user's contact.
  • the first casing 1CA is provided with a receiver 16 that is an output unit that outputs voice when the mobile phone device 1 is talking.
  • a camera 36 is provided on the opposite side of the first housing 1CA from the hinge mechanism 8.
  • the second casing 1CB is provided with a plurality of operation keys 13A for inputting a telephone number of a call partner, a mail, etc., and selection and determination of a menu displayed on the display 2 and a screen.
  • a direction and determination key 13B for easily executing scrolling and the like are provided.
  • the operation key 13 ⁇ / b> A and the direction / decision key 13 ⁇ / b> B constitute the operation unit 13 of the mobile phone device 1.
  • the second casing 1CB is provided with a microphone 15 that is a voice acquisition unit that receives voice during a call of the mobile phone device 1.
  • the operation unit 13 is provided on the operation surface 1PC of the second housing 1CB shown in FIG.
  • the surface opposite to the operation surface 1PC is the back surface 1PB of the mobile phone device 1.
  • the antenna is a transmission / reception antenna used for wireless communication, and is used for transmission / reception of radio waves (electromagnetic waves) related to telephone calls, e-mails, and the like between the mobile phone device 1 and a base station.
  • the microphone 15 is provided in the second housing 1CB. The microphone 15 is arranged on the operation surface 1PC side of the mobile phone device 1 shown in FIG.
  • the projector 34 which is an image projection part is provided in the opposite side to the hinge mechanism 8 of 2nd housing
  • the light irradiation port of the projector 34 is exposed to the outside of the second housing 1CB, and the photographing lens of the camera 36 is exposed to the outside of the first housing 1CA.
  • FIG. 3 is a block diagram showing a schematic configuration of functions of the mobile phone device shown in FIG.
  • the mobile phone device 1 includes an operation unit 13, a processing unit 22, a storage unit 24, a transmission / reception unit 26, an audio processing unit 30, a display unit 33, a projector 34, and a camera 36. And having.
  • the operation unit 13 includes, for example, an operation key 13A to which various functions such as a power key, a call key, a numeric key, a character key, a direction key, a determination key, and a call key are assigned, a direction and determination key 13B, and the display 2
  • the touch panel detection unit 13 ⁇ / b> C detects which part of the image displayed on the screen is touched by the operator. When these keys and touch panel are input by a user operation, a signal corresponding to the operation content is generated. The generated signal is input to the processing unit 22 as a user instruction.
  • the processing unit 22 has a function of comprehensively controlling the overall operation of the mobile phone device 1. That is, the processing unit 22 transmits and receives various processes of the mobile phone device 1 so as to be executed in an appropriate procedure according to the operation of the operation unit 13 and the software stored in the storage unit 24 of the mobile phone device 1. The operation of the unit 26, the voice processing unit 30, the display unit 33, and the like is controlled.
  • Various processes of the mobile phone device 1 include, for example, voice calls performed via a circuit switching network, creation and transmission / reception of e-mail, browsing of the Internet (World Wide Web) site, and the like.
  • Examples of operations of the transmission / reception unit 26, the audio processing unit 30, and the display unit 33 include transmission / reception of signals by the transmission / reception unit 26, input / output of audio by the audio processing unit 30, and display of images by the display unit 33. .
  • the processing unit 22 executes processing based on a program (for example, an operating system program, application program, etc.) stored in the storage unit 24.
  • the processing unit 22 is configured by, for example, a microprocessor unit (MPU: Micro Processing Unit), and executes various processes of the mobile phone device 1 described above according to a procedure instructed by the software. That is, the processing unit 22 sequentially reads instruction codes from an operating system program, application program, or the like stored in the storage unit 24 and executes processing.
  • MPU Micro Processing Unit
  • the processing unit 22 has a function of executing a plurality of application programs.
  • the application program executed by the processing unit 22 includes, for example, an application program that controls driving of the projector 34 and the camera 36, an application program that reads various image files (image information) from the storage unit 24, and decodes them.
  • There are a plurality of application programs such as an application program for displaying an image to be displayed on the display unit 33 or projecting the image on the projector 34 and an application program for taking an image or a moving image with the camera 36.
  • the processing unit 22 includes a projector control unit (control unit) 22a, an image processing unit 22b, and a condition determination unit 22c.
  • the functions of the projector control unit 22a, the image processing unit 22b, and the condition determination unit 22c are such that the hardware resources configured by the processing unit 22 and the storage unit 24 execute a task assigned by the control unit of the processing unit 22. It is realized by.
  • a task is a processing unit that cannot be executed at the same time among the entire processing performed by application software or the processing performed by the same application software.
  • the projector control unit 22 a controls the projector 34.
  • the image processing unit 22 b generates an image to be projected on the projector 34 and an image to be displayed on the display unit 33.
  • the condition determination unit 22c determines the branch of the control condition.
  • the storage unit 24 stores software and data used for processing in the processing unit 22.
  • the above-described task for operating the application program for controlling the driving of the projector 34 and the camera 36, and an image processing program The task for operating is stored.
  • communication for example, communication, downloaded voice data, software used by the processing unit 22 to control the storage unit 24, the telephone number or mail address of the communication partner, etc. are described in the storage unit 24.
  • the address book to be managed, voice files such as dial tone and ring tone, temporary data used in the process of software, and the like are stored.
  • the computer program and temporary data used in the software processing process are temporarily stored in the work area assigned to the storage unit 24 by the processing unit 22.
  • the storage unit 24 is, for example, a nonvolatile storage device (nonvolatile semiconductor memory such as ROM: Read Only Memory, a hard disk device, etc.), or a readable / writable storage device (eg, SRAM: Static Random Access Memory, DRAM: Dynamic Random Access Memory).
  • the transmission / reception unit 26 has an antenna 26a, establishes a radio signal line by a CDMA (Code Division Multiple Access) method or the like with the base station via a channel assigned by the base station, and makes a telephone call with the base station. Perform communication and information communication.
  • CDMA Code Division Multiple Access
  • the audio processing unit 30 executes processing of an audio signal input to the microphone 15 and an audio signal output from the receiver 16 and the speaker 17.
  • the display unit 33 includes the display 2 described above, and displays a video corresponding to the video data supplied from the processing unit 22 and an image corresponding to the image data on the display panel.
  • the display unit 33 may include a sub display in addition to the display 2.
  • the projector 34 includes a light source unit and an optical system that switches whether to project the light emitted from the light source unit based on image data.
  • the projector 34 includes a light source unit 31, an irradiation unit (drawing apparatus) 35 that is an optical system, a light shape changing unit 39, and a light irradiation port 32.
  • the light source unit 31 emits visible laser light.
  • the light in the visible light region is light with a short wavelength side of 360 nm to 400 nm or more and a long wavelength side of 760 nm to 830 nm or less.
  • the light source unit 31 has R (Red), G (Green), and B (Blue). ) Is irradiated with three colors of light.
  • the irradiation unit 35 combines the three colors of light emitted from the light source unit 31 and irradiates the image projection target.
  • the irradiating unit 35 includes a switching element that switches whether to transmit the light emitted from the light source unit 31 and a mirror that performs raster scanning of the light that has passed through the switching element. Then, the irradiation unit 35 changes the angle of the laser light emitted from the light source unit 31 by the mirror and scans the image projection target with the laser light, so that the image generated by the image processing unit 22b is the image projection target. To project.
  • a MEMS (Micro Electro Mechanical System) mirror is used as the mirror.
  • the MEMS mirror uses a piezoelectric element to drive the mirror, scans the visible light emitted from the light source unit 31, and generates a visible image.
  • the visible image is projected onto the image projection target.
  • the projector 34 is a scan-type projector. Note that the configuration of the projector 34 is not limited to that using the above-described laser as the light source unit 31.
  • the projector 34 is a projector having a configuration in which a halogen light, LED, or LD is used as the light source unit 31, and an LCD (Liquid Crystal Display) or DMD (Digital Micro-mirror Device) is used as the optical system irradiation unit 35. Also good.
  • FIG. 4 is a schematic diagram for explaining the operation of the irradiation unit.
  • FIG. 5 is a schematic diagram for explaining the operation of the mirror constituting the irradiation unit.
  • the projection area of the projector 34 is changed by changing the operation range of the mirror 35 ⁇ / b> M constituting the irradiation unit 35.
  • the mirror 35M changes the angle of the laser light emitted from the light source unit 31 and swings around the X axis and the Y axis shown in FIG. 5 (directions indicated by arrows Mx and My) to be an image projection target.
  • the laser beam is scanned.
  • FIG. 4 shows a state in which laser light is scanned in the X-axis direction when the mirror 35M swings around the Y-axis (the direction indicated by the arrow My in FIG. 4), but the mirror 35M swings.
  • the angle (swing angle) By changing the angle (swing angle) from ⁇ 1 to ⁇ 2 ( ⁇ 1 ⁇ 2), the scanning range of the laser light on the image projection target changes from PAa to PAb.
  • FIG. 6 is an explanatory diagram showing a state in which an image is displayed by the projector of the mobile phone device shown in FIG.
  • the light irradiation port 32 is exposed to the outside of the housing 1 ⁇ / b> C of the mobile phone device 1.
  • the mobile phone device 1 projects an image from the projector 34, and as shown in FIG. 6, a predetermined number of image projection targets (for example, a wall surface and a floor) at a position facing the image projection surface of the projector 34 are predetermined.
  • the image P can be projected onto the area (projection area) PA.
  • FIG. 7 is a schematic diagram showing a drawing method in a scanning projector. 3 scans a point (light spot) DL of the laser light emitted from the light source unit 31 of the projector 34 in the X direction and the Y direction, so that the image P is projected onto the projection area of the projector 34. Rendered in PA. At this time, the light spot DL is scanned back and forth in the X direction, and is scanned in one direction with respect to the Y direction. In drawing by the projector 34, when the image P is rectangular, scanning of the light spot DL is started from one corner, and the light spot DL scans the entire area of the image P in the X direction and the Y direction. Thus, one drawing is completed, and one image P is drawn.
  • FIG. 8 and 9 are explanatory diagrams of the projection modes of the mobile phone device according to this embodiment.
  • FIG. 8 shows the first projection mode
  • FIG. 9 shows the second projection mode.
  • the mobile phone device 1 according to the present embodiment has at least two modes (projection modes) of projecting an image onto a projection target, that is, at least two of a first projection mode and a second projection mode.
  • the first projection mode is a mode in which the image Pw is projected onto a projection target (for example, a wall) or the like existing in front of the light irradiation port 32 of the projector 34 included in the mobile phone device 1. .
  • a projection target for example, a wall
  • an image Pf is displayed on a projection target (for example, floor, ceiling) or the like that exists obliquely below or obliquely above, for example, the light irradiation port 32 of the projector 34 included in the mobile phone device 1. Is a mode for projecting.
  • the irradiation direction of light emitted from the light irradiation port 32 of the projector 34 is the front direction of the light irradiation port 32 in a state where the mobile phone device 1 is placed on a horizontal plane.
  • the projector 34 projects the image Pw on the front wall of the light irradiation port 32, for example.
  • the irradiation direction of the light irradiated from the light irradiation port 32 of the projector 34 is obliquely downward with respect to the horizontal plane or oblique with respect to the horizontal plane. It becomes upper.
  • the projector 34 projects the image Pf on the floor on which the projector 34 is placed, for example.
  • the horizontal plane is a plane orthogonal to the vertical direction (direction in which gravity acts).
  • the image projection direction can be switched by adjusting the angle of the mirror that reflects the light.
  • the projected image increases as the distance from the mobile phone device 1 increases. For example, a rectangular image is projected as a trapezoid. Therefore, it is preferable to perform keystone correction. Further, the vibration angle and vibration speed of the mirror may be switched.
  • the mobile phone device 1 since the mobile phone device 1 has at least two of the first projection mode and the second projection mode, not only the screen and the wall but also the mobile phone device 1 displays the image by the projector 34. It can also be projected onto the mounting surface or floor of the desk on which it is placed. This improves the usability of the projector 34 provided in the mobile phone device 1. Moreover, an image can be projected below the mounting surface of the mobile phone device 1 or below the mounting surface while the mobile phone device 1 is mounted on a desk or the like. Thereby, it is not necessary to install the mobile phone device 1 again. Further, it is not necessary for the user to hold the mobile phone device 1 in his hand and to direct the light irradiation port 32 downward. As a result, the usability of the projector 34 provided in the mobile phone device 1 is further improved.
  • the camera 36 is an imaging mechanism disposed at the end of the first housing 1CA opposite to the hinge mechanism 8.
  • the camera 36 sends the acquired image to the image processing unit 22b of the processing unit 22.
  • FIGS. 10 to 12 are explanatory diagrams of the projection mode by the mobile phone device.
  • the mobile phone device 1 shows only the projector 34 and the camera 36, and the other parts are omitted.
  • 10 and 11 is in a state where the first housing 1CA and the second housing 1CB are closed, and the mobile phone device 1 shown in FIG. 12 includes the first housing 1CA.
  • the second housing 1CB is open.
  • the image acquired by the camera 36 is projected as a preview image P 1 by the projector 34.
  • the projector 34 is to project a preview image P 1 on the floor.
  • the preview image P 1 an image including the person H 1 as a subject acquired by the camera 36 is projected.
  • Cellular telephone device 1 when an image is photographed, as shown in FIG. 11, it may be projected a preview image P 2 toward the ceiling by the projector 34.
  • the preview image P 2 is also projected as an image including the person H 1 as a subject acquired by the camera 36.
  • the projector 34 can change the direction in which the image is projected by switching the angle of the mirror as described above.
  • the cellular phone device 1 can also project the preview image P 3 onto the surface (in this embodiment, a wall) opposite to the direction in which the person H 1 is located by the projector 34. .
  • the first casing 1CA and the second casing 1CB need to be opened.
  • the mobile phone device 1 projects a preview image at a position where the person who is the subject at the shooting position can see the image.
  • the preview image is projected onto a region different from the region where the image is captured by the camera 36.
  • FIG. 13 is a flowchart showing an example of the photographing operation of the mobile phone device.
  • necessary information is acquired by each unit of the mobile phone device 1, and the acquired information is processed by the projector control unit 22a, the image processing unit 22b, and the condition determination unit 22c of the processing unit 22.
  • an instruction to activate an image capturing mode is input by an operation of the operator.
  • the cellular phone device 1 activates the camera 36 and acquires an image of the imaging region. Further, the cellular phone device 1 determines the projection destination as step S12.
  • the mobile phone device 1 determines the position where the image acquired by the camera 36 is projected, specifically, whether it is projected above, below, or behind.
  • the cellular phone device 1 performs the above-described processing in the condition determination unit 22c of the processing unit 22.
  • the position to be projected may be determined based on an instruction input by the operator. For example, based on the pre-input conditions and the attitude of the mobile phone device 1, for example, the position detection sensor may be used. The determination may be made based on whether the body is closed or open, the positional relationship between the projector and the camera, and the like.
  • the mobile phone device 1 If it is determined that the image is projected downward in step S12, the mobile phone device 1 causes the projector 34 to project the image downward, specifically toward the floor, in step S14.
  • the image to be projected is an image acquired by the camera 36.
  • the cellular phone device 1 projects the preview image on the floor as shown in FIG. 10 by projecting the image downward.
  • step S16 the cellular phone device 1 causes the projector 34 to project the image upward, specifically toward the ceiling. In this way, the cellular phone device 1 projects a preview image on the ceiling as shown in FIG. 11 by projecting the image upward.
  • the cellular phone device 1 when it is determined that the image is projected rearward in step S12, the cellular phone device 1 causes the projector 34 to project the image rearward, specifically toward the rear wall in step S20. In this way, the mobile phone device 1 projects a preview image onto the back wall as shown in FIG. 12 by projecting the image toward the back wall.
  • step S14 to step S20 when a shooting instruction is input in a state where the preview image is projected, an image is shot as step S22. That is, the cellular phone device 1 stores the image acquired by the camera 36 in the storage unit 24 at the timing when the shutter is pressed, for example, when the countdown of the release timer becomes zero.
  • step S24 determines whether the projector projection mode has ended or the shooting has ended. That is, the cellular phone device 1 determines whether an instruction to end the projection of the projector 34 is input or whether there is an instruction to end the photographing mode (input).
  • step S24 determines in step S24 that there is no instruction to end the projector projection mode or end shooting (No)
  • the mobile phone device 1 proceeds to step S22 and repeats shooting to acquire an image. If it is determined in step S24 that either one of the projector projection mode end and the photographing end has been input (Yes), the mobile phone device 1 stops the projection of the projector 34 in step S26, that is, a preview image. Is finished, and the process is terminated. Note that in the case of an instruction to end the projector projection mode, that is, an instruction to end projection of the preview image by the projector 34, the preview image may be displayed on the display unit 33 and the image capturing operation may be continued.
  • the cellular phone device 1 projects the preview image by the projector 34 at the time of image capturing, so that the person who is the subject can know the state of the image acquired by the camera 36 at the time of image capturing. it can. Thereby, it is possible to adjust the standing position and posture while confirming how the person who is the subject is captured. Therefore, it is possible to more easily obtain an image that satisfies the person who is the subject.
  • the photographer becomes the subject by using the release timer (self-timer)
  • the preview image can be confirmed while the photographer is the subject. Can be grasped, and a desired image can be acquired more easily. Thereby, it is possible to reduce the necessity of re-taking many times and efficiently obtain a desired image.
  • shooting can be performed while both the photographer and the subject view the preview image. Thereby, an image of a desired angle can be acquired.
  • the subject can also grasp the image at the time of shooting. Thereby, confirmation of an image after photographing can be omitted.
  • a large image can be displayed with a small device by projecting an image with the projector 34 of the mobile phone device 1. Accordingly, it is possible to display an image in which the subject can be confirmed while keeping the apparatus small. Moreover, it can be set as one portable apparatus.
  • the cellular phone device 1 may be configured such that the photographer designates an arbitrary area of the photographed image and projects a frame indicating the designated area on the preview image.
  • FIGS. 14 and 15 are explanatory diagrams for explaining an example of the photographing operation of the mobile phone device
  • FIG. 16 is a flowchart showing another example of the photographing operation of the mobile phone device.
  • the preview image is also displayed on the display 2.
  • the mobile phone device 1 is in a posture in which the display 2 is arranged facing outside.
  • a preview image is displayed on the display 2 as shown in FIG.
  • the camera 36 has acquired an image of the imaging region V 1 where the mountain M 1 is a subject, and the image of the mountain m 1 is displayed on the display 2.
  • the operator contacting the finger f in the region A 1 on the display 2.
  • the contact is detected by the touch panel detector 13C, and sends the detected signal to the processing unit 22.
  • the cellular telephone device 1 When the operator designates a region A 1, the cellular telephone device 1, as shown in FIG. 15, as a preview image P 4 to be projected by the projector 34, in addition to the image of the imaging area V 1 obtained by the camera 36, the area A displaying a frame a 2 surrounding the area corresponding to 1. That is, the frame image is combined with the image acquired by the camera 36, and the combined image is projected by the projector 34.
  • the cellular phone device 1 starts a camera operation as step S30. That is, the camera 36 is activated and an operation for acquiring an image is started.
  • the mobile phone device 1 displays the acquired image on the display 2. Note that the mobile phone device 1 may cause the projector 34 to project the acquired image when the camera 36 acquires the image.
  • step S32 designation of a position where the user stands is detected.
  • the cellular phone device 1 detects a touch on the touch panel detection unit 13 ⁇ / b> C by the operator while displaying an image on the display 2.
  • the cellular phone device 1 detects an area touched by the operator as designation of a position where the user stands.
  • the mobile phone device 1 When the cellular phone device 1 detects the designation of the standing position in step S32, the mobile phone device 1 displays a preview image indicating the standing position of the user in step S34. Specifically, a frame image is created based on the position information acquired in step S 32, and the generated frame image is combined with the image acquired by the camera 36. As a result, as shown in FIG. 15, the projector 34 projects an image in which a frame is synthesized in an area designated by the user.
  • the cellular phone device 1 captures an image in step S36 when a photographing instruction is input in a state in which the preview image obtained by synthesizing the frame is projected in step S34.
  • the cellular phone device 1 stores the image acquired by the camera 36 in the storage unit 24 at the timing when the shutter is pressed, or when the countdown of the release timer becomes zero. That is, the storage unit 24 stores an image captured by the camera 36.
  • the image acquired by the storage unit 24 is stored in the same manner in other cases.
  • step S38 determines in step S38 whether the projector projection mode has ended or the shooting has ended. That is, it is determined whether an instruction to end the projection of an image by the projector 34 is input or an instruction to end the shooting mode is input (whether it is input).
  • step S38 determines in step S38 that there is no instruction to end the projector projection mode or to end shooting (No)
  • the mobile phone device 1 proceeds to step S36 and repeats shooting to acquire an image. If it is determined in step S38 that either one of the projector projection mode end and the photographing end has been input (Yes), the cellular phone device 1 stops the projection of the projector 34 in step S40, that is, a preview image. Is finished, and the process is terminated. Note that in the case of an instruction to end the projector projection mode, that is, an instruction to end projection of the preview image by the projector 34, the preview image may be displayed on the display unit 33 and the image capturing operation may be continued.
  • the mobile phone device 1 displays the frame A 2 on the preview image P 4 , thereby grasping the position of the area A 1 designated while viewing the display 2 by the operator.
  • the person H 2 as the subject can change his / her standing position while grasping the positions of the frame A 2 and the person h 2 (own video) displayed in the preview image P 4 .
  • the person H 2 can be easily guided into the area A 1 designated as the reference of the desired standing position in the image, that is, the frame A 2 .
  • the user can grasp their position with reference to this guidance, that is, a frame serving as a mark, the user can move to a desired standing position in a short time.
  • the present invention is not limited to the case where the photographer becomes a subject, and even when the photographer and the subject are different persons, an instruction to move the subject to the region intended by the photographer can be made easier to understand.
  • the present invention by displaying a frame on the preview image that can be confirmed by the person who is the subject during the shooting operation, it is possible to easily recognize the standing position of the person rather than verbally specifying the right, left, front, and back.
  • the frame is displayed as a region where a person stands.
  • the size of the frame and the display target are not particularly limited, and the frame may be displayed by a usage method desired by the operator.
  • the present invention is not limited to the frame, and various images can be displayed.
  • the image to be combined as the preview image is not limited to the frame, and an image showing information related to imaging control such as a countdown until shooting and shooting conditions (number of pixels, brightness, remaining number) is displayed. Also good.
  • the image combined with the preview image is not reflected in the captured image. That is, the storage unit 24 stores an image acquired by the camera 36 and an image with no frame displayed as a captured image.
  • an image captured by the camera or an image obtained by combining the image captured by the camera and the frame image is projected as a preview image.
  • the image and the image captured by the camera may be combined and projected as a preview image.
  • a background image captured in advance may be combined with a human image acquired by a camera and projected as a preview image.
  • the storage unit can store an image obtained by combining an image acquired by the camera and an image prepared in advance.
  • a method of shooting after a predetermined time after pressing the shutter using a release timer there is a method of shooting after a predetermined time after pressing the shutter using a release timer, but the present invention is not limited to this.
  • a preferred example of a method of pressing a shutter that is, a method of acquiring an image by a camera and detecting timing for taking a picture will be described.
  • FIGS. 17 to 20 are explanatory diagrams for describing other examples of the photographing operation of the mobile phone device.
  • the mobile phone device 1 is fixed to a tripod, and is a person H 3 , a person H 4 , a person H 5, and a photographer with a mountain M 2 as a background. This is a case where four persons H 6 take pictures included in the shooting area V 1 .
  • the person H 6 who is a photographer operates the mobile phone device 1, and the person H 3 , the person H 4 , and the person H 5 are in the shooting area V 1 .
  • the cellular phone device 1 projects an image of the shooting area V 1 acquired by the camera 36 and an image obtained by synthesizing necessary images with the image as a preview image P 5 .
  • the photographer designates his / her standing position in the image acquired by the camera 36. Specifically, the operator touches the corresponding position of the display image on the display 2, and the touch panel detection unit 13C of the mobile phone device 1 detects the touch, thereby detecting the touched position as the standing position of the subject. . In the present embodiment, it is detected as a face position.
  • the cellular phone device 1 When the cellular phone device 1 detects the standing position of the subject, as shown in FIG. 18, the cellular phone device 1 displays a preview image P 5 in which a frame A 3 for displaying the standing position is combined with the image acquired by the camera 36. As the preview image P 5, obtained by the camera 36, Mountain m 2, People h 3, People h 4, the person h 5 is also displayed.
  • the photographer moves in a state where the frame A 3 is designated as the face position, and the face of the person h 6 has entered the area corresponding to the frame A 3 as shown in FIG. Is detected, an image at that time is acquired. That is, shooting is performed with the trigger that the face of the person h 6 has entered the area corresponding to the frame A 3 .
  • Whether or not the face of the person h 6 has entered the area corresponding to the frame A 3 can be determined by performing image processing on the image acquired by the camera 36 and performing face extraction. Note that, as shown in FIGS. 18 and 19, the mobile phone device 1 may display a frame around the already detected face before photographing.
  • a picture of the person moving to a desired position can be taken by taking an image.
  • the release timer there is a waiting time longer than necessary or the photographer is not in time, but according to this example, when the image acquired by the camera 36 satisfies a predetermined condition, Since the image is acquired, the image can be taken at a more suitable timing.
  • the mobile phone device 1 may acquire an image at the moment when the condition is satisfied, but may acquire an image after a predetermined time has elapsed from the moment when the condition is satisfied. Thereby, after a photographer moves to a predetermined position, it can prepare for a fixed time. In addition, when shooting is performed after a certain time has elapsed, the remaining time until shooting may be displayed on the preview image. This point is applicable to each example of the present invention.
  • the present invention upon moving the face in the frame A 3, has been to carry out the acquisition of images (captured), the present invention is not limited thereto.
  • a frame A 4 specify the entire frame person enters, further specifies the number of people entering the inside the frame. That is, in the present embodiment, four people are designated.
  • the cellular telephone device 1 as shown in FIG. 20, upon detecting that there are four faces in the frame A 4, may be acquired image. Note that the image may be acquired when a predetermined number of people are included in the image without specifying the frame.
  • FIGS. 21 and 22 are explanatory diagrams for describing another example of the photographing operation of the mobile phone device.
  • the configuration of the subject in the example shown in FIGS. 21 and 22 is the same as that in FIG.
  • the operator designates an area and the number of people (four people in this example).
  • Cellular telephone device 1 when area and number is designated, as a preview image P 6 as shown in FIG. 21, and displays the frame A 5 into a given area.
  • the mobile phone device 1 performs a person analysis of the image in the frame A 5, detects the number of persons who are in the frame. In the example shown in FIG. 21, three people are detected.
  • the preview image P 6 has four persons in the frame A 5 .
  • the cellular telephone device 1 upon detecting that there are four persons in the frame A 5, and acquires an image.
  • FIG. 23 and FIG. 24 are explanatory diagrams for explaining another example of the photographing operation of the mobile phone device. 23 and FIG. 24, the configuration of the subject is the same as that in FIG.
  • the operator designates the area and the number of persons (four persons in this example), and also the posture of the person (a pose in which a piece is performed).
  • Cellular telephone device 1 when area and number and orientation is designated, as a preview image P 7, as shown in FIG. 23, and displays the frame A 6 into a given area.
  • the mobile phone device 1 performs image analysis of the image in the frame A 6, detects the person in the inside the frame, to detect the posture of the number and the respective person of the person. In the example shown in FIG. 23, three people are detected and it is detected that they are doing a piece.
  • the preview image P 7 has a state where there are four persons in the frame A 6 with pieces. Become. This state, the cellular telephone device 1, it there are four persons in the frame A 6 and, upon detecting that everyone has a piece to acquire the image. In this way, by performing image analysis, it is possible for a photographer or the like to move to a predetermined area and take an image only by taking a predetermined posture. Further, by capturing an image in a predetermined posture, it is possible to acquire an image in a posture intended by the subject person.
  • the cellular phone device 1 displays an operation item related to shooting on the preview image, and when it detects that there is an object set in an area corresponding to the display position of the item, the mobile phone device 1 operates the item. It can also be.
  • FIGS. 25 and 26 are explanatory diagrams for explaining other examples of the photographing operation of the mobile phone device. 25 and FIG. 26, the configuration of the subject is the same as that in FIG. Further, in this embodiment, as an object that has been set, the hand of the person h 6 is set.
  • the cellular telephone device 1 in addition to the image acquired by the camera 36, a frame A 7, item 100 disposed within the frame A 7, item 102, item Three items 104 are displayed.
  • the item 100 is displayed as “zoom”, the item 102 is displayed as “mode”, and the item 104 is displayed as “shooting”.
  • the mobile phone device 1 performs an operation corresponding to the displayed name.
  • the “mode” changes the shooting mode (night view, room, landscape, etc.).
  • the frame A 7 is a range that can be reached by a person at the shooting position.
  • Cellular telephone device 1 for example the preview image P 8 shown in FIG. 25 is displayed, as shown in FIG. 26, the person H 6 as the operator moves in a frame A 7, corresponding to the item 104 area to move the hands 106, on the preview image P 8, when detecting that overlaps the fields 104 and hand 106, and acquires an image.
  • hand extraction can be performed by image analysis.
  • the photographer who is the subject can also carry the operation command on the preview image by causing the mobile phone device 1 to display the operation command on the preview image and determine whether or not the target object is in a state where it overlaps the area. It is possible to take an image at an arbitrary timing while being away from the telephone device 1. Further, by displaying various items as operation commands, the subject can perform the operations displayed in the commands only by moving within the shooting area. Thereby, the magnification of the captured image and the shooting mode can also be changed.
  • FIGS. 27 to 30 are explanatory diagrams for explaining another example of the photographing operation of the mobile phone device.
  • the configuration of the subject is the same as that in FIG. 17 except that the projection area and processing of the image differ depending on the projector 34.
  • the feet of the person h 6 is set.
  • the projector 34 of the cellular telephone device 1 part of which projects the preview image P 9 so as to overlap the imaging area V 1.
  • the cellular telephone device 1 can acquire an image of a portion of the preview image P 9 by the camera 36.
  • the mobile phone device 1 as shown in FIG. 28, as a preview image P 9, in addition to the image acquired by the camera 36, a frame A 8, item 112 is disposed within the frame A 8, item 114, item Three items 116 are displayed.
  • the item 112 is displayed as “mode”
  • the item 114 is displayed as “zoom”
  • the item 116 is displayed as “shooting”.
  • the mobile phone device 1 performs an operation corresponding to the displayed name.
  • the projector 34 projects the preview image P 9 so that the upper part of the image acquired by the camera 36 is arranged on the mobile phone device 1 side and the lower part of the image acquired by the camera 36 is arranged on the person side. Yes.
  • each item is displayed in an area that a person can reach with their legs extended.
  • the person H 6 is, step on the entry 116 of the preview image P 9 by legs 118.
  • the mobile phone device 1 analyzes the image acquired by the camera 36 and detects that the item 116 is stepped on by the foot 118, the mobile phone device 1 acquires (photographs) the image. Further, as shown in FIG. 30, the mobile phone device 1 acquires an image after setting no image as a preview image P 9 from the projector 34.
  • the photographer can acquire an image by stepping on the image projected by the projector. In other words, you can press the shutter. Further, since an input can be performed on an actually displayed image, the input position of the operation is easy to understand, and the operator can easily perform the operation.
  • the mobile phone device 1 suppresses the preview image from appearing in the captured image by acquiring the image with the camera after stopping the projection of the preview image, that is, without projecting anything. Can do.
  • the mobile phone device 1 can also suppress the light output from the projector from affecting the captured image.
  • the operations such as the timing of image capturing described above are performed while displaying the preview image, so that the processing can be simplified and the user's desired image can be easily obtained. In this way, it is preferable to use it together with the display of the preview image.
  • the image is automatically captured. It can also be used without displaying a preview image.
  • the mobile phone device 1 that is a mobile imaging device is an example having at least two modes of the first projection mode and the second projection mode, but the mobile imaging device according to the present embodiment.
  • the device is not limited to such a cellular phone device 1.
  • the portable imaging device according to the present embodiment may be provided with only the second projection mode.
  • the projector 34 is not limited to a mechanism that projects an image by scanning laser light with a mirror.
  • a mechanism that projects an image by providing a shutter for each pixel of an image to be projected and opening and closing the shutter. Can be used.
  • each case has been described as a case where a still image is acquired, but may be used when shooting an action.
  • each example of the image acquisition (timing to press the shutter) input described above can be used to input an instruction to start and end shooting when shooting a moving image.
  • the mobile phone device has been described.
  • the present invention can also be used for a digital camera with a projector function and a digital video camera with a projector function that do not have a wireless communication function.
  • the portable imaging device is useful when, for example, taking an image including the photographer himself with a release timer or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)
  • Projection Apparatus (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 携帯撮像装置(1)であって、撮像部(36)と、画像を投影する投影部(34)と、撮像部(36)で撮像した画像を記憶する記憶部(24)と、を備え、投影部(34)は、撮像部(36)が撮像している第1画像、当該第1画像に関連する第2画像、及び、前記第1画像と前記第2画像とを合成した第3画像のいずれかを投影画像として、撮影部(36)の撮像領域とは異なる領域に投影し、記憶部(24)は、前記投影画像を投影したときの前記第1画像、または、前記投影画像の投影後の前記第1画像を記憶することを特徴とする。

Description

携帯撮像装置
 本発明は、スクリーンや壁面に画像を投影する画像撮像機能と、画像を撮影する撮影機能と、を有する携帯撮像装置に関する。
 画像を撮影する携帯撮像装置としては、デジタルカメラ、デジタルビデオカメラ等がある。また、壁面やスクリーンに画像を投影する装置としては、いわゆるプロジェクタがある。このプロジェクタは、商用電源から電力が供給され、所定位置に固定した状態で使用される、いわゆる据え置き型の装置が主流である。この据え置き型のプロジェクタは、固定した状態で、一定箇所の壁面やスクリーンに画像を投影させる。これに対して、近年、プロジェクタとして、小型で持ち運びが容易な携帯型のプロジェクタが提案されている。
 また、特許文献1には、画像撮像機能と、プロジェクタ機能とを有する携帯電子機器として、被写体像を撮像して画像信号を出力する撮像装置と、光像形成素子に形成された像を投射するプロジェクタ装置と、画像信号の変化を検出する画像変化検出手段と、撮像装置による撮影範囲のうち、画像信号の変化が検出された領域に応じてプロジェクタ装置の動作に関する指示を行う指示手段と、撮像装置により撮像して得た画像を表示可能な表示装置と、表示装置に表示させる表示内容を制御し、指示に対応する表示を表示装置に表示させる表示制御手段と、を備えることを特徴とする携帯電子機器が記載されている。
 また、特許文献2には、プロジェクタにより、タッチパネルやキーボタン上に画像を投影する携帯端末装置が記載されている。特許文献2に記載の携帯端末装置は、タッチパネルの各部にその入力モードの場合に割り当てられた文字、数字、記号等を投影させる。
特開2008-298819号公報 特開2003-152851号公報
 ここで、携帯撮像装置で画像を撮像する場合としては、携帯撮像装置を三脚等で固定し、レリーズタイマー、リモコン等を用いて、被写体として自身も撮影する場合がある。このように、撮影者自身も被写体として画像を撮影する場合は、アングル背景の状態はある程度、自身の思うように調整することができるが、そのアングルに対して自分がどのように写っているかは確認することができない。そのため、背景と自身との位置関係が所望の位置、意図したアングルで撮影できていなかったりすることがある。そのため、所望の画像を撮るためには、画像を撮る行為と、画像を確認する行為を繰り返し、立ち位置、撮影設定等を調整する必要が生じる。
 本発明は、被写体となる人物が所望する画像をより簡単に撮影することができる携帯撮像装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、携帯撮像装置であって、撮像部と、画像を投影する投影部と、前記撮像部で撮像した画像を記憶する記憶部と、を備え、前記投影部は、前記撮像部が撮像している第1画像、当該第1画像に関連する第2画像、及び、前記第1画像と前記第2画像とを合成した第3画像のいずれかを投影画像として、前記撮影部の撮像領域とは異なる領域に投影し、前記記憶部は、前記投影画像を投影したときの前記第1画像、または、前記投影画像の投影後の前記第1画像を記憶することを特徴とする。
 また、前記投影部は、前記撮像部で撮影される被写体となる人物が前記撮像領域から前記投影画像を視認できる領域に、当該投影画像を投影することが好ましい。
 また、前記投影部により投影する画像と同一の画像を表示する表示部と、前記表示部に表示された前記画像中の位置を指定する操作が入力される操作部と、を備え、前記第2画像は、前記操作部に入力された操作により指定された特定位置を示す画像であることが好ましい。
 また、前記特定位置を示す画像は、撮像時の被写体となる人物の位置を示唆する画像であることが好ましい。
 また、前記第2画像は、前記撮像の制御に関連する情報を示す画像を含むことが好ましい。
 また、前記記憶部は、前記撮像部が被写体の個数、被写体の動作、及び、被写体の位置が予め設定された条件を充足すると判定したら、当該条件を充足したとき、または、充足したとき以降に取得した前記第1画像を記憶することが好ましい。
 また、前記記憶部は、前記撮像部が前記被写体となる人物と前記特定位置の関係が予め設定された条件を充足したことを検出したら、当該条件を充足したとき或いはそれ以降の前記第1画像を記憶することが好ましい。
 また、前記投影部は、前記投影画像の一部が、前記撮像領域と重複する位置に画像を投影し、前記記憶部は、前記撮像部が前記投影画像と撮像領域とが重複した領域において、被写体の個数或いは被写体の動作或いは被写体の位置が予め設定された条件を充足することを検出したら、前記投影部による投影画像の投影を停止させた後に、画像の投影を停止させたとき以降の前記第1画像を記憶することが好ましい。
 また、前記重複した領域は、前記被写体の直下或いはその近傍であることが好ましい。
 また、前記投影部は、前記重複した領域に、撮像に関する指示を行うためのマークを表示させ、前記記憶部は、前記撮像部が前記被写体となる人物が前記マークに対して、予め設定された動作をしたことを検出したら、予め設定された動作の検出時以降の前記第1画像を記憶することが好ましい。
 上述した課題を解決し、目的を達成するために、本発明は、携帯撮像装置であって、撮像部と、画像を投影する投影部と、前記撮像部で撮像した画像を記憶する記憶部と、を備え、前記投影部は、前記撮像部が撮像している第1画像と、予め記憶されている第2画像とを合成した第3画像を投影画像として、前記撮影部の撮像領域とは異なる領域に投影し、前記記憶部は、前記投影画像を投影したときの前記第3画像、または、前記投影画像の投影後の前記第3画像を記憶することを特徴とする。
 本発明によれば、被写体となる人物が画像を確認しつつ、撮影動作を行うことが可能となり、被写体となる人物が所望する画像を簡単に撮影することができるという効果を奏する。
図1は、本実施形態に係る携帯電話装置の概略構成を示す図である。 図2は、本実施形態に係る携帯電話装置の概略構成を示す図である。 図3は、図1に示す携帯電話装置の機能の概略構成を示すブロック図である。 図4は、照射部の動作を説明する模式図である。 図5は、照射部を構成するミラーの動作を説明する模式図である。 図6は、図1に示す携帯電話装置のプロジェクタで画像を表示させている状態を示す説明図である。 図7は、スキャン方式のプロジェクタにおける描画方法を示す模式図である。 図8は、携帯電話装置が有する投影モードの説明図である。 図9は、携帯電話装置が有する投影モードの説明図である。 図10は、携帯電話装置による投影モードの説明図である。 図11は、携帯電話装置による投影モードの説明図である。 図12は、携帯電話装置による投影モードの説明図である。 図13は、携帯電話装置の撮影動作の一例を示すフロー図である。 図14は、携帯電話装置の撮影動作の一例を説明するための説明図である。 図15は、携帯電話装置の撮影動作の一例を説明するための説明図である。 図16は、携帯電話装置の撮影動作の他の例を示すフロー図である。 図17は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図18は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図19は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図20は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図21は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図22は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図23は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図24は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図25は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図26は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図27は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図28は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図29は、携帯電話装置の撮影動作の他の例を説明するための説明図である。 図30は、携帯電話装置の撮影動作の他の例を説明するための説明図である。
 以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、携帯撮像装置(プロジェクタ機能と画像撮像機能を有する携帯電子機器)の一例として、プロジェクタとカメラを備える携帯電話機を取り上げるが、本発明の適用対象は携帯電話機に限定されるものではない。携帯撮像装置としては、例えば、PHS(Personal Handy-phone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機、デジタルカメラ、デジタルビデオカメラ等に対しても適用できる。
 図1及び図2は、それぞれ、本実施形態に係る携帯電話装置の概略構成を示す図である。本実施形態に係る携帯電話装置は、図1及び図2に示すようなプロジェクタ34を有する携帯電話装置1である。携帯電話装置1は、筐体1Cが複数の筐体で構成される。具体的には、筐体1Cは、第1筐体1CAと第2筐体1CBで開閉可能かつ回動可能に構成される。つまり、携帯電話装置1は、折り畳み式でかつ、折り畳み状態の際に、第1筐体1CAの第2筐体1CBに対面する面を切り替えることができる筐体を有する。なお、携帯電話装置1の筐体は、このような構造に限定されるものではない。
 第1筐体1CAと第2筐体1CBとは、連結部であるヒンジ機構8で連結されている。ヒンジ機構8で第1筐体1CAと第2筐体1CBとを連結することにより、第1筐体1CA及び第2筐体1CBは、ヒンジ機構8を中心としてともに回動して、互いに遠ざかる方向及び互いに接近する方向(図2の矢印Rで示す方向)に回動できるように構成される。携帯電話装置1は、第1筐体1CAと第2筐体1CBとが互いに遠ざかる方向に回動すると開いた状態となり、第1筐体1CAと第2筐体1CBとが互いに接近する方向に回動すると閉じて、折り畳まれた状態となる(図2の点線で示す状態)。ヒンジ機構8は、さらに、第1筐体1CAを第2筐体1CBに対して第1筐体1CAの面積が最も大きい面の長手方向に平行な軸を回転軸として回転軸回り(図2中矢印Rで示す方向)に回動できるように構成される。つまり、ヒンジ機構8は、自身を基点として、第1筐体1CAの面積が最も大きい面の長手方向と平行な軸を回転軸として、第1筐体1CAを回動できるように構成されている。つまり、ヒンジ機構8は、2つの回転軸を有し、それぞれの回転軸を中心として、第1筐体1CAと第2筐体1CBとを回転させることができる。
 第1筐体1CAには、表示部として、図1に示すディスプレイ2が設けられる。ディスプレイ2は、携帯電話装置1が受信を待機している状態のときに待ち受け画像を表示したり、携帯電話装置1の操作を補助するために用いられるメニュー画像を表示したりする。また、ディスプレイ2の上面には、タッチパネル検出部13Cが配置されており、ユーザの接触を検出する。また、第1筐体1CAには、携帯電話装置1の通話時に音声を出力する出力手段であるレシーバ16が設けられる。また、第1筐体1CAのヒンジ機構8とは反対側には、カメラ36が設けられている。
 第2筐体1CBには、通話相手の電話番号や、メール作成時等に文字を入力するための操作キー13Aが複数設けられ、また、ディスプレイ2に表示されるメニューの選択及び決定や画面のスクロール等を容易に実行するための方向及び決定キー13Bが設けられる。操作キー13A及び方向及び決定キー13Bは、携帯電話装置1の操作部13を構成する。また、第2筐体1CBには、携帯電話装置1の通話時に音声を受け取る音声取得手段であるマイク15が設けられる。操作部13は、図2に示す、第2筐体1CBの操作面1PCに設けられる。操作面1PCとは反対側の面が、携帯電話装置1の背面1PBである。
 第2筐体1CBの内部には、アンテナが設けられている。アンテナは、無線通信に用いる送受信アンテナであり、携帯電話装置1と基地局との間で通話や電子メール等に係る電波(電磁波)の送受信に用いられる。また、第2筐体1CBには、マイク15が設けられる。マイク15は、図2に示す、携帯電話装置1の操作面1PC側に配置される。
 第2筐体1CBのヒンジ機構8とは反対側には、画像投影部であるプロジェクタ34が設けられる。このような構成により、プロジェクタ34によって画像を投影対象物に投影することができ、カメラ36によって画像を撮像することができる。なお、プロジェクタ34の光照射口は、第2筐体1CBの外部に露出しており、カメラ36の撮影レンズは、第1筐体1CAの外部に露出している。
 図3は、図1に示す携帯電話装置の機能の概略構成を示すブロック図である。図3に示すように、携帯電話装置1は、操作部13と、処理部22と、記憶部24と、送受信部26と、音声処理部30と、表示部33と、プロジェクタ34と、カメラ36と、を有する。
 操作部13は、例えば、電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キー等、各種の機能が割り当てられた操作キー13Aと、方向及び決定キー13Bと、ディスプレイ2に表示された画像のどの部分に操作者が接触したかを検出するタッチパネル検出部13Cで構成される。そして、ユーザの操作によりこれらのキー、タッチパネルに入力されると、その操作内容に対応する信号を発生させる。発生した信号は、ユーザの指示として処理部22へ入力される。
 処理部22は、携帯電話装置1の全体的な動作を統括的に制御する機能を有する。すなわち、処理部22は、携帯電話装置1の各種の処理が、操作部13の操作や携帯電話装置1の記憶部24に記憶されるソフトウェアに応じて適切な手順で実行されるように、送受信部26や、音声処理部30や、表示部33等の動作を制御する。
 携帯電話装置1の各種の処理としては、例えば、回線交換網を介して行われる音声通話、電子メールの作成及び送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、送受信部26、音声処理部30、表示部33等の動作としては、例えば、送受信部26による信号の送受信、音声処理部30による音声の入出力、表示部33による画像の表示等がある。
 処理部22は、記憶部24に記憶されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。処理部22は、例えば、マイクロプロセッサユニット(MPU:Micro Processing Unit)で構成され、前記ソフトウェアで指示された手順にしたがって上述した携帯電話装置1の各種の処理を実行する。すなわち、処理部22は、記憶部24に記憶されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。
 処理部22は、複数のアプリケーションプログラムを実行する機能を有する。処理部22が実行するアプリケーションプログラムとしては、例えば、プロジェクタ34やカメラ36の駆動を制御するアプリケーションプログラム、各種の画像ファイル(画像情報)を記憶部24から読み出してデコードするアプリケーションプログラム、デコードして得られる画像を表示部33に表示させたりプロジェクタ34に投影させたりするアプリケーションプログラム及びカメラ36により画像、動画を撮影するアプリケーションプログラム等の複数のアプリケーションプログラムがある。
 本実施形態において、処理部22は、プロジェクタ制御部(制御部)22a、画像処理部22b、条件判定部22cを有する。プロジェクタ制御部22a、画像処理部22b、条件判定部22cのそれぞれが有する機能は、処理部22及び記憶部24で構成されるハードウェア資源が、処理部22の制御部が割り当てるタスクを実行することにより実現される。ここで、タスクとは、アプリケーションソフトウェアが行っている処理全体又は同じアプリケーションソフトウェアが行っている処理のうち、同時に実行できない処理単位である。プロジェクタ制御部22aは、プロジェクタ34を制御する。画像処理部22bは、プロジェクタ34に投影させる画像や、表示部33に表示させる画像を生成する。条件判定部22cは、制御条件の分岐を判定する。
 記憶部24には、処理部22での処理に利用されるソフトウェアやデータが記憶されており、上述した、プロジェクタ34やカメラ36の駆動を制御するアプリケーションプログラムを作動させるタスクや、画像処理用プログラムを作動させるタスクが記憶されている。また、記憶部24には、これらのタスク以外にも、例えば、通信、ダウンロードされた音声データ、あるいは記憶部24に対する制御に処理部22が用いるソフトウェア、通信相手の電話番号やメールアドレス等が記述されて管理するアドレス帳、発信音や着信音等の音声ファイル、ソフトウェアの処理過程で用いられる一時的なデータ等が記憶されている。
 なお、ソフトウェアの処理過程で用いられるコンピュータプログラムや一時的なデータは、処理部22によって記憶部24に割り当てられた作業領域へ一時的に記憶される。記憶部24は、例えば、不揮発性の記憶デバイス(ROM:Read Only Memory等の不揮発性半導体メモリ、ハードディスク装置等)や、読み書き可能な記憶デバイス(例えば、SRAM:Static Random Access Memory、DRAM:Dynamic Random Access Memory)等で構成される。
 送受信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。
 音声処理部30は、マイク15に入力される音声信号やレシーバ16やスピーカ17から出力される音声信号の処理を実行する。表示部33は、上述したディスプレイ2を有しており、処理部22から供給される映像データに応じた映像や画像データに応じた画像を表示パネルに表示させる。なお、表示部33は、ディスプレイ2に加え、サブディスプレイを有していてもよい。
 プロジェクタ34は、光源部と、画像データに基づいて前記光源部から射出された光を投影するか否かを切り換える光学系とで構成されている。本実施形態において、プロジェクタ34は、光源部31と、光学系である照射部(描画装置)35と、光形状変更部39と、光照射口32とを含んで構成される。光源部31は、可視光のレーザー光を照射する。可視光領域の光は、短波長側が360nmから400nm以上、長波長側が760nmから830nm以下の光であり、本実施形態において、光源部31は、R(Red)、G(Green)、B(Blue)の3色の光を照射する。
 照射部35は、光源部31から照射される3色の光を合成するとともに、画像投影対象に照射する。照射部35は、光源部31から射出された光を透過させるか否かを切り換える切り換え素子、及び当該切り換え素子を通過した光をラスター走査させるミラーを含んで構成される。そして、照射部35は、前記ミラーによって光源部31から射出されたレーザー光の角度を変えて、画像投影対象にレーザー光を走査させることで、画像処理部22bが生成した画像を、画像投影対象に投影させる。
 前記ミラーとしては、例えば、MEMS(Micro Electro Mechanical System)ミラーが用いられる。MEMSミラーは、圧電素子を利用してミラーを駆動して、光源部31から照射される可視光を走査し、可視画像を生成する。この場合は、ミラーによって光源部31から照射された光の角度を変えて、画像投影対象の全面に光源部31から照射された光を走査させることで、画像投影対象に可視画像を投影させることができる。このように、プロジェクタ34は、スキャン方式のプロジェクタである。なお、プロジェクタ34の構成は、上述したレーザーを光源部31とするものに限定されるものではない。例えば、プロジェクタ34は、ハロゲンライトや、LED、LDを光源部31とし、LCD(Liquid Crystal Display)や、DMD(Digital Micro-mirror Device)を光学系の照射部35として備える構成のプロジェクタであってもよい。
 図4は、照射部の動作を説明する模式図である。図5は、照射部を構成するミラーの動作を説明する模式図である。本実施形態において、照射部35を構成するミラー35Mの操作範囲を変更することで、プロジェクタ34の投影領域が変更される。ミラー35Mは、光源部31から出射されたレーザー光の角度を変更させるとともに、図5に示すX軸及びY軸の周りを揺動して(矢印Mx、Myで示す方向)、画像投影対象にレーザー光を走査させる。図4は、Y軸の周りにミラー35Mが揺動することにより(図4の矢印Myで示す方向)、X軸方向にレーザー光を走査させている状態を示すが、ミラー35Mが揺動する角度(揺動角)をα1からα2に変更することで(α1<α2)、画像投影対象におけるレーザー光の走査範囲は、PAaからPAbに変化する。
 図6は、図1に示す携帯電話装置のプロジェクタで画像を表示させている状態を示す説明図である。上述したように、プロジェクタ34は、光照射口32が携帯電話装置1の筐体1Cの外部に露出している。携帯電話装置1は、プロジェクタ34から画像を投影することで、図6に示すように、プロジェクタ34の画像投影面と対向する位置の画像投影対象(例えば、壁面や床等)のうち、所定の領域(投影領域)PAに画像Pを投影させることができる。
 図7は、スキャン方式のプロジェクタにおける描画方法を示す模式図である。図3に示す照射部35は、プロジェクタ34の光源部31から照射されたレーザー光の点(光点)DLを、X方向及びY方向に走査させることで、画像Pが、プロジェクタ34の投影領域PA内に描画される。このとき、光点DLは、X方向に往復して走査され、Y方向に対しては一方向に走査される。プロジェクタ34による描画にあたっては、画像Pが長方形である場合、一つの角部から光点DLの走査が開始され、X方向及びY方向に向かって画像Pの全領域を光点DLが走査する。これによって1回の描画が終了し、一つの画像Pが描画される。
 図8及び図9は、それぞれ本実施形態に係る携帯電話装置が有する投影モードの説明図である。図8が第1の投影モードを示し、図9が第2の投影モードを示す。本実施形態に係る携帯電話装置1は、画像を投影対象へ投影する態様(投影モード)を少なくとも二つ、すなわち、第1の投影モード及び第2の投影モードの少なくとも二つを有する。第1の投影モードは、図8に示すように、携帯電話装置1が備えるプロジェクタ34の光照射口32の、例えば正面に存在する投影対象(例えば壁)等に画像Pwを投影するモードである。第2の投影モードは、図9に示すように、携帯電話装置1が備えるプロジェクタ34の光照射口32の、例えば斜め下方、斜め上方に存在する投影対象(例えば床、天井)等に画像Pfを投影するモードである。
 第1の投影モードは、携帯電話装置1が水平面に載置された状態において、プロジェクタ34の光照射口32から照射される光の照射方向が、光照射口32の正面方向となる。これによって、プロジェクタ34からは、例えば、光照射口32の正面の壁に画像Pwを投影することになる。第2の投影モードは、携帯電話装置1が水平面に載置された状態において、プロジェクタ34の光照射口32から照射される光の照射方向が、水平面に対して斜め下方又は水平面に対して斜め上方となる。これによって、プロジェクタ34からは、例えば、プロジェクタ34が載置されている床に画像Pfを投影することになる。ここで、水平面は、鉛直方向(重力の作用する方向)と直交する面である。なお、画像の投影方向は、光を反射させるミラーの角度を調整することで切り替えることができる。また、投影方向を切り替えた場合、特に第2の投影モードでは、携帯電話装置1からの距離から遠くなるに従って、投影される画像が大きくなり、例えば、矩形の画像が台形となって投影されるため、台形補正を行うことが好ましい。また、ミラーの振動角度や、振動速度を切り替えるようにしてもよい。
 このように、携帯電話装置1は、第1の投影モード及び第2の投影モードの少なくとも2つを有しているので、プロジェクタ34による画像を、スクリーンや壁のみならず、携帯電話装置1が載置されている机の載置面や床等にも投影できる。これによって、携帯電話装置1が備えるプロジェクタ34の使い勝手が向上する。また、携帯電話装置1を机等に載置したままで、携帯電話装置1の載置面や当該載置面よりも下方に画像を投影できる。これにより、携帯電話装置1を設置し直す必要はない。また、使用者が携帯電話装置1を手に持って光照射口32を下方に向ける必要はない。その結果、携帯電話装置1が備えるプロジェクタ34の使い勝手がさらに向上する。
 図3に戻り、携帯電話装置1の説明を続ける。カメラ36は、第1筐体1CAのヒンジ機構8とは反対側の端部に配置された撮像機構である。カメラ36は、取得した画像を処理部22の画像処理部22bに送る。
 次に、図10から図12を用いて、携帯電話装置による撮影動作について説明する。図10から図12は、それぞれ携帯電話装置による投影モードの説明図である。なお、図10から図12において、携帯電話装置1は、プロジェクタ34とカメラ36部分のみを示し、他の部分の表示は省略する。また、図10及び図11に示す携帯電話装置1は、第1筐体1CAと第2筐体1CBとが閉じた状態であり、図12に示す携帯電話装置1は、第1筐体1CAと第2筐体1CBとが開いた状態である。
 図10に示すように、携帯電話装置1は、カメラ36による画像の撮影時に、カメラ36で取得した画像をプレビュー画像Pとして、プロジェクタ34により投影する。なお、図10に示す例において、プロジェクタ34は、プレビュー画像Pを床に投影させている。プレビュー画像Pとしては、カメラ36により取得した被写体となる人物Hを含む画像が投影される。
 また、図10に示す携帯電話装置1は、プレビュー画像Pを床に投影させたが、投影画像を表示させる領域は、床に限定されない。携帯電話装置1は、画像撮影時に、図11に示すように、プロジェクタ34によって天井に向けてプレビュー画像Pを投影させてもよい。なお、プレビュー画像Pも、カメラ36により取得した被写体となる人物Hを含む画像が投影される。なお、プロジェクタ34は、上述したようにミラーの角度を切り替えることで、画像を投影する方向を変更することができる。
 また、図12に示すように、携帯電話装置1は、プロジェクタ34によって、人物Hがいる方向とは反対側の面(本実施形態では、壁)にプレビュー画像Pを投影することもできる。なお、図12に示すように、撮影方向(被写体がある方向)とは反対側に画像を投影させる場合は、第1筐体1CAと第2筐体1CBとが開いた状態とする必要がある。また、図10から図12に示すように携帯電話装置1は、撮影位置にいる被写体となる人物が、画像を見ることができる位置にプレビュー画像を投影する。また、プレビュー画像は、カメラ36により画像を撮影する領域とは異なる領域に投影される。
 次に、図13を用いて、携帯電話装置の撮影時の動作について説明する。ここで、図13は、携帯電話装置の撮影動作の一例を示すフロー図である。なお、下記で説明する処理は、携帯電話装置1の各部で必要な情報を取得し、取得した情報を処理部22のプロジェクタ制御部22a、画像処理部22b、条件判定部22cで処理することにより行われる。まず、操作者の操作により、画像を撮影するモードを起動させる指示が入力される。携帯電話装置1は、起動指示が入力されると、カメラ36を起動し、撮影領域の画像を取得する。さらに、携帯電話装置1は、ステップS12として、投影先を判定する。つまり、携帯電話装置1は、カメラ36で取得した画像を投影する位置、具体的には上、下、後ろのいずれに投影するかを判定する。なお、携帯電話装置1は、処理部22の条件判定部22cで上記処理を行う。また、投影する位置の判定は、操作者により入力される指示に基づいて判定してもよく、予め入力されている条件や携帯電話装置1の姿勢に基づいて、例えば、姿勢検出センサを用い筐体が閉じた状態であるか開いた状態であるか、プロジェクタとカメラとの位置関係がどうなっているか等に基づいて判定してもよい。
 携帯電話装置1は、ステップS12で画像を下に投影すると判定したら、ステップS14として、プロジェクタ34により下、具体的には床に向けて画像を投影させる。なお、投影する画像は、カメラ36で取得した画像である。このように、携帯電話装置1は、下に向けて画像を投影することで図10に示すように床にプレビュー画像を投影する。
 また、携帯電話装置1は、ステップS12で画像を上に投影すると判定したら、ステップS16として、プロジェクタ34により上、具体的には天井に向けて画像を投影させる。このように、携帯電話装置1は、上に向けて画像を投影することで図11に示すように天井にプレビュー画像を投影する。
 さらに、携帯電話装置1は、ステップS12で画像を後ろに投影すると判定したら、ステップS20として、プロジェクタ34により後ろ、具体的には背面の壁に向けて画像を投影させる。このように、携帯電話装置1は、背面の壁に向けて画像を投影することで図12に示すように背面の壁にプレビュー画像を投影する。
 ステップS14からステップS20で、プレビュー画像を投影している状態で、撮影指示が入力されたら、ステップS22として、画像を撮影する。つまり、携帯電話装置1は、シャッターが押されるタイミング、例えばレリーズタイマーのカウントダウンが0になったタイミング等でカメラ36が取得した画像を記憶部24に記憶させる。
 携帯電話装置1は、ステップS22で撮影を行ったら、ステップS24として、プロジェクタ投影モード終了、もしくは、撮影終了であるかを判定する。つまり、携帯電話装置1は、プロジェクタ34の投影を終了させる指示が入力されているか、または、撮影モードを終了する指示があるか(入力されているか)を判定する。
 携帯電話装置1は、ステップS24で、プロジェクタ投影モード終了、撮影終了のいずれの指示もない(No)と判定したら、ステップS22に進み、撮影を繰り返し画像を取得する。また、携帯電話装置1は、ステップS24で、プロジェクタ投影モード終了、撮影終了のいずれか一方が入力されている(Yes)と判定したら、ステップS26として、プロジェクタ34の投影を停止し、つまりプレビュー画像の投影を終了して、処理を終了する。なお、プロジェクタ投影モード終了の指示、つまりプロジェクタ34によるプレビュー画像の投影を終了する指示の場合は、プレビュー画像を表示部33に表示させて、画像の撮影動作は、続けるようにしてもよい。
 携帯電話装置1は、以上のようにして、画像撮影時にプロジェクタ34によりプレビュー画像を投影することで、被写体となっている人物が画像撮影時にカメラ36により取得している画像の状態を知ることができる。これにより、被写体となっている人物が、どのように写っているかを確認しつつ、立ち位置や姿勢を調整することができる。したがって、被写体となっている人物が満足する画像をより簡単に取得することができる。また、レリーズタイマー(セルフタイマー)を用いて、撮影者が自ら被写体となる場合も、撮影者が被写体となった状態で、プレビュー画像を確認できるため、撮影時に背景との位置関係等を正確に把握することができ、より簡単に所望の画像を取得することができる。これにより、何度も取り直す必要が低減し、効率よく所望の画像を取得することができる。また、人に撮影ボタン(シャッター)を押すのを依頼した場合も、撮影者と被写体の双方でプレビュー画像を見ながら、撮影を行える。これにより、所望のアングルの画像を取得することができる。また、被写体も撮影時の画像を把握することができる。これにより、撮影後の画像の確認等を省略することができる。
 さらに、携帯電話装置1のプロジェクタ34により画像を投影させることで、小さな装置で大きな画像を表示させることができる。これにより装置を小型に維持しつつ、被写体が確認可能な画像を表示させることが可能となる。また、1つの携帯可能な装置とすることができる。
 また、携帯電話装置1は、撮影者が撮影画像の任意の領域を指定し、指定された領域を示す枠をプレビュー画像に投影するようにしてもよい。以下、図14から図16を用いて説明する。ここで、図14及び図15は、それぞれ携帯電話装置の撮影動作の一例を説明するための説明図であり、図16は、携帯電話装置の撮影動作の他の例を示すフロー図である。なお、本実施形態では、プレビュー画像をディスプレイ2にも表示させている。また、携帯電話装置1は、ディスプレイ2が外部に向けて配置された姿勢となっている。
 まず、携帯電話装置1は、撮影モードとなり、カメラ36による画像取得が開始されると、図14に示すように、プレビュー画像がディスプレイ2に表示される。ここで、図14に示す例では、カメラ36は、被写体として山Mがある撮影領域Vの画像を取得しており、ディスプレイ2には、山mの画像が表示されている。このような状態で、操作者は、ディスプレイ2上の領域Aに指fを接触させる。指fが領域Aに接触すると、この接触をタッチパネル検出部13Cが検出し、検出した信号を処理部22に送る。
 操作者が領域Aを指定すると、携帯電話装置1は、図15に示すように、プロジェクタ34により投影するプレビュー画像Pとして、カメラ36で取得した撮影領域Vの画像に加え、領域Aに対応する領域を囲う枠Aを表示させる。つまり、カメラ36で取得した画像に、枠の画像を合成し、合成した画像をプロジェクタ34により投影する。
 次に、図16を用いて、携帯電話装置1の動作を説明する。なお、本実施形態では、プレビュー画像は、下方向、つまり床や、地面に投影する設定となっている場合とする。まず、操作者により画像撮影モードの起動の指示が入力されたら、携帯電話装置1は、ステップS30として、カメラ動作を開始する。つまり、カメラ36を起動させ、画像を取得する動作を開始する。また、携帯電話装置1は、取得した画像をディスプレイ2に表示させる。なお、携帯電話装置1は、カメラ36で画像を取得した段階で、取得した画像をプロジェクタ34に投影させるようにしてもよい。
 次に、携帯電話装置1が、ステップS30で画像を取得したら、ステップS32として、ユーザが立つ位置の指定を検出する。具体的には、携帯電話装置1は、ディスプレイ2に画像を表示させている状態で、操作者によるタッチパネル検出部13Cへの接触を検出する。携帯電話装置1は、操作者がタッチした領域をユーザが立つ位置の指定として検出する。
 携帯電話装置1は、ステップS32で立ち位置の指定を検出したら、ステップS34として、ユーザの立ち位置を指すプレビュー画像を表示する。具体的には、ステップS32で取得した位置情報に基づいて、枠の画像を作成し、作成した枠の画像をカメラ36で取得した画像に合成する。これにより、図15に示すように、ユーザが指定した領域に枠が合成された画像を、プロジェクタ34により投影する。
 携帯電話装置1は、ステップS34で枠を合成したプレビュー画像を投影している状態で、撮影指示が入力されたら、ステップS36として、画像を撮影する。つまり、携帯電話装置1は、シャッターが押される、レリーズタイマーのカウントダウンが0になったタイミング等でカメラ36が取得した画像を記憶部24に記憶させる。つまり、記憶部24は、カメラ36で撮影された画像を記憶する。なお、記憶部24が取得した画像を記憶するのは他の場合も同様である。
 携帯電話装置1は、ステップS36で撮影を行ったら、ステップS38として、プロジェクタ投影モード終了、もしくは、撮影終了であるかを判定する。つまりプロジェクタ34による画像の投影を終了させる指示が入力されているか、または、撮影モードを終了する指示があるか(入力されているか)を判定する。
 携帯電話装置1は、ステップS38で、プロジェクタ投影モード終了、撮影終了のいずれの指示もない(No)と判定したら、ステップS36に進み、撮影を繰り返し画像を取得する。また、携帯電話装置1は、ステップS38で、プロジェクタ投影モード終了、撮影終了のいずれか一方が入力されている(Yes)と判定したら、ステップS40として、プロジェクタ34の投影を停止し、つまりプレビュー画像の投影を終了して、処理を終了する。なお、プロジェクタ投影モード終了の指示、つまりプロジェクタ34によるプレビュー画像の投影を終了する指示の場合は、プレビュー画像を表示部33に表示させて、画像の撮影動作は、続けるようにしてもよい。
 このように、携帯電話装置1は、プレビュー画像Pに枠Aを表示させることで、操作者がディスプレイ2を見ながら指定した領域Aの位置を把握することができる。これにより、被写体となる人物Hは、プレビュー画像Pに表示される枠Aと人物h(自身の映像)との位置を把握しながら、自らの立ち位置を変化させることができる。これにより、画像内における所望の立ち位置の基準として指定した領域A、つまり枠A内に人物Hを簡単に誘導することができる。また、ユーザは、この誘導つまり目印となる枠を参考に自分たちの位置を把握することができるため、短時間で所望の立ち位置へ移動することができる。
 また、撮影者が被写体になる場合に限定されず、撮影者と被写体とが異なる人物である場合でも、撮影者が意図する領域への被写体の移動の指示もよりわかりやすくすることができる。つまり、被写体となる人物も撮影動作時に確認できるプレビュー画像に枠を表示させることで、口頭で右、左、前、後ろを指定するよりも、自分の立ち位置を簡単に認識することができる。
 なお、上記実施形態では、枠を人物が立つ領域として表示させたが、枠の大きさ、表示対象は、特に限定されず、操作者の所望の利用方法で、枠を表示させればよい。また、枠に限定されず、種々の画像を表示させることができる。また、プレビュー画像として合成する画像としては枠に限定されず、撮影までのカウントダウンや、撮影条件(画素数、明るさ、残り枚数)等の撮像の制御に関連する情報を示す画像を表示させてもよい。なお、上記実施形態において、プレビュー画像に合成した画像は、撮影画像には、反映させない。つまり、記憶部24は、カメラ36が取得した画像、枠を表示させていない画像が撮影画像として記憶する。
 ここで、上記実施形態では、カメラで撮影した画像、または、カメラで撮影した画像と枠の画像とを合成した画像をプレビュー画像として投影したが、本発明はこれに限定されず、予め取得した画像と、カメラで撮影した画像とを合成してプレビュー画像として投影してもよい。例えば、カメラで取得した人物の画像に予め撮影した背景の画像を合成してプレビュー画像として投影するようにしてもよい。このように予め取得した画像と、カメラで撮影した画像とを合成した画像とを投影することで、合成した画像を撮影する場合にも元の画像との位置関係を把握することができ、最適な合成画像を作成することができる。なお、合成画像を取得する場合は、背景がブルー一色となっている、いわゆるブルーバックの領域で撮影を行い、取得画像のうち、ブルーバックとなる領域に背景の画像を合成する方法がある。また、合成画像の撮影を行う前に、合成する被写体以外の被写体、背景が入った状態で撮影を行い、画像を取得する。その後、合成する被写体が入った状態で画像を取得し、取得した画像と合成画像の撮影を行う前に撮影した画像とに画像処理を行い、画像の差分を取ることで、不要な背景を除去し、必要な被写体のみを抽出してもよい。この必要な被写体を抽出した画像と、背景の画像とを組み合わせることでもプレビュー画像を作成することができる。なお、このように合成画像を撮影する場合は、プレビュー画像に表示させた画像を、撮影画像とすることができる。つまり、記憶部は、カメラで取得した画像と、予め準備してある画像とを合成した画像を記憶することができる。
 ここで、撮影者も被写体として撮影を行う場合は、レリーズタイマーを用いて、シャッターを押した後、一定時間後に撮影を行う方法があるが、本発明はこれに限定されない。以下、シャッターを押す方法、つまり、カメラにより画像を取得する、写真を撮影するタイミングを検出する方法の好適な例について説明する。
 まず、図17から図20を用いて一例を説明する。図17から図20は、それぞれ、携帯電話装置の撮影動作の他の例を説明するための説明図である。まず、本例は、図17に示すように、携帯電話装置1は、三脚に固定されており、山Mを背景として、人物H、人物H、人物Hと、撮影者でもある人物Hの4人が撮影領域Vに含まれる写真を撮影する場合である。なお、図17では、撮影者である人物Hは、携帯電話装置1の操作を行い、人物H、人物H、人物Hが撮影領域V内に入っている。また、携帯電話装置1は、カメラ36により取得した、撮影領域Vの画像、さらには、その画像に必要な画像を合成した画像をプレビュー画像Pとして投影する。
 このような状態で、撮影者は、カメラ36で取得している画像内において、自身の立ち位置を指定する。具体的には、操作者がディスプレイ2の表示画像の該当位置にタッチし、携帯電話装置1のタッチパネル検出部13Cがそのタッチを検出することで、タッチされた位置を被写体の立ち位置として検出する。なお、本実施形態では、顔の位置として検出する。
 携帯電話装置1は、被写体の立ち位置を検出したら、図18に示すように、カメラ36で取得した画像に、立ち位置を表示する枠Aを合成したプレビュー画像Pを表示させる。なお、プレビュー画像Pとしては、カメラ36で取得した、山m、人物h、人物h、人物hも表示される。
 携帯電話装置1は、枠Aが顔の位置として指定された状態で、撮影者が移動し、図19に示すように、枠Aに対応する領域に人物hの顔が入ったことを検出したら、その時点における画像を取得する。つまり、枠Aに対応する領域に人物hの顔が入ったことをトリガーとして撮影を行う。なお、枠Aに対応する領域に人物hの顔が入ったか否かの判定は、カメラ36で取得した画像に画像処理を行い、顔抽出を行うことによって判定することができる。なお、携帯電話装置1は、図18及び図19に示すように、撮影前に、既に検出している顔の周りにも枠を表示させるようにしてもよい。
 このように、指定した領域に人物(の顔)が移動したことを検出したら、画像を撮影するようにすることで、所望の位置に人物が移動した状態の写真を撮影することができる。また、レリーズタイマーを用いた場合は、必要以上に待ち時間があったり、撮影者が間に合わなかったりするが、本例によれば、カメラ36が取得する画像が所定の条件を満たした場合に、画像が取得されるためより好適なタイミングで画像を撮影することができる。
 なお、携帯電話装置1は、条件を満たした瞬間に画像を取得してもよいが、条件を満たした瞬間から所定時間経過後に画像を取得するようにしてもよい。これにより、撮影者が所定位置に移動してから、一定時間準備をすることができる。また、一定時間経過後に撮影を行う場合はプレビュー画像に撮影までの残り時間を表示させるようにしてもよい。なお、この点は、本発明の各例に適用可能である。
 また、上記例では、枠A内に顔が移動したら、画像の取得(撮影)を行うようにしたが、本発明はこれに限定されない。例えば、図20に示すように、枠Aとして、人物が入る枠全体を指定し、さらに、その枠内に入る人数を指定する。つまり、本実施形態では、4人と指定する。このような状態で、携帯電話装置1が、図20に示すように、枠A中に4つの顔があることを検出したら、画像を取得するようにしてもよい。なお、枠を指定せずに、画像内に所定の人数がそろったら、画像を取得するようにしてもよい。
 また、上記例では、領域指定を行い顔認識で人物がいるかを判定したが、監視カメラ等に使用されている人物解析の技術により、人がいるかを判定するようにしてもよい。ここで、図21及び図22は、携帯電話装置の撮影動作の他の例を説明するための説明図である。なお、図21及び図22に示す例の被写体の構成は、図17と同様であるので、説明は省略する。
 図21及び図22に示す例では、操作者は、領域と人数(本例では4人)を指定する。携帯電話装置1は、領域と人数が指定されたら、図21に示すようにプレビュー画像Pとして、指定された領域に枠Aを表示させる。また、携帯電話装置1は、枠A内の画像の人物解析を行い、枠内にいる人物の数を検出する。なお、図21に示す例では、3人と検出される。
 この状態から、さらに人物Hが移動し、枠Aの中に移動すると、図22に示すように、プレビュー画像Pには、枠A内に4人の人物がいる状態となる。この状態になり、携帯電話装置1が、枠A内に4人の人物がいることを検出したら、画像を取得する。このように、人物解析を行うことで、撮影者等が所定の領域に移動するのみで画像の撮影を行うことが可能となる。
 また、撮影を行うか否かの判定条件として、枠内の人物の状態(姿勢、ポーズ)を加えることもできる。ここで、図23及び図24は、携帯電話装置の撮影動作の他の例を説明するための説明図である。なお、図23及び図24に示す例も被写体の構成は、図17と同様であるので、説明は省略する。
 図23及び図24に示す例では、操作者は、領域と人数(本例では4人)、さらに、人物の姿勢(ピースをしているポーズ)を指定する。携帯電話装置1は、領域と人数と姿勢が指定されたら、図23に示すようにプレビュー画像Pとして、指定された領域に枠Aを表示させる。また、携帯電話装置1は、枠A内の画像の画像解析を行い、枠内にいる人物を検出し、その人物の数と夫々の人物の姿勢を検出する。なお、図23に示す例では、3人と検出され、ピースをしていることが検出される。
 この状態から、さらに人物Hが移動し、枠Aの中に移動すると、図24に示すように、プレビュー画像Pには、枠A内にピースをした人物が4人いる状態となる。この状態になり、携帯電話装置1が、枠A内に4人の人物がいること及び、全員がピースをしていることを検出したら、画像を取得する。このように、画像解析を行うことで、撮影者等が所定の領域に移動し、所定の姿勢をするのみで画像の撮影を行うことが可能となる。また、所定の姿勢になった状態で画像を撮影することで、被写体の人物が意図した姿勢となっている画像を取得することができる。
 さらに、携帯電話装置1は、プレビュー画像に撮影に関わる操作の項目を表示させ、その項目の表示位置に対応する領域に設定された対象物があることを検出したら、その項目の操作を行うようにすることもできる。以下、図25及び図26を用いて説明する。ここで、図25及び図26は、それぞれ携帯電話装置の撮影動作の他の例を説明するための説明図である。なお、図25及び図26に示す例も被写体の構成は、図17と同様であるので、説明は省略する。また、本例では、設定された対象物として、人物hの手が設定されている。
 まず、携帯電話装置1は、図25に示すように、プレビュー画像Pとして、カメラ36により取得した画像に加え、枠Aと、枠A内に配置された項目100、項目102、項目104の3つの項目を表示させる。なお、項目100は、「ズーム」と表示され、項目102は、「モード」と表示され、項目104は、「撮影」と表示されている。携帯電話装置1は、項目が指定されると、表示されている名称に対応した動作が行われる。なお、「モード」は、撮影モード(夜景、室内、風景等)の変更を行う。また、枠Aは、撮影位置にいる人物が手を出して、届く範囲である。
 携帯電話装置1は、図25に示すプレビュー画像Pが表示されている状態から、図26に示すように、操作者となる人物Hが枠A内に移動し、項目104に対応する領域に手106を移動させ、プレビュー画像P上において、項目104と手106とが重なったことを検出したら、画像を取得する。なお、手の抽出は、画像解析によって行うことができる。
 このように、携帯電話装置1に操作コマンドをプレビュー画像に表示させ、プレビュー画像上において対象物がその領域に重なった状態であるか否かを判定させることでも、被写体となる撮影者は、携帯電話装置1から離れた状態かつ、任意のタイミングで画像の撮影を行うことができる。また、操作コマンドとして種々の項目を表示させることで、被写体は、撮影領域内で動くだけで、コマンドに表示された操作を行うことができる。これにより、撮影画像の倍率や、撮影モードも変更することができる。
 上記例では、プレビュー画像を見ながら、操作者が項目に対応する位置に対象物を移動させるようにしたが、カメラ36でプレビュー画像の一部を撮影するようにし、プレビュー画像に表示させた項目の上に、対象物が移動されたかを検出し、処理を行うようにしてもよい。以下、図27から図30を用いて説明する。ここで、図27から図30は、携帯電話装置の撮影動作の他の例を説明するための説明図である。なお、図27から図30に示す例も、プロジェクタ34により画像の投影領域、処理が異なるのみで、被写体の構成は、図17と同様である。また、本例では、設定された対象物として、人物hの足が設定されている。
 まず、図27に示すように、携帯電話装置1のプロジェクタ34は、一部が撮影領域Vと重なるようにプレビュー画像Pを投影している。これにより、携帯電話装置1は、プレビュー画像Pの一部の画像をカメラ36により取得することができる。
 また、携帯電話装置1は、図28に示すように、プレビュー画像Pとして、カメラ36により取得した画像に加え、枠Aと、枠A内に配置された項目112、項目114、項目116の3つの項目を表示させる。なお、項目112は、「モード」と表示され、項目114は、「ズーム」と表示され、項目116は、「撮影」と表示されている。携帯電話装置1は、項目が指定されると、表示されている名称に対応した動作が行われる。また、プロジェクタ34は、携帯電話装置1側にカメラ36で取得した画像の上側部分、人物側に、カメラ36で取得した画像の下側部分が配置されるようにプレビュー画像Pを投影している。また、各項目は、人物が足を伸ばして届く領域に表示されている。なお、プレビュー画像Pと撮影領域Vとが重なる部分の全体に対する割合を同一とすることで、撮影画像と投影画像とがずれることを抑制することができる。また、撮影領域Vの画像のうちプレビュー画像Pと重なる部分は、投影しないようにしてもよい。
 この状態から、図29に示すように、人物Hが、足118によりプレビュー画像Pの項目116を踏む。携帯電話装置1は、カメラ36で取得した画像を解析し、項目116が足118により踏まれていることを検出したら、画像の取得(撮影)を行う。また、携帯電話装置1は、図30に示すように、プロジェクタ34からはプレビュー画像Pとして何の画像も投影していない状態とした後、画像を取得する。
 このように、本例の携帯電話装置1を用いる場合、撮影者は、プロジェクタによって投影された画像を踏むことで、画像の取得を行うことができる。つまりシャッターを押すことができる。また、実際に表示されている画像に対して、入力を行うことができるため、操作の入力位置がわかりやすく、操作者は簡単に操作を行うことができる。
 また、携帯電話装置1は、プレビュー画像の投影を停止してから、つまり何も投影していない状態でカメラによる画像の取得を行うことで、プレビュー画像が撮影した画像に写ることを抑制することができる。また、携帯電話装置1は、プロジェクタから出力される光が撮影した画像に影響を与えることも抑制することができる。
 なお、上述した画像撮影のタイミング等の動作は、いずれもプレビュー画像を表示させつつ、行うことで、処理を簡単にすることができ、ユーザの所望の画像を取得しやすくすることができる。このようにプレビュー画像の表示とともに用いることが好ましいが、図17から図24に示す例のように、予め条件を入力し、その条件を検出したら自動的に画像を撮影するようにする場合は、プレビュー画像を表示しないで用いることもできる。
 なお、上記説明においては、携帯撮像装置である携帯電話装置1は、第1の投影モード及び第2の投影モードの少なくとも2つのモードを備えるものを例としたが、本実施形態に係る携帯撮像装置は、このような携帯電話装置1に限定されるものではない。例えば、本実施形態に係る携帯撮像装置が第2の投影モードのみを備えているものであってもよい。また、プロジェクタ34としては、レーザー光をミラーで走査させて画像を投影する機構に限定されず、例えば、投影する画像の画素毎にシャッターを設け、シャッターを開閉させることで画像を投影する機構も用いることができる。
 また、上記実施形態では、いずれも静止画を取得する場合として説明したが、動作を撮影する場合に用いてもよい。また、上述した画像取得(シャッターを押すタイミング)入力の各例は、動画の撮影の場合は、撮影のスタート、終了の指示の入力に用いることができる。また、上記実施形態では、携帯電話装置として説明したが、無線通信機能を備えないプロジェクタ機能付デジタルカメラ、プロジェクタ機能付デジタルビデオカメラにも用いることができる。
 以上のように、本発明に係る携帯撮像装置は、例えば、レリーズタイマー等で撮影者自身も含めた画像を撮影する場合に有用である。
 1 携帯電話装置
 13 操作部
 22 処理部
 22a プロジェクタ制御部
 24 記憶部
 31 光源部
 32 光照射口
 33 表示部
 34 プロジェクタ
 35 照射部
 35M ミラー
 36 カメラ

Claims (11)

  1.  撮像部と、
     画像を投影する投影部と、
     前記撮像部で撮像した画像を記憶する記憶部と、を備え、
     前記投影部は、前記撮像部が撮像している第1画像、当該第1画像に関連する第2画像、及び、前記第1画像と前記第2画像とを合成した第3画像のいずれかを投影画像として、前記撮影部の撮像領域とは異なる領域に投影し、
     前記記憶部は、前記投影画像を投影したときの前記第1画像、または、前記投影画像の投影後の前記第1画像を記憶することを特徴とする携帯撮像装置。
  2.  前記投影部は、前記撮像部で撮影される被写体となる人物が前記撮像領域から前記投影画像を視認できる領域に、当該投影画像を投影することを特徴とする請求項1に記載の携帯撮像装置。
  3.  前記投影部により投影する画像と同一の画像を表示する表示部と、
     前記表示部に表示された前記画像中の位置を指定する操作が入力される操作部と、を備え、
     前記第2画像は、前記操作部に入力された操作により指定された特定位置を示す画像であることを特徴とする請求項1または2に記載の携帯撮像装置。
  4.  前記特定位置を示す画像は、撮像時の被写体となる人物の位置を示唆する画像であることを特徴とする請求項3に記載の携帯撮像装置。
  5.  前記第2画像は、前記撮像の制御に関連する情報を示す画像を含むことを特徴とする請求項1から4のいずれか1項に記載の携帯撮像装置。
  6.  前記記憶部は、前記撮像部が被写体の個数、被写体の動作、及び、被写体の位置が予め設定された条件を充足すると判定したら、当該条件を充足したとき、または、充足したとき以降に取得した前記第1画像を記憶することを特徴とする請求項1から5のいずれか1項に記載の携帯撮像装置。
  7.  前記記憶部は、前記撮像部が前記被写体となる人物と前記特定位置の関係が予め設定された条件を充足したことを検出したら、当該条件を充足したとき或いはそれ以降の前記第1画像を記憶することを特徴とする請求項3に記載の携帯撮像装置。
  8.  前記投影部は、前記投影画像の一部が、前記撮像領域と重複する位置に画像を投影し、
     前記記憶部は、前記撮像部が前記投影画像と撮像領域とが重複した領域において、被写体の個数或いは被写体の動作或いは被写体の位置が予め設定された条件を充足することを検出したら、前記投影部による投影画像の投影を停止させた後に、画像の投影を停止させたとき以降の前記第1画像を記憶することを特徴とする請求項1に記載の携帯撮像装置。
  9.  前記重複した領域は、前記被写体の直下或いはその近傍であることを特徴とする請求項8に記載の携帯撮像装置。
  10.  前記投影部は、前記重複した領域に、撮像に関する指示を行うためのマークを表示させ、
     前記記憶部は、前記撮像部が前記被写体となる人物が前記マークに対して、予め設定された動作をしたことを検出したら、予め設定された動作の検出時以降の前記第1画像を記憶することを特徴とする請求項8に記載の携帯撮像装置。
  11.  撮像部と、
     画像を投影する投影部と、
     前記撮像部で撮像した画像を記憶する記憶部と、を備え、
     前記投影部は、前記撮像部が撮像している第1画像と、予め記憶されている第2画像とを合成した第3画像を投影画像として、前記撮影部の撮像領域とは異なる領域に投影し、
     前記記憶部は、前記投影画像を投影したときの前記第3画像、または、前記投影画像の投影後の前記第3画像を記憶することを特徴とする携帯撮像装置。
PCT/JP2010/068710 2009-10-28 2010-10-22 携帯撮像装置 WO2011052506A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/504,266 US9170472B2 (en) 2009-10-28 2010-10-22 Portable photographing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-248218 2009-10-28
JP2009248218A JP5473536B2 (ja) 2009-10-28 2009-10-28 プロジェクタ機能付携帯撮像装置

Publications (1)

Publication Number Publication Date
WO2011052506A1 true WO2011052506A1 (ja) 2011-05-05

Family

ID=43921928

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/068710 WO2011052506A1 (ja) 2009-10-28 2010-10-22 携帯撮像装置

Country Status (3)

Country Link
US (1) US9170472B2 (ja)
JP (1) JP5473536B2 (ja)
WO (1) WO2011052506A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021491A1 (en) * 2011-07-20 2013-01-24 Broadcom Corporation Camera Device Systems and Methods
CN103167230A (zh) * 2011-12-17 2013-06-19 富泰华工业(深圳)有限公司 电子设备及其根据手势控制拍照的方法
CN104204940A (zh) * 2012-03-13 2014-12-10 富士胶片株式会社 带投影仪摄影装置及其控制方法
CN112672125A (zh) * 2020-12-24 2021-04-16 四川长虹电器股份有限公司 一种用于激光电视的图像匹配系统及方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104076988B (zh) * 2013-03-27 2017-12-01 联想(北京)有限公司 一种显示方法、显示控制方法及电子设备
JP6313014B2 (ja) * 2013-08-27 2018-04-18 東芝ライフスタイル株式会社 カメラシステム、冷蔵庫
CN104516699A (zh) * 2013-09-27 2015-04-15 联想(北京)有限公司 一种图像显示方法及电子设备
US9582941B2 (en) * 2014-04-30 2017-02-28 Cubic Corporation Adaptive gate walkway floor display
USD778950S1 (en) * 2015-10-08 2017-02-14 Naver Corporation Display panel with icon
WO2018070067A1 (ja) 2016-10-14 2018-04-19 パナソニックIpマネジメント株式会社 プロジェクションシステム、プロジェクション方法、飛行体システム及び飛行体
CN107979748A (zh) * 2016-10-21 2018-05-01 中强光电股份有限公司 投影机、投影系统以及影像投影方法
CN112866774A (zh) * 2021-01-07 2021-05-28 福建捷联电子有限公司 一种具有多功能相机的显示器及其控制方法
CN114727080A (zh) * 2022-04-01 2022-07-08 福建卓航特种设备有限公司 便携式影像融屏设备、系统、方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080875A (ja) * 2004-09-09 2006-03-23 Nikon Corp 電子機器
JP2006197369A (ja) * 2005-01-14 2006-07-27 Olympus Corp 撮像装置
JP2008134452A (ja) * 2006-11-28 2008-06-12 Sky Kk 撮像装置及び撮像装置のための撮影制御プログラム
JP2009033544A (ja) * 2007-07-27 2009-02-12 Fujifilm Corp 撮影装置、撮影装置の制御方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003152851A (ja) 2001-11-14 2003-05-23 Nec Corp 携帯端末装置
US7234819B2 (en) * 2003-09-30 2007-06-26 Olympus Corporation Projector system and camera system
ATE532330T1 (de) * 2004-09-21 2011-11-15 Nikon Corp Projektoreinrichtung, mobiltelefon und kamera
WO2006038577A1 (ja) * 2004-10-05 2006-04-13 Nikon Corporation プロジェクタ装置を有する電子機器
JP4725083B2 (ja) * 2004-11-19 2011-07-13 株式会社ニコン プロジェクタ装置、携帯電話
EP1909257A4 (en) * 2005-07-12 2010-01-27 Nikon Corp PROJECTION DEVICE EQUIPPED WITH A DISPLAY MONITOR
JP2008298819A (ja) 2007-05-29 2008-12-11 Nikon Corp 携帯電子機器、カメラおよび携帯電話機
JP5679803B2 (ja) * 2010-12-24 2015-03-04 京セラ株式会社 携帯電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080875A (ja) * 2004-09-09 2006-03-23 Nikon Corp 電子機器
JP2006197369A (ja) * 2005-01-14 2006-07-27 Olympus Corp 撮像装置
JP2008134452A (ja) * 2006-11-28 2008-06-12 Sky Kk 撮像装置及び撮像装置のための撮影制御プログラム
JP2009033544A (ja) * 2007-07-27 2009-02-12 Fujifilm Corp 撮影装置、撮影装置の制御方法およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021491A1 (en) * 2011-07-20 2013-01-24 Broadcom Corporation Camera Device Systems and Methods
CN103167230A (zh) * 2011-12-17 2013-06-19 富泰华工业(深圳)有限公司 电子设备及其根据手势控制拍照的方法
CN103167230B (zh) * 2011-12-17 2017-10-03 富泰华工业(深圳)有限公司 电子设备及其根据手势控制拍照的方法
CN104204940A (zh) * 2012-03-13 2014-12-10 富士胶片株式会社 带投影仪摄影装置及其控制方法
CN112672125A (zh) * 2020-12-24 2021-04-16 四川长虹电器股份有限公司 一种用于激光电视的图像匹配系统及方法

Also Published As

Publication number Publication date
JP5473536B2 (ja) 2014-04-16
US9170472B2 (en) 2015-10-27
US20120212647A1 (en) 2012-08-23
JP2011095430A (ja) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5473536B2 (ja) プロジェクタ機能付携帯撮像装置
JP5259010B2 (ja) 携帯電子機器および投影システム
US8942769B2 (en) Mobile electronic device
US8807757B2 (en) Mobile electronic device having a partial image projector
EP1793599A1 (en) Electronic device
US9097966B2 (en) Mobile electronic device for projecting an image
JP5520517B2 (ja) 携帯電子機器
WO2006038577A1 (ja) プロジェクタ装置を有する電子機器
JP4361599B1 (ja) 情報処理装置および情報処理プログラム
JP5420365B2 (ja) 投影装置
JP2014143545A (ja) 撮影機器
WO2011093287A1 (ja) 携帯電子機器
JP6285160B2 (ja) カメラ機能を有する機器、撮影制御方法およびプログラム
JP4371016B2 (ja) 電子機器
WO2015194084A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP4876836B2 (ja) 撮像装置及び方法並びにプログラム
JP5615651B2 (ja) 電子機器および投影システム
JP5606888B2 (ja) 携帯電子機器
JP2003324632A (ja) 撮影装置、および、それを用いた携帯機器
JP2012113255A (ja) 携帯電子機器
JP2013251617A (ja) カメラ
JP2006238033A (ja) 電子機器
JP2010199734A (ja) カメラの遠隔制御システム、及び携帯型端末
CN106454128B (zh) 自拍杆调节方法和装置
JP2009177530A (ja) 携帯電話端末

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10826638

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13504266

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10826638

Country of ref document: EP

Kind code of ref document: A1