WO2014132816A1 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2014132816A1
WO2014132816A1 PCT/JP2014/053481 JP2014053481W WO2014132816A1 WO 2014132816 A1 WO2014132816 A1 WO 2014132816A1 JP 2014053481 W JP2014053481 W JP 2014053481W WO 2014132816 A1 WO2014132816 A1 WO 2014132816A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
additional information
processing apparatus
imaging
Prior art date
Application number
PCT/JP2014/053481
Other languages
English (en)
French (fr)
Inventor
英史 山田
吉村 真一
大木 光晴
宗一 小波
真透 舘
裕考 篠崎
真由子 丸山
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/762,250 priority Critical patent/US9727993B2/en
Priority to AU2014222020A priority patent/AU2014222020A1/en
Priority to CN201480009561.6A priority patent/CN105027552B/zh
Priority to EP14757727.4A priority patent/EP2963910A4/en
Publication of WO2014132816A1 publication Critical patent/WO2014132816A1/ja
Priority to US15/434,848 priority patent/US20170163887A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present technology relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program capable of displaying an image more effectively and improving convenience.
  • an imaging apparatus equipped with two cameras is known. Some of such imaging devices can capture images simultaneously with two cameras.
  • the sub camera when a main camera and a sub camera capture an image and the photographer's voice is collected by a sub microphone, the sub camera can There is also one that synthesizes and records the obtained images (for example, see Patent Document 1).
  • the present technology has been made in view of such a situation, and can display an image more effectively and improve convenience.
  • An image processing apparatus includes a first imaging unit that images a first direction, a second imaging unit that images a second direction different from the first direction, and the first An additional information generation unit that generates additional information based on the first image obtained by imaging by the imaging unit, and the additional information in the image data of the second image obtained by imaging by the second imaging unit. And an addition processing unit for adding.
  • the additional information generation unit can generate the additional information by compressing the information amount of the first image.
  • the additional information generation unit can generate the additional information by compressing the size of the first image.
  • the first imaging unit causes the direction of the user operating the image processing apparatus to be imaged as the first direction, and the image processing apparatus synthesizes an image obtained from the additional information with the second image.
  • a synthesizing unit can be further provided.
  • the first imaging unit causes the direction of the user operating the image processing device to capture an image as the first direction
  • the additional information generation unit performs face recognition processing on the first image.
  • the photographer information of the second image can be generated as the additional information.
  • the image processing apparatus includes an extraction unit that detects the second image captured by a specific photographer from the plurality of second images based on the additional information, and the first unit detected by the extraction unit.
  • a reproduction unit that displays only two images can be further provided.
  • the image processing apparatus may further include a classification unit that records the second image in a recording area determined by the photographer information as the additional information.
  • the image processing apparatus is provided on the surface on the user side that operates the image processing apparatus provided with the first imaging unit, and is captured by the second imaging unit at the time of imaging the second image.
  • a display unit for displaying an image is further provided, and the additional information generation unit detects the direction of the user's line of sight based on the first image, so that the user on the second image is gazing. It is possible to generate information indicating the gaze area as the additional information.
  • the image processing apparatus may further include a reproducing unit that controls display of the second image based on the additional information.
  • the reproduction unit can display a plurality of the second images based on the additional information.
  • the image processing apparatus further includes a field angle conversion unit that performs a field angle conversion process on the second image, and the additional information generation unit includes a region including a main subject on the first image.
  • the cropped image obtained by cutting out can be used as the additional information, and the additional processing unit can add the additional information to the image data of the second image subjected to the angle-of-view conversion processing.
  • the cropped image as the additional information and the second image that has been subjected to the angle-of-view conversion process are combined side by side to compose the first image captured by the second imaging unit.
  • a synthesis unit that generates a synthesized image having the same aspect ratio as the second image can be further provided.
  • the first imaging unit causes the direction of the user operating the image processing apparatus to capture an image as the first direction
  • the additional information generation unit causes the user to smile based on the first image.
  • the degree of smile of the user is generated as the additional information
  • the second imaging unit can capture the second direction when the smile of the user is detected.
  • the image processing apparatus may further include a classification unit for recording the second image in a recording area determined by the degree of smile as the additional information.
  • the first imaging unit causes the direction of the user operating the image processing apparatus to capture an image as the first direction
  • the additional information generation unit causes the user to smile based on the first image. It is possible to further provide a classification unit for detecting and generating the degree of smile of the user as the additional information and recording the second image in a recording area determined by the degree of smile as the additional information.
  • An image processing method or program images a first direction by a first imaging unit, images a second direction different from the first direction by a second imaging unit, and Additional information is generated based on the first image obtained by imaging by the first imaging unit, and the additional information is added to the image data of the second image obtained by imaging by the second imaging unit. Includes steps.
  • the first imaging unit captures a first direction
  • the second imaging unit captures a second direction different from the first direction
  • the first imaging unit The additional information is generated based on the first image obtained by the imaging by the second imaging unit, and the additional information is added to the image data of the second image obtained by the imaging by the second imaging unit.
  • an image can be displayed more effectively and convenience can be improved.
  • the present technology relates to a device having a plurality of imaging units capable of imaging different directions, such as a multi-function mobile phone and a digital camera, and when the main imaging unit captures an image, the image is captured at the same time. Information obtained from other images is generated as additional information. In the present technology, an image can be displayed more effectively by generating such additional information. Further, by embedding additional information in the image data, it is possible to perform display control with a higher degree of freedom at the time of image reproduction without requiring a troublesome operation at the time of image capture, thereby improving convenience. be able to.
  • FIG. 1 is a diagram illustrating a configuration example of an external appearance of an image processing apparatus such as a multi-function mobile phone to which the present technology is applied.
  • the appearance of the image processing apparatus 11 indicated by an arrow A ⁇ b> 11 indicates the appearance on the front side, that is, the side that can be seen by the user when the user operates the image processing apparatus 11.
  • the appearance of the image processing apparatus 11 indicated by the arrow A12 indicates an appearance when the image processing apparatus 11 indicated by the side, that is, the arrow A11 is viewed from the left side or the right side in the drawing.
  • the appearance of the image processing apparatus 11 indicated by the arrow A13 indicates the appearance of the back side, that is, the side opposite to the front side.
  • a display unit 21 on which an image or the like is displayed is provided on the surface side of the image processing apparatus 11, and a touch panel for a user to perform an input operation is superimposed on the display unit 21.
  • a touch panel for a user to perform an input operation is superimposed on the display unit 21.
  • an in-image imaging unit 22 that captures a subject in the direction of the surface side of the image processing apparatus 11 is also provided. Therefore, in most cases, an image captured by the in-image capturing unit 22 is an image of a user who is operating the image processing apparatus 11.
  • the image captured by the in-image capturing unit 22 will be referred to as an in-image, and the description will be continued assuming that the user's image is captured as the in-image.
  • an out-image capturing unit 23 that captures a subject in the direction of the back side of the image processing device 11 is provided on the back surface of the image processing device 11.
  • the out-image capturing unit 23 is provided so as to capture a direction opposite to the capturing direction of the in-image capturing unit 22, but the in-image capturing unit 22 and the out-image capturing unit 23 are mutually in the capturing direction. Need only be arranged differently.
  • the image captured by the out-image capturing unit 23 is usually an image of a landscape or a person that the user is viewing, that is, an image of a subject that the user wants to capture.
  • an image captured by the out image capturing unit 23 is referred to as an out image.
  • the user U11 points the out-image capturing unit 23 of the image processing device 11 toward the target subject H11. To instruct imaging. Then, the image processing apparatus 11 captures the in-image and the out-image at the same time or almost at the same time in accordance with the user U11's imaging instruction.
  • an image of the subject H11 is obtained as an out image
  • an image of the user U11 is obtained as an in image
  • the image processing apparatus 11 performs a process such as encoding on the in-image obtained in this way as necessary, and uses the resulting image as additional information. Then, the image processing apparatus 11 adds the obtained additional information to the image data of the out image.
  • the additional information is not synthesized on the out image, but is embedded as additional information in the image data of the out image.
  • the additional information is embedded as so-called Exif data, that is, metadata about the out image, with respect to the image data of the out image conforming to, for example, Exif (Exchangeable image file format).
  • the user can select whether to display only the out images or to display the images obtained from the additional information combined with the out images. For example, when an image obtained from the additional information is combined with the out image and displayed, the out image shown on the right side in the figure is displayed on the display unit 21.
  • the image IP11 obtained from the additional information is superimposed on the out image in which the subject H11 is shown.
  • the image IP11 is an image of the face of the user U11
  • the user who appreciates the out image is angry about who captured the out image
  • the facial expression of the user U11 at the time of the out image capture that is, laughing. You can know if you are excited or not.
  • the image obtained from the in-image is embedded in the image data as additional information of the out-image, and additional information is used as needed when reproducing the out-image, so that the photographer at the time of capturing the out-image You can check the situation.
  • an out-image captured during travel can be more enjoyed as a memory when viewed later.
  • the image processing apparatus 11 since the situation at the time of capturing the out image can be confirmed as an image, for example, if the out image is captured as reference information when investigating an accident, the photographer, the imaging environment, the imaging Information such as location can be easily left behind.
  • FIG. 3 is a block diagram showing a more detailed configuration example of the image processing apparatus 11.
  • the same reference numerals are given to the portions corresponding to those in FIG. 1, and the description thereof will be omitted as appropriate.
  • 3 includes a display unit 21, an in-image capturing unit 22, an out-image capturing unit 23, an operation input unit 51, a control unit 52, a signal processing unit 53, and a recording unit 54.
  • the operation input unit 51 includes, for example, a touch panel provided so as to be superimposed on the display unit 21, and supplies a signal corresponding to a user operation to the control unit 52.
  • the control unit 52 controls the overall operation of the image processing apparatus 11 according to the signal supplied from the operation input unit 51. For example, the control unit 52 instructs the in-image capturing unit 22 and the out-image capturing unit 23 to capture an image, and instructs the signal processing unit 53 to reproduce and record the out-image.
  • the signal processing unit 53 generates additional information based on the in-image supplied from the in-image capturing unit 22, adds the additional information to the out image supplied from the out-image capturing unit 23, and adds the additional information.
  • the out image is supplied to the recording unit 54 to be recorded.
  • the signal processing unit 53 reads out images from the recording unit 54, supplies them to the display unit 21, and displays them.
  • the recording unit 54 records the out image supplied from the signal processing unit 53 and supplies the recorded out image to the signal processing unit 53 as necessary.
  • the signal processing unit 53 in FIG. 3 is configured as shown in FIG. 4 in more detail.
  • the signal processing unit 53 shown in FIG. 4 includes a compression unit 81, an addition processing unit 82, an extraction unit 83, a decoding unit 84, and a reproduction unit 85.
  • the compression unit 81 generates additional information by compressing the information amount and size of the in-image supplied from the in-image capturing unit 22 and supplies the additional information to the addition processing unit 82.
  • the compression unit 81 includes an information amount compression unit 91, a size compression unit 92, and an encoding unit 93.
  • the information amount compression unit 91 extracts the contour of the subject on the in-image by binarizing the in-image. That is, the in-image is converted into a binary image by the binarization process, and thereby the information amount of the in-image is compressed.
  • the size compression unit 92 compresses the size of the binary image by reducing the size of the binary image obtained by the information amount compression unit 91.
  • the encoding unit 93 encodes the binary image size-compressed by the size compression unit 92 and uses it as additional information.
  • the encoding process by the encoding unit 93 is also a process of compressing the information amount of the in-image (binary image).
  • the addition processing unit 82 adds the additional information supplied from the compression unit 81 to the image data of the out image supplied from the out image capturing unit 23, and supplies the additional information to the recording unit 54.
  • the extraction unit 83 reads out images from the recording unit 54 and extracts additional information from the out images.
  • the extraction unit 83 supplies the out image to the reproduction unit 85 and also supplies the additional information extracted from the out image to the decoding unit 84.
  • the decoding unit 84 decodes the additional information supplied from the extraction unit 83 and supplies the binary image obtained as a result to the reproduction unit 85.
  • the decoding unit 84 includes an expansion unit 94, and the expansion unit 94 expands the size of the binary image as necessary.
  • the reproduction unit 85 supplies the out image supplied from the extraction unit 83 to the display unit 21 for display.
  • the reproduction unit 85 includes a combining unit 95, and the combining unit 95 combines the binary image supplied from the decoding unit 84 with the out image. Therefore, the reproducing unit 85 can cause the display unit 21 to display an out image obtained by combining the binary images as necessary.
  • step S ⁇ b> 11 the out-image capturing unit 23 captures an out-image according to an instruction from the control unit 52 and supplies it to the additional processing unit 82.
  • a landscape image or the like is captured as an out image.
  • step S ⁇ b> 12 the in-image capturing unit 22 captures an in-image according to an instruction from the control unit 52 and supplies the in-image to the compression unit 81.
  • an image of the face of the user who is operating the image processing apparatus 11 is captured as an in-image.
  • the information amount compression unit 91 converts the in-image supplied from the in-image capturing unit 22 into a binary image.
  • the information amount compression unit 91 converts the in image, which is a color image, into a monochrome image with 256 gradations, and binarizes the monochrome image to generate a binary image.
  • a user's face image obtained by capturing an out image is obtained as a binary image. Since this binary image is an image of the user's face when the out image is captured, the binary image is an image that allows the user to know the user's facial expression, mood, and the like when the out image is captured.
  • step S14 the size compression unit 92 compresses the size of the binary image obtained by the information amount compression unit 91. For example, a binary image having the same size as the out image is reduced to an image having a size of 160 pixels ⁇ 120 pixels, that is, a thumbnail size.
  • step S15 the encoding unit 93 encodes the binary image size-compressed by the size compression unit 92 and sets it as additional information.
  • the encoding unit 93 encodes the binary image RP11 by the run-length method, and uses the run-length code obtained as a result as additional information.
  • Each square of the binary image RP11 represents one pixel.
  • a white square represents a pixel having a pixel value “1”
  • a black square represents a square having a pixel value “0”.
  • FIG. 6 coordinates indicating the position in the horizontal direction in the diagram of the binary image RP11 are shown.
  • the coordinates of the pixel located at the left end in the diagram of the binary image RP11 are “1”.
  • the coordinate of the pixel located at the right end is “11”. That is, the coordinates of each pixel indicate how many pixels are located from the left end of the binary image RP11.
  • the binary image RP11 is encoded for each pixel column arranged in the horizontal direction in the drawing.
  • a pixel column to be coded is represented by a run-length code composed of the start point position of a pixel column composed of pixels having pixel values “1” and the length of the pixel column.
  • the pixel whose coordinates are “1” has the pixel value “1”.
  • the pixel with the coordinate “2” adjacent to the pixel value is “0”. Therefore, when a pixel column having a pixel value “1” starting from a pixel having coordinates “1” is expressed by “start point, length” of the pixel column, “1, 1” is obtained.
  • a pixel row composed of pixels having a pixel value “1” starting from a pixel with coordinates “4” is expressed as “4, 3” as “start point, length”.
  • a pixel row composed of pixels having a pixel value “1” starting from a pixel whose coordinates are “10” is represented by “10, 2”.
  • the encoding unit 93 obtains codes “1, 1, 4, 3, 10, 2” obtained by arranging these three “starting point and length” codes.
  • the run length code of the pixel row of interest is used.
  • the encoding unit 93 uses the run-length code obtained for each pixel column of the binary image RP11 in this way as additional information of the binary image RP11.
  • the compression unit 81 supplies the additional information obtained by the encoding by the encoding unit 93 to the additional processing unit 82.
  • step S ⁇ b> 16 the addition processing unit 82 adds the additional information supplied from the compression unit 81 to the image data of the out image supplied from the out image capturing unit 23, and the recording unit. 54. That is, the additional information is embedded in the image data of the out image as metadata of the out image.
  • step S17 the recording unit 54 records the out-image supplied from the addition processing unit 82, and the imaging process ends.
  • the image processing apparatus 11 compresses the information of the in-image captured at the same time as the out-image to obtain additional information, and adds the additional information to the out-image.
  • additional information it is possible to display the image more effectively using the additional information at the time of reproducing the out image, and it is possible to improve convenience.
  • the image processing apparatus 11 since additional information is added to the out image, it is possible to specify whether to display only the out image during playback or to display the out image using the additional information. Therefore, the out image can be displayed more effectively and the convenience can be improved.
  • the user does not need to perform an operation of instructing the synthesis of the image obtained from the in-image to the out-image when capturing the out-image, and can concentrate on the imaging work. Thereby, the convenience for the user can be further improved.
  • the user can operate the operation input unit 51 to reproduce the recorded out image. At that time, for example, the user can select whether to display only the out image or to display the image obtained from the additional information on the out image by combining the operation input unit 51.
  • step S41 the extraction unit 83 reads out images specified by the user from the recording unit 54 in accordance with instructions from the control unit 52.
  • step S42 the extraction unit 83 supplies the read out image to the reproduction unit 85, reads additional information from the image data of the out image, and supplies the additional information to the decoding unit 84.
  • step S43 the decoding unit 84 decodes the additional information supplied from the extraction unit 83. For example, when the additional information is a run length code, the decoding unit 84 restores a binary image from the run length code.
  • step S44 the decompression unit 94 decompresses the size of the binary image obtained by decoding. For example, a 160 ⁇ 120 pixel thumbnail-sized binary image is enlarged to an appropriate-sized binary image.
  • the decoding unit 84 supplies the binary image expanded by the expansion unit 94 to the reproduction unit 85 as an image obtained from the additional information.
  • step S45 the reproducing unit 85 determines whether or not to reproduce the binary image.
  • a signal to that effect is sent from the control unit 52 to the signal processing unit 53.
  • the reproduction unit 85 determines to reproduce the binary image when the signal supplied from the control unit 52 to the signal processing unit 53 is a signal for displaying the binary image combined with the out image.
  • step S46 the synthesis unit 95 synthesizes the binary image supplied from the decoding unit 84 with the out image supplied from the extraction unit 83.
  • the position on the out image where the binary image is combined may be a predetermined position or a position designated by the user, or a background without a subject (foreground) specified by image recognition or the like. It may be the position of the region.
  • the reproduction unit 85 supplies the out image obtained by combining the binary images to the display unit 21 and controls the display of the out image.
  • step S47 the display unit 21 displays the out image obtained by combining the binary images supplied from the reproduction unit 85, and the reproduction process ends.
  • step S45 If it is determined in step S45 that the binary image is not reproduced, the reproducing unit 85 supplies the out image supplied from the extracting unit 83 to the display unit 21 as it is, and the process proceeds to step S48. In this case, an out image in which a binary image is not synthesized is supplied to the display unit 21.
  • step S48 the display unit 21 displays the out image supplied from the playback unit 85, and the playback process ends.
  • the image processing apparatus 11 displays the out image as it is in accordance with a user instruction, or causes the binary image obtained from the additional information added to the out image to be combined with the out image and displayed.
  • the additional information added to the out image in this way, it is possible to display only the out image according to the mood of the user at that time, or to display the out image in which the binary image is synthesized. it can. Thereby, the out image can be displayed more effectively and the convenience can be improved.
  • a user who views the out image can know the facial expression of the user when the out image is captured, and can more enjoy viewing the out image. .
  • in-image information As an example of compressing in-image information, the case of performing in-monochrome monochromeization, binarization, size reduction, and encoding has been described. However, any of these compression processes is described. May be combined as appropriate. For example, only the in-image may be converted into additional information by performing monochrome conversion, or the in-image may be converted into additional information by performing monochrome conversion and encoding. Further, compression may be performed on a partial area of the in-image, and the resulting image or code (code) may be used as additional information.
  • the signal processing unit 53 is configured as shown in FIG. 8, for example.
  • parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
  • the signal processing unit 53 in FIG. 8 has a configuration in which a face recognition unit 121 is further provided in the signal processing unit 53 in FIG.
  • the face recognizing unit 121 performs face recognition on the in-image supplied from the in-image capturing unit 22 using the registration information recorded in advance in the recording unit 54, and uses the recognition result as additional information to the additional processing unit 82. Supply.
  • the feature amount of the user's face image registered in advance, the user's face discriminator, and the like and the user name of the user are associated and recorded as registration information.
  • the face recognition unit 121 uses the registration information and the in-image to identify the user on the in-image by face recognition, and uses the identification result (face recognition result) as additional information.
  • the addition processing unit 82 adds the face recognition result supplied from the face recognition unit 121 and the binary image supplied from the compression unit 81 as additional information to the out image from the out image capturing unit 23, and the recording unit 54.
  • or step S75 is the same as the process of FIG.5 S11 thru
  • step S ⁇ b> 72 the in-image obtained by imaging is supplied from the in-image imaging unit 22 to the compression unit 81 and the face recognition unit 121.
  • step S ⁇ b> 76 the face recognition unit 121 performs face recognition on the in-image supplied from the in-image imaging unit 22 using the registration information recorded in the recording unit 54, and adds the recognition result as additional information.
  • the user name of the user identified as a result of face recognition that is, the photographer information is supplied to the additional processing unit 82 as additional information.
  • step S77 the addition processing unit 82 uses the photographer information supplied from the face recognition unit 121 and the encoded binary image supplied from the compression unit 81 as additional information from the out-image capturing unit 23. And is supplied to the recording unit 54.
  • step S78 the recording unit 54 records the out-image supplied from the addition processing unit 82, and the imaging process ends.
  • the image processing apparatus 11 adds the binary image obtained from the in-image and the photographer information as additional information to the out-image.
  • out images can be displayed more effectively and the convenience can be improved.
  • out images can be effectively displayed, such as displaying a list of out images captured by a specific photographer.
  • the user can operate the operation input unit 51 to display a list of out images captured by a specific user. At that time, for example, the user can select whether to display only the out image or to display the image obtained from the additional information on the out image by combining the operation input unit 51.
  • step S101 the extraction unit 83 reads all the out images recorded in the recording unit 54.
  • step S102 the extraction unit 83 reads photographer information as additional information added to each read out image, and detects an out image captured by a specific photographer.
  • a specific photographer is a photographer input by the user operating the operation input unit 51.
  • the control unit 52 reads registration information from the recording unit 54 through the signal processing unit 53 as necessary, and displays information indicating the photographer designated by the user as a signal processing unit. 53. Then, based on the information supplied from the control unit 52, the extraction unit 83 detects an out image captured by a specific photographer.
  • step S103 the extraction unit 83 supplies only the detected out-image of the specific photographer to the reproduction unit 85 and encodes 2 as additional information from the image data of the out-image of the specific photographer.
  • the value image is read out and supplied to the decoding unit 84.
  • a run-length code is supplied to the decoding unit 84 as an encoded binary image.
  • step S104 to step S107 is performed thereafter. Since these processing are the same as the processing from step S43 to step S46 in FIG. .
  • steps S104 to S107 for all out images taken by a specific photographer, encoded binary images as additional information read from the out images are decoded, and 2 for the out images.
  • the value image is synthesized.
  • step S108 the display unit 21 displays a list of out images obtained by combining the binary images supplied from the reproduction unit 85, and the reproduction process ends.
  • the out image SM11-1 to the out image SM11-6 shown in FIG. In this example, six out images SM11-1 to SM11-6 are displayed side by side on the display unit 21. Then, the binary images IP21-1 to IP21-6 as additional information are combined and displayed on the out images SM11-1 to SM11-6.
  • out images SM11-1 to SM11-6 are displayed as a list
  • the user operates the operation input unit 51 to display only one of the out images on the display unit 21, These out images can be displayed as a slide show.
  • a user's face image is recorded in advance as registration information, and the face image is synthesized and displayed on the out image. May be.
  • step S106 when it is determined in step S106 that the binary image is not to be reproduced, the reproducing unit 85 supplies the out image supplied from the extracting unit 83 to the display unit 21 as it is, and the processing is performed. The process proceeds to step S109.
  • step S109 the display unit 21 displays a list of the out images supplied from the reproduction unit 85, and the reproduction process ends.
  • out images SM11-1 to SM11-6 are displayed as a list
  • the user operates the operation input unit 51 to display only one of the out images on the display unit 21, These out images can be displayed as a slide show.
  • the image processing apparatus 11 uses the photographer information added as additional information to the out image, detects the out image of the specific photographer, and displays the detected out images as a list. In addition, when displaying the out images as a list, the image processing apparatus 11 synthesizes and displays a binary image on the out images in accordance with a user instruction.
  • the photographer information as additional information added to the out image, it is possible to display the out image more effectively, such as displaying only the out image of a specific photographer. Can be improved.
  • encoded binary images as additional information when out images are displayed as a list, only out images are displayed, or out images obtained by combining binary images are displayed. Can do.
  • ⁇ Third Embodiment> ⁇ Configuration example of signal processor>
  • a case where a binary image encoded as additional information and photographer information is generated has been described.
  • information indicating a gaze area on an out-image may be generated as additional information.
  • the gaze region is a region on the out image that the user who is the photographer is gazing at the time of capturing the out image.
  • the signal processing unit 53 is configured as shown in FIG. 13, for example.
  • the same reference numerals are given to the portions corresponding to those in FIG. 4, and description thereof will be omitted as appropriate.
  • the signal processing unit 53 in FIG. 13 includes a gaze area detection unit 151, an additional processing unit 82, an extraction unit 83, a cost calculation unit 152, and a reproduction unit 85. That is, the signal processing unit 53 in FIG. 13 has a configuration in which a gaze area detection unit 151 and a cost calculation unit 152 are provided instead of the compression unit 81 and the decoding unit 84 in the signal processing unit 53 in FIG.
  • the gaze area detection unit 151 detects a gaze area that is an area on the out image that the user is gazing based on the in-image supplied from the in-image imaging unit 22, and performs an additional process using the detection result as additional information. To the unit 82.
  • the addition processing unit 82 adds information indicating the detection result of the gaze area supplied from the gaze area detection unit 151 as additional information to the image data of the out image supplied from the out image imaging unit 23, and adds the information to the recording unit 54. Supply.
  • the cost calculation unit 152 gazes the area when trying to display a plurality of out images simultaneously or sequentially. Is calculated as a cost and supplied to the reproducing unit 85.
  • the reproduction unit 85 controls the display of the out image by the display unit 21 based on the cost supplied from the cost calculation unit 152, and displays a plurality of out images in a superimposed manner so that the gaze areas of the respective out images do not overlap as much as possible.
  • step S131 and step S132 is the same as the process of step S11 of FIG. 5, and step S12, the description is abbreviate
  • step S131 when the out image is captured, the image captured by the out image capturing unit 23 is supplied as a preview image of the out image to the display unit 21 via the reproduction unit 85 of the signal processing unit 53 and displayed.
  • the user operates the operation input unit 51 in a state where the preview image of the out image is displayed on the display unit 21 and instructs to capture the out image.
  • step S ⁇ b> 133 the gaze area detection unit 151 detects the user's gaze direction at the time of imaging the out image based on the in image supplied from the in image imaging unit 22, so that the user's gaze area on the out image is detected. Is detected.
  • the gaze area detection unit 151 detects a human face area from the in-image, and determines an eye area on the detected face area. Then, the gaze area detection unit 151 obtains the user's line-of-sight direction by performing pattern matching using the determined eye area and a learning data group prepared in advance. For example, in the pattern matching, the line-of-sight direction associated with the learning data having the highest score obtained by matching with the eye region is set as the line-of-sight direction to be obtained.
  • the gaze area detection unit 151 determines the relative positional relationship between the actual user face position and the in-image imaging unit 22 and the display unit 21 based on the user face position and the face size on the in-image.
  • the gaze area is detected from the positional relationship and the line-of-sight direction. That is, since the preview image of the out image is displayed on the display unit 21 when the in-image is captured, the region of the out image displayed in the region on the display unit 21 that the user is gazing at the time of capturing the in-image is displayed. , It should be the area that the user is paying attention to.
  • the gaze area detection unit 151 detects the gaze area on the out image based on the in-image, as a detection result, for example, the coordinates (rectangular coordinates) of the rectangular area on the out image indicating the gaze area are added as additional information. To the unit 82.
  • step S134 the addition processing unit 82 adds the additional information supplied from the gaze area detection unit 151 to the image data of the out image supplied from the out image capturing unit 23, and supplies the additional information to the recording unit 54.
  • step S135 the recording unit 54 records the out-image supplied from the addition processing unit 82, and the imaging process ends.
  • the image processing apparatus 11 uses the information indicating the gaze area of the out image detected based on the in image captured simultaneously with the out image as additional information, and adds the additional information to the out image.
  • the out image by adding additional information to the out image, it is possible to display the image more effectively by using the additional information at the time of reproducing the out image, and it is possible to improve convenience. For example, when a plurality of out images are displayed simultaneously, it is possible to display the gaze regions on the out images so as not to overlap as much as possible.
  • the information indicating the gaze area generated as the additional information is information that can be obtained only when the out image is captured, and the out image can be effectively presented if used when the out image is displayed.
  • the user can operate the operation input unit 51 to display the out image as a slide show. At that time, for example, the user can select whether to display the out images one by one or to superimpose a plurality of out images simultaneously by operating the operation input unit 51.
  • step S161 and step S162 are the same as the process of step S41 of FIG. 7, and step S42, the description is abbreviate
  • step S161 for example, a plurality of out images such as out images in a folder designated by the user are read.
  • step S ⁇ b> 162 information indicating the gaze area as additional information read from each of the plurality of out images is supplied from the extraction unit 83 to the cost calculation unit 152.
  • step S ⁇ b> 163 the cost calculation unit 152 calculates the overlapping degree of the subject as a cost based on the information indicating the gaze area as the additional information supplied from the extraction unit 83, and supplies it to the reproduction unit 85.
  • the cost calculation unit 152 obtains the importance of each area of the out-image with the gaze area as a saliency (important point). For example, the importance of the gaze area is increased, and the importance of the area other than the gaze area is decreased. At this time, the closer to the center of the gaze area, the higher the importance may be.
  • the cost calculation unit 152 calculates the cost of the overlapping degree of each subject for how to superimpose a plurality of out images displayed at the same time. 85. For example, in a case where a region with higher importance is overlapped with other out-images and cannot be seen, cost calculation is performed so that the cost becomes higher.
  • step S164 the reproduction unit 85 determines whether or not to display a plurality of out images in a superimposed manner.
  • step S165 the synthesis unit 95 performs a plurality of outs supplied from the extraction unit 83 based on the cost supplied from the cost calculation unit 152. Combine images.
  • the synthesizing unit 95 synthesizes a plurality of out images in a superimposing manner determined by the lowest cost supplied from the cost calculating unit 152. Thereby, a plurality of out images are superimposed so that main subjects of each out image do not overlap as much as possible, that is, the gaze area is not hidden behind other out images.
  • the playback unit 85 supplies the plurality of synthesized out images to the display unit 21 and instructs the slide unit display of the plurality of out images.
  • step S166 the display unit 21 displays a plurality of synthesized out images supplied from the reproduction unit 85, thereby displaying the out images as a slide show in a state where the plurality of out images are simultaneously displayed, and reproduction processing. Ends.
  • an out image shown in FIG. 16 is displayed on the display unit 21.
  • three out images P11-1 to P11-3 are displayed on the display unit 21, and some of these out images overlap each other.
  • three out images are superimposed so that the main subject of each out image is not hidden behind other out images.
  • the out images may be displayed one by one in order, or after a plurality of out images are superimposed and displayed at the same time. Next, a plurality of different out images may be displayed simultaneously.
  • step S ⁇ b> 164 when it is determined in step S ⁇ b> 164 that the out image is not superimposed and displayed, the reproducing unit 85 sequentially supplies the out image supplied from the extraction unit 83 to the display unit 21. The process proceeds to step S167.
  • step S167 the display unit 21 displays the out images supplied from the reproduction unit 85 in order to perform a slide show display of the out images, and the reproduction process ends.
  • the image processing apparatus 11 superimposes a plurality of out images on the gaze area so that other out images do not overlap as much as possible based on the information indicating the gaze area added as additional information to the out image. indicate.
  • the out image can be displayed more effectively by using the additional information that can be obtained only when the out image is captured.
  • the information indicating the gaze area as the additional information is used for displaying the out image in an overlapping manner.
  • the information indicating the gaze area is used for another display method of the out image. You may be made to do. For example, when the out images are sequentially displayed one by one, the gaze area of the out image may be enlarged (zoomed) based on the information indicating the gaze area.
  • ⁇ Fourth embodiment> ⁇ Configuration example of signal processor> Further, a partial area of the in-image may be used as additional information, and an image that is used as additional information when the out-image is reproduced may be combined with the out-image.
  • the angle-of-view conversion process is performed on the out image OT11, and the image T11 obtained as a result is the final out image.
  • the image T11 is an image obtained by converting the aspect ratio of the out image OT11, and all the subjects on the out image OT11 are shown in the image T11. That is, the image T11 is an image obtained by reducing the out image OT11 in the horizontal direction in the drawing.
  • processing such as face recognition is performed on the in-image IN11, a main subject region is detected from the in-image IN11, and a region including the main subject region of the in-image IN11 is cut out to obtain additional information.
  • image C11 In particular, when the main subject is a human face, if the image transformation process is performed on the main subject area, the human face will be distorted, but here the main subject area is cut out. An image without distortion can be obtained.
  • out-side aspect parameter and in-side aspect parameter are such that when the image T11 and the image C11 are arranged in the horizontal direction in the drawing to form one image, the aspect ratio of the obtained image is that of the original out image OT11. It is determined to be the same as the aspect ratio.
  • the image C11 is added to the image data of the image T11 as additional information.
  • the user when reproducing the image T11, the user can select whether to reproduce the image T11 as it is or to display the image T11 with the image C11 as additional information combined.
  • the image processing device 11 when display of an image obtained by combining the image C11 with the image T11 is instructed, the image processing device 11 combines the image T11 and the image C11 in the horizontal direction in the drawing to generate a combined image P21. Then, the image processing device 11 displays the obtained composite image P21.
  • the composite image P21 is an image including the state of the photographer at the time of capturing the out image OT11 while leaving all the contents of the original out image OT11, and displays the image more effectively. can do.
  • the signal processing unit 53 is configured as shown in FIG. 18, for example.
  • parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • 18 includes an angle-of-view conversion unit 181, an addition processing unit 82, a main area detection unit 182, a crop processing unit 183, an extraction unit 83, and a reproduction unit 85.
  • the angle-of-view conversion unit 181 performs angle-of-view conversion processing on the out image supplied from the out image capturing unit 23 so that the out image has a target aspect ratio based on the designated out-side aspect parameter. And supplied to the additional processing unit 82.
  • the main area detection unit 182 detects a main subject area (hereinafter referred to as a main area) from the in-image supplied from the in-image imaging unit 22 and supplies the detection result and the in-image to the crop processing unit 183. To do.
  • a main area a main subject area
  • the crop processing unit 183 cuts out an area including the main area of the in-image based on the detection result of the main area supplied from the main area detection unit 182 and the specified in-side aspect parameter, and adds the crop image as a crop image. This is supplied to the processing unit 82. In other words, the crop image obtained by the crop processing for the in-image is supplied to the additional processing unit 82 as additional information.
  • the addition processing unit 82 adds the crop image supplied from the crop processing unit 183 to the out image supplied from the view angle conversion unit 181 as additional information, and supplies the additional information to the recording unit 54.
  • the extraction unit 83 extracts additional information from the out image read from the recording unit 54, and supplies the out image and the additional information to the reproduction unit 85.
  • step S191 and step S192 is the same as the process of step S11 and step S12 of FIG. 5, the description is abbreviate
  • step S193 the angle-of-view conversion unit 181 performs angle-of-view conversion processing on the out image supplied from the out-image capturing unit 23 based on the designated out-side aspect parameter, and supplies it to the addition processing unit 82. .
  • the angle of view conversion unit 181 converts the angle of view of the out image by seam carving processing.
  • the seam carving process until the aspect ratio of the out image reaches the aspect ratio indicated by the out-side aspect parameter, a vertical path that minimizes the cost is obtained, and the process of thinning out pixels on the path is repeated. Done. That is, pixel thinning is performed so that the change in the pattern from the original image is minimized.
  • an image T11 shown in FIG. 17 is obtained as a final out image and supplied to the additional processing unit 82.
  • the image reduction process may be performed as the angle-of-view conversion process.
  • step S194 the main area detection unit 182 detects the main area from the in-image supplied from the in-image capturing unit 22, and supplies the detection result and the in-image to the crop processing unit 183.
  • face recognition processing is performed on the in-image, and a human face area in the in-image is set as a main area.
  • step S195 the crop processing unit 183 applies the in-image supplied from the main region detection unit 182 to the in-image supplied from the main region detection unit 182 based on the detection result of the main region supplied from the main region detection unit 182 and the designated in-side aspect parameter. Crop processing is performed on the image.
  • the crop processing unit 183 includes the main region in the in-image and cuts out the region having the aspect ratio indicated by the in-side aspect parameter as a crop image and supplies the crop image to the addition processing unit 82.
  • the image C11 shown in FIG. 17 is obtained as a crop image.
  • the crop image obtained in this way is used as additional information of the out image.
  • step S196 the addition processing unit 82 adds the crop image supplied from the crop processing unit 183 as additional information to the image data of the out image supplied from the angle-of-view conversion unit 181 and supplies the additional information to the recording unit 54.
  • step S197 the recording unit 54 records the out-image supplied from the addition processing unit 82, and the imaging process ends.
  • the image processing apparatus 11 uses the crop image obtained by cutting out the region including the main region of the in-image as additional information and adds it to the out-image.
  • the image processing apparatus 11 uses the crop image obtained by cutting out the region including the main region of the in-image as additional information and adds it to the out-image.
  • the crop image can be displayed more effectively and the convenience can be improved.
  • the user can display the out image by operating the operation input unit 51.
  • the user can select, for example, by operating the operation input unit 51 to display only the out image or to display the out image combined with the crop image as additional information.
  • step S221 the extraction unit 83 reads out-images designated by the user from the recording unit 54 in accordance with instructions from the control unit 52.
  • step S222 the extraction unit 83 reads a crop image as additional information from the image data of the out image, and supplies the crop image and the out image to the reproduction unit 85.
  • step S223 the reproducing unit 85 determines whether to combine the cropped image with the out image.
  • the combining unit 95 combines the crop image with the out image supplied from the extraction unit 83 in step S224. Specifically, the composition unit 95 arranges the out image and the crop image, and generates a single composite image by performing weighted addition processing of the out image and the crop image for an area near the boundary between the images. To do. Thereby, for example, a composite image P21 shown in FIG. 17 is obtained.
  • the weight used in the weighted addition process is determined so that the weight of the out image increases, for example, as the position is on the out image side.
  • the size of the out image and the cropped image is increased by an amount necessary for the weighted addition process, and the finally obtained composite image is obtained.
  • the aspect ratio is the same as the original out image.
  • the reproduction unit 85 supplies the composite image to the display unit 21.
  • step S225 the display unit 21 displays the composite image supplied from the playback unit 85, and the playback process ends.
  • step S223 If it is determined in step S223 that the crop image is not synthesized, the playback unit 85 supplies the out image supplied from the extraction unit 83 to the display unit 21 as it is, and the process proceeds to step S226.
  • step S226 the display unit 21 displays the out image supplied from the playback unit 85, and the playback process ends.
  • the image processing apparatus 11 displays the out image as it is, or combines and displays the crop image added as additional information to the out image in accordance with a user instruction.
  • a desired image of the out image or the composite image can be displayed. That is, the out image can be displayed more effectively, and the out image can be more enjoyed.
  • the recording unit 54 is provided with a folder FD11 for the photographer A and a folder FD12 for the photographer B in advance.
  • the photographer information added as additional information to the out image P41 and the out image P44 is information indicating the photographer A, and the photographer information added as additional information to the out image P42 and the out image P43 is photographed. It is assumed that the information indicates the person B. In such a case, the out image P41 and the out image P44 are recorded in the folder FD11, and the out image P42 and the out image P43 are recorded in the folder FD12.
  • the signal processing unit 53 is configured as shown in FIG. 22, for example.
  • the same reference numerals are given to the portions corresponding to those in FIG. 8, and description thereof will be omitted as appropriate.
  • the signal processing unit 53 in FIG. 22 has a configuration in which a classification unit 211 is further provided in the signal processing unit 53 in FIG.
  • the classification unit 211 supplies the out image from the addition processing unit 82 to the recording unit 54, and out of the folders in the recording unit 54, the out image is stored in a folder determined by photographer information as additional information added to the out image.
  • the out image is recorded so that is stored.
  • step S257 since the process of step S251 thru
  • step S257 the image data of the out image to which the photographer information and the encoded binary image are added as additional information is supplied from the addition processing unit 82 to the classification unit 211.
  • step S258 the classification unit 211 causes the recording unit 54 to record the out image according to the additional information of the out image supplied from the addition processing unit 82, and the imaging process ends.
  • each folder provided in the recording unit 54 is associated with photographer information, and the classification unit 211 associates the same photographer information with the photographer information added to the out image. Identify the folder that is being used. Then, the classification unit 211 supplies the out image to the recording unit 54 so that the out image is stored in the specified folder, and records it. That is, the out image is recorded in the recording area of the recording unit 54 that is the area of the specified folder.
  • the image processing apparatus 11 adds the binary image obtained from the in-image and the photographer information as additional information to the out-image, and records the out-image in a folder determined by the photographer information.
  • out images can be effectively displayed, such as displaying a list of out images captured by a specific photographer.
  • out image is recorded in a folder for each photographer in accordance with the photographer information, so that the out image of a specific photographer can be quickly identified.
  • the user can operate the operation input unit 51 to display a list of out images captured by a specific user. At that time, for example, the user can select whether to display only the out image or to display the image obtained from the additional information on the out image by combining the operation input unit 51.
  • step S281 the extraction unit 83 reads all the out images recorded in the specific folder of the recording unit 54.
  • the extraction unit 83 reads out images stored in a folder of an arbitrary user (photographer) designated by the user through an operation on the operation input unit 51.
  • the extraction unit 83 may read out images stored in a folder of a user (photographer) who is logged in to the image processing apparatus 11. Further, the in-image capturing unit 22 captures an in-image, and the face recognition unit 121 performs face recognition, and stores it in the folder of the user identified as a result of the face recognition, that is, the user operating the image processing apparatus 11. The out image that has been displayed may be read out.
  • step S282 to step S288 When the out image is read out in this way, the processing from step S282 to step S288 is performed thereafter, and the reproduction processing ends. However, these processing are the same as the processing from step S103 to step S109 in FIG. The description is omitted.
  • the image processing apparatus 11 reads out images from the folder provided for each photographer indicated by the photographer information added as additional information to the out image, and displays the out images as a list. In addition, when displaying the out images as a list, the image processing apparatus 11 synthesizes and displays a binary image on the out images in accordance with a user instruction.
  • the photographer information as additional information added to the out image, it is possible to display the out image more effectively, such as displaying only the out image of a specific photographer. Further, if the out image is stored in a folder determined by the photographer information as additional information, the out image of the specific photographer can be identified more easily and quickly, and convenience can be improved.
  • ⁇ Sixth embodiment> ⁇ Configuration example of signal processor> Furthermore, the smile of the user who operates the image processing apparatus 11 is detected, and the out image and the in image are captured at the timing when the smile is detected, and the degree of smile of the user is added to the out image as additional information. May be.
  • the signal processing unit 53 is configured as shown in FIG. 25, for example. Note that, in FIG. 25, the same reference numerals are given to the portions corresponding to those in FIG. 8, and description thereof will be omitted as appropriate.
  • the signal processing unit 53 in FIG. 25 has a configuration in which a smile detection unit 241 is further provided in the signal processing unit 53 in FIG.
  • the smile detection unit 241 detects the smile of the user who operates the image processing apparatus 11 from the in-image supplied from the in-image imaging unit 22, that is, the user who is the photographer of the out-image, and the imaging timing is determined according to the detection result. Information to that effect is supplied to the control unit 52.
  • the control unit 52 controls the out-image capturing unit 23 and the in-image capturing unit 22 in accordance with the information indicating that the imaging timing has been supplied from the smile detection unit 241, and captures the out-image and the in-image.
  • the smile detection unit 241 generates the degree of smile of the user detected from the in-image as additional information and supplies it to the addition processing unit 82.
  • step S311 the in-image capturing unit 22 captures an in-image in accordance with an instruction from the control unit 52 and supplies the in-image to the compression unit 81, the face recognition unit 121, and the smile detection unit 241.
  • step S312 the smile detection unit 241 detects the smile of the user from the in-image supplied from the in-image capturing unit 22.
  • the smile detection unit 241 holds learning data for a number of predetermined smiles.
  • the learning data is image data of a person's face with a facial expression such as a smile or a big laughter regardless of a specific smile.
  • the smile detection unit 241 calculates the score value by comparing the feature value obtained from each learning data with the feature value obtained from the in-image, thereby obtaining the degree of smile of the user on the in-image. At this time, the degree of similarity with the in-image is set as the degree of smile of the user on the in-image. Further, for example, when the degree of smile is greater than or equal to a specific value, it is assumed that a smile is detected from the in-image.
  • the smile detection method may be any method as long as a smile can be detected from the in-image.
  • the smile detection unit 241 may hold learning data for each smile level for a plurality of smile levels set in advance.
  • the learning data is an average smile of a person having a specific smile level, that is, image data of an average face of a person with a specific expression such as a smile or a big laugh.
  • the smile detection unit 241 compares the feature amount obtained from each learning data with the feature amount obtained from the in-image, and identifies learning data most similar to the in-image from among the learning data. The degree of smile of the user on the in-image is obtained. At this time, if there is learning data in which the degree of similarity with the in-image is equal to or greater than a specific value, a smile is detected from the in-image, and the degree of smile of the learning data with the highest degree of similarity is determined on the in-image. The degree of smile of the user.
  • step S313 the smile detection unit 241 determines whether a smile is detected from the in-image.
  • step S313 If it is determined in step S313 that no smile has been detected, the process returns to step S311 and the above-described process is repeated.
  • step S313 when it is determined in step S313 that a smile has been detected, the smile detection unit 241 supplies information indicating that the imaging timing has come to the control unit 52, and the process proceeds to step S314.
  • the smile detection unit 241 supplies the degree of smile of the user on the in-image obtained by the smile detection to the addition processing unit 82 as additional information of the out image.
  • the smile level which is the additional information of the out image, is information indicating the smile (expression) of the photographer who captures the out image.
  • the smile detection unit 241 may calculate the degree of smile using the shape of the mouth of the user's face detected from the in-image, the size of the tooth region, or the like.
  • step S314 to step S319 When a smile is detected from the in-image, the processing from step S314 to step S319 is performed thereafter. Since these processing are the same as the processing from step S71 to step S76 in FIG. 9, the description thereof is omitted. However, in step S314 and step S315, the out image and the in image are transmitted to the out image capturing unit 23 and the in image capturing unit 22 based on the information indicating that the control unit 52 has reached the image capturing timing supplied from the smile detecting unit 241. To image. That is, the out image and the in image are captured at the timing when the photographer's smile is detected.
  • step S320 the additional processing unit 82 uses the photographer information from the face recognition unit 121, the encoded binary image from the compression unit 81, and the degree of smile from the smile detection unit 241 as additional information, as an out image. This is added to the image data of the out image from the imaging unit 23. Then, the addition processing unit 82 supplies the image data of the out image added with the additional information to the recording unit 54.
  • step S321 the recording unit 54 records the out image supplied from the addition processing unit 82, and the imaging process ends.
  • the image processing apparatus 11 adds the binary image obtained from the in-image, the photographer information, and the degree of smile to the out-image as additional information.
  • the out image can be displayed more effectively and the convenience can be improved.
  • the degree of smile is used as additional information, it is possible to selectively display an out image in which the photographer's facial expression is a specific facial expression, that is, a specific degree of smile at the time of imaging.
  • the smile level is used as additional information, an out-image having a specific smile level can be detected easily and quickly, and convenience can be improved.
  • the user can operate the operation input unit 51 to display the out images having a specific smile level as a slide show or as a list. At that time, for example, the user can select whether to display only the out image or to display the image obtained from the additional information on the out image by combining the operation input unit 51.
  • step S351 the extraction unit 83 reads all the out images recorded in the recording unit 54.
  • step S352 the extraction unit 83 reads the degree of smile as additional information added to each read out image, and detects an out image having a specific smile level.
  • the specific smile level is designated in advance by the user.
  • step S353 When an out-image having a specific smile level is detected, the processing from step S353 to step S357 is performed thereafter, which is the same as the processing from step S103 to step S107 in FIG. Is omitted. However, in step S353, the additional information is read from the out image having a specific smile level, and the out images are supplied to the reproduction unit 85. In addition, the reproduction unit 85 supplies the out image obtained by combining the binary images to the display unit 21 in order.
  • step S358 the display unit 21 sequentially displays the out images obtained by combining the binary images supplied from the reproduction unit 85, and the reproduction process ends.
  • step S356 when it is determined in step S356 that the binary image is not reproduced, the reproducing unit 85 supplies the out image supplied from the extracting unit 83 to the display unit 21 as it is, and the process proceeds to step S359.
  • step S359 the display unit 21 sequentially displays the out images supplied from the reproduction unit 85, and the reproduction process ends.
  • the image processing apparatus 11 detects and displays an out image having a specific smile level by using the smile level added as additional information to the out image. Further, when displaying the out image, the image processing apparatus 11 synthesizes and displays the binary image on the out image in accordance with a user instruction.
  • the out image can be displayed more effectively, such as displaying only the out image captured when the photographer has a specific facial expression. Can be displayed.
  • the recording unit 54 is provided with a folder FD21 with a smile degree A and a folder FD22 with a smile degree B in advance.
  • the smile level added as additional information to the out image P51 and the out image P53 is information indicating the smile level B
  • the smile level added as additional information to the out image P52 is the smile level A. It is assumed that the information is information. In such a case, the out image P52 is recorded in the folder FD21, and the out image P51 and the out image P53 are recorded in the folder FD22.
  • the signal processing unit 53 is configured as shown in FIG. 29, for example.
  • the same reference numerals are given to the portions corresponding to those in FIG. 25, and the description thereof will be omitted as appropriate.
  • the signal processing unit 53 in FIG. 29 has a configuration in which a classification unit 271 is further provided in the signal processing unit 53 in FIG.
  • the classification unit 271 supplies the out image from the addition processing unit 82 to the recording unit 54, and out of the folders in the recording unit 54, the out image is stored in a folder determined by the degree of smile as additional information added to the out image.
  • the out image is recorded so that is stored.
  • step S390 image data of the photographer information, the encoded binary image, and the out image to which the degree of smile is added as additional information is supplied from the addition processing unit 82 to the classification unit 271.
  • step S391 the classification unit 271 causes the recording unit 54 to record the out image according to the additional information of the out image supplied from the addition processing unit 82, and the imaging process ends.
  • each folder provided in the recording unit 54 is associated with a smile degree, and the classification unit 271 associates the same smile degree with the smile degree added to the out image. Identify the folder that is being used. Then, the classification unit 271 supplies the out image to the recording unit 54 so that the out image is stored in the specified folder, and records the out image. That is, the out image is recorded in the recording area of the recording unit 54 that is the area of the specified folder.
  • the image processing apparatus 11 adds the binary image obtained from the in-image, the photographer information, and the smile level as additional information to the out-image, and places the out-image in a folder determined by the smile level. Record.
  • the out image can be displayed more effectively and the convenience can be improved.
  • an out image can be effectively displayed, such as displaying an out image captured with a specific facial expression.
  • the out image is recorded in a folder for each photographer's facial expression according to the degree of smile, so that it becomes possible to quickly identify an out image with a specific smile level, Convenience can be improved.
  • a folder may be provided for each photographer for each smile level.
  • the out image is stored in a folder determined by the photographer information of the out image and the degree of smile.
  • the user can operate the operation input unit 51 to display or display a list of the out images captured by the user with a specific facial expression. At that time, for example, the user can select whether to display only the out image or to display the image obtained from the additional information on the out image by combining the operation input unit 51.
  • step S431 the extraction unit 83 reads all the out images recorded in the specific folder of the recording unit 54.
  • the extraction unit 83 reads out images stored in a folder with an arbitrary smile level designated by the user through an operation on the operation input unit 51.
  • step S432 to step S438 When the out image is read in this way, the processing from step S432 to step S438 is performed thereafter, and the reproduction processing ends. However, these processing are the same as the processing from step S353 to step S359 in FIG. The description is omitted.
  • the image processing apparatus 11 reads the out image from the folder provided for each photographer's facial expression indicated by the degree of smile added as additional information to the out image, and displays the out image. Further, when displaying the out image, the image processing apparatus 11 synthesizes and displays the binary image on the out image in accordance with a user instruction.
  • the out image is displayed more effectively, such as displaying only the out image captured when the photographer has a specific facial expression. can do.
  • the out image is stored in a folder determined by the degree of smile as additional information, the out image with a specific smile level can be identified more easily and quickly, and convenience can be improved. .
  • the signal processing unit 53 is configured as shown in FIG. 29, for example.
  • the smile detection unit 241 does not supply the control unit 52 with the information indicating that the imaging timing has been reached, and the control unit 52 responds to the operation on the operation input unit 51 with the out-image capturing unit. 23 and the in-image capturing unit 22 are instructed to capture the out-image and the in-image.
  • or step S466 is the same as the process of step S251 thru
  • step S467 the smile detection unit 241 detects the user's smile from the in-image supplied from the in-image capturing unit 22, and the additional processing unit uses the degree of the user's smile on the in-image obtained as a result as additional information. 82. For example, in step S467, processing similar to that in step S312 in FIG. 26 is performed.
  • step S468 the addition processing unit 82 uses the photographer information from the face recognition unit 121, the encoded binary image from the compression unit 81, and the degree of smile from the smile detection unit 241 as additional information, as an out image. This is added to the image data of the out image from the imaging unit 23. Then, the addition processing unit 82 supplies the image data of the out image to which the additional information is added to the classification unit 271.
  • step S469 the classification unit 271 causes the recording unit 54 to record the out image according to the additional information of the out image supplied from the addition processing unit 82, and the imaging process ends.
  • the classification unit 271 specifies a folder that is associated with the same smile degree as the smile degree added to the out image, and records the out image so that the out image is stored in the folder.
  • the data is supplied to the unit 54 and recorded. That is, in step S469, processing similar to that in step S391 in FIG. 30 is performed.
  • the image processing apparatus 11 adds the binary image obtained from the in-image, the photographer information, and the smile level as additional information to the out-image, and places the out-image in a folder determined by the smile level. Record.
  • the out image can be displayed more effectively and the convenience can be improved.
  • an out image can be effectively displayed, such as displaying an out image captured with a specific facial expression.
  • the out image is recorded, the out image is recorded in a folder for each photographer's facial expression according to the degree of smile, so that the out image having a specific smile level can be quickly identified.
  • the image processing apparatus 11 displays the out image captured by the user with a specific facial expression in accordance with the operation of the operation input unit 51 by the user. In such a case, the image processing apparatus 11 performs the reproduction process described with reference to FIG. That is, the out image stored in the folder of the smile level designated by the user is displayed.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 33 is a block diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface or the like.
  • the drive 510 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded on the removable medium 511 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in the ROM 502 or the recording unit 508 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology can be configured as follows.
  • a first imaging unit that images in a first direction
  • a second imaging unit that images a second direction different from the first direction
  • An additional information generating unit that generates additional information based on a first image obtained by imaging by the first imaging unit
  • An image processing apparatus comprising: an additional processing unit that adds the additional information to image data of a second image obtained by imaging by the second imaging unit.
  • the additional information generation unit generates the additional information by compressing an information amount of the first image.
  • the image processing apparatus according to [1] or [2], wherein the additional information generation unit generates the additional information by compressing a size of the first image.
  • the first imaging unit captures an image of a direction of a user operating the image processing apparatus as the first direction, The image processing apparatus according to any one of [1] to [3], further including a combining unit that combines an image obtained from the additional information with the second image.
  • the first imaging unit captures an image of a direction of a user operating the image processing apparatus as the first direction, The image processing apparatus according to [1], wherein the additional information generation unit generates photographer information of the second image as the additional information by performing face recognition processing on the first image.
  • the additional information generation unit detects information indicating a gaze area of the second image on the second image as the additional information by detecting the user's line-of-sight direction based on the first image.
  • the image processing apparatus according to [1].
  • the image processing apparatus further including a reproducing unit that controls display of the second image based on the additional information.
  • the image processing device according to [9], wherein the reproduction unit displays a plurality of the second images based on the additional information.
  • An angle-of-view conversion unit that performs an angle-of-view conversion process on the second image;
  • the additional information generation unit uses, as the additional information, a crop image obtained by cutting out an area including a main subject on the first image,
  • the image processing apparatus according to [1], wherein the addition processing unit adds the additional information to image data of the second image on which the angle-of-view conversion processing has been performed.
  • the crop image as the additional information and the second image that has been subjected to the angle-of-view conversion process are combined and combined to form the same aspect as the second image captured by the second imaging unit.
  • the first imaging unit captures an image of a direction of a user operating the image processing apparatus as the first direction
  • the additional information generation unit detects the smile of the user based on the first image and generates the degree of smile of the user as the additional information.
  • the image processing apparatus further including a classification unit that records the second image in a recording area determined by the degree of smile as the additional information.
  • the first imaging unit captures an image of a direction of a user operating the image processing apparatus as the first direction
  • the additional information generation unit detects the smile of the user based on the first image and generates the degree of smile of the user as the additional information.
  • the image processing apparatus according to [1], further including a classification unit that records the second image in a recording area determined by the degree of smile as the additional information.
  • 11 image processing device 21 display unit, 22 in-image imaging unit, 23 out-image imaging unit, 53 signal processing unit, 81 compression unit, 82 additional processing unit, 84 decoding unit, 85 playback unit, 121 face recognition unit, 151 gaze Area detection unit, 181 angle of view conversion unit, 182 main area detection unit, 183 crop processing unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 本技術は、より効果的に画像を表示するとともに、利便性を向上させることができるようにする画像処理装置および方法、並びにプログラムに関する。 イン画像撮像部は、画像処理装置の表面側の方向にある被写体をイン画像として撮像し、アウト画像撮像部は、画像処理装置の裏面側の方向にある被写体をアウト画像として撮像する。信号処理部は、例えばイン画像を2値化して得られる2値画像を付加情報として、アウト画像の画像データに付加する。また、信号処理部は、アウト画像の再生時において、付加情報としての2値画像をアウト画像に合成し、その結果得られた画像を表示させる。このように、イン画像から得られる情報をアウト画像に付加情報として付加しておくことで、より効果的に画像を表示することができるとともに、利便性を向上させることができる。本技術は、画像処理装置に適用することができる。

Description

画像処理装置および方法、並びにプログラム
 本技術は画像処理装置および方法、並びにプログラムに関し、特に、より効果的に画像を表示するとともに、利便性を向上させることができるようにした画像処理装置および方法、並びにプログラムに関する。
 従来、2つのカメラが搭載されている撮像装置が知られている。このような撮像装置には、2つのカメラで同時に画像を撮像することができるものもある。
 例えば、そのような撮像装置として、メインカメラとサブカメラで画像を撮像し、サブマイクロホンで撮影者の音声が収音された場合には、メインカメラで得られた画像に対して、サブカメラで得られた画像を合成して記録するものもある(例えば、特許文献1参照)。
特開2011-250340号公報
 しかしながら、上述した技術では、メインカメラで得られた画像に対して、サブカメラで得られた画像が合成されてしまうと、その後は、画像合成が行なわれていない、メインカメラで得られた画像のみを表示させることができなくなってしまう。そのため、撮像された画像を十分効果的に表示することができなかった。
 また、画像合成を行なうか否かを切り替えようとすると、画像の撮像時にいちいち発話等による指示を行なわなければならないため面倒であった。そのため、撮影者は画像の撮像に集中できなくなってしまうことがあった。
 本技術は、このような状況に鑑みてなされたものであり、より効果的に画像を表示するとともに、利便性を向上させることができるようにするものである。
 本技術の一側面の画像処理装置は、第1の方向を撮像する第1の撮像部と、前記第1の方向とは異なる第2の方向を撮像する第2の撮像部と、前記第1の撮像部による撮像で得られた第1の画像に基づいて付加情報を生成する付加情報生成部と、前記第2の撮像部による撮像で得られた第2の画像の画像データに前記付加情報を付加する付加処理部とを備える。
 前記付加情報生成部には、前記第1の画像の情報量を圧縮することで、前記付加情報を生成させることができる。
 前記付加情報生成部には、前記第1の画像のサイズを圧縮することで、前記付加情報を生成させることができる。
 前記第1の撮像部には、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像させ、画像処理装置には、前記付加情報から得られる画像を前記第2の画像に合成する合成部をさらに設けることができる。
 前記第1の撮像部には、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像させ、前記付加情報生成部には、前記第1の画像に対する顔認識処理を行なうことで、前記第2の画像の撮影者情報を前記付加情報として生成させることができる。
 画像処理装置には、前記付加情報に基づいて、複数の前記第2の画像から特定の撮影者により撮像された前記第2の画像を検出する抽出部と、前記抽出部により検出された前記第2の画像のみを表示させる再生部とをさらに設けることができる。
 画像処理装置には、前記付加情報としての前記撮影者情報により定まる記録領域に前記第2の画像を記録させる分類部をさらに設けることができる。
 画像処理装置には、前記第1の撮像部が設けられた、前記画像処理装置を操作するユーザ側の面に設けられ、前記第2の画像の撮像時に前記第2の撮像部により取り込まれた画像を表示する表示部をさらに設け、前記付加情報生成部には、前記第1の画像に基づいて前記ユーザの視線方向を検出することで、前記第2の画像上の前記ユーザが注視していた注視領域を示す情報を前記付加情報として生成させることができる。
 画像処理装置には、前記付加情報に基づいて、前記第2の画像の表示を制御する再生部をさらに設けることができる。
 前記再生部には、前記付加情報に基づいて複数の前記第2の画像を重ねて表示させることができる。
 画像処理装置には、前記第2の画像に対して画角変換処理を施す画角変換部をさらに設け、前記付加情報生成部には、前記第1の画像上の主要な被写体を含む領域を切り出して得られたクロップ画像を前記付加情報とさせ、前記付加処理部には、前記画角変換処理が施された前記第2の画像の画像データに前記付加情報を付加させることができる。
 画像処理装置には、前記付加情報としての前記クロップ画像と、前記画角変換処理が施された前記第2の画像とを並べて合成することで、前記第2の撮像部により撮像された前記第2の画像と同じアスペクト比の合成画像を生成する合成部をさらに設けることができる。
 前記第1の撮像部には、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像させ、前記付加情報生成部には、前記第1の画像に基づいて前記ユーザの笑顔を検出するとともに前記ユーザの笑顔の度合いを前記付加情報として生成させ、前記第2の撮像部には、前記ユーザの笑顔が検出されたとき前記第2の方向を撮像させることができる。
 画像処理装置には、前記付加情報としての前記笑顔の度合いにより定まる記録領域に前記第2の画像を記録させる分類部をさらに設けることができる。
 前記第1の撮像部には、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像させ、前記付加情報生成部には、前記第1の画像に基づいて前記ユーザの笑顔を検出するとともに前記ユーザの笑顔の度合いを前記付加情報として生成させ、前記付加情報としての前記笑顔の度合いにより定まる記録領域に前記第2の画像を記録させる分類部をさらに設けることができる。
 本技術の一側面の画像処理方法またはプログラムは、第1の撮像部により第1の方向を撮像し、第2の撮像部により前記第1の方向とは異なる第2の方向を撮像し、前記第1の撮像部による撮像で得られた第1の画像に基づいて付加情報を生成し、前記第2の撮像部による撮像で得られた第2の画像の画像データに前記付加情報を付加するステップを含む。
 本技術の一側面においては、第1の撮像部により第1の方向が撮像され、第2の撮像部により前記第1の方向とは異なる第2の方向が撮像され、前記第1の撮像部による撮像で得られた第1の画像に基づいて付加情報が生成され、前記第2の撮像部による撮像で得られた第2の画像の画像データに前記付加情報が付加される。
 本技術の一側面によれば、より効果的に画像を表示するとともに、利便性を向上させることができる。
画像処理装置の外観の構成例を示す図である。 アウト画像の表示について説明する図である。 画像処理装置の構成例を示す図である。 信号処理部の構成例を示す図である。 撮像処理を説明するフローチャートである。 ランレングスコードについて説明する図である。 再生処理を説明するフローチャートである。 信号処理部の構成例を示す図である。 撮像処理を説明するフローチャートである。 再生処理を説明するフローチャートである。 アウト画像の一覧表示例を示す図である。 アウト画像の一覧表示例を示す図である。 信号処理部の構成例を示す図である。 撮像処理を説明するフローチャートである。 再生処理を説明するフローチャートである。 アウト画像のスライドショー表示例を示す図である。 合成画像について説明する図である。 信号処理部の構成例を示す図である。 撮像処理を説明するフローチャートである。 再生処理を説明するフローチャートである。 撮影者ごとのアウト画像の記録について説明する図である。 信号処理部の構成例を示す図である。 撮像処理を説明するフローチャートである。 再生処理を説明するフローチャートである。 信号処理部の構成例を示す図である。 撮像処理を説明するフローチャートである。 再生処理を説明するフローチャートである。 笑顔の度合いごとのアウト画像の記録について説明する図である。 信号処理部の構成例を示す図である。 撮像処理を説明するフローチャートである。 再生処理を説明するフローチャートである。 撮像処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈本技術の概要について〉
 本技術は、例えば多機能型携帯電話機やデジタルカメラなど、互いに異なる方向を撮像可能な複数の撮像部を有する機器に関し、主となる撮像部で画像を撮像したときに、その画像と同時に撮像された他の画像から得られる情報を付加情報として生成するものである。本技術では、このような付加情報を生成することで、より効果的に画像を表示することができるようになる。また、付加情報を画像データに埋め込むことで、画像の撮像時に面倒な操作を必要とせずに、画像の再生時により自由度の高い表示制御を行なうことができるようになり、利便性を向上させることができる。
 図1は、本技術を適用した多機能型携帯電話機等の画像処理装置の外観の構成例を示す図である。
 図1では、矢印A11に示される画像処理装置11の外観は、表面側、つまりユーザが画像処理装置11を持って操作するときにユーザから見える側の外観を示している。また、矢印A12に示される画像処理装置11の外観は、側面側、つまり矢印A11に示す画像処理装置11を図中、左側または右側から見たときの外観を示している。さらに、矢印A13に示される画像処理装置11の外観は、裏面側、つまり表面側とは反対側の面の外観を示している。
 矢印A11に示すように、画像処理装置11の表面側には画像等が表示される表示部21が設けられており、表示部21には、ユーザが入力操作を行なうためのタッチパネルが重畳されて設けられている。また、画像処理装置11の表面における表示部21の図中、上側には画像処理装置11の表面側の方向にある被写体を撮像するイン画像撮像部22も設けられている。したがって、イン画像撮像部22により撮像される画像は殆どの場合、画像処理装置11を操作しているユーザの画像となる。なお、以下、イン画像撮像部22により撮像される画像をイン画像と呼ぶこととし、イン画像としてユーザの画像が撮像されるものとして説明を続ける。
 さらに、矢印A13に示すように、画像処理装置11の裏面には、画像処理装置11の裏面側の方向にある被写体を撮像するアウト画像撮像部23が設けられている。この例では、アウト画像撮像部23は、イン画像撮像部22の撮像方向とは反対方向を撮像するように設けられているが、イン画像撮像部22とアウト画像撮像部23は、互いに撮像方向が異なるように配置されていればよい。
 アウト画像撮像部23により撮像される画像は、通常、ユーザが見ている風景や人物などの画像、つまりユーザが撮像したいと考えている被写体の画像となる。以下、アウト画像撮像部23により撮像される画像をアウト画像と呼ぶこととする。
 このような画像処理装置11でユーザが所望の被写体を撮像する場合、例えば図2の左側に示すように、ユーザU11は、目的とする被写体H11に画像処理装置11のアウト画像撮像部23を向けて、撮像を指示する。すると、画像処理装置11は、ユーザU11の撮像指示に応じて、イン画像とアウト画像を同時またはほぼ同時に撮像する。
 したがって、画像処理装置11では、アウト画像として被写体H11の画像が得られ、イン画像としてユーザU11の画像が得られる。
 画像処理装置11は、このようにして得られたイン画像に対して、必要に応じて符号化等の処理を行なって、その結果得られた画像を付加情報とする。そして、画像処理装置11は、アウト画像の画像データに対して、得られた付加情報を付加する。
 ここで、付加情報は、アウト画像上に合成されるのではなく、アウト画像の画像データに付加的な情報として埋め込まれる。具体的には、付加情報は例えばExif(Exchangeable image file format)に準拠するアウト画像の画像データに対して、いわゆるExifデータとして、つまりアウト画像に関するメタデータとして埋め込まれる。
 また、アウト画像の再生時には、ユーザはアウト画像のみを表示させるか、またはアウト画像に付加情報から得られる画像を合成させて表示させるかを選択することができる。例えば、アウト画像に付加情報から得られる画像を合成させて表示させる場合、図中、右側に示すアウト画像が表示部21に表示される。
 この例では、被写体H11が写っているアウト画像に対して、付加情報から得られた画像IP11が重畳表示されている。
 画像IP11は、ユーザU11の顔の画像となっているので、アウト画像を鑑賞するユーザは、誰がアウト画像を撮像したかや、アウト画像撮像時のユーザU11の表情、つまり笑っているか、怒っているか、興奮しているかなどを知ることができる。
 このように、イン画像から得られた画像を、アウト画像の付加情報として画像データに埋め込み、アウト画像の再生時に必要に応じて付加情報を利用することで、アウト画像の撮像時の撮影者の状況を確認することができる。これにより、例えば旅行中などに撮像したアウト画像を、後で鑑賞するときに思い出としてより楽しむことができるようになる。
 また、画像処理装置11によれば、アウト画像の撮像時の状況を画像として確認することができるので、例えば事故の調査時に参考情報としてアウト画像を撮像すれば、撮影者や、撮像環境、撮像場所などの情報を簡単に残しておくことができる。
〈画像処理装置の構成例〉
 次に、画像処理装置11のより詳細な構成について説明する。
 図3は、画像処理装置11のより詳細な構成例を示すブロック図である。なお、図3において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図3に示す画像処理装置11は、表示部21、イン画像撮像部22、アウト画像撮像部23、操作入力部51、制御部52、信号処理部53、および記録部54から構成される。
 操作入力部51は、例えば表示部21に重畳されて設けられたタッチパネルなどからなり、ユーザの操作に応じた信号を制御部52に供給する。
 制御部52は、操作入力部51から供給された信号に応じて、画像処理装置11の全体の動作を制御する。例えば、制御部52は、イン画像撮像部22やアウト画像撮像部23に画像の撮像を指示したり、信号処理部53にアウト画像の再生や記録を指示したりする。
 信号処理部53は、イン画像撮像部22から供給されたイン画像に基づいて付加情報を生成し、アウト画像撮像部23から供給されたアウト画像に付加情報を付加するとともに、付加情報が付加されたアウト画像を記録部54に供給して記録させる。また、信号処理部53は、記録部54からアウト画像を読み出して表示部21に供給し、表示させる。
 記録部54は、信号処理部53から供給されたアウト画像を記録するとともに、必要に応じて記録しているアウト画像を信号処理部53に供給する。
〈信号処理部の構成例〉
 また、図3の信号処理部53は、より詳細には図4に示すように構成される。
 図4に示す信号処理部53は、圧縮部81、付加処理部82、抽出部83、復号部84、および再生部85から構成される。
 圧縮部81は、イン画像撮像部22から供給されたイン画像の情報量やサイズを圧縮することで付加情報を生成し、付加処理部82に供給する。圧縮部81は、情報量圧縮部91、サイズ圧縮部92、および符号化部93を備えている。
 情報量圧縮部91は、イン画像を2値化することでイン画像上の被写体の輪郭を抽出する。すなわち、2値化処理によりイン画像が2値画像に変換され、これによりイン画像の情報量が圧縮される。
 サイズ圧縮部92は、情報量圧縮部91で得られた2値画像のサイズを小さくすることで、2値画像のサイズを圧縮する。符号化部93は、サイズ圧縮部92によりサイズ圧縮された2値画像を符号化し、付加情報とする。なお、符号化部93による符号化処理もイン画像(2値画像)の情報量を圧縮する処理であるということができる。
 付加処理部82は、アウト画像撮像部23から供給されたアウト画像の画像データに対して、圧縮部81から供給された付加情報を付加し、記録部54に供給する。
 抽出部83は、記録部54からアウト画像を読み出して、アウト画像から付加情報を抽出する。また、抽出部83は、アウト画像を再生部85に供給するとともに、アウト画像から抽出した付加情報を復号部84に供給する。
 復号部84は、抽出部83から供給された付加情報を復号して、その結果得られた2値画像を再生部85に供給する。また、復号部84は伸長部94を有しており、伸長部94は、必要に応じて2値画像のサイズを伸長させる。
 再生部85は、抽出部83から供給されたアウト画像を表示部21に供給して表示させる。また、再生部85は合成部95を有しており、合成部95は、復号部84から供給された2値画像をアウト画像に合成する。したがって、再生部85は、必要に応じて2値画像が合成されたアウト画像を表示部21に表示させることができる。
〈撮像処理の説明〉
 ところで、ユーザが操作入力部51に対する操作を行なって、アウト画像に付加情報を付加するモードを選択し、所望の被写体の撮像を指示すると、画像処理装置11は撮像処理を開始して、付加情報が埋め込まれたアウト画像を記録させる。以下、図5のフローチャートを参照して、画像処理装置11による撮像処理について説明する。
 ステップS11において、アウト画像撮像部23は、制御部52の指示に従ってアウト画像を撮像し、付加処理部82に供給する。例えばアウト画像として、風景画像などが撮像される。
 ステップS12において、イン画像撮像部22は、制御部52の指示に従ってイン画像を撮像し、圧縮部81に供給する。例えばイン画像として、画像処理装置11を操作しているユーザの顔の画像が撮像される。
 ステップS13において、情報量圧縮部91は、イン画像撮像部22から供給されたイン画像を2値画像に変換する。例えば情報量圧縮部91は、カラー画像であるイン画像を、256階調のモノクロ画像に変換し、さらにそのモノクロ画像を2値化して2値画像を生成する。
 これにより、例えばアウト画像を撮像したユーザの顔画像が2値画像として得られる。この2値画像は、アウト画像を撮像したときのユーザの顔の画像であるので、アウト画像撮像時のユーザの表情や気分などを知ることができる画像となる。
 ステップS14において、サイズ圧縮部92は、情報量圧縮部91で得られた2値画像のサイズを圧縮する。例えばアウト画像と同じ大きさの2値画像が、160画素×120画素の大きさ、つまりサムネイルサイズの画像に縮小される。
 ステップS15において、符号化部93は、サイズ圧縮部92によりサイズ圧縮された2値画像を符号化し、付加情報とする。
 例えば、符号化部93は図6に示すように、2値画像RP11に対してランレングス法により符号化を行い、その結果得られたランレングスコードを付加情報とする。
 なお、2値画像RP11の各四角形は1つの画素を表している。特に、白い四角形は画素値として「1」を有する画素を表しており、黒い四角形は画素値として「0」を有する四角形を表している。
 また、図6では、2値画像RP11における図中、横方向の位置を示す座標が示されており、例えば2値画像RP11の図中、左端に位置する画素の座標は「1」とされ、図中、右端に位置する画素の座標は「11」とされている。つまり、各画素の座標は、それらの画素が、2値画像RP11の左端から何番目に位置する画素であるかを示している。
 2値画像RP11がランレングス法で符号化される場合、2値画像RP11は、図中、横方向に並ぶ画素列ごとにコード化が行なわれる。画素列のコード化では、画素値として「1」を有する画素からなる画素列の始点位置と、その画素列の長さとからなるランレングスコードによって、コード化対象となる画素列が表現される。
 具体的には、例えば2値画像RP11の図中、最も上側にある画素列を注目画素列とすると、この注目画素列では、座標が「1」である画素が画素値「1」を有しており、その隣にある座標「2」の画素は画素値が「0」である。そのため、座標が「1」である画素を始点とする画素値が「1」である画素列を、画素列の「始点,長さ」で表現すると、「1,1」となる。
 同様にして、注目画素列において、座標が「4」の画素を始点とする画素値が「1」である画素からなる画素列を「始点,長さ」で表現すると、「4,3」となる。さらに、注目画素列において、座標が「10」の画素を始点とする画素値が「1」である画素からなる画素列を「始点,長さ」で表現すると、「10,2」となる。
 そこで、符号化部93は、図中、右側に示すように、これらの3つの「始点,長さ」を示す符号を並べて得られるコード「1,1,4,3,10,2」を、注目画素列のランレングスコードとする。符号化部93は、このようにして2値画像RP11の各画素列について得られたランレングスコードを、2値画像RP11の付加情報とする。
 圧縮部81は、符号化部93による符号化によって得られた付加情報を、付加処理部82に供給する。
 図5のフローチャートの説明に戻り、ステップS16において、付加処理部82は、アウト画像撮像部23から供給されたアウト画像の画像データに、圧縮部81から供給された付加情報を付加し、記録部54に供給する。すなわち、アウト画像のメタデータとして付加情報がアウト画像の画像データに埋め込まれる。
 ステップS17において、記録部54は、付加処理部82から供給されたアウト画像を記録し、撮像処理は終了する。
 以上のようにして、画像処理装置11は、アウト画像と同時に撮像されたイン画像の情報を圧縮して付加情報とし、アウト画像に付加情報を付加する。このように、アウト画像に付加情報を付加することで、アウト画像の再生時に付加情報を利用して、より効果的に画像を表示することができるとともに、利便性を向上させることができる。
 例えば、画像処理装置11では、アウト画像に付加情報が付加されるので、再生時にアウト画像のみを表示させるか、または付加情報を利用してアウト画像の表示を行なうかを指定することができる。したがって、より効果的にアウト画像を表示することができ、かつ利便性も向上させることができる。
 しかも、ユーザはアウト画像の撮像時に、イン画像から得られる画像のアウト画像への合成の指示操作などを行なう必要がなく、撮像作業に集中することができる。これにより、ユーザの利便性をさらに向上させることができる。
〈再生処理の説明〉
 記録部54にアウト画像が記録されると、ユーザは操作入力部51を操作して、記録されたアウト画像を再生させることができる。その際、ユーザは例えば操作入力部51を操作することで、アウト画像のみを表示させるか、またはアウト画像に付加情報から得られる画像を合成表示させるかを選択することができる。
 以下、図7のフローチャートを参照して、ユーザによりアウト画像の再生が指示されたときに画像処理装置11により行なわれる再生処理について説明する。
 ステップS41において、抽出部83は、制御部52の指示に従ってユーザにより指定されたアウト画像を記録部54から読み出す。
 ステップS42において、抽出部83は、読み出したアウト画像を再生部85に供給するとともに、アウト画像の画像データから付加情報を読み出して復号部84に供給する。
 ステップS43において、復号部84は、抽出部83から供給された付加情報を復号する。例えば、付加情報がランレングスコードである場合、復号部84は、ランレングスコードから2値画像を復元する。
 ステップS44において、伸長部94は、復号により得られた2値画像のサイズを伸長させる。例えば、160画素×120画素のサムネイルサイズの2値画像が、適切なサイズの2値画像に拡大される。
 復号部84は、伸長部94により伸長された2値画像を、付加情報から得られた画像として再生部85に供給する。
 ステップS45において、再生部85は2値画像を再生するか否かを判定する。
 例えば、ユーザが操作入力部51を操作して、付加情報から得られる2値画像をアウト画像に合成して表示させるように指示した場合、その旨の信号が制御部52から信号処理部53に供給される。再生部85は、制御部52から信号処理部53に供給された信号が、2値画像をアウト画像に合成して表示させる旨の信号である場合、2値画像を再生すると判定する。
 ステップS45において、2値画像を再生すると判定された場合、ステップS46において、合成部95は、抽出部83から供給されたアウト画像に復号部84から供給された2値画像を合成する。例えば、2値画像が合成されるアウト画像上の位置は、予め定められた位置やユーザにより指定された位置とされてもよいし、画像認識等により特定された、被写体(前景)のない背景領域の位置とされてもよい。
 再生部85は、2値画像が合成されたアウト画像を表示部21に供給し、アウト画像の表示を制御する。
 ステップS47において、表示部21は、再生部85から供給された、2値画像が合成されたアウト画像を表示し、再生処理は終了する。
 また、ステップS45において、2値画像を再生しないと判定された場合、再生部85は、抽出部83から供給されたアウト画像をそのまま表示部21に供給し、処理はステップS48に進む。この場合、2値画像が合成されていないアウト画像が表示部21に供給される。
 ステップS48において、表示部21は、再生部85から供給されたアウト画像を表示し、再生処理は終了する。
 このようにして画像処理装置11は、ユーザの指示に応じて、アウト画像をそのまま表示させたり、アウト画像に付加されている付加情報から得られた2値画像をアウト画像に合成して表示させたりする。
 このようにアウト画像に付加された付加情報を利用すれば、ユーザのそのときの気分等に応じてアウト画像のみを表示させたり、2値画像が合成されたアウト画像を表示させたりすることができる。これにより、より効果的にアウト画像を表示させることができるとともに、利便性を向上させることができる。
 特に、アウト画像に2値画像を合成すれば、アウト画像を鑑賞するユーザは、アウト画像を撮像したときのユーザの顔の表情などを知ることができ、アウト画像の鑑賞をより楽しむことができる。
 なお、以上においては、イン画像の情報を圧縮する例として、イン画像のモノクロ化、2値化、サイズ縮小、および符号化を行なう場合について説明したが、これらの圧縮処理のうちの任意のものが適宜組み合わされて行なわれるようにしてもよい。例えば、イン画像のモノクロ化のみが行なわれて付加情報とされてもよいし、イン画像のモノクロ化と符号化が行なわれて付加情報とされてもよい。また、イン画像の一部の領域に対して圧縮が行なわれ、その結果得られた画像や符号(コード)が付加情報とされてもよい。
〈第2の実施の形態〉
〈信号処理部の構成例〉
 また、以上においては、付加情報としてイン画像から得られた2値画像を生成する例について説明したが、2値画像以外にも他の情報が付加情報として生成されるようにしてもよい。例えば、付加情報としてイン画像から得られた撮影者情報と、2値画像とが生成されるようにしてもよい。
 そのような場合、信号処理部53は、例えば図8に示すように構成される。なお、図8において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図8に示す信号処理部53は、圧縮部81、付加処理部82、抽出部83、復号部84、再生部85、および顔認識部121から構成される。つまり、図8の信号処理部53は、図4の信号処理部53にさらに顔認識部121が設けられた構成とされている。
 顔認識部121は、記録部54に予め記録されている登録情報を用いて、イン画像撮像部22から供給されたイン画像に対する顔認識を行い、その認識結果を付加情報として付加処理部82に供給する。
 例えば、記録部54には、予め登録されたユーザの顔画像の特徴量や、ユーザの顔の識別器などと、そのユーザのユーザ名とが対応付けられ、登録情報として記録されている。顔認識部121は、登録情報とイン画像とを用いて、顔認識によりイン画像上のユーザを特定し、その特定結果(顔認識結果)を付加情報とする。
 付加処理部82は、顔認識部121から供給された顔認識結果と、圧縮部81から供給された2値画像とを付加情報として、アウト画像撮像部23からのアウト画像に付加し、記録部54に供給する。
〈撮像処理の説明〉
 次に、図9のフローチャートを参照して、信号処理部53が図8に示す構成とされる場合に行なわれる撮像処理について説明する。
 なお、ステップS71乃至ステップS75の処理は、図5のステップS11乃至ステップS15の処理と同様であるので、その説明は省略する。但し、ステップS72では、撮像により得られたイン画像が、イン画像撮像部22から圧縮部81および顔認識部121に供給される。
 ステップS76において、顔認識部121は、記録部54に記録されている登録情報を用いて、イン画像撮像部22から供給されたイン画像に対する顔認識を行い、その認識結果を付加情報として付加処理部82に供給する。例えば、付加情報として、顔認識の結果特定されたユーザのユーザ名、すなわち撮影者情報が付加処理部82に供給される。
 なお、顔認識の結果、イン画像上のユーザが登録されていない新たなユーザ、つまり登録情報としてユーザ名が記録されていないユーザである場合には、必要に応じて登録処理などが行なわれる。
 ステップS77において、付加処理部82は、顔認識部121から供給された撮影者情報と、圧縮部81から供給された、符号化された2値画像とを付加情報として、アウト画像撮像部23からのアウト画像の画像データに付加し、記録部54に供給する。
 ステップS78において、記録部54は、付加処理部82から供給されたアウト画像を記録して、撮像処理は終了する。
 以上のようにして、画像処理装置11は、付加情報としてイン画像から得られた2値画像と撮影者情報とをアウト画像に付加する。
 これにより、より効果的にアウト画像を表示することができるとともに、利便性を向上させることができる。例えば、付加情報として生成された撮影者情報を用いれば、特定の撮影者により撮像されたアウト画像を一覧表示させるなど、効果的にアウト画像を表示することができる。
〈再生処理の説明〉
 また、記録部54にアウト画像が記録されると、ユーザは操作入力部51を操作して、特定のユーザが撮像したアウト画像の一覧を表示させることができる。その際、ユーザは例えば操作入力部51を操作することで、アウト画像のみを表示させるか、またはアウト画像に付加情報から得られる画像を合成表示させるかを選択することができる。
 以下、図10のフローチャートを参照して、ユーザによりアウト画像の一覧表示が指示されたときに画像処理装置11により行なわれる再生処理について説明する。
 ステップS101において、抽出部83は、記録部54に記録されている全てのアウト画像を読み出す。
 ステップS102において、抽出部83は、読み出した各アウト画像に付加されている付加情報としての撮影者情報を読み出して、特定の撮影者により撮像されたアウト画像を検出する。
 例えば、特定の撮影者は、ユーザが操作入力部51を操作することで入力された撮影者とされる。制御部52は、操作入力部51からの信号に基づいて、必要に応じて信号処理部53を介して記録部54から登録情報を読み出し、ユーザにより指定された撮影者を示す情報を信号処理部53に供給する。すると、抽出部83は、制御部52から供給された情報に基づいて、特定の撮影者により撮像されたアウト画像を検出する。
 ステップS103において、抽出部83は、検出された特定の撮影者のアウト画像のみを再生部85に供給するとともに、特定の撮影者のアウト画像の画像データから、付加情報としての符号化された2値画像を読み出して復号部84に供給する。例えば、符号化された2値画像として、ランレングスコードが復号部84に供給される。
 アウト画像から付加情報が読み出されると、その後、ステップS104乃至ステップS107の処理が行なわれるが、これらの処理は、図7のステップS43乃至ステップS46の処理と同様であるので、その説明は省略する。
 但し、ステップS104乃至ステップS107では、特定の撮影者により撮像された全てのアウト画像について、そのアウト画像から読み出された付加情報としての符号化された2値画像が復号され、アウト画像に対する2値画像の合成が行なわれる。
 ステップS108において、表示部21は、再生部85から供給された、2値画像が合成されたアウト画像を一覧表示し、再生処理は終了する。
 これにより、例えば図11に示すアウト画像SM11-1乃至アウト画像SM11-6が表示部21に表示される。この例では、表示部21上に6つのアウト画像SM11-1乃至アウト画像SM11-6が並べられて表示されている。そして、それらのアウト画像SM11-1乃至アウト画像SM11-6には、付加情報としての2値画像IP21-1乃至2値画像IP21-6が合成表示されている。
 このように、特定の撮影者のアウト画像のみを一覧表示させることで、ユーザは、より簡単に鑑賞したいアウト画像を探し出すことができるようになる。つまり、アウト画像をより効果的に表示することができる。
 例えば、アウト画像SM11-1乃至アウト画像SM11-6が一覧表示されると、ユーザは操作入力部51を操作して、それらのアウト画像のうちの1つのみを表示部21に表示させたり、それらのアウト画像をスライドショー表示させたりすることができる。
 なお、ここでは、各アウト画像に2値画像が合成表示される例について説明したが、予め登録情報としてユーザの顔画像を記録しておき、その顔画像がアウト画像に合成表示されるようにしてもよい。
 図10のフローチャートの説明に戻り、ステップS106において、2値画像を再生しないと判定された場合、再生部85は、抽出部83から供給されたアウト画像をそのまま表示部21に供給し、処理はステップS109に進む。
 ステップS109において、表示部21は、再生部85から供給されたアウト画像を一覧表示し、再生処理は終了する。
 これにより、例えば図12に示すアウト画像SM11-1乃至アウト画像SM11-6が表示部21に表示される。なお、図12において、図11における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図12の例では、表示部21上に6つのアウト画像SM11-1乃至アウト画像SM11-6が並べられて表示されている。そして、それらのアウト画像SM11-1乃至アウト画像SM11-6には、付加情報としての2値画像は合成表示されていない。
 このように、特定の撮影者のアウト画像のみを一覧表示させることで、図11の例と同様に、ユーザはより簡単に鑑賞したいアウト画像を探し出すことができるようになる。
 例えば、アウト画像SM11-1乃至アウト画像SM11-6が一覧表示されると、ユーザは操作入力部51を操作して、それらのアウト画像のうちの1つのみを表示部21に表示させたり、それらのアウト画像をスライドショー表示させたりすることができる。
 以上のようにして画像処理装置11は、アウト画像に付加情報として付加されている撮影者情報を利用して、特定の撮影者のアウト画像を検出し、検出されたアウト画像を一覧表示させる。また、画像処理装置11は、アウト画像を一覧表示させるときに、ユーザの指示に応じて、アウト画像に2値画像を合成表示する。
 このように、アウト画像に付加された付加情報としての撮影者情報を利用すれば、特定の撮影者のアウト画像のみを表示させるなど、より効果的にアウト画像を表示することができるとともに利便性を向上させることができる。また、付加情報としての符号化された2値画像を利用すれば、アウト画像を一覧表示するときに、アウト画像のみを表示させたり、2値画像が合成されたアウト画像を表示させたりすることができる。
〈第3の実施の形態〉
〈信号処理部の構成例〉
 また、以上においては、付加情報として符号化された2値画像と撮影者情報が生成される場合について説明したが、付加情報としてアウト画像上の注視領域を示す情報が生成されるようにしてもよい。ここで、注視領域とは、アウト画像の撮像時に撮影者であるユーザが注視していたアウト画像上の領域である。
 このように、注視領域を示す情報が付加情報として生成される場合、信号処理部53は、例えば図13に示すように構成される。なお、図13において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図13に示す信号処理部53は、注視領域検出部151、付加処理部82、抽出部83、コスト計算部152、および再生部85から構成される。すなわち、図13の信号処理部53は、図4の信号処理部53における圧縮部81と復号部84に代えて、注視領域検出部151とコスト計算部152が設けられた構成となっている。
 注視領域検出部151は、イン画像撮像部22から供給されたイン画像に基づいて、ユーザが注視しているアウト画像上の領域である注視領域を検出し、その検出結果を付加情報として付加処理部82に供給する。
 付加処理部82は、アウト画像撮像部23から供給されたアウト画像の画像データに、注視領域検出部151から供給された注視領域の検出結果を示す情報を付加情報として付加し、記録部54に供給する。
 コスト計算部152は、抽出部83から供給された付加情報としての注視領域の検出結果を示す情報に基づいて、複数のアウト画像を同時または順番に重ねて表示させようとする場合における、注視領域の重なり度合いをコストとして計算し、再生部85に供給する。
 再生部85は、コスト計算部152から供給されたコストに基づいて表示部21によるアウト画像の表示を制御し、各アウト画像の注視領域がなるべく重ならないように、複数のアウト画像を重ねて表示させる。
〈撮像処理の説明〉
 次に、図14のフローチャートを参照して、信号処理部53が図13に示した構成とされる場合に行なわれる撮像処理について説明する。
 なお、ステップS131およびステップS132の処理は、図5のステップS11およびステップS12の処理と同様であるので、その説明は省略する。
 また、ステップS131では、アウト画像の撮像時に、アウト画像撮像部23により取り込まれた画像がアウト画像のプレビュー画像として信号処理部53の再生部85を介して表示部21に供給され、表示されるものとする。つまり、ユーザは、表示部21にアウト画像のプレビュー画像が表示されている状態で、操作入力部51を操作し、アウト画像の撮像を指示するものとする。
 ステップS133において、注視領域検出部151は、イン画像撮像部22から供給されたイン画像に基づいて、アウト画像の撮像時におけるユーザの視線方向を検出することで、アウト画像上におけるユーザの注視領域を検出する。
 例えば、注視領域検出部151は、イン画像から人の顔の領域を検出して、検出された顔の領域上の目の領域を決定する。そして、注視領域検出部151は、決定された目の領域と、予め用意された学習データ群とを用いてパターンマッチングを行なうことで、ユーザの視線方向を求める。例えば、パターンマッチングでは、目の領域とのマッチングで得られるスコアが最も高い学習データに対応付けられている視線方向が、求めるべき視線方向とされる。
 さらに注視領域検出部151は、イン画像上のユーザの顔の位置および顔の大きさから、実際のユーザの顔の位置と、イン画像撮像部22および表示部21との相対的な位置関係を求め、その位置関係と視線方向から注視領域を検出する。つまり、イン画像の撮像時には、表示部21にアウト画像のプレビュー画像が表示されているので、イン画像撮像時にユーザが注視していた表示部21上の領域に表示されていたアウト画像の領域が、ユーザが注目している領域となるはずである。
 なお、視線を検出してユーザの注視領域を特定する技術は、例えば米国特許第6246779号明細書等に記載されている。
 注視領域検出部151は、イン画像に基づいてアウト画像上の注視領域を検出すると、その検出結果として、例えば注視領域を示すアウト画像上の矩形領域の座標(矩形座標)を付加情報として付加処理部82に供給する。
 ステップS134において、付加処理部82は、アウト画像撮像部23から供給されたアウト画像の画像データに、注視領域検出部151から供給された付加情報を付加し、記録部54に供給する。
 ステップS135において、記録部54は、付加処理部82から供給されたアウト画像を記録し、撮像処理は終了する。
 以上のようにして、画像処理装置11は、アウト画像と同時に撮像されたイン画像に基づいて検出された、アウト画像の注視領域を示す情報を付加情報とし、アウト画像に付加情報を付加する。
 このように、アウト画像に付加情報を付加することで、アウト画像の再生時に付加情報を利用して、より効果的に画像を表示することができるとともに、利便性を向上させることができる。例えば、アウト画像を複数同時に表示させるときに、各アウト画像上の注視領域がなるべく重ならないように表示することが可能となる。付加情報として生成される注視領域を示す情報は、アウト画像の撮像時にしか得られない情報であり、アウト画像の表示時に利用すれば効果的にアウト画像を提示することができる。
〈再生処理の説明〉
 また、記録部54にアウト画像が記録されると、ユーザは操作入力部51を操作してアウト画像をスライドショー表示させることができる。その際、ユーザは例えば操作入力部51を操作することで、アウト画像を1枚ずつ表示させるか、または複数のアウト画像を重ねて同時に表示させるかを選択することができる。
 以下、図15のフローチャートを参照して、ユーザによりアウト画像のスライドショー表示が指示されたときに画像処理装置11により行なわれる再生処理について説明する。
 なお、ステップS161およびステップS162の処理は、図7のステップS41およびステップS42の処理と同様であるので、その説明は省略する。
 但し、ステップS161では、例えばユーザにより指定されたフォルダ内にあるアウト画像など、複数のアウト画像が読み出される。また、ステップS162では、複数の各アウト画像から読み出された付加情報としての注視領域を示す情報が、抽出部83からコスト計算部152に供給される。
 ステップS163において、コスト計算部152は、抽出部83から供給された付加情報としての注視領域を示す情報に基づいて、被写体の重なり度合いをコストとして計算し、再生部85に供給する。
 具体的にはコスト計算部152は、注視領域をサリエンシ(重要点)として、アウト画像の各領域の重要度を求める。例えば注視領域の重要度は高くされ、注視領域以外の領域の重要度は低くされる。このとき、注視領域の中心に近いほど重要度が高くされるようにしてもよい。
 コスト計算部152は、このようにして求めたアウト画像の各領域の重要度に基づいて、同時に表示される複数のアウト画像の重ね方について、各被写体の重なり度合いのコストを計算し、再生部85に供給する。例えば、より重要度の高い領域が他のアウト画像と重なって見えなくなってしまう重ね方がされる場合には、コストがより高くなるようにコスト計算が行なわれる。
 ステップS164において、再生部85は、複数のアウト画像を重ねて表示するか否かを判定する。
 ステップS164において、複数のアウト画像を重ねて表示すると判定された場合、ステップS165において、合成部95は、コスト計算部152から供給されたコストに基づいて、抽出部83から供給された複数のアウト画像を重ねて合成する。
 例えば、合成部95は、コスト計算部152から供給された最も低いコストにより定まる重ね方で、複数のアウト画像を重ねて合成する。これにより、各アウト画像の主要な被写体がなるべく重ならないように、つまり注視領域が他のアウト画像に隠れてしまわないように、複数のアウト画像が重ねられる。
 再生部85は、合成された複数のアウト画像を表示部21に供給し、それらの複数のアウト画像のスライドショー表示を指示する。
 ステップS166において、表示部21は、再生部85から供給された、合成された複数のアウト画像を表示することで、複数のアウト画像が同時に表示された状態でアウト画像をスライドショー表示し、再生処理は終了する。
 これにより、表示部21には、例えば図16に示すアウト画像が表示される。
 図16の例では、表示部21に3つのアウト画像P11-1乃至アウト画像P11-3が表示されており、それらのアウト画像の一部が互いに重なっている。特に、この例では、各アウト画像の主要な被写体が他のアウト画像に隠れてしまわないように、3つのアウト画像が重ねられている。
 なお、複数のアウト画像を重ねて表示させる方法としては、アウト画像を1枚ずつ順番に重ねて表示していくようにしてもよいし、複数枚のアウト画像が重ねられて同時に表示された後、次の異なる複数枚のアウト画像が同時に表示されるようにしてもよい。
 このように、画像のサリエンシに基づいて複数の画像を重ねて表示する技術は、例えば米国特許第7595809号明細書等に記載されている。
 図15のフローチャートの説明に戻り、ステップS164において、アウト画像を重ねて表示しないと判定された場合、再生部85は、抽出部83から供給されたアウト画像を順番に表示部21に供給し、処理はステップS167に進む。
 ステップS167において、表示部21は、再生部85から供給されたアウト画像を順番に表示することで、アウト画像のスライドショー表示を行ない、再生処理は終了する。
 以上のようにして、画像処理装置11は、アウト画像に付加情報として付加された注視領域を示す情報に基づいて、注視領域にできるだけ他のアウト画像が重ならないように複数のアウト画像を重ねて表示する。このように、アウト画像の撮像時にしか得ることのできない付加情報を利用することで、アウト画像をより効果的に表示させることができる。
 なお、以上においては、付加情報としての注視領域を示す情報を、アウト画像を重ねて表示させるために用いる例について説明したが、アウト画像の他の表示方法のために注視領域を示す情報が用いられるようにしてもよい。例えば、アウト画像が1枚ずつ順番に表示される場合に、注視領域を示す情報に基づいて、アウト画像の注視領域が拡大表示(ズーム)されるようにしてもよい。
〈第4の実施の形態〉
〈信号処理部の構成例〉
 また、イン画像の一部の領域が付加情報とされて、アウト画像の再生時に付加情報とされた画像がアウト画像に合成されるようにしてもよい。
 具体的には、例えば図17に示すように、風景を被写体とするアウト画像OT11と、ユーザを被写体とするイン画像IN11とが撮像されたとする。
 この場合、アウト画像OT11に対して画角変換処理が行なわれて、その結果得られた画像T11が最終的なアウト画像とされる。この例では、画像T11はアウト画像OT11のアスペクト比を変換して得られる画像であり、画像T11にはアウト画像OT11上の全ての被写体が写っている。すなわち、画像T11は、アウト画像OT11が図中、横方向に縮小された画像となっている。
 また、イン画像IN11に対して顔認識などの処理が行なわれて、イン画像IN11から主要な被写体の領域が検出され、イン画像IN11の主要な被写体の領域を含む領域が切り出されて、付加情報としての画像C11とされる。特に、主要な被写体が人の顔である場合には、主要な被写体の領域に対して画像変形処理を施すと、人の顔が歪んでしまうが、ここでは主要な被写体の領域を切り出すことで、歪みのない画像が得られる。
 なお、画像T11の図中、縦方向の長さと横方向の長さの比は、アウト側アスペクトパラメータとして予め指定されているものとする。同様に、画像C11の図中、縦方向の長さと横方向の長さの比は、イン側アスペクトパラメータとして予め指定されているものとする。
 また、これらのアウト側アスペクトパラメータとイン側アスペクトパラメータは、画像T11と画像C11を図中、横方向に並べて1つの画像としたときに、得られる画像のアスペクト比が、元のアウト画像OT11のアスペクト比と同じとなるように定められる。
 このようにして画像C11が得られると、画像C11が付加情報として画像T11の画像データに付加される。
 そして、画像T11の再生時には、ユーザは画像T11をそのまま再生させるか、または画像T11に付加情報としての画像C11を合成させて表示させるかを選択することができる。
 例えば、画像T11に画像C11を合成した画像の表示が指示された場合、画像処理装置11は、画像T11と画像C11を図中、横方向に並べて合成し、合成画像P21を生成する。そして、画像処理装置11は、得られた合成画像P21を表示する。
 例えば、イン画像とアウト画像の一部を切り出して連結する場合には、主要な被写体や風景が削除されてしまう恐れがある。これに対して、合成画像P21は、元のアウト画像OT11の内容を全て残しつつ、そのアウト画像OT11撮像時の撮影者の様子も含まれた画像となっており、より効果的に画像を表示することができる。
 また、イン画像とアウト画像を単純に並べて連結する場合には、画像のアスペクト比が変化し、表示部21とのアスペクト比の違いなどにより、画像を小さく表示しなければならないなどの支障が生じてしまう。これに対して、合成画像P21は、元のアウト画像OT11と同じアスペクト比となるので、表示の際に支障をきたすこともない。
 このように、イン画像の一部の領域を切り出して付加情報とする場合、信号処理部53は、例えば図18に示すように構成される。なお、図18において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図18に示す信号処理部53は、画角変換部181、付加処理部82、主要領域検出部182、クロップ処理部183、抽出部83、および再生部85から構成される。
 画角変換部181は、指定されたアウト側アスペクトパラメータに基づいて、アウト画像が目標となるアスペクト比になるように、アウト画像撮像部23から供給されたアウト画像に対して画角変換処理を行い、付加処理部82に供給する。
 主要領域検出部182は、イン画像撮像部22から供給されたイン画像から、主要な被写体の領域(以下、主要領域と称する)を検出し、その検出結果とイン画像をクロップ処理部183に供給する。
 クロップ処理部183は、主要領域検出部182から供給された主要領域の検出結果と、指定されたイン側アスペクトパラメータとに基づいて、イン画像の主要領域を含む領域を切り出してクロップ画像とし、付加処理部82に供給する。すなわち、イン画像に対するクロップ処理によって得られたクロップ画像が、付加情報として付加処理部82に供給される。
 付加処理部82は、画角変換部181から供給されたアウト画像に、クロップ処理部183から供給されたクロップ画像を付加情報として付加し、記録部54に供給する。
 抽出部83は、記録部54から読み出したアウト画像から付加情報を抽出し、アウト画像および付加情報を再生部85に供給する。
〈撮像処理の説明〉
 次に、図19のフローチャートを参照して、信号処理部53が図18の構成とされる場合に画像処理装置11により行なわれる撮像処理について説明する。
 なお、ステップS191およびステップS192の処理は、図5のステップS11およびステップS12の処理と同様であるので、その説明は省略する。
 ステップS193において、画角変換部181は、指定されたアウト側アスペクトパラメータに基づいて、アウト画像撮像部23から供給されたアウト画像に対して画角変換処理を行い、付加処理部82に供給する。
 例えば、画角変換部181は、シームカービング処理によってアウト画像の画角を変換する。シームカービング処理では、アウト画像のアスペクト比が、アウト側アスペクトパラメータに示されるアスペクト比となるまで、コストが最小となる垂直方向のパスが求められ、そのパス上の画素が間引かれる処理が繰り返し行なわれる。つまり、元の画像からの絵柄の変化が最も少なくなるように、画素の間引きが行なわれる。
 これにより、例えば図17に示した画像T11が最終的なアウト画像として得られ、付加処理部82に供給される。
 なお、アウト画像の画角を変換する画角変換処理として、シームカービング処理が行なわれる例について説明したが、画像の縮小処理が画角変換処理として行なわれてもよい。
 ステップS194において、主要領域検出部182は、イン画像撮像部22から供給されたイン画像から主要領域を検出し、その検出結果とイン画像をクロップ処理部183に供給する。例えば、イン画像に対して顔認識処理が行なわれ、イン画像における人の顔の領域が主要領域とされる。
 ステップS195において、クロップ処理部183は、主要領域検出部182から供給された主要領域の検出結果と、指定されたイン側アスペクトパラメータとに基づいて、主要領域検出部182から供給されたイン画像に対してクロップ処理を行なう。
 すなわち、クロップ処理部183は、イン画像において主要領域を含み、イン側アスペクトパラメータにより示されるアスペクト比の領域をクロップ画像として切り出して付加処理部82に供給する。これにより、例えば図17に示した画像C11がクロップ画像として得られる。このようにして得られたクロップ画像がアウト画像の付加情報とされる。
 ステップS196において、付加処理部82は、画角変換部181から供給されたアウト画像の画像データに、クロップ処理部183から供給されたクロップ画像を付加情報として付加し、記録部54に供給する。
 ステップS197において、記録部54は、付加処理部82から供給されたアウト画像を記録して、撮像処理は終了する。
 以上のようにして、画像処理装置11は、イン画像の主要領域を含む領域を切り出して得られたクロップ画像を付加情報とし、アウト画像に付加する。このように、アウト画像にクロップ画像を付加情報として埋め込むことで、アウト画像のみを表示させたり、アウト画像にクロップ画像を合成して表示させたりすることができるようになる。これにより、アウト画像をより効果的に表示させることができるとともに、利便性を向上させることができる。
〈再生処理の説明〉
 また、記録部54にアウト画像が記録されると、ユーザは操作入力部51を操作してアウト画像を表示させることができる。その際、ユーザは例えば操作入力部51を操作することで、アウト画像のみを表示させるか、またはアウト画像に付加情報としてのクロップ画像を合成して表示させるかを選択することができる。
 以下、図20のフローチャートを参照して、ユーザによりアウト画像の再生が指示されたときに画像処理装置11により行なわれる再生処理について説明する。
 ステップS221において、抽出部83は、制御部52の指示に従ってユーザにより指定されたアウト画像を記録部54から読み出す。
 ステップS222において、抽出部83は、アウト画像の画像データから付加情報としてのクロップ画像を読み出して、クロップ画像およびアウト画像を再生部85に供給する。
 ステップS223において、再生部85はアウト画像にクロップ画像を合成するか否かを判定する。
 ステップS223において、クロップ画像を合成すると判定された場合、ステップS224において、合成部95は、抽出部83から供給されたアウト画像にクロップ画像を合成する。具体的には、合成部95は、アウト画像とクロップ画像を並べて、それらの画像の境界近傍の領域については、アウト画像とクロップ画像の重み付き加算処理を行なうことで、1つの合成画像を生成する。これにより、例えば図17に示した合成画像P21が得られる。
 ここで、重み付き加算処理で用いられる重みは、例えばアウト画像側にある位置ほど、アウト画像の重みが大きくなるように定められる。なお、より詳細には、重み付き加算処理が行なわれる場合には、アウト画像とクロップ画像のサイズは、重み付き加算処理に必要となる領域の分だけ大きくされ、最終的に得られる合成画像が元のアウト画像と同じアスペクト比となるようになされる。
 このようにして合成画像が得られると、再生部85は合成画像を表示部21に供給する。
 ステップS225において、表示部21は、再生部85から供給された合成画像を表示し、再生処理は終了する。
 また、ステップS223において、クロップ画像を合成しないと判定された場合、再生部85は、抽出部83から供給されたアウト画像をそのまま表示部21に供給し、処理はステップS226に進む。
 ステップS226において、表示部21は、再生部85から供給されたアウト画像を表示し、再生処理は終了する。
 このようにして画像処理装置11は、ユーザの指示に応じて、アウト画像をそのまま表示させたり、アウト画像に付加情報として付加されているクロップ画像を合成して表示させたりする。
 このようにアウト画像に付加された付加情報を利用すれば、アウト画像または合成画像のうちの所望の画像を表示させることができる。つまり、より効果的にアウト画像を表示させることができ、アウト画像の鑑賞をより楽しませることができる。
〈第5の実施の形態〉
〈信号処理部の構成例〉
 また、上述した第2の実施の形態では、アウト画像に付加情報として撮影者情報が付加される例について説明したが、付加情報としての撮影者情報に応じてアウト画像の記録領域が定められるようにしてもよい。
 例えば、図21に示すように4つのアウト画像P41乃至アウト画像P44が撮像され、それらのアウト画像の付加情報として撮影者情報が得られたとする。この例では、アウト画像P41乃至アウト画像P44の再生時には、必要に応じてアウト画像P41乃至アウト画像P44に2値画像IP41乃至2値画像IP44が合成表示される。
 このようにアウト画像P41乃至アウト画像P44が得られた場合、これらのアウト画像は、そのアウト画像の撮影者情報に示される撮影者ごとのフォルダに記録される。
 例えば、図中、右側に示すように記録部54には、予め撮影者AのフォルダFD11と、撮影者BのフォルダFD12が設けられている。
 いま、アウト画像P41とアウト画像P44に付加情報として付加されている撮影者情報が撮影者Aを示す情報であり、アウト画像P42とアウト画像P43に付加情報として付加されている撮影者情報が撮影者Bを示す情報であるとする。そのような場合、アウト画像P41とアウト画像P44はフォルダFD11に記録され、アウト画像P42とアウト画像P43はフォルダFD12に記録される。
 このように撮影者情報により定まる記録領域として、撮影者ごとのフォルダにアウト画像が記録される場合、信号処理部53は、例えば図22に示すように構成される。なお、図22において、図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図22に示す信号処理部53は、圧縮部81、付加処理部82、抽出部83、復号部84、再生部85、顔認識部121、および分類部211から構成される。つまり、図22の信号処理部53は、図8の信号処理部53にさらに分類部211が設けられた構成とされている。
 分類部211は、付加処理部82からのアウト画像を記録部54に供給して、記録部54のフォルダのうち、アウト画像に付加された付加情報としての撮影者情報により定まるフォルダ内にアウト画像が格納されるようにアウト画像を記録させる。
〈撮像処理の説明〉
 次に、図23のフローチャートを参照して、信号処理部53が図22に示す構成とされる場合に行なわれる撮像処理について説明する。
 なお、ステップS251乃至ステップS257の処理は、図9のステップS71乃至ステップS77の処理と同様であるので、その説明は省略する。但し、ステップS257では、付加情報として撮影者情報と符号化された2値画像とが付加されたアウト画像の画像データが、付加処理部82から分類部211へと供給される。
 ステップS258において、分類部211は、付加処理部82から供給されたアウト画像の付加情報に応じてアウト画像を記録部54に記録させ、撮像処理は終了する。
 具体的には、例えば記録部54に設けられた各フォルダには、撮影者情報が対応付けられており、分類部211は、アウト画像に付加された撮影者情報と同じ撮影者情報が対応付けられているフォルダを特定する。そして、分類部211は、特定したフォルダにアウト画像が格納されるようにアウト画像を記録部54に供給し、記録させる。すなわち、特定したフォルダの領域とされている記録部54の記録領域にアウト画像が記録される。
 以上のようにして、画像処理装置11は、付加情報としてイン画像から得られた2値画像と撮影者情報とをアウト画像に付加し、撮影者情報により定まるフォルダにアウト画像を記録する。
 これにより、より効果的にアウト画像を表示することができるとともに、利便性を向上させることができる。例えば、付加情報として生成された撮影者情報を用いれば、特定の撮影者により撮像されたアウト画像を一覧表示させるなど、効果的にアウト画像を表示することができる。しかも、アウト画像の記録時には、撮影者情報に応じて撮影者ごとのフォルダにアウト画像が記録されるため、特定の撮影者のアウト画像を迅速に特定することができるようになる。
〈再生処理の説明〉
 また、記録部54にアウト画像が記録されると、ユーザは操作入力部51を操作して、特定のユーザが撮像したアウト画像の一覧を表示させることができる。その際、ユーザは例えば操作入力部51を操作することで、アウト画像のみを表示させるか、またはアウト画像に付加情報から得られる画像を合成表示させるかを選択することができる。
 以下、図24のフローチャートを参照して、ユーザによりアウト画像の一覧表示が指示されたときに画像処理装置11により行なわれる再生処理について説明する。
 ステップS281において、抽出部83は、記録部54の特定のフォルダに記録されている全てのアウト画像を読み出す。例えば抽出部83は、操作入力部51に対する操作によってユーザにより指定された任意のユーザ(撮影者)のフォルダに格納されているアウト画像を読み出す。
 また、例えば抽出部83が画像処理装置11にログインしているユーザ(撮影者)のフォルダに格納されているアウト画像を読み出すようにしてもよい。さらに、イン画像撮像部22によりイン画像を撮像するとともに、顔認識部121により顔認識を行い、その顔認識の結果特定されたユーザ、つまり画像処理装置11を操作しているユーザのフォルダに格納されているアウト画像が読み出されてもよい。
 このようにしてアウト画像が読み出されると、その後、ステップS282乃至ステップS288の処理が行なわれて再生処理は終了するが、これらの処理は図10のステップS103乃至ステップS109の処理と同様であるので、その説明は省略する。
 以上のようにして画像処理装置11は、アウト画像に付加情報として付加されている撮影者情報により示される撮影者ごとに設けられたフォルダからアウト画像を読み出し、アウト画像を一覧表示させる。また、画像処理装置11は、アウト画像を一覧表示させるときに、ユーザの指示に応じて、アウト画像に2値画像を合成表示する。
 このように、アウト画像に付加された付加情報としての撮影者情報を利用すれば、特定の撮影者のアウト画像のみを表示させるなど、より効果的にアウト画像を表示することができる。また、付加情報としての撮影者情報により定まるフォルダにアウト画像を格納しておけば、より簡単かつ迅速に特定の撮影者のアウト画像を特定することができ、利便性を向上させることができる。
〈第6の実施の形態〉
〈信号処理部の構成例〉
 さらに、画像処理装置11を操作するユーザの笑顔を検出し、笑顔が検出されたタイミングでアウト画像とイン画像を撮像するとともに、ユーザの笑顔の度合いが付加情報としてアウト画像に付加されるようにしてもよい。
 そのような場合、信号処理部53は、例えば図25に示すように構成される。なお、図25において、図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図25に示す信号処理部53は、圧縮部81、付加処理部82、抽出部83、復号部84、再生部85、顔認識部121、および笑顔検出部241から構成される。つまり、図25の信号処理部53は、図8の信号処理部53にさらに笑顔検出部241が設けられた構成とされている。
 笑顔検出部241は、イン画像撮像部22から供給されたイン画像から画像処理装置11を操作するユーザ、つまりアウト画像の撮影者であるユーザの笑顔を検出し、その検出結果に応じて撮像タイミングとなった旨の情報を制御部52に供給する。制御部52は、笑顔検出部241から供給される、撮像タイミングとなった旨の情報に応じてアウト画像撮像部23とイン画像撮像部22を制御し、アウト画像とイン画像を撮像させる。
 また、笑顔検出部241は、イン画像から検出されたユーザの笑顔の度合いを付加情報として生成し、付加処理部82に供給する。
〈撮像処理の説明〉
 次に、図26のフローチャートを参照して、信号処理部53が図25に示す構成とされる場合に行なわれる撮像処理について説明する。この場合、ユーザにより操作入力部51が操作され、アウト画像の撮像開始が指示されると撮像処理が開始される。
 ステップS311において、イン画像撮像部22は、制御部52の指示に従ってイン画像を撮像し、圧縮部81、顔認識部121、および笑顔検出部241に供給する。
 ステップS312において、笑顔検出部241は、イン画像撮像部22から供給されたイン画像からユーザの笑顔を検出する。
 例えば、笑顔検出部241は、予め定められた多数の笑顔について学習データを保持している。ここで、学習データは、特定の笑顔によらず微笑や大きな笑いなどの表情の人の顔の画像データなどとされる。
 笑顔検出部241は、各学習データから得られる特徴量と、イン画像から得られる特徴量とを比較してスコア値を算出することによって、イン画像上のユーザの笑顔の度合いを求める。このとき、イン画像との類似の度合いがイン画像上のユーザの笑顔の度合いとされる。また、例えば笑顔の度合いが特定の値以上である場合に、イン画像から笑顔が検出されたとされる。
 なお、笑顔の検出方法は、イン画像から笑顔を検出することができれば、どのような方法であってもよい。例えば笑顔検出部241が、予め定められた複数の笑顔の度合いについて、笑顔の度合いごとに学習データを保持しているようにしてもよい。ここで、学習データは、特定の笑顔の度合いである人の平均的な笑顔、つまり微笑や大きな笑いなどの特定の表情の人の平均的な顔の画像データなどとされる。
 笑顔検出部241は、各学習データから得られる特徴量と、イン画像から得られる特徴量とを比較して、各学習データのなかから最もイン画像に類似している学習データを特定することで、イン画像上のユーザの笑顔の度合いを求める。このとき、イン画像との類似の度合いが特定の値以上である学習データがある場合、イン画像から笑顔が検出されたとされ、最も類似の度合いの高い学習データの笑顔の度合いが、イン画像上のユーザの笑顔の度合いとされる。
 ステップS313において、笑顔検出部241は、イン画像から笑顔が検出されたか否かを判定する。
 ステップS313において笑顔が検出されなかったと判定された場合、処理はステップS311に戻り、上述した処理が繰り返される。
 これに対して、ステップS313において笑顔が検出されたと判定された場合、笑顔検出部241は、撮像タイミングとなった旨の情報を制御部52に供給し、処理はステップS314に進む。また、笑顔検出部241は、笑顔検出により得られたイン画像上のユーザの笑顔の度合いをアウト画像の付加情報として付加処理部82に供給する。
 なお、ここでアウト画像の付加情報とされる笑顔の度合いは、アウト画像を撮像する撮影者の笑顔(表情)を示す情報である。また、笑顔検出部241における笑顔の度合いの算出には、イン画像から検出されたユーザの顔における口の形状や、歯の領域の大きさなどが用いられるようにしてもよい。
 イン画像から笑顔が検出されると、その後、ステップS314乃至ステップS319の処理が行なわれるが、これらの処理は図9のステップS71乃至ステップS76の処理と同様であるので、その説明は省略する。但し、ステップS314およびステップS315では、制御部52が笑顔検出部241から供給された撮像タイミングとなった旨の情報に基づいて、アウト画像撮像部23およびイン画像撮像部22にアウト画像およびイン画像を撮像させる。すなわち、撮影者の笑顔が検出されたタイミングでアウト画像とイン画像が撮像される。
 ステップS320において、付加処理部82は、顔認識部121からの撮影者情報、圧縮部81からの符号化された2値画像、および笑顔検出部241からの笑顔の度合いを付加情報として、アウト画像撮像部23からのアウト画像の画像データに付加する。そして、付加処理部82は、付加情報が付加されたアウト画像の画像データを記録部54に供給する。
 ステップS321において、記録部54は、付加処理部82から供給されたアウト画像を記録して、撮像処理は終了する。
 以上のようにして、画像処理装置11は、付加情報としてイン画像から得られた2値画像、撮影者情報、および笑顔の度合いをアウト画像に付加する。
 これにより、より効果的にアウト画像を表示することができるとともに、利便性を向上させることができる。例えば、付加情報としての笑顔の度合いを用いれば、撮像時に撮影者の表情が特定の表情、つまり特定の度合いの笑顔であったアウト画像を選択的に表示させることができるようになる。また、笑顔の度合いを付加情報とすることで、特定の笑顔の度合いのアウト画像を簡単かつ迅速に検出することができるようになり、利便性を向上させることができる。
〈再生処理の説明〉
 また、記録部54にアウト画像が記録されると、ユーザは操作入力部51を操作して、特定の笑顔の度合いのアウト画像をスライドショー表示させたり、一覧表示させたりすることができる。その際、ユーザは例えば操作入力部51を操作することで、アウト画像のみを表示させるか、またはアウト画像に付加情報から得られる画像を合成表示させるかを選択することができる。
 以下、図27のフローチャートを参照して、ユーザによりアウト画像のスライドショー表示が指示されたときに画像処理装置11により行なわれる再生処理について説明する。
 ステップS351において、抽出部83は、記録部54に記録されている全てのアウト画像を読み出す。
 ステップS352において、抽出部83は、読み出した各アウト画像に付加されている付加情報としての笑顔の度合いを読み出して、特定の笑顔の度合いのアウト画像を検出する。例えば、特定の笑顔の度合いは、ユーザにより予め指定される。
 特定の笑顔の度合いのアウト画像が検出されると、その後、ステップS353乃至ステップS357の処理が行なわれるが、これらの処理は図10のステップS103乃至ステップS107の処理と同様であるので、その説明は省略する。但し、ステップS353では、特定の笑顔の度合いのアウト画像から付加情報が読み出されるとともに、それらのアウト画像が再生部85に供給される。また、再生部85は、2値画像が合成されたアウト画像を順番に表示部21に供給する。
 ステップS358において、表示部21は、再生部85から供給された、2値画像が合成されたアウト画像を順番に表示し、再生処理は終了する。
 これに対して、ステップS356において2値画像を再生しないと判定された場合、再生部85は、抽出部83から供給されたアウト画像をそのまま表示部21に供給し、処理はステップS359に進む。
 ステップS359において、表示部21は、再生部85から供給されたアウト画像を順番に表示し、再生処理は終了する。
 以上のようにして画像処理装置11は、アウト画像に付加情報として付加されている笑顔の度合いを利用して、特定の笑顔の度合いのアウト画像を検出し、表示させる。また、画像処理装置11は、アウト画像を表示させるときに、ユーザの指示に応じて、アウト画像に2値画像を合成表示する。
 このように、アウト画像に付加された付加情報としての笑顔の度合いを利用すれば、撮影者が特定の表情であるときに撮像されたアウト画像のみを表示させるなど、より効果的にアウト画像を表示することができる。
〈第7の実施の形態〉
〈信号処理部の構成例〉
 さらに、以上においてはアウト画像の付加情報として笑顔の度合いが付加される例について説明したが、付加情報としての笑顔の度合いに応じてアウト画像の記録領域が定められるようにしてもよい。
 例えば、図28に示すように3つのアウト画像P51乃至アウト画像P53が撮像され、それらのアウト画像の付加情報として笑顔の度合いが得られたとする。この例では、アウト画像P51乃至アウト画像P53の再生時には、必要に応じてアウト画像P51乃至アウト画像P53に2値画像IP51乃至2値画像IP53が合成表示される。
 このようにアウト画像P51乃至アウト画像P53が得られた場合、これらのアウト画像は、撮影者の笑顔の度合いごとのフォルダに記録される。
 例えば、図中、右側に示すように記録部54には、予め笑顔の度合いAのフォルダFD21と、笑顔の度合いBのフォルダFD22が設けられている。
 いま、アウト画像P51とアウト画像P53に付加情報として付加されている笑顔の度合いが笑顔の度合いBを示す情報であり、アウト画像P52に付加情報として付加されている笑顔の度合いが笑顔の度合いAを示す情報であるとする。そのような場合、アウト画像P52はフォルダFD21に記録され、アウト画像P51とアウト画像P53はフォルダFD22に記録される。
 このように撮影者の笑顔の度合いにより定まる記録領域として、笑顔の度合いごとのフォルダにアウト画像が記録される場合、信号処理部53は、例えば図29に示すように構成される。なお、図29において、図25における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図29に示す信号処理部53は、圧縮部81、付加処理部82、抽出部83、復号部84、再生部85、顔認識部121、笑顔検出部241、および分類部271から構成される。つまり、図29の信号処理部53は、図25の信号処理部53にさらに分類部271が設けられた構成とされている。
 分類部271は、付加処理部82からのアウト画像を記録部54に供給して、記録部54のフォルダのうち、アウト画像に付加された付加情報としての笑顔の度合いにより定まるフォルダ内にアウト画像が格納されるようにアウト画像を記録させる。
〈撮像処理の説明〉
 次に、図30のフローチャートを参照して、信号処理部53が図29に示す構成とされる場合に行なわれる撮像処理について説明する。
 なお、ステップS381乃至ステップS390の処理は、図26のステップS311乃至ステップS320の処理と同様であるので、その説明は省略する。但し、ステップS390では、付加情報として撮影者情報、符号化された2値画像、および笑顔の度合いが付加されたアウト画像の画像データが、付加処理部82から分類部271へと供給される。
 ステップS391において、分類部271は、付加処理部82から供給されたアウト画像の付加情報に応じてアウト画像を記録部54に記録させ、撮像処理は終了する。
 具体的には、例えば記録部54に設けられた各フォルダには、笑顔の度合いが対応付けられており、分類部271は、アウト画像に付加された笑顔の度合いと同じ笑顔の度合いが対応付けられているフォルダを特定する。そして、分類部271は、特定したフォルダにアウト画像が格納されるようにアウト画像を記録部54に供給し、記録させる。すなわち、特定したフォルダの領域とされている記録部54の記録領域にアウト画像が記録される。
 以上のようにして、画像処理装置11は、付加情報としてイン画像から得られた2値画像、撮影者情報、および笑顔の度合いをアウト画像に付加し、笑顔の度合いにより定まるフォルダにアウト画像を記録する。
 これにより、より効果的にアウト画像を表示することができるとともに、利便性を向上させることができる。例えば、付加情報として生成された笑顔の度合いを用いれば、特定の表情で撮像されたアウト画像を表示させるなど、効果的にアウト画像を表示することができる。しかも、アウト画像の記録時には、笑顔の度合いに応じて撮影者の表情ごとのフォルダにアウト画像が記録されるため、特定の笑顔の度合いのアウト画像を迅速に特定することができるようになり、利便性を向上させることができる。
 なお、ここでは撮影者によらず笑顔の度合いごとにフォルダが設けられる例について説明したが、各撮影者について、笑顔の度合いごとにフォルダが設けられるようにしてもよい。そのような場合、アウト画像の撮影者情報と笑顔の度合いとにより定まるフォルダにアウト画像が格納される。
〈再生処理の説明〉
 また、記録部54にアウト画像が記録されると、ユーザは操作入力部51を操作して、特定の表情でユーザが撮像したアウト画像を表示させたり、一覧表示させたりすることができる。その際、ユーザは例えば操作入力部51を操作することで、アウト画像のみを表示させるか、またはアウト画像に付加情報から得られる画像を合成表示させるかを選択することができる。
 以下、図31のフローチャートを参照して、ユーザによりアウト画像の表示が指示されたときに画像処理装置11により行なわれる再生処理について説明する。
 ステップS431において、抽出部83は、記録部54の特定のフォルダに記録されている全てのアウト画像を読み出す。例えば抽出部83は、操作入力部51に対する操作によってユーザにより指定された任意の笑顔の度合いのフォルダに格納されているアウト画像を読み出す。
 このようにしてアウト画像を読み出されると、その後、ステップS432乃至ステップS438の処理が行なわれて再生処理は終了するが、これらの処理は図27のステップS353乃至ステップS359の処理と同様であるので、その説明は省略する。
 以上のようにして画像処理装置11は、アウト画像に付加情報として付加されている笑顔の度合いにより示される撮影者の表情ごとに設けられたフォルダからアウト画像を読み出し、アウト画像を表示させる。また、画像処理装置11は、アウト画像を表示させるときに、ユーザの指示に応じて、アウト画像に2値画像を合成表示する。
 このように、アウト画像に付加された付加情報としての笑顔の度合いを利用すれば、撮影者が特定の表情のときに撮像されたアウト画像のみを表示させるなど、より効果的にアウト画像を表示することができる。また、付加情報としての笑顔の度合いにより定まるフォルダにアウト画像を格納しておけば、より簡単かつ迅速に特定の笑顔の度合いのアウト画像を特定することができ、利便性を向上させることができる。
〈第8の実施の形態〉
〈撮像処理の説明〉
 また、上述した第7の実施の形態では、イン画像から笑顔が検出されたときにアウト画像が撮像される例について説明したが、アウト画像とイン画像がユーザの指示に応じて撮像され、笑顔の度合いに応じたフォルダにアウト画像が記録されるようにしてもよい。
 そのような場合、信号処理部53は例えば図29に示した構成とされる。但し、この例では、笑顔検出部241から制御部52には、撮像タイミングとなった旨の情報は供給されず、制御部52は、操作入力部51への操作に応じて、アウト画像撮像部23とイン画像撮像部22にアウト画像とイン画像の撮像を指示する。
 次に、図32のフローチャートを参照して、アウト画像とイン画像がユーザの指示に応じて撮像され、笑顔の度合いに応じてアウト画像が記録される場合に画像処理装置11により行なわれる撮像処理について説明する。
 なお、ステップS461乃至ステップS466の処理は、図23のステップS251乃至ステップS256の処理と同様であるので、その説明は省略する。すなわち、これらの処理では、ユーザの操作に応じてアウト画像とイン画像が撮像されるとともに、アウト画像の付加情報として、符号化された2値画像と撮影者情報が生成される。
 ステップS467において、笑顔検出部241は、イン画像撮像部22から供給されたイン画像からユーザの笑顔を検出し、その結果得られたイン画像上のユーザの笑顔の度合いを付加情報として付加処理部82に供給する。例えばステップS467では、図26のステップS312と同様の処理が行なわれる。
 ステップS468において、付加処理部82は、顔認識部121からの撮影者情報、圧縮部81からの符号化された2値画像、および笑顔検出部241からの笑顔の度合いを付加情報として、アウト画像撮像部23からのアウト画像の画像データに付加する。そして、付加処理部82は、付加情報が付加されたアウト画像の画像データを分類部271に供給する。
 ステップS469において、分類部271は、付加処理部82から供給されたアウト画像の付加情報に応じてアウト画像を記録部54に記録させ、撮像処理は終了する。
 具体的には、分類部271は、アウト画像に付加された笑顔の度合いと同じ笑顔の度合いが対応付けられているフォルダを特定し、そのフォルダにアウト画像が格納されるようにアウト画像を記録部54に供給し、記録させる。すなわち、ステップS469では、図30のステップS391と同様の処理が行なわれる。
 以上のようにして、画像処理装置11は、付加情報としてイン画像から得られた2値画像、撮影者情報、および笑顔の度合いをアウト画像に付加し、笑顔の度合いにより定まるフォルダにアウト画像を記録する。
 これにより、より効果的にアウト画像を表示することができるとともに、利便性を向上させることができる。例えば、付加情報として生成された笑顔の度合いを用いれば、特定の表情で撮像されたアウト画像を表示させるなど、効果的にアウト画像を表示することができる。しかも、アウト画像の記録時には、笑顔の度合いに応じて撮影者の表情ごとのフォルダにアウト画像が記録されるため、特定の笑顔の度合いのアウト画像を迅速に特定することができるようになる。
 また、記録部54にアウト画像が記録されると、画像処理装置11では、ユーザによる操作入力部51への操作に応じて、特定の表情でユーザが撮像したアウト画像が表示される。なお、そのような場合、画像処理装置11では、図31を参照して説明した再生処理が行なわれる。すなわち、ユーザにより指定された笑顔の度合いのフォルダに格納されているアウト画像の表示が行なわれる。
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図33は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
[1]
 第1の方向を撮像する第1の撮像部と、
 前記第1の方向とは異なる第2の方向を撮像する第2の撮像部と、
 前記第1の撮像部による撮像で得られた第1の画像に基づいて付加情報を生成する付加情報生成部と、
 前記第2の撮像部による撮像で得られた第2の画像の画像データに前記付加情報を付加する付加処理部と
 を備える画像処理装置。
[2]
 前記付加情報生成部は、前記第1の画像の情報量を圧縮することで、前記付加情報を生成する
 [1]に記載の画像処理装置。
[3]
 前記付加情報生成部は、前記第1の画像のサイズを圧縮することで、前記付加情報を生成する
 [1]または[2]に記載の画像処理装置。
[4]
 前記第1の撮像部は、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像し、
 前記付加情報から得られる画像を前記第2の画像に合成する合成部をさらに備える
 [1]乃至[3]の何れかに記載の画像処理装置。
[5]
 前記第1の撮像部は、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像し、
 前記付加情報生成部は、前記第1の画像に対する顔認識処理を行なうことで、前記第2の画像の撮影者情報を前記付加情報として生成する
 [1]に記載の画像処理装置。
[6]
 前記付加情報に基づいて、複数の前記第2の画像から特定の撮影者により撮像された前記第2の画像を検出する抽出部と、
 前記抽出部により検出された前記第2の画像のみを表示させる再生部と
 をさらに備える[5]に記載の画像処理装置。
[7]
 前記付加情報としての前記撮影者情報により定まる記録領域に前記第2の画像を記録させる分類部をさらに備える
 [5]に記載の画像処理装置。
[8]
 前記第1の撮像部が設けられた、前記画像処理装置を操作するユーザ側の面に設けられ、前記第2の画像の撮像時に前記第2の撮像部により取り込まれた画像を表示する表示部をさらに備え、
 前記付加情報生成部は、前記第1の画像に基づいて前記ユーザの視線方向を検出することで、前記第2の画像上の前記ユーザが注視していた注視領域を示す情報を前記付加情報として生成する
 [1]に記載の画像処理装置。
[9]
 前記付加情報に基づいて、前記第2の画像の表示を制御する再生部をさらに備える
 [8]に記載の画像処理装置。
[10]
 前記再生部は、前記付加情報に基づいて複数の前記第2の画像を重ねて表示させる
 [9]に記載の画像処理装置。
[11]
 前記第2の画像に対して画角変換処理を施す画角変換部をさらに備え、
 前記付加情報生成部は、前記第1の画像上の主要な被写体を含む領域を切り出して得られたクロップ画像を前記付加情報とし、
 前記付加処理部は、前記画角変換処理が施された前記第2の画像の画像データに前記付加情報を付加する
 [1]に記載の画像処理装置。
[12]
 前記付加情報としての前記クロップ画像と、前記画角変換処理が施された前記第2の画像とを並べて合成することで、前記第2の撮像部により撮像された前記第2の画像と同じアスペクト比の合成画像を生成する合成部をさらに備える
 [11]に記載の画像処理装置。
[13]
 前記第1の撮像部は、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像し、
 前記付加情報生成部は、前記第1の画像に基づいて前記ユーザの笑顔を検出するとともに前記ユーザの笑顔の度合いを前記付加情報として生成し、
 前記第2の撮像部は、前記ユーザの笑顔が検出されたとき前記第2の方向を撮像する
 [1]に記載の画像処理装置。
[14]
 前記付加情報としての前記笑顔の度合いにより定まる記録領域に前記第2の画像を記録させる分類部をさらに備える
 [13]に記載の画像処理装置。
[15]
 前記第1の撮像部は、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像し、
 前記付加情報生成部は、前記第1の画像に基づいて前記ユーザの笑顔を検出するとともに前記ユーザの笑顔の度合いを前記付加情報として生成し、
 前記付加情報としての前記笑顔の度合いにより定まる記録領域に前記第2の画像を記録させる分類部をさらに備える
 [1]に記載の画像処理装置。
 11 画像処理装置, 21 表示部, 22 イン画像撮像部, 23 アウト画像撮像部, 53 信号処理部, 81 圧縮部, 82 付加処理部, 84 復号部, 85 再生部, 121 顔認識部, 151 注視領域検出部, 181 画角変換部, 182 主要領域検出部, 183 クロップ処理部

Claims (17)

  1.  第1の方向を撮像する第1の撮像部と、
     前記第1の方向とは異なる第2の方向を撮像する第2の撮像部と、
     前記第1の撮像部による撮像で得られた第1の画像に基づいて付加情報を生成する付加情報生成部と、
     前記第2の撮像部による撮像で得られた第2の画像の画像データに前記付加情報を付加する付加処理部と
     を備える画像処理装置。
  2.  前記付加情報生成部は、前記第1の画像の情報量を圧縮することで、前記付加情報を生成する
     請求項1に記載の画像処理装置。
  3.  前記付加情報生成部は、前記第1の画像のサイズを圧縮することで、前記付加情報を生成する
     請求項2に記載の画像処理装置。
  4.  前記第1の撮像部は、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像し、
     前記付加情報から得られる画像を前記第2の画像に合成する合成部をさらに備える
     請求項3に記載の画像処理装置。
  5.  前記第1の撮像部は、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像し、
     前記付加情報生成部は、前記第1の画像に対する顔認識処理を行なうことで、前記第2の画像の撮影者情報を前記付加情報として生成する
     請求項1に記載の画像処理装置。
  6.  前記付加情報に基づいて、複数の前記第2の画像から特定の撮影者により撮像された前記第2の画像を検出する抽出部と、
     前記抽出部により検出された前記第2の画像のみを表示させる再生部と
     をさらに備える請求項5に記載の画像処理装置。
  7.  前記付加情報としての前記撮影者情報により定まる記録領域に前記第2の画像を記録させる分類部をさらに備える
     請求項5に記載の画像処理装置。
  8.  前記第1の撮像部が設けられた、前記画像処理装置を操作するユーザ側の面に設けられ、前記第2の画像の撮像時に前記第2の撮像部により取り込まれた画像を表示する表示部をさらに備え、
     前記付加情報生成部は、前記第1の画像に基づいて前記ユーザの視線方向を検出することで、前記第2の画像上の前記ユーザが注視していた注視領域を示す情報を前記付加情報として生成する
     請求項1に記載の画像処理装置。
  9.  前記付加情報に基づいて、前記第2の画像の表示を制御する再生部をさらに備える
     請求項8に記載の画像処理装置。
  10.  前記再生部は、前記付加情報に基づいて複数の前記第2の画像を重ねて表示させる
     請求項9に記載の画像処理装置。
  11.  前記第2の画像に対して画角変換処理を施す画角変換部をさらに備え、
     前記付加情報生成部は、前記第1の画像上の主要な被写体を含む領域を切り出して得られたクロップ画像を前記付加情報とし、
     前記付加処理部は、前記画角変換処理が施された前記第2の画像の画像データに前記付加情報を付加する
     請求項1に記載の画像処理装置。
  12.  前記付加情報としての前記クロップ画像と、前記画角変換処理が施された前記第2の画像とを並べて合成することで、前記第2の撮像部により撮像された前記第2の画像と同じアスペクト比の合成画像を生成する合成部をさらに備える
     請求項11に記載の画像処理装置。
  13.  前記第1の撮像部は、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像し、
     前記付加情報生成部は、前記第1の画像に基づいて前記ユーザの笑顔を検出するとともに前記ユーザの笑顔の度合いを前記付加情報として生成し、
     前記第2の撮像部は、前記ユーザの笑顔が検出されたとき前記第2の方向を撮像する
     請求項1に記載の画像処理装置。
  14.  前記付加情報としての前記笑顔の度合いにより定まる記録領域に前記第2の画像を記録させる分類部をさらに備える
     請求項13に記載の画像処理装置。
  15.  前記第1の撮像部は、前記画像処理装置を操作するユーザの方向を前記第1の方向として撮像し、
     前記付加情報生成部は、前記第1の画像に基づいて前記ユーザの笑顔を検出するとともに前記ユーザの笑顔の度合いを前記付加情報として生成し、
     前記付加情報としての前記笑顔の度合いにより定まる記録領域に前記第2の画像を記録させる分類部をさらに備える
     請求項1に記載の画像処理装置。
  16.  第1の撮像部により第1の方向を撮像し、
     第2の撮像部により前記第1の方向とは異なる第2の方向を撮像し、
     前記第1の撮像部による撮像で得られた第1の画像に基づいて付加情報を生成し、
     前記第2の撮像部による撮像で得られた第2の画像の画像データに前記付加情報を付加する
     ステップを含む画像処理方法。
  17.  第1の撮像部により第1の方向を撮像し、
     第2の撮像部により前記第1の方向とは異なる第2の方向を撮像し、
     前記第1の撮像部による撮像で得られた第1の画像に基づいて付加情報を生成し、
     前記第2の撮像部による撮像で得られた第2の画像の画像データに前記付加情報を付加する
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2014/053481 2013-02-27 2014-02-14 画像処理装置および方法、並びにプログラム WO2014132816A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/762,250 US9727993B2 (en) 2013-02-27 2014-02-14 Image processing apparatus, image processing method, and program
AU2014222020A AU2014222020A1 (en) 2013-02-27 2014-02-14 Image processing device, method, and program
CN201480009561.6A CN105027552B (zh) 2013-02-27 2014-02-14 图像处理设备和图像处理方法
EP14757727.4A EP2963910A4 (en) 2013-02-27 2014-02-14 IMAGE PROCESSING DEVICE, METHOD, AND PROGRAM
US15/434,848 US20170163887A1 (en) 2013-02-27 2017-02-16 Image processing apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-037867 2013-02-27
JP2013037867 2013-02-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/762,250 A-371-Of-International US9727993B2 (en) 2013-02-27 2014-02-14 Image processing apparatus, image processing method, and program
US15/434,848 Continuation US20170163887A1 (en) 2013-02-27 2017-02-16 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2014132816A1 true WO2014132816A1 (ja) 2014-09-04

Family

ID=51428088

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053481 WO2014132816A1 (ja) 2013-02-27 2014-02-14 画像処理装置および方法、並びにプログラム

Country Status (5)

Country Link
US (2) US9727993B2 (ja)
EP (1) EP2963910A4 (ja)
CN (1) CN105027552B (ja)
AU (1) AU2014222020A1 (ja)
WO (1) WO2014132816A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128958A (ja) * 2017-02-10 2018-08-16 富士通株式会社 端末装置、情報処理方法、情報処理プログラムおよび情報処理装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9990524B2 (en) * 2016-06-16 2018-06-05 Hand Held Products, Inc. Eye gaze detection controlled indicia scanning system and method
JP2023058322A (ja) * 2021-10-13 2023-04-25 キヤノン株式会社 映像処理装置及びその制御方法及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246779B1 (en) 1997-12-12 2001-06-12 Kabushiki Kaisha Toshiba Gaze position detection apparatus and method
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP2006033611A (ja) * 2004-07-20 2006-02-02 Canon Inc 処理装置及び処理方法
JP2007110262A (ja) * 2005-10-11 2007-04-26 Nikon Corp 画像鑑賞用ソフトウェア及び画像蓄積装置
US7595809B2 (en) 2005-05-11 2009-09-29 Hewlett-Packard Development Company, L.P. Method and system for determining an occlusion cost for concurrently presenting one or more images in a shared viewing region
JP2010003201A (ja) * 2008-06-23 2010-01-07 Olympus Imaging Corp 画像処理装置、画像処理方法、およびプログラム
JP2010062853A (ja) * 2008-09-03 2010-03-18 Fujifilm Corp 情報処理装置、方法およびプログラム
JP2011250340A (ja) 2010-05-31 2011-12-08 Sanyo Electric Co Ltd 撮像装置およびその制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3948387B2 (ja) 2002-10-24 2007-07-25 松下電器産業株式会社 ディジタルカメラおよびディジタルカメラ付き携帯電話装置
JP2004266376A (ja) 2003-02-25 2004-09-24 Matsushita Electric Ind Co Ltd 映像合成装置
KR100836616B1 (ko) * 2006-11-14 2008-06-10 (주)케이티에프테크놀로지스 영상 합성 기능을 가지는 휴대용 단말기 및 휴대용단말기의 영상 합성 방법
US7991285B2 (en) * 2008-01-08 2011-08-02 Sony Ericsson Mobile Communications Ab Using a captured background image for taking a photograph
JP5740826B2 (ja) * 2010-03-29 2015-07-01 セイコーエプソン株式会社 画像表示装置、画像情報処理装置及び画像情報処理方法
US20120179960A1 (en) * 2011-01-07 2012-07-12 Cok Ronald S Image layout adjustment aparatus
JP5814566B2 (ja) * 2011-02-28 2015-11-17 オリンパス株式会社 撮像装置、撮像方法及び撮像装置の制御プログラム
US8891926B2 (en) * 2011-12-19 2014-11-18 Corning Cable Systems Llc Methods of reducing and/or avoiding fiber ordering in a connectorized multi-fiber, fiber optic cable system, and related fiber optic cables and assemblies
JP2014160982A (ja) * 2013-02-20 2014-09-04 Sony Corp 画像処理装置および撮影制御方法、並びにプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246779B1 (en) 1997-12-12 2001-06-12 Kabushiki Kaisha Toshiba Gaze position detection apparatus and method
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP2006033611A (ja) * 2004-07-20 2006-02-02 Canon Inc 処理装置及び処理方法
US7595809B2 (en) 2005-05-11 2009-09-29 Hewlett-Packard Development Company, L.P. Method and system for determining an occlusion cost for concurrently presenting one or more images in a shared viewing region
JP2007110262A (ja) * 2005-10-11 2007-04-26 Nikon Corp 画像鑑賞用ソフトウェア及び画像蓄積装置
JP2010003201A (ja) * 2008-06-23 2010-01-07 Olympus Imaging Corp 画像処理装置、画像処理方法、およびプログラム
JP2010062853A (ja) * 2008-09-03 2010-03-18 Fujifilm Corp 情報処理装置、方法およびプログラム
JP2011250340A (ja) 2010-05-31 2011-12-08 Sanyo Electric Co Ltd 撮像装置およびその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2963910A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128958A (ja) * 2017-02-10 2018-08-16 富士通株式会社 端末装置、情報処理方法、情報処理プログラムおよび情報処理装置

Also Published As

Publication number Publication date
CN105027552B (zh) 2019-02-19
EP2963910A4 (en) 2016-12-07
US20150348301A1 (en) 2015-12-03
AU2014222020A1 (en) 2015-08-06
EP2963910A1 (en) 2016-01-06
US20170163887A1 (en) 2017-06-08
US9727993B2 (en) 2017-08-08
CN105027552A (zh) 2015-11-04

Similar Documents

Publication Publication Date Title
EP2339536B1 (en) Image processing system, image processing apparatus, image processing method, and program
KR102650850B1 (ko) 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체
JP7441926B2 (ja) 映像コーディングを行うコンピュータプログラム
JP2020095611A (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
WO2014132816A1 (ja) 画像処理装置および方法、並びにプログラム
CN114998935A (zh) 图像处理方法、装置、计算机设备及存储介质
JP2004056488A (ja) 画像処理方法、画像処理装置および画像通信装置
CN112381749A (zh) 一种图像处理方法、图像处理装置和电子设备
JP2015156540A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6340675B1 (ja) オブジェクト抽出装置、オブジェクト認識システム及びメタデータ作成システム
CN113647093A (zh) 图像处理装置、3d模型生成方法和程序
JP2017188787A (ja) 撮像装置、画像合成方法、および画像合成プログラム
JP2010097449A (ja) 画像合成装置、及び画像合成方法、画像合成プログラム
CN116962743A (zh) 视频图像编码、抠图方法和装置及直播系统
CN111034187A (zh) 动态图像的生成方法、装置、可移动平台和存储介质
JP2011029947A (ja) 画像合成装置および画像合成方法
JP2016129281A (ja) 画像処理装置
JP7191514B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5694060B2 (ja) 画像処理装置、画像処理方法、プログラム、撮像装置及びテレビジョン受像機
JP4223940B2 (ja) 画像生成装置、携帯端末、画像生成方法、画像表示方法及びプログラム
JP2014220546A (ja) 画像記録装置及びその方法
JP5234086B2 (ja) 領域特定方法、領域特定装置、プログラム、サーバ及びシステム
JP2012119798A (ja) 画像生成方法、画像生成装置及びプログラム
KR101897692B1 (ko) 프레임 분리 방식을 이용한 영상 합성 서버
JP2011077934A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480009561.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14757727

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14762250

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014222020

Country of ref document: AU

Date of ref document: 20140214

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2014757727

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP