WO2012160899A1 - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents
情報処理装置、情報処理方法及びコンピュータプログラム Download PDFInfo
- Publication number
- WO2012160899A1 WO2012160899A1 PCT/JP2012/060004 JP2012060004W WO2012160899A1 WO 2012160899 A1 WO2012160899 A1 WO 2012160899A1 JP 2012060004 W JP2012060004 W JP 2012060004W WO 2012160899 A1 WO2012160899 A1 WO 2012160899A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- face
- information processing
- processing apparatus
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00129—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a display device, e.g. CRT or LCD monitor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00408—Display of information to the user, e.g. menus
- H04N1/0044—Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8227—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
Definitions
- the present disclosure relates to an information processing apparatus, an information processing method, and a computer program.
- the present disclosure has been made in view of the above problems, and the object of the present disclosure is to make a simple image using a face recognition result of stored image data and using the result of the face recognition. It is an object of the present invention to provide a new and improved information processing apparatus, information processing method, and computer program capable of providing selection to a user.
- an image display unit that displays an image at a predetermined position, an imaging unit that captures an image of a person's face, and an image having face parameters related to the state based on the state of the face captured by the imaging unit.
- An image selection unit to be selected, and the image display unit selects the image selection unit so that the face part of the image selected by the image selection unit matches the face part of the image displayed until immediately before.
- An information processing apparatus for displaying an image is provided.
- an image having a face parameter related to the state is selected. And displaying the image selected so that the face portion of the selected image matches the face portion of the image that has been displayed at the predetermined position until immediately before the information processing method is provided. Is done.
- an image is displayed at a predetermined position, an image of a person's face is captured, and an image having a face parameter related to the state based on the captured state of the person's face. And displaying the image selected so that the face portion of the selected image matches the face portion of the image that has been displayed immediately before at the predetermined position.
- a program is provided.
- an information processing apparatus As described above, according to the present disclosure, it is possible to recognize a face of stored image data, and to provide a user with simple image selection using the result of the face recognition.
- An information processing apparatus, an information processing method, and a computer program can be provided.
- FIG. 2 is an explanatory diagram illustrating an appearance example of an information processing apparatus 100 according to a first embodiment of the present disclosure.
- FIG. 3 is an explanatory diagram illustrating a functional configuration of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- FIG. 3 is an explanatory diagram illustrating a functional configuration of a control unit 140 according to the first embodiment of the present disclosure.
- 5 is a flowchart illustrating an operation of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 5 is a flowchart illustrating an operation of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 2 is an explanatory diagram illustrating an external appearance example of an information processing apparatus 100.
- FIG. 1 is an explanatory diagram illustrating an appearance example of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- FIG. 1 is an explanatory diagram illustrating an appearance example of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- FIG. 1 is an explanatory diagram illustrating an appearance example of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- FIG. 1 is an explanatory diagram illustrating an appearance example of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- FIG. 1 is an explanatory diagram illustrating an appearance example of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- the information processing apparatus 100 is a tablet device. As shown in FIG. 1, the information processing apparatus 100 is provided with an image display unit 120 for displaying an image on one surface of the information processing apparatus 100.
- the image display unit 120 illustrated in FIG. 1 includes a touch panel, and a user of the information processing apparatus 100 can operate the information processing apparatus 100 by directly touching the image display unit 120 with a finger.
- an operation unit 150 is provided on one side of the surface of the information processing apparatus 100.
- the user of the information processing apparatus 100 can operate the information processing apparatus 100 by operating the operation unit 150 in addition to directly touching the image display unit 120 with a finger.
- an imaging device 170 is provided on the surface of the information processing device 100.
- the image captured by the image capturing apparatus 170 can be stored as image data inside the information processing apparatus 100 by an operation by the user of the information processing apparatus 100, and the image display unit 120 can be processed by a predetermined process executed by the information processing apparatus 100. Can also be displayed.
- the information processing apparatus 100 which is a tablet device shown in FIG. 1, includes a flash memory and other recording media.
- the recording medium stores an image taken by the user of the information processing apparatus 100 using the information processing apparatus 100 or a digital camera or other imaging device.
- the information processing apparatus 100 can display an image stored in the recording medium on the image display unit 120.
- the information processing apparatus 100 searches the recording medium for an image corresponding to the operation. Can be displayed on the image display unit 120.
- the processing content of the information processing apparatus 100 according to an embodiment of the present disclosure will be described in detail later.
- FIG. 2 is an explanatory diagram illustrating a functional configuration of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- the functional configuration of the information processing apparatus 100 according to the first embodiment of the present disclosure will be described with reference to FIG.
- the information processing apparatus 100 includes a communication unit 110, an image display unit 120, an audio output unit 130, a control unit 140, and an operation unit 150. , A storage unit 160, an imaging device 170, and a sensor unit 180.
- the communication unit 110 performs communication with other devices through a network by wireless or wired communication.
- the image display unit 120 displays an image.
- the image display unit 120 is configured by a thin display device such as a liquid crystal display, an organic EL display, or the like, and is configured to display an image based on a predetermined image signal under the control of the control unit 140.
- the surface of the image display unit 120 is provided with a touch panel.
- the information processing apparatus 100 can provide an operation by touching the surface of the image display unit 120 with a finger to the user of the information display apparatus 100 by providing a touch panel on the surface of the image display unit 120.
- the image display unit 120 displays an image stored in the storage unit 160 selected by the user of the information processing apparatus 100.
- the image display unit 120 is controlled by the control unit 140. Display the changed image.
- the audio output unit 130 outputs audio.
- the audio output unit 130 is configured by, for example, a speaker or an earphone, and is configured to display audio based on a predetermined audio signal.
- the control unit 140 controls the operation of the information processing apparatus 100. Specifically, the control unit 140 controls communication of the communication unit 110, image display of the image display unit 120, sound output of the sound output unit 130, and the like.
- the control unit 140 is configured by, for example, a CPU (Central Processing Unit).
- the operation unit 150 receives an operation by the user of the information processing apparatus 100.
- the control unit 140 controls the operation of the information processing apparatus 100 based on a user operation on the operation unit 150.
- the touch panel provided on the surface of the image display unit 120 is an example of an operation unit in the present disclosure.
- the storage unit 160 is configured by a nonvolatile memory such as a flash memory, for example, and a computer program for operating the information processing apparatus 100, image data displayed on the image display unit 120 by the control unit 140, and other electronic data Remember.
- the storage unit 160 stores various parameters obtained by performing predetermined face recognition processing on the face.
- the face recognition process may be executed by the control unit 140 using a computer program stored in the storage unit 160.
- the execution timing of the face recognition process may be, for example, the time point when the image pickup process is performed by the image pickup apparatus 170 or the time point when the processing load on the information processing apparatus 100 is low.
- the various parameters obtained by performing the face recognition process include, for example, gender distinction, age, presence / absence of eyes, presence / absence of glasses, face orientation, and a line connecting the top and chin.
- the face angle, smile level, etc. are included.
- the imaging device 170 executes imaging processing using, for example, a CCD image sensor, a CMOS image sensor, or other imaging devices. Image data obtained by the imaging apparatus 170 executing the imaging process is subjected to predetermined image processing in the control unit 140 and displayed on the image display unit 120 or stored in the storage unit 160.
- the sensor unit 180 detects the movement of the information processing apparatus 100, and includes, for example, a gyro sensor or an acceleration sensor.
- the control unit 140 detects what kind of movement of the information processing apparatus 100 the sensor unit 180 has detected.
- the control unit 140 executes an operation based on the movement of the information processing apparatus 100.
- FIG. 3 is an explanatory diagram illustrating a functional configuration of the control unit 140 according to the first embodiment of the present disclosure.
- the control unit 140 according to an embodiment of the present disclosure includes an operation detection unit 141, a face detection unit 142, an image selection unit 143, and a display control unit 144.
- the operation detection unit 141 detects a user operation on the information processing apparatus 100 by a user of the information processing apparatus 100.
- the operation detection unit 141 detects the user operation on the touch panel provided in the image display unit 120 and the content of the user operation on the operation unit 150.
- the operation detection unit 141 detects which position on the touch panel is touched and how many fingers are touched.
- the face detection unit 142 detects the position of the face of the image displayed on the image display unit 120.
- the face detection unit 142 detects the position of the face of the image displayed on the image display unit 120, and the operation detection unit 141 detects the content of the user operation on the touch panel, so that the user of the information processing apparatus 100 can It is determined whether the face portion displayed on the display unit 120 has been operated.
- the face detection processing by the face detection unit 142 is not limited to a specific method.
- the face detection unit 142 can detect the position of the face of the image displayed on the image display unit 120 by detecting feature points such as eyes, nose, and mouth of the face.
- the image selection unit 143 selects an image that matches a predetermined condition from the image data stored in the storage unit 160. Specifically, when the user of the information processing apparatus 100 operates the information processing apparatus 100, the operation detection unit 141 and the face detection unit 142 detect the contents of the operation, and the image selection unit 143 detects the detection result. The image corresponding to is selected from the image data stored in the storage unit 160.
- the image selection unit 143 displays, from among the image data stored in the storage unit 160, an image in which the person in the image display unit 120 faces the direction in which the user of the information processing apparatus 100 has played with a finger. select.
- the user of the information processing apparatus 100 performs an operation of touching and rotating the top of the face and the chin with a finger.
- the operation detection unit 141 and the face detection unit 142 detect the contents of the operation.
- the image selection unit 143 selects, from the image data stored in the storage unit 160, the image of the person shown in the image display unit 120 based on the rotation operation by the user of the information processing apparatus 100. .
- the display control unit 144 controls image display on the image display unit 120. Specifically, the display control unit 144 displays an image based on an operation performed on the information processing apparatus 100 by the user of the information processing apparatus 100.
- the operation detection unit 141 and the face detection unit 142 detect the content of the user operation of the information processing apparatus 100, and the image selection unit 143 displays an image corresponding to the detection result in the image data stored in the storage unit 160.
- the display control unit 144 performs control so that the image selected by the image selection unit 143 is displayed on the image display unit 120.
- the display control unit 144 selects the image selection unit 143 so that the position and the size of the face part of the image displayed on the image display unit 120 are matched. To display the selected image.
- the control unit 140 can have a functional configuration as shown in FIG. 3, for example, by reading the computer program stored in the storage unit 160 and executing the read computer program.
- FIG. 4 is a flowchart illustrating the operation of the information processing apparatus 100 according to the first embodiment of the present disclosure.
- the flowchart shown in FIG. 4 displays an image showing a face at a predetermined position on the image display unit 120 when the information processing apparatus 100 executes a process for creating a greeting card for New Year's cards.
- the operation of the information processing apparatus 100 when the user of the information processing apparatus 100 performs an operation on the image is shown.
- the operation of the information processing apparatus 100 according to the first embodiment of the present disclosure will be described with reference to FIG.
- the image display unit 120 displays an image showing a face at a predetermined position of the image display unit 120 under the control of the display control unit 144 (step S101).
- FIG. 5 is an explanatory diagram illustrating a state in which an image showing a face is displayed at a predetermined position of the image display unit 120 under the control of the display control unit 144.
- FIG. 5 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120. An image in which a gliding card 201 is edited using the information processing apparatus 100 and a face is reflected in the image display area 202 is illustrated. The state being displayed is illustrated.
- step S ⁇ b> 101 when the image display unit 120 displays an image showing a face at a predetermined position of the image display unit 120 under the control of the display control unit 144, the operation detection unit 141 causes the user to perform the operation on the face portion.
- An operation is detected (step S102).
- the operation performed on the face portion by the user detected by the operation detection unit 141 is, for example, an operation of flicking the face portion with a finger (flick operation), or rotating the face portion with the top of the head and the jaw held between the fingers Operation (rotate operation).
- FIG. 5 also illustrates the user's hand of the information processing apparatus 100.
- This hand represents a state in which an operation (rotating operation) of rotating the face portion of the face displayed in the image display area 202 with the fingertip between the top of the head and the chin is performed.
- the operation detection unit 141 detects a user operation for each face.
- the image selection unit 143 is displayed on the image display unit 120 based on the operation on the face part detected by the operation detection unit 141.
- An appropriate image having the same face as the face is selected from the storage unit 160 (step S103). For example, when the operation detection unit 141 detects a flick operation on the face portion by the user, the image selection unit 143 has the same face as the face displayed on the image display unit 120, and the face is touched by the user. An image facing the flip direction is selected from the storage unit 160.
- the image selection unit 143 has the same face as the face displayed on the image display unit 120, and the top and chin of the face The image is selected from the storage unit 160 at a position corresponding to the rotation.
- the image selection unit 143 may select an image based on a predetermined rule. For example, the image selection unit 143 may preferentially select a new or old shooting time or storage time, or may select completely at random.
- step S103 when the image selection unit 143 selects an appropriate image from the storage unit 160 based on the operation on the face portion detected by the operation detection unit 141, the display control unit 144 has the predetermined display of the image display unit 120 until now.
- the image selection unit 143 controls to display the image selected in place of the image displayed at the position (step S104).
- step S104 when the image selected by the image selection unit 143 is displayed instead of the image displayed at the predetermined position on the image display unit 120 until now, the display control unit 144 newly displays the image. It is desirable that the size of the face in the image to be matched with the size of the face in the image displayed so far. This is because, by matching the size of the face, it is possible to present a new image without destroying the layout of the greeting card that is being created.
- FIG. 6 illustrates a state in which the gliding card 201 has been edited using the information processing apparatus 100 and an image showing a face is displayed in the image display area 202. 6 shows a new image having the same face when the user of the information processing apparatus 100 rotates the face portion of the image displayed in the image display area 202 from the state shown in FIG. Is shown in a state where the image is displayed in the image display area 202.
- the user of the information processing apparatus 100 simply performs a rotation operation on the face portion of the image displayed on the image display unit 120, and a new image having the same face is displayed in the image display area 202. Therefore, it is possible to provide an image switching process that is highly convenient for the user.
- the display control unit 144 When displaying a new image associated with a user operation of the information processing apparatus 100 on the image display unit 120, the display control unit 144 extracts and displays only the face portion of the new image. May be.
- FIG. 7 is an explanatory diagram showing a state in which an image showing a face is displayed at a predetermined position of the image display unit 120 under the control of the display control unit 144.
- FIG. 7 illustrates a state in which the gliding card 201 has been edited using the information processing apparatus 100 and an image showing a face is displayed in the image display area 202.
- FIG. 7 also shows the hand of the user of the information processing apparatus 100. This hand represents a state where a flick operation is being performed on the face displayed in the image display area 202.
- the image selection unit 143 is the same face as the operation target, and the right is selected.
- An image having a facing face is selected from the storage unit 160.
- FIG. 8 illustrates a state in which the gliding card 201 has been edited using the information processing apparatus 100 and an image showing a face is displayed in the image display area 202. 8 shows that the user of the information processing apparatus 100 performs the right flick operation on the face portion of the image displayed in the image display area 202 from the state shown in FIG. A state in which a new image is displayed in the image display area 202 is shown.
- the image selection unit 143 is the same face as the operation target and faces left. An image having the face is selected from the storage unit 160.
- FIG. 9 illustrates a state in which the gliding card 201 has been edited using the information processing apparatus 100 and an image showing a face is displayed in the image display area 202. 9 shows that the user of the information processing apparatus 100 performs the left flick operation on the face portion of the image displayed in the image display area 202 from the state shown in FIG. A state in which a new image is displayed in the image display area 202 is shown.
- the user of the information processing apparatus 100 simply performs a flick operation on the face portion of the image displayed on the image display unit 120, and a new image having the same face is displayed in the image display area 202. Therefore, it is possible to provide an image switching process that is highly convenient for the user.
- the operation detection unit 141 detects the flick momentum
- the image selection unit 143 Alternatively, an image having a face orientation corresponding to the detected momentum may be selected. That is, when the user of the information processing apparatus 100 vigorously performs a flick operation on the face portion of the image displayed on the image display unit 120, the image selection unit 143 displays the face directly beside or in an oblique direction. When the user of the information processing apparatus 100 performs a weak flick operation on the face portion of the image displayed on the image display unit 120, the image selection unit 143 displays the face May select an image slightly facing left and right from the front.
- the image selection unit 143 is based on the operation on the face portion detected by the operation detection unit 141. An appropriate image having the same face as the face displayed in the image is selected from the storage unit 160. If the storage unit 160 includes a large number of target images, the image selection unit 143 performs selection processing. There is a possibility that a load is applied and it takes time until a new image is displayed on the image display unit 120.
- FIG. 11 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- 11 shows an image display area 222 for displaying an image stored in the storage section 160 on the image display section 120, and an image acquisition condition designation area for designating conditions for the image selection section 143 to acquire an image. 223 is displayed.
- the image selection unit 143 causes the storage unit 160 to select an image that matches the specified image acquisition condition. Since the selection is performed, the load on the selection process by the image selection unit 143 is reduced.
- the image acquisition conditions displayed in the image acquisition condition designation area 223 include an image with a face up, an image with the right eye open, an image with the left eye open, and a child / adult / old age.
- One of the images, an image wearing glasses, and the degree of blur of the image are shown.
- the condition for acquiring the image from the storage unit 160 is not limited to this example.
- the user of the information processing apparatus 100 detects a direct operation on the face portion in the image displayed on the image display unit 120, and selects and displays an image of the same person as the face It is about. In addition to the direct operation on the face portion in the image displayed on the image display unit 120, an image of the same person as the face is selected and displayed according to the operation by the user of the information processing apparatus 100. Also good.
- FIG. 12 is an explanatory diagram showing an example of a screen displayed on the image display unit 120.
- the image display unit 120 displays an image display area 222 for displaying an image stored in the storage unit 160 and slide bars 231 and 232 for switching images displayed in the image display area 222. It shows the state of being.
- the image displayed in the image display area 222 is the same person, and the image is switched to the image specified by the user of the information processing apparatus 100.
- the slide bar 231 is for designating the smile level of the face, and the slide bar 232 is for designating the age of the person.
- the conditions specified by the slide bar are not limited to this example.
- the information processing apparatus 100 is tilted and the tilt is detected by the sensor unit 180, and the image selection unit 143 selects an image corresponding to the direction in which the information processing apparatus 100 is tilted from the storage unit 160. You may make it do.
- the inclination of the information processing apparatus 100 is detected by the sensor unit 180 and image selection is performed.
- the unit 143 may select an image corresponding to the direction in which the information processing apparatus 100 is tilted from the storage unit 160.
- FIG. 13 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 13 shows a state where the phone book registration screen 211 is displayed on the image display unit 120, as in FIG.
- the phone book registration screen 211 has an image display area 212.
- the face portion of the image displayed in the image display area 212 is touched with a finger of the user of the information processing apparatus 100, thereby including the same or similar face as the person displayed in the image display area 212.
- An image display area 241 for displaying an image to be displayed is displayed on the image display unit 120 under the control of the display control unit 144.
- the user of the information processing apparatus 100 selects an image including the same or similar face as the person displayed in the image display area 212 by displaying the image in the image display area 241 as shown in FIG. Therefore, the information processing apparatus 100 can improve the convenience of image selection for the user.
- FIG. 13 illustrates a state in which the image display area 241 is displayed above the image display area 212 when the user of the information processing apparatus 100 touches the face portion of the image displayed in the image display area 212 with a finger.
- the present invention is not limited to such an example.
- FIG. 14 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 14 illustrates a state in which the gliding card 201 is edited using the information processing apparatus 100 and an image showing a face is displayed in the image display area 202, as in FIG. 5 and the like. .
- the face portion of the image displayed in the image display area 202 is touched with a finger of the user of the information processing apparatus 100, thereby including the same or similar face as the person displayed in the image display area 202
- Image display areas 251 a, 251 b, 251 c, and 251 d for displaying images to be displayed are displayed on the image display unit 120 under the control of the display control unit 144.
- the display control unit 144 displays the image display areas 251a and 251b around the face. , 251c, 251d are displayed. In this way, the user of the information processing apparatus 100 displays the images in the image display areas 251a, 251b, 251c, and 251d as shown in FIG. Alternatively, since an image including a similar face can be selected, the information processing apparatus 100 can improve the convenience of image selection for the user.
- the image selection unit 143 may display images displayed in the image display areas 251a, 251b, 251c, and 251d that have the same shooting time and the same face as the selected photo.
- the image selection unit 143 displays the image displayed on the image display unit 120 when the user of the information processing apparatus 100 wants to place a photo with this face orientation at this place as a scene using a photo. Those having the same face inclination may be selected.
- Second Embodiment> In the first embodiment of the present disclosure described above, an operation on an image displayed on the image display unit 120 by the user of the information processing apparatus 100 is detected, and is included in the image being displayed according to the detected operation. The process of newly displaying an image of the same person as the face or a person similar in face on the image display unit 120 has been described.
- the user's face of the information processing apparatus 100 is imaged using the information processing apparatus 100, and an image displayed on the image display unit 120 is displayed according to the state of the captured user's face. A process for newly displaying an image of the same person as the included face or a person with a similar face on the image display unit 120 will be described.
- FIG. 15 is a flowchart illustrating the operation of the information processing apparatus 100 according to the second embodiment of the present disclosure.
- the flowchart shown in FIG. 15 captures the face of the user of the information processing apparatus 100 using the information processing apparatus 100 when the information processing apparatus 100 is executing a process for creating a greeting card for New Year's cards or the like.
- an image of a person who is the same person as the face included in the image being displayed on the image display unit 120 or a person similar to the face is newly displayed on the image display unit 120 in accordance with the state of the captured user's face.
- the operation of the information processing apparatus 100 is shown.
- the operation of the information processing apparatus 100 according to the second embodiment of the present disclosure will be described with reference to FIG.
- the image display unit 120 displays an image showing a face at a predetermined position of the image display unit 120 under the control of the display control unit 144 (step S201).
- the imaging device 170 operates the information processing device 100 in a state where the image display unit 120 displays an image with a face in a predetermined position of the image display unit 120 under the control of the display control unit 144.
- the user's face is imaged (step S202).
- the face detection unit 142 determines which face of the user who is operating the information processing device 100 in the image captured by the imaging device 170. It is detected whether it is facing the direction, and information on the facing direction is passed to the image selection unit 143.
- the image selection unit 143 selects an image of the same person as the face displayed at a predetermined position on the image display unit 120 facing the direction of the user's face detected by the face detection unit 142 from the storage unit 160 ( Step S203).
- the imaging device 170 is provided on the same surface as the image display unit 120 as shown in FIG. 1, the image selection unit 143 displays the image when the user operating the information processing device 100 turns to the right.
- an image of the same person as the face displayed at a predetermined position of the unit 120 is facing left is turned to the left, the same person as the face displayed at the predetermined position of the image display unit 120 is facing right.
- the selected image is selected from the storage unit 160.
- the display control unit 144 replaces the image that has been displayed at the predetermined position of the image display unit 120 until now with the image selected by the image selection unit 143. Is displayed (step S204).
- FIG. 16 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 16 shows a state in which an image showing a face is displayed in the image display area 202.
- FIG. 16 illustrates a state in which an image display area 261 for displaying an image captured by the imaging device 170 in real time is also displayed on the image display unit 120. Therefore, the image displayed in the image display area 261 is an image in which the face of the user who operates the information processing apparatus 100 is shown.
- the face detection unit 142 causes the face of the user operating the information processing apparatus 100 in the image captured by the imaging apparatus 170. Detect the direction of the. Then, the image selection unit 143 acquires from the storage unit 160 an image in which the same person as the face in the image display area 202 is captured and the person is facing left. Then, the display control unit 144 controls to display the image selected by the image selection unit 143 in the image display region 202 instead of the image displayed in the image display region 202 until now.
- FIG. 17 is an explanatory diagram illustrating an example of a screen displayed on the image display unit 120.
- FIG. 17 illustrates a state in which an image showing a face is displayed in the image display area 202.
- FIG. 17 illustrates a state in which an image display area 261 for displaying an image captured by the imaging device 170 in real time is also displayed on the image display unit 120.
- FIG. 17 shows that when the user operating the information processing apparatus 100 turns right toward the information processing apparatus 100, the face detection unit 142 detects the orientation of the user's face, and the image selection unit 143 moves in that direction.
- the combined image is acquired from the storage unit 160, and the display control unit 144 displays the image acquired by the image selection unit 143 in the image display area 202.
- the information processing apparatus 100 selects the image for the user. Can improve convenience.
- FIG. 18 is an explanatory diagram showing an example of the appearance of the information processing apparatus 100, and shows a state in which the imaging device 175 is provided on the back surface of the image display unit 120.
- the imaging device 175 when the imaging device 175 is provided on the back surface of the image display unit 120 and the user of the information processing device 100 uses the imaging device 175 to photograph a person's face, Since the face orientation of the person displayed in the image display area 202 matches, the image selection unit 143 can more intuitively acquire the image.
- the image selection unit 143 captures the images with the imaging devices 170 and 175.
- An image including a face having the same or similar face as a person may be acquired from the storage unit 160.
- the user of the information processing apparatus 100 directly or indirectly with respect to the face portion of the image displayed in the predetermined area of the image display unit 120.
- images of the same person as the face or a person similar to the face can be displayed one after another in the predetermined area. Therefore, according to the above-described embodiment of the present disclosure, it is possible to greatly improve the convenience in selecting an image for the user of the information processing apparatus 100.
- an operation based on a user operation detected by a user of the information processing apparatus 100 with respect to a face portion of an image displayed in a predetermined area of the image display unit 120 is detected. And the image to be displayed in the predetermined area of the image display unit 120 is switched.
- the information processing apparatus 100 according to the first embodiment of the present disclosure can greatly improve the convenience in selecting an image for the user of the information processing apparatus 100.
- the information processing apparatus 100 when an image showing a face in a predetermined area of the image display unit 120 is displayed, the face is imaged using the information processing apparatus 100 and the face is captured. The image corresponding to the orientation of the image is acquired and the image displayed in the predetermined area of the image display unit 120 is switched.
- the information processing apparatus 100 according to the second embodiment of the present disclosure can greatly improve the convenience in selecting an image for the user of the information processing apparatus 100.
- the image selection unit 143 has been described as selecting an image from images stored in the information processing apparatus 100, but the present technology is not limited to such an example.
- an image may be selected from images stored in an external device or server device connected to the information processing apparatus 100 via a network.
- the series of processing described in the above embodiment may be executed by dedicated hardware, but may be executed by software (application).
- application application
- the above-described series of processing can be realized by causing a general-purpose or dedicated computer to execute a computer program.
- this technique can also take the following structures.
- An image display unit for displaying an image at a predetermined position; An imaging unit for imaging a person's face; An image selection unit that selects an image having a face parameter related to the state based on the state of the face imaged by the imaging unit; With The information processing apparatus, wherein the image display unit displays the image selected by the image selection unit so that the face part of the image selected by the image selection unit matches the face part of the image displayed until immediately before.
- the image selection unit selects an image having a face parameter that matches a face orientation of a person captured by the imaging unit.
- the imaging unit and the image display unit are provided on the same surface, The information processing apparatus according to (1) or (2), wherein the image selection unit selects an image having a face parameter in a direction opposite to a human face taken by the imaging unit.
- the imaging unit is provided on the back surface of the image display unit, The information processing apparatus according to (1) or (2), wherein the image selection unit selects an image having a face parameter in the same direction as a human face taken by the imaging unit.
- the image selection unit selects an image including a face that is the same as or similar to the face in the image displayed on the image display unit based on the state of the face imaged by the imaging unit.
- the information processing apparatus according to any one of (5).
- (7) The information processing apparatus according to any one of (1) to (6), wherein the image display unit extracts and displays only a face portion from an image.
- a first image display step for displaying an image at a predetermined position; An imaging step for imaging a person's face; An image selection step of selecting an image having a face parameter related to the state based on the state of the face of the person imaged in the imaging step; A second image that displays the image selected in the image selection step so that the face portion of the image selected in the image selection step matches the face portion of the image displayed until immediately before in the first image display step.
- a display step; An information processing method comprising: (9) On the computer, A first image display step for displaying an image at a predetermined position; An imaging step for imaging a person's face; An image selection step of selecting an image having a face parameter related to the state based on the state of the face of the person imaged in the imaging step; A second image that displays the image selected in the image selection step so that the face portion of the image selected in the image selection step matches the face portion of the image displayed until immediately before in the first image display step.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
【課題】保存されている画像データを顔認識させて、当該顔認識の結果を用いて、簡便な画像選択をユーザに提供することが可能な情報処理装置を提供する。 【解決手段】所定位置に画像を表示する画像表示部と、人物の顔を撮像する撮像部と、前記撮像部が撮像した顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択部と、を備え、前記画像表示部は、前記画像選択部が選択した画像の顔部分が直前まで表示していた画像の顔部分と一致するように前記画像選択部が選択した画像を表示する、情報処理装置が提供される。
Description
本開示は、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
デジタルスチルカメラ等の撮像装置の普及に伴い、ユーザが気軽に写真を撮影する機会が増えている。そして、撮影した画像を保存するための記録媒体の大容量化に伴い、ユーザが撮影した画像が、撮像装置や、パーソナルコンピュータその他の情報処理装置の内部に、数多く保存されることが多くなっている。そのように数多く保存される画像の中から、所望の画像を効率よく探し出す方法は、従来から提案されている(例えば、特許文献1参照)。
ユーザが撮影し、情報処理装置の内部に保存された画像は、例えば当該情報処理装置を用いて作成される年賀状等のグリーティングカードに貼りつけられたり、インターネット上のウェブサイトに開設した自身のプロフィール画像として当該情報処理装置からアップロードするために用いられたりすることがある。
ここで、上述のように情報処理装置を用いて作成されるグリーティングカードに、当該情報処理装置に保存されている画像を貼り付ける場合、従来は、サムネイル画像が一覧表示されている画面で、ユーザに画像を選択させてグリーティングカードに貼りつけて、気に入らなければ、またサムネイル画像が一覧表示されている画面に戻り、画像選択をやり直させるという処理がなされていた。
しかし、この従来の処理では、画像を選択して、その画像が気に入らなければまた画像を選択する画面に戻る必要があり、ユーザに簡便な画像選択処理を提供させているとは言い難く、ユーザにとって、より簡便に画像を選択させる処理が求められていた。
そこで、本開示は、上記問題に鑑みてなされたものであり、本開示の目的とするところは、保存されている画像データを顔認識させて、当該顔認識の結果を用いて、簡便な画像選択をユーザに提供することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供することにある。
本開示によれば、所定位置に画像を表示する画像表示部と、人物の顔を撮像する撮像部と、前記撮像部が撮像した顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択部と、を備え、前記画像表示部は、前記画像選択部が選択した画像の顔部分が直前まで表示していた画像の顔部分と一致するように前記画像選択部が選択した画像を表示する、情報処理装置が提供される。
また本開示によれば、所定位置に画像を表示することと、人物の顔を撮像することと、撮像された前記人物の顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択することと、選択された前記画像の顔部分が前記所定位置に直前まで表示していた画像の顔部分と一致するように選択された前記画像を表示することと、を備える、情報処理方法が提供される。
また本開示によれば、コンピュータに、所定位置に画像を表示することと、人物の顔を撮像することと、撮像された前記人物の顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択することと、選択された前記画像の顔部分が前記所定位置に直前まで表示していた画像の顔部分と一致するように選択された前記画像を表示することと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、保存されている画像データを顔認識させて、当該顔認識の結果を用いて、簡便な画像選択をユーザに提供することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供することができる。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<1.第1の実施形態>
[1-1.情報処理装置の外観例]
[1-2.情報処理装置の機能構成]
[1-3.情報処理装置の動作]
<2.第2の実施形態>
<3.まとめ>
<1.第1の実施形態>
[1-1.情報処理装置の外観例]
[1-2.情報処理装置の機能構成]
[1-3.情報処理装置の動作]
<2.第2の実施形態>
<3.まとめ>
<1.第1の実施形態>
[1-1.情報処理装置の外観例]
まず、本開示の第1の実施形態にかかる情報処理装置の外観例について、図面を参照しながら説明する。図1は、本開示の第1の実施形態にかかる情報処理装置100の外観例を示す説明図である。以下、図1を用いて、本開示の第1の実施形態にかかる情報処理装置100の外観例について説明する。
[1-1.情報処理装置の外観例]
まず、本開示の第1の実施形態にかかる情報処理装置の外観例について、図面を参照しながら説明する。図1は、本開示の第1の実施形態にかかる情報処理装置100の外観例を示す説明図である。以下、図1を用いて、本開示の第1の実施形態にかかる情報処理装置100の外観例について説明する。
図1に示したように、本開示の第1の実施形態にかかる情報処理装置100は、タブレット型のデバイスである。情報処理装置100には、図1に示したように、画像を表示するための画像表示部120が、情報処理装置100の一の面に設けられている。図1に示した画像表示部120は、タッチパネルを備えており、情報処理装置100のユーザは、画像表示部120を直接指で触ることで、情報処理装置100を操作することができる。
図1に示したように、情報処理装置100の表面の一辺には、操作部150が設けられている。情報処理装置100のユーザは、画像表示部120を直接指で触る以外に、操作部150を操作することで、情報処理装置100を操作することができる。
また、図1に示したように、情報処理装置100の表面には、撮像装置170が設けられている。撮像装置170が撮像した画像は、情報処理装置100のユーザによる操作によって画像データとして情報処理装置100の内部に保存することができる他、情報処理装置100が実行する所定の処理によって画像表示部120に表示されることもできる。
図1に示したタブレット型のデバイスである情報処理装置100は、内部にフラッシュメモリその他の記録媒体を備える。当該記録媒体には、情報処理装置100のユーザが、情報処理装置100またはデジタルカメラその他の撮像装置で撮影した画像が保存される。情報処理装置100は、上記記録媒体に保存された画像を画像表示部120に表示することができる。そして情報処理装置100は、画像を画像表示部120に表示されている場合に、ユーザが当該画像の顔部分に対して何らかの操作を行った場合、その操作に応じた画像を上記記録媒体から探し出して画像表示部120に表示することができる。本開示の一実施形態にかかる情報処理装置100の処理内容については、後に詳述する。
以上、図1を用いて、本開示の第1の実施形態にかかる情報処理装置100の外観例について説明した。次に、本開示の第1の実施形態にかかる情報処理装置100の機能構成について説明する。
[1-2.情報処理装置の機能構成]
図2は、本開示の第1の実施形態にかかる情報処理装置100の機能構成を示す説明図である。以下、図2を用いて本開示の第1の実施形態にかかる情報処理装置100の機能構成について説明する。
図2は、本開示の第1の実施形態にかかる情報処理装置100の機能構成を示す説明図である。以下、図2を用いて本開示の第1の実施形態にかかる情報処理装置100の機能構成について説明する。
図2に示したように、本開示の第1の実施形態にかかる情報処理装置100は、通信部110と、画像表示部120と、音声出力部130と、制御部140と、操作部150と、記憶部160と、撮像装置170と、センサ部180と、を含んで構成される。
通信部110は、無線または有線により、ネットワークを通じて他の機器との間で通信を実行するものである。
画像表示部120は、画像を表示する。画像表示部120は、例えば液晶ディスプレイ、有機ELディスプレイその他の薄型の表示装置で構成され、制御部140の制御により、所定の画像信号に基づいた画像を表示するよう構成される。
本開示の第1の実施形態にかかる情報処理装置100では、画像表示部120の表面にはタッチパネルが備わっている。情報処理装置100は、画像表示部120の表面にタッチパネルを備えることで、情報処理装置100のユーザに対し、画像表示部120の表面を指で触ることによる操作を提供することができる。
本実施形態では、画像表示部120は、情報処理装置100のユーザが選択した、記憶部160に保存されている画像を表示する。そして、情報処理装置100のユーザが、情報処理装置100に対して、画像表示部120が表示している画像を変更するための操作を実行すると、制御部140の制御により、画像表示部120は変更後の画像を表示する。
音声出力部130は、音声を出力する。音声出力部130は、例えばスピーカやイヤホン等で構成され、所定の音声信号に基づいた音声を表示するよう構成される。
制御部140は、情報処理装置100の動作を制御する。具体的には、制御部140は、通信部110の通信、画像表示部120の画像表示、音声出力部130の音声出力等を制御する。制御部140は、例えばCPU(Central Processing Unit)等で構成される。
操作部150は、情報処理装置100のユーザによる操作を受け付ける。制御部140は、操作部150に対するユーザ操作に基づいて情報処理装置100の動作を制御する。なお、画像表示部120の表面に備わっているタッチパネルは、本開示における操作部の一例である。
記憶部160は、例えばフラッシュメモリのような不揮発性メモリ等で構成され、情報処理装置100を動作させるためのコンピュータプログラムや、制御部140によって画像表示部120へ表示される画像データその他の電子データを記憶する。本実施形態では、記憶部160は、画像データに人間の顔が含まれていれば、当該顔に対して所定の顔認識処理を施して得られる各種パラメータを記憶する。上記顔認識処理は、記憶部160に記憶されたコンピュータプログラムを用いて制御部140が実行しても良い。その顔認識処理の実行タイミングは、例えば、撮像装置170により撮像処理が行われた時点であってもよく、情報処理装置100の処理負荷が少ない時点であってもよい。そして、顔認識処理を施して得られる各種パラメータとしては、例えば、男女の区別、年齢、目の開閉の有無、メガネの有無、顔の向き、頭頂部と顎の部分とを結ぶ線を軸とした場合の顔の角度、笑顔度等が含まれる。
撮像装置170は、例えばCCDイメージセンサやCMOSイメージセンサその他の撮像装置を用いた撮像処理を実行する。撮像装置170が撮像処理を実行することで得られる画像データは、制御部140において所定の画像処理が施され、画像表示部120に表示されたり、記憶部160に記憶されたりする。
センサ部180は、情報処理装置100の動きを検知するものであり、例えばジャイロセンサや加速度センサ等で構成される。センサ部180によって、情報処理装置100の動きが検知されると、センサ部180がどのような情報処理装置100の動きを検知したかを制御部140で検出する。制御部140は、その情報処理装置100の動きに基づいた動作を実行する。
ここで、制御部140の機能構成について詳細に説明する。図3は、本開示の第1の実施形態にかかる制御部140の機能構成を示す説明図である。図3に示したように、本開示の一実施形態にかかる制御部140は、操作検出部141と、顔検出部142と、画像選択部143と、表示制御部144と、を含んで構成される。
操作検出部141は、情報処理装置100のユーザによる、情報処理装置100に対するユーザ操作を検出するものである。操作検出部141は、画像表示部120に設けられるタッチパネルに対するユーザ操作や、操作部150に対するユーザ操作の内容を検出する。タッチパネルに対するユーザ操作の内容を検出する場合は、操作検出部141は、タッチパネルのどの位置が触られたのか、また何本の指で触られたのか、を検出する。
顔検出部142は、画像表示部120に表示される画像の顔の位置を検出する。顔検出部142が、画像表示部120に表示される画像の顔の位置を検出し、操作検出部141が、タッチパネルに対するユーザ操作の内容を検出することで、情報処理装置100のユーザが、画像表示部120に表示される顔の部分に対して操作したかどうかが判断される。なお、顔検出部142による顔検出処理は、特定の方法に限られない。顔検出部142は、例えば、顔の目、鼻、口といった特徴点を検出することで、画像表示部120に表示される画像の顔の位置を検出することができる。
画像選択部143は、記憶部160に記憶されている画像データの中から、所定の条件に合致した画像を選択する。具体的に説明すると、情報処理装置100のユーザが情報処理装置100に対して操作すると、当該操作の内容を操作検出部141及び顔検出部142で検出し、画像選択部143は、検出した結果に応じた画像を記憶部160に記憶されている画像データの中から選択する。
具体的な動作は後述するが、例えば、画像表示部120に顔が写っている画像が表示されている状態で、情報処理装置100のユーザが、その顔に対して指で弾く動作を実行すると、該操作の内容を操作検出部141及び顔検出部142が検出する。そして、画像選択部143は、情報処理装置100のユーザが指で弾いた方向をその画像表示部120に写っている人物が向いている画像を記憶部160に記憶されている画像データの中から選択する。
また例えば、画像表示部120に顔が写っている画像が表示されている状態で、情報処理装置100のユーザが、その顔の頭頂部及び顎の部分を指で触り、回転させる動作を実行すると、該操作の内容を操作検出部141及び顔検出部142が検出する。そして、画像選択部143は、情報処理装置100のユーザによる上記回転動作に基づいて、その画像表示部120に写っている人物の画像を記憶部160に記憶されている画像データの中から選択する。
表示制御部144は、画像表示部120への画像表示を制御する。具体的には、表示制御部144は、情報処理装置100のユーザが情報処理装置100に対して行った操作に基づく画像を表示する。情報処理装置100のユーザの操作の内容を操作検出部141及び顔検出部142で検出し、画像選択部143が、検出した結果に応じた画像を記憶部160に記憶されている画像データの中から選択すると、表示制御部144は、画像選択部143が選択した画像を画像表示部120へ表示するよう制御する。
その際、表示制御部144は、画像を画像表示部120へ表示する際に、画像表示部120に表示されていた画像の顔部分と位置及び大きさを合わせるように、画像選択部143が選択した画像を表示するよう制御する。
制御部140は、例えば、記憶部160が記憶しているコンピュータプログラムを読み出して、読み出したコンピュータプログラムを実行することで、図3に示したような機能構成を有することができる。
以上、本開示の第1の実施形態にかかる情報処理装置100の機能構成について説明した。次に、本開示の第1の実施形態にかかる情報処理装置100の動作について説明する。
[1-3.情報処理装置の動作]
図4は、本開示の第1の実施形態にかかる情報処理装置100の動作を示す流れ図である。図4に示した流れ図は、情報処理装置100が、年賀状その他のグリーティングカードを作成する処理を実行している際に、画像表示部120の所定の位置に、顔が写っている画像を表示し、その画像に対し、情報処理装置100のユーザによる操作がなされた場合の、情報処理装置100の動作を示したものである。以下、図4を用いて本開示の第1の実施形態にかかる情報処理装置100の動作について説明する。
図4は、本開示の第1の実施形態にかかる情報処理装置100の動作を示す流れ図である。図4に示した流れ図は、情報処理装置100が、年賀状その他のグリーティングカードを作成する処理を実行している際に、画像表示部120の所定の位置に、顔が写っている画像を表示し、その画像に対し、情報処理装置100のユーザによる操作がなされた場合の、情報処理装置100の動作を示したものである。以下、図4を用いて本開示の第1の実施形態にかかる情報処理装置100の動作について説明する。
画像表示部120は、表示制御部144の制御により、画像表示部120の所定の位置に顔が写った画像を表示する(ステップS101)。図5は、表示制御部144の制御により、画像表示部120の所定の位置に顔が写った画像が表示されている状態を示す説明図である。図5は、画像表示部120に表示される画面の一例を示す説明図であり、情報処理装置100を用いてグリーディングカード201が編集されており、画像表示領域202に顔が写っている画像が表示されている状態を図示したものである。
上記ステップS101で、画像表示部120が、表示制御部144の制御により、画像表示部120の所定の位置に顔が写った画像を表示すると、操作検出部141は、ユーザによる、当該顔部分に対する操作を検出する(ステップS102)。ここで、操作検出部141が検出する、ユーザによる当該顔部分に対する操作とは、例えば、顔部分を指で弾く操作(フリック操作)、頭頂部と顎部とを指で挟んで顔部分を回転させる操作(ローテート操作)などがある。
図5には、情報処理装置100のユーザの手も図示している。この手は、画像表示領域202に表示されている顔の、頭頂部と顎部とを指で挟んで顔部分を回転させる操作(ローテート操作)を実行しようとしている状態を表している。なお、画像表示領域202に複数の顔が表示されている場合は、操作検出部141はそれぞれの顔に対するユーザ操作を検出する。
操作検出部141が、ユーザによる、画像中の顔部分に対する操作を検出すると、画像選択部143は、操作検出部141が検出した顔部分に対する操作に基づいて、画像表示部120に表示されている顔と同じ顔を有する、適切な画像を記憶部160から選択する(ステップS103)。例えば、操作検出部141が、ユーザによる顔部分に対するフリック操作を検出すると、画像選択部143は、画像表示部120に表示されている顔と同じ顔を有し、その顔が、ユーザが指で弾いた方向を向いている画像を記憶部160から選択する。また例えば、操作検出部141が、ユーザによる顔部分に対するローテート操作を検出すると、画像選択部143は、画像表示部120に表示されている顔と同じ顔を有し、その顔の頭頂部と顎部とが当該回転に対応する位置にある画像を記憶部160から選択する。
同じような画像が記憶部160に複数存在する場合には、画像選択部143は、所定のルールに基づいて画像を選択するようにしても良い。例えば、画像選択部143は、撮影時間や保存時間が新しいもの、または古いものを優先して選択しても良く、完全にランダムに選択しても良い。
上記ステップS103で、画像選択部143が、操作検出部141が検出した顔部分に対する操作に基づいて適切な画像を記憶部160から選択すると、表示制御部144は、今まで画像表示部120の所定の位置に表示されていた画像に替えて、画像選択部143が選択した画像を表示するよう制御する(ステップS104)。
なお、ステップS104で、今まで画像表示部120の所定の位置に表示されていた画像に替えて、画像選択部143が選択した画像を表示する際には、表示制御部144は、新たに表示する画像における顔の大きさを、今まで表示していた画像における顔の大きさに合わせることが望ましい。顔の大きさを合わせることで、作成している年賀状その他のグリーティングカードのレイアウトを崩すことなく、新たな画像の提示が可能になるからである。
図6は、情報処理装置100を用いてグリーディングカード201が編集されており、画像表示領域202に顔が写っている画像が表示されている状態を図示したものである。そして図6は、図5に示した状態から、情報処理装置100のユーザが、画像表示領域202に表示されている画像の顔部分に対してローテート操作を行って、同じ顔を有する新たな画像が画像表示領域202に表示された状態に移行した様子を示している。
このように、情報処理装置100のユーザが、画像表示部120に表示されている画像の顔部分に対するローテート操作を実行するだけで、同じ顔を有する新たな画像が画像表示領域202に表示されるので、ユーザに対して利便性の高い画像の切り替え処理を提供することができる。
なお、表示制御部144は、情報処理装置100のユーザ操作に伴う新たな画像を画像表示部120に表示する際には、当該新たな画像の内、顔部分だけを抽出して表示するようにしてもよい。
別の操作による画像の切り替え処理について説明する。図7は、表示制御部144の制御により、画像表示部120の所定の位置に顔が写った画像が表示されている状態を示す説明図である。図7は、情報処理装置100を用いてグリーディングカード201が編集されており、画像表示領域202に顔が写っている画像が表示されている状態を図示したものである。
図7には、情報処理装置100のユーザの手も図示している。この手は、画像表示領域202に表示されている顔に対してフリック操作を実行しようとしている状態を表している。
ここで、情報処理装置100のユーザが、画像表示領域202に表示されている顔に対して、右方向のフリック操作を実行すると、画像選択部143は、操作対象と同じ顔であり、右を向いている顔を有する画像を記憶部160から選択する。
図8は、情報処理装置100を用いてグリーディングカード201が編集されており、画像表示領域202に顔が写っている画像が表示されている状態を図示したものである。そして図8は、図7に示した状態から、情報処理装置100のユーザが、画像表示領域202に表示されている画像の顔部分に対して右方向のフリック操作を行って、同じ顔を有する新たな画像が画像表示領域202に表示された状態に移行した様子を示している。
また、情報処理装置100のユーザが、画像表示領域202に表示されている顔に対して、左方向のフリック操作を実行すると、画像選択部143は、操作対象と同じ顔であり、左を向いている顔を有する画像を記憶部160から選択する。
図9は、情報処理装置100を用いてグリーディングカード201が編集されており、画像表示領域202に顔が写っている画像が表示されている状態を図示したものである。そして図9は、図7に示した状態から、情報処理装置100のユーザが、画像表示領域202に表示されている画像の顔部分に対して左方向のフリック操作を行って、同じ顔を有する新たな画像が画像表示領域202に表示された状態に移行した様子を示している。
このように、情報処理装置100のユーザが、画像表示部120に表示されている画像の顔部分に対するフリック操作を実行するだけで、同じ顔を有する新たな画像が画像表示領域202に表示されるので、ユーザに対して利便性の高い画像の切り替え処理を提供することができる。
なお、情報処理装置100のユーザが、画像表示部120に表示されている画像の顔部分に対するフリック操作を実行する場合は、操作検出部141は、フリックの勢いを検出し、画像選択部143は、検出した勢いに応じた顔の向きを有する画像を選択しても良い。すなわち、情報処理装置100のユーザが、画像表示部120に表示されている画像の顔部分に対して勢い良くフリック操作を実行した場合は、画像選択部143は、その顔が真横、または斜め方向を向いている画像を選択し、情報処理装置100のユーザが、画像表示部120に表示されている画像の顔部分に対して弱くフリック操作を実行した場合は、画像選択部143は、その顔が正面から少し左右を向いた画像を選択するようにしてもよい。
このように、画像表示部120の所定の位置に、顔が写っている画像が表示されている場合に、情報処理装置100のユーザによる顔に対する操作を受け付け、当該ユーザ操作を検出し、検出結果に応じた画像を選択して表示することで、ユーザに対して利便性の高い画像の切り替え処理を提供することができる。
情報処理装置100のユーザによる顔に対する操作を受け付け、当該ユーザ操作を検出し、検出結果に応じた画像を選択する処理の他の実施例について説明する。上述の説明では、情報処理装置100を用いてグリーディングカード201が編集される場合を例に挙げて説明したが、本技術は情報処理装置100を用いた他の処理についても適用可能である。例えば、情報処理装置100に電話帳機能が備わっている場合に、その電話帳に登録する画像の選択にも、本技術を適用することができる。
図10は、画像表示部120に表示される画面の一例を示す説明図である。図10は、画像表示部120に電話帳登録画面211が表示されている状態を示したものである。電話帳登録画面211には、画像表示領域212が設けられている。この画像表示領域212に対して、情報処理装置100のユーザがローテート操作やフリック操作を実行することで、画像選択部143はユーザ操作の内容に応じた画像を選択し、表示制御部144は画像選択部143が選択した画像を画像表示領域212へ表示する。
次に、本技術の応用例について説明する。上述したように、操作検出部141が、ユーザによる、画像中の顔部分に対する操作を検出すると、画像選択部143は、操作検出部141が検出した顔部分に対する操作に基づいて、画像表示部120に表示されている画像中の顔と同じ顔を有する、適切な画像を記憶部160から選択するが、記憶部160に多数の対象画像が含まれていると、画像選択部143による選択処理に負荷がかかり、画像表示部120に新たな画像が表示されるまでに時間がかかるおそれがある。
そこで、情報処理装置100のユーザに対し、あらかじめ対象画像を絞り込ませることで、画像選択部143による選択処理にかかる負荷を軽減させることができる。
図11は、画像表示部120に表示される画面の一例を示す説明図である。図11は、画像表示部120に、記憶部160に保存されている画像を表示する画像表示領域222と、画像選択部143が画像を取得する際の条件を指定するための画像取得条件指定領域223とが表示されている状態を示したものである。情報処理装置100のユーザに対し、画像取得条件指定領域223に表示されている画像取得条件を指定させることで、画像選択部143は、指定された画像取得条件に合致する画像を記憶部160から選択するので、画像選択部143による選択処理にかかる負荷の軽減に繋がる。
図11には、画像取得条件指定領域223に表示される画像取得条件として、顔がアップになっている画像、右眼が開いている画像、左目が開いている画像、子供・成人・老人時代のいずれかの画像、メガネをかけている画像、画像のぼけ具合が示されている。もちろん、記憶部160からの画像取得条件はかかる例に限定されないことは言うまでもない。
これまでの説明は、情報処理装置100のユーザによる、画像表示部120に表示されている画像中の顔の部分に対する直接操作を検出し、その顔と同じ人物の画像を選択し、表示する場合について述べたものである。画像表示部120に表示されている画像中の顔の部分に対する直接操作以外にも、情報処理装置100のユーザによる操作に応じて、その顔と同じ人物の画像を選択し、表示するようにしてもよい。
図12は、画像表示部120に表示される画面の一例を示す説明図である。図12は、画像表示部120に、記憶部160に保存されている画像を表示する画像表示領域222と、画像表示領域222に表示する画像を切り替えるためのスライドバー231、232とが表示されている状態を示したものである。情報処理装置100のユーザに対し、スライドバー231、232を操作させることで、画像表示領域222に表示する画像が、同じ人物であり、情報処理装置100のユーザが指定した条件の画像に切り替わる。
スライドバー231は、顔の笑顔度を指定するためのものであり、スライドバー232は人物の年齢を指定するためのものである。もちろん、スライドバーにより指定される条件はかかる例に限定されないことは言うまでもない。
その他にも、例えば、情報処理装置100を傾けて、その傾きをセンサ部180で検出し、画像選択部143は、情報処理装置100が傾いている方向に応じた画像を、記憶部160から選択するようにしても良い。その際、情報処理装置100のユーザが、入力部に対する所定の操作(例えば所定のボタンの押下)を行っている状態に限って、情報処理装置100の傾きをセンサ部180で検出し、画像選択部143は、情報処理装置100が傾いている方向に応じた画像を、記憶部160から選択するようにしても良い。
情報処理装置100のユーザによる、画像表示部120に表示されている画像中の顔の部分に対する直接操作を検出し、その顔と同じ人物の画像を選択し、表示する場合について説明してきたが、画像表示部120に表示されている画像中の顔の部分を情報処理装置100のユーザに触らせることで、その人物と同一の、または類似する顔が含まれる画像を画像表示部120に表示させるようにしても良い。
図13は、画像表示部120に表示される画面の一例を示す説明図である。図13は、図10と同様に、画像表示部120に電話帳登録画面211が表示されている状態を示したものである。電話帳登録画面211には、画像表示領域212が設けられている。この画像表示領域212に表示されている画像の顔部分を、情報処理装置100のユーザに指で触らせることで、画像表示領域212に表示されている人物と同一の、または類似する顔が含まれる画像を表示する画像表示領域241が、表示制御部144の制御により画像表示部120に表示される。
情報処理装置100のユーザは、図13のように画像表示領域241に画像が表示されることで、画像表示領域212に表示されている人物と同一の、または類似する顔が含まれる画像を選択することができるので、情報処理装置100は、ユーザに対する画像選択の利便性を高めることが出来る。
図13では、画像表示領域212に表示されている画像の顔部分を、情報処理装置100のユーザに指で触らせると、画像表示領域241を画像表示領域212の上部に表示させる状態を図示したが、かかる例に限定されないことは言うまでもない。
図14は、画像表示部120に表示される画面の一例を示す説明図である。図14は、図5等と同様に、情報処理装置100を用いてグリーディングカード201が編集されており、画像表示領域202に顔が写っている画像が表示されている状態を図示したものである。この画像表示領域202に表示されている画像の顔部分を、情報処理装置100のユーザに指で触らせることで、画像表示領域202に表示されている人物と同一の、または類似する顔が含まれる画像を表示する画像表示領域251a、251b、251c、251dが、表示制御部144の制御により画像表示部120に表示される。
図14では、この画像表示領域202に表示されている画像の顔部分を、情報処理装置100のユーザに指で触らせると、表示制御部144は、その顔の周囲に画像表示領域251a、251b、251c、251dを表示する様子が図示されている。このように、情報処理装置100のユーザは、図14のように画像表示領域251a、251b、251c、251dに画像が表示されることで、画像表示領域202に表示されている人物と同一の、または類似する顔が含まれる画像を選択することができるので、情報処理装置100は、ユーザに対する画像選択の利便性を高めることが出来る。
旅行等で記念撮影が撮影される場合では、手ぶれなどにより撮影に失敗したり、構図がよくなかったりの写真をさけるため、同じ場所で連続して写真が撮影されることが多い。そのため、1つ選んだ写真と近い写真は連続して撮られた可能性が高い。そのため、画像選択部143は、画像表示領域251a、251b、251c、251dに表示する画像として、選択された写真から撮影時間が近く、同じ顔が写っているものを表示するようにしてもよい。また画像選択部143は、写真を利用するシーンとして、情報処理装置100のユーザが、この場所にこの顔の向きの写真を置きたいと考えられる場合に、画像表示部120に表示されている画像における顔の傾きが同じものを選択しても良い。
<2.第2の実施形態>
上述した本開示の第1の実施形態では、情報処理装置100のユーザによる、画像表示部120に表示される画像に対する操作を検出し、その検出した操作に応じて、表示中の画像に含まれる顔と同一人物の、または顔が類似する人物の画像を、画像表示部120に新たに表示する処理について説明した。本開示の第2の実施形態は、情報処理装置100を用いて情報処理装置100のユーザの顔を撮像し、撮像したユーザの顔の状態に応じて、画像表示部120に表示中の画像に含まれる顔と同一人物の、または顔が類似する人物の画像を、画像表示部120に新たに表示する処理について説明する。
上述した本開示の第1の実施形態では、情報処理装置100のユーザによる、画像表示部120に表示される画像に対する操作を検出し、その検出した操作に応じて、表示中の画像に含まれる顔と同一人物の、または顔が類似する人物の画像を、画像表示部120に新たに表示する処理について説明した。本開示の第2の実施形態は、情報処理装置100を用いて情報処理装置100のユーザの顔を撮像し、撮像したユーザの顔の状態に応じて、画像表示部120に表示中の画像に含まれる顔と同一人物の、または顔が類似する人物の画像を、画像表示部120に新たに表示する処理について説明する。
図15は、本開示の第2の実施形態にかかる情報処理装置100の動作を示す流れ図である。図15に示した流れ図は、情報処理装置100が、年賀状その他のグリーティングカードを作成する処理を実行している際に、情報処理装置100を用いて情報処理装置100のユーザの顔を撮像し、撮像したユーザの顔の状態に応じて、画像表示部120に表示中の画像に含まれる顔と同一人物の、または顔が類似する人物の画像を、画像表示部120に新たに表示する場合の、情報処理装置100の動作を示したものである。以下、図15を用いて本開示の第2の実施形態にかかる情報処理装置100の動作について説明する。
画像表示部120は、表示制御部144の制御により、画像表示部120の所定の位置に顔が写った画像を表示する(ステップS201)。画像表示部120が、表示制御部144の制御により、画像表示部120の所定の位置に顔が写った画像を表示している状態で、撮像装置170は、情報処理装置100を操作しているユーザの顔を撮像する(ステップS202)。
撮像装置170が、情報処理装置100を操作しているユーザの顔を撮像すると、顔検出部142は、撮像装置170が撮像した画像において、情報処理装置100を操作しているユーザの顔がどの方向を向いているかを検出し、向いている方向の情報を画像選択部143に渡す。画像選択部143は、顔検出部142が検出したユーザの顔の向きを向いている、画像表示部120の所定の位置に表示されている顔と同一人物の画像を記憶部160から選択する(ステップS203)。なお、撮像装置170が図1のように画像表示部120と同じ面に設けられている場合は、画像選択部143は、情報処理装置100を操作しているユーザが右を向くと、画像表示部120の所定の位置に表示されている顔と同一人物が左を向いている画像を、左を向くと、画像表示部120の所定の位置に表示されている顔と同一人物が右を向いている画像を、記憶部160から選択する。
上記ステップS203で画像選択部143が記憶部160から選択すると、表示制御部144は、今まで画像表示部120の所定の位置に表示されていた画像に替えて、画像選択部143が選択した画像を表示するよう制御する(ステップS204)。
図16は、画像表示部120に表示される画面の一例を示す説明図である。図16は、画像表示領域202に顔が写っている画像が表示されている状態を図示したものである。また図16は、撮像装置170が撮像した画像をリアルタイムに表示する画像表示領域261も画像表示部120に表示されている状態を図示したものである。従って画像表示領域261に表示されている画像は、情報処理装置100を操作するユーザの顔が写っている画像である。
ここで、情報処理装置100を操作するユーザが、情報処理装置100に向かって右を向くと、顔検出部142は、撮像装置170が撮像した画像における、情報処理装置100を操作するユーザの顔の向きを検出する。そして画像選択部143は、画像表示領域202に写っている顔と同一人物が写っており、その人物が左を向いている画像を記憶部160から取得する。そして表示制御部144は、今まで画像表示領域202に表示していた画像に替えて、画像選択部143が選択した画像を画像表示領域202に表示するよう制御する。
図17は、画像表示部120に表示される画面の一例を示す説明図である。図17は、画像表示領域202に顔が写っている画像が表示されている状態を図示したものである。また図17は、撮像装置170が撮像した画像をリアルタイムに表示する画像表示領域261も画像表示部120に表示されている状態を図示したものである。
そして図17は、情報処理装置100を操作するユーザが、情報処理装置100に向かって右を向くと、顔検出部142がそのユーザの顔の向きを検出し、画像選択部143がその向きに合った画像を記憶部160から取得し、画像選択部143が取得した画像を表示制御部144が画像表示領域202に表示した状態を図示したものである。
このように、情報処理装置100のユーザが撮像装置170に向かって顔の向きを変化させるだけで、画像表示領域202に表示される画像が変化するので、情報処理装置100は、ユーザに対する画像選択の利便性を高めることが出来る。
本技術は、画像表示部120の裏側の面に撮像装置が設けられている場合であっても同様に適用可能である。図18は、情報処理装置100の外観例を示す説明図であり、画像表示部120の裏側の面に撮像装置175が設けられている状態を示したものである。
このように、画像表示部120の裏側の面に撮像装置175を設け、情報処理装置100のユーザが撮像装置175を用いて人物の顔を撮影する場合は、撮影する人物の顔の向きと、画像表示領域202に表示される人物の顔の向きとが一致するので、より直感的に画像選択部143に画像を取得させることができる。
なお、情報処理装置100に撮像装置170、175が設けられている場合に、撮像装置170、175で人物の顔を撮影した場合には、画像選択部143は、撮像装置170、175が撮影した人物と同じ、または似た顔を有する顔が含まれる画像を記憶部160から取得するようにしても良い。
<3.まとめ>
以上説明したように本開示の上記実施形態によれば、画像表示部120の所定の領域に表示されている画像の顔部分に対し、情報処理装置100のユーザが、直接的に、または間接的に操作することで、その顔と同一人物の、またはその顔に類似する人物の画像を次々と当該所定の領域に表示させることができる。従って、本開示の上記実施形態によれば、情報処理装置100のユーザに対して、画像選択に際しての利便性を大きく高めることができる。
以上説明したように本開示の上記実施形態によれば、画像表示部120の所定の領域に表示されている画像の顔部分に対し、情報処理装置100のユーザが、直接的に、または間接的に操作することで、その顔と同一人物の、またはその顔に類似する人物の画像を次々と当該所定の領域に表示させることができる。従って、本開示の上記実施形態によれば、情報処理装置100のユーザに対して、画像選択に際しての利便性を大きく高めることができる。
本開示の第1の実施形態によれば、画像表示部120の所定の領域に表示されている画像の顔部分に対する、情報処理装置100のユーザによる操作を検出し、そのユーザ操作に基づいた画像を取得して画像表示部120の上記所定の領域に表示する画像を切り替える。これにより、本開示の第1の実施形態にかかる情報処理装置100は、情報処理装置100のユーザに対して、画像選択に際しての利便性を大きく高めることができる。
また本開示の第1の実施形態によれば、画像表示部120の所定の領域に顔が写っている画像を表示している際に、情報処理装置100を用いて顔を撮像し、その顔の向きに応じた画像を取得して画像表示部120の上記所定の領域に表示する画像を切り替える。これにより、本開示の第2の実施形態にかかる情報処理装置100は、情報処理装置100のユーザに対して、画像選択に際しての利便性を大きく高めることができる。
なお、上記各実施形態では、画像選択部143は、情報処理装置100の内部に保存されている画像の中から画像を選択するとして説明したが、本技術はかかる例に限定されない。例えば、情報処理装置100とネットワークで接続されている外部の機器やサーバ装置に保存されている画像の中から画像を選択するようにしてもよい。
上記の実施形態で説明した一連の処理は、専用のハードウエアによって実行させても良いが、ソフトウエア(アプリケーション)により実行させても良い。一連の処理をソフトウエアに行わせる場合には、汎用又は専用のコンピュータにコンピュータプログラムを実行させることにより、上記の一連の処理を実現することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1)
所定位置に画像を表示する画像表示部と、
人物の顔を撮像する撮像部と、
前記撮像部が撮像した顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択部と、
を備え、
前記画像表示部は、前記画像選択部が選択した画像の顔部分が直前まで表示していた画像の顔部分と一致するように前記画像選択部が選択した画像を表示する、情報処理装置。
(2)
前記画像選択部は、前記撮像部が撮像した人物の顔の向きに合った顔パラメータを有する画像を選択する、前記(1)に記載の情報処理装置。
(3)
前記撮像部と前記画像表示部とは同一の面に設けられ、
前記画像選択部は、前記撮像部が撮像した人物の顔の向きと逆の向きの顔パラメータを有する画像を選択する、前記(1)または(2)に記載の情報処理装置。
(4)
前記撮像部は前記画像表示部の裏側の面に設けられ、
前記画像選択部は、前記撮像部が撮像した人物の顔の向きと同じ向きの顔パラメータを有する画像を選択する、前記(1)または(2)に記載の情報処理装置。
(5)
前記画像選択部は、前記撮像部が撮像した人物と同一又は類似する顔が含まれる画像を選択する、前記(1)から(4)のいずれかに記載の情報処理装置。
(6)
前記画像選択部は、前記撮像部が撮像した顔の状態に基づいて、前記画像表示部に表示されている画像における顔と同一または類似する顔が含まれる画像を選択する、前記(1)から(5)のいずれかに記載の情報処理装置。
(7)
前記画像表示部は、画像の中から顔の部分のみを抽出して表示する、前記(1)から(6)のいずれかに記載の情報処理装置。
(8)
所定位置に画像を表示する第1画像表示ステップと、
人物の顔を撮像する撮像ステップと、
前記撮像ステップで撮像された人物の顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択ステップと、
前記画像選択ステップで選択された画像の顔部分が前記第1画像表示ステップによって直前まで表示していた画像の顔部分と一致するように前記画像選択ステップで選択された画像を表示する第2画像表示ステップと、
を備える、情報処理方法。
(9)
コンピュータに、
所定位置に画像を表示する第1画像表示ステップと、
人物の顔を撮像する撮像ステップと、
前記撮像ステップで撮像された人物の顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択ステップと、
前記画像選択ステップで選択された画像の顔部分が前記第1画像表示ステップによって直前まで表示していた画像の顔部分と一致するように前記画像選択ステップで選択された画像を表示する第2画像表示ステップと、
を実行させる、コンピュータプログラム。
(1)
所定位置に画像を表示する画像表示部と、
人物の顔を撮像する撮像部と、
前記撮像部が撮像した顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択部と、
を備え、
前記画像表示部は、前記画像選択部が選択した画像の顔部分が直前まで表示していた画像の顔部分と一致するように前記画像選択部が選択した画像を表示する、情報処理装置。
(2)
前記画像選択部は、前記撮像部が撮像した人物の顔の向きに合った顔パラメータを有する画像を選択する、前記(1)に記載の情報処理装置。
(3)
前記撮像部と前記画像表示部とは同一の面に設けられ、
前記画像選択部は、前記撮像部が撮像した人物の顔の向きと逆の向きの顔パラメータを有する画像を選択する、前記(1)または(2)に記載の情報処理装置。
(4)
前記撮像部は前記画像表示部の裏側の面に設けられ、
前記画像選択部は、前記撮像部が撮像した人物の顔の向きと同じ向きの顔パラメータを有する画像を選択する、前記(1)または(2)に記載の情報処理装置。
(5)
前記画像選択部は、前記撮像部が撮像した人物と同一又は類似する顔が含まれる画像を選択する、前記(1)から(4)のいずれかに記載の情報処理装置。
(6)
前記画像選択部は、前記撮像部が撮像した顔の状態に基づいて、前記画像表示部に表示されている画像における顔と同一または類似する顔が含まれる画像を選択する、前記(1)から(5)のいずれかに記載の情報処理装置。
(7)
前記画像表示部は、画像の中から顔の部分のみを抽出して表示する、前記(1)から(6)のいずれかに記載の情報処理装置。
(8)
所定位置に画像を表示する第1画像表示ステップと、
人物の顔を撮像する撮像ステップと、
前記撮像ステップで撮像された人物の顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択ステップと、
前記画像選択ステップで選択された画像の顔部分が前記第1画像表示ステップによって直前まで表示していた画像の顔部分と一致するように前記画像選択ステップで選択された画像を表示する第2画像表示ステップと、
を備える、情報処理方法。
(9)
コンピュータに、
所定位置に画像を表示する第1画像表示ステップと、
人物の顔を撮像する撮像ステップと、
前記撮像ステップで撮像された人物の顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択ステップと、
前記画像選択ステップで選択された画像の顔部分が前記第1画像表示ステップによって直前まで表示していた画像の顔部分と一致するように前記画像選択ステップで選択された画像を表示する第2画像表示ステップと、
を実行させる、コンピュータプログラム。
100 情報処理装置
110 通信部
120 画像表示部
130 音声出力部
140 制御部
141 操作検出部
142 顔検出部
143 画像選択部
144 表示制御部
150 操作部
160 記憶部
170 撮像装置
180 センサ部
110 通信部
120 画像表示部
130 音声出力部
140 制御部
141 操作検出部
142 顔検出部
143 画像選択部
144 表示制御部
150 操作部
160 記憶部
170 撮像装置
180 センサ部
Claims (9)
- 所定位置に画像を表示する画像表示部と、
人物の顔を撮像する撮像部と、
前記撮像部が撮像した顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択する画像選択部と、
を備え、
前記画像表示部は、前記画像選択部が選択した画像の顔部分が直前まで表示していた画像の顔部分と一致するように前記画像選択部が選択した画像を表示する、情報処理装置。 - 前記画像選択部は、前記撮像部が撮像した人物の顔の向きに合った顔パラメータを有する画像を選択する、請求項1に記載の情報処理装置。
- 前記撮像部と前記画像表示部とは同一の面に設けられ、
前記画像選択部は、前記撮像部が撮像した人物の顔の向きと逆の向きの顔パラメータを有する画像を選択する、請求項1に記載の情報処理装置。 - 前記撮像部は前記画像表示部の裏側の面に設けられ、
前記画像選択部は、前記撮像部が撮像した人物の顔の向きと同じ向きの顔パラメータを有する画像を選択する、請求項1に記載の情報処理装置。 - 前記画像選択部は、前記撮像部が撮像した人物と同一又は類似する顔が含まれる画像を選択する、請求項1に記載の情報処理装置。
- 前記画像選択部は、前記撮像部が撮像した顔の状態に基づいて、前記画像表示部に表示されている画像における顔と同一または類似する顔が含まれる画像を選択する、請求項1に記載の情報処理装置。
- 前記画像表示部は、画像の中から顔の部分のみを抽出して表示する、請求項1に記載の情報処理装置。
- 所定位置に画像を表示することと、
人物の顔を撮像することと、
撮像された前記人物の顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択することと、
選択された前記画像の顔部分が前記所定位置に直前まで表示していた画像の顔部分と一致するように選択された前記画像を表示することと、
を備える、情報処理方法。 - コンピュータに、
所定位置に画像を表示することと、
人物の顔を撮像することと、
撮像された前記人物の顔の状態に基づいて、該状態に関する顔パラメータを有する画像を選択することと、
選択された前記画像の顔部分が前記所定位置に直前まで表示していた画像の顔部分と一致するように選択された前記画像を表示することと、
を実行させる、コンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12789522.5A EP2693744A4 (en) | 2011-05-23 | 2012-04-12 | DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND COMPUTER PROGRAM |
CN201280023486.XA CN103535024A (zh) | 2011-05-23 | 2012-04-12 | 信息处理设备、信息处理方法和计算机程序 |
US14/116,873 US20140105468A1 (en) | 2011-05-23 | 2012-04-12 | Information processing apparatus, information processing method and computer program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011114587A JP2012244526A (ja) | 2011-05-23 | 2011-05-23 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP2011-114587 | 2011-05-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2012160899A1 true WO2012160899A1 (ja) | 2012-11-29 |
Family
ID=47216985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/060004 WO2012160899A1 (ja) | 2011-05-23 | 2012-04-12 | 情報処理装置、情報処理方法及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20140105468A1 (ja) |
EP (1) | EP2693744A4 (ja) |
JP (1) | JP2012244526A (ja) |
CN (1) | CN103535024A (ja) |
WO (1) | WO2012160899A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10932103B1 (en) * | 2014-03-21 | 2021-02-23 | Amazon Technologies, Inc. | Determining position of a user relative to a tote |
CN106576276B (zh) * | 2014-09-05 | 2020-04-14 | Lg 电子株式会社 | 从无定形mimic小区接收数据的方法及其终端 |
CN109739306B (zh) * | 2019-01-04 | 2021-02-02 | 京东方科技集团股份有限公司 | 一种智能桌面支架及其控制方法 |
JP6590329B1 (ja) * | 2019-06-26 | 2019-10-16 | 株式会社ラディウス・ファイブ | 画像表示システム及びプログラム |
US11792506B2 (en) * | 2022-02-09 | 2023-10-17 | Motorola Mobility Llc | Electronic devices and corresponding methods for defining an image orientation of captured images |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000090288A (ja) * | 1998-09-11 | 2000-03-31 | Nippon Telegr & Teleph Corp <Ntt> | 3次元共有仮想空間通信サービスにおける顔画像制御方法,3次元共有仮想空間通信用装置およびそのプログラム記録媒体 |
JP2000244886A (ja) * | 1999-01-20 | 2000-09-08 | Canon Inc | コンピュータ会議システム、コンピュータ処理装置、コンピュータ会議を行う方法、コンピュータ処理装置における処理方法、ビデオ会議システム、ビデオ会議を行う方法、ヘッドホン |
JP2001092990A (ja) * | 1999-09-20 | 2001-04-06 | Nippon Telegr & Teleph Corp <Ntt> | 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体 |
JP2005100084A (ja) * | 2003-09-25 | 2005-04-14 | Toshiba Corp | 画像処理装置及び方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3639475B2 (ja) * | 1999-10-04 | 2005-04-20 | シャープ株式会社 | 3次元モデル生成装置および3次元モデル生成方法ならびに3次元モデル生成プログラムを記録した記録媒体 |
US7039222B2 (en) * | 2003-02-28 | 2006-05-02 | Eastman Kodak Company | Method and system for enhancing portrait images that are processed in a batch mode |
JP2005094741A (ja) * | 2003-08-14 | 2005-04-07 | Fuji Photo Film Co Ltd | 撮像装置及び画像合成方法 |
US7003140B2 (en) * | 2003-11-13 | 2006-02-21 | Iq Biometrix | System and method of searching for image data in a storage medium |
JP2007028555A (ja) * | 2005-07-21 | 2007-02-01 | Sony Corp | カメラシステム,情報処理装置,情報処理方法,およびコンピュータプログラム |
US7787664B2 (en) * | 2006-03-29 | 2010-08-31 | Eastman Kodak Company | Recomposing photographs from multiple frames |
JP2008176350A (ja) * | 2007-01-16 | 2008-07-31 | Seiko Epson Corp | 画像印刷装置および画像印刷装置における画像処理方法 |
JP2008236645A (ja) * | 2007-03-23 | 2008-10-02 | Fujifilm Corp | 撮影装置 |
JP4367663B2 (ja) * | 2007-04-10 | 2009-11-18 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
JP4453721B2 (ja) * | 2007-06-13 | 2010-04-21 | ソニー株式会社 | 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム |
JP4663699B2 (ja) * | 2007-09-27 | 2011-04-06 | 富士フイルム株式会社 | 画像表示装置、及び画像表示方法 |
JP5071162B2 (ja) * | 2008-03-05 | 2012-11-14 | セイコーエプソン株式会社 | 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム |
US8152645B2 (en) * | 2008-05-20 | 2012-04-10 | Igt | Remote gaming environment |
JP2009294728A (ja) * | 2008-06-02 | 2009-12-17 | Sony Ericsson Mobilecommunications Japan Inc | 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置 |
US8686953B2 (en) * | 2008-09-12 | 2014-04-01 | Qualcomm Incorporated | Orienting a displayed element relative to a user |
US8111247B2 (en) * | 2009-03-27 | 2012-02-07 | Sony Ericsson Mobile Communications Ab | System and method for changing touch screen functionality |
JP5227911B2 (ja) * | 2009-07-22 | 2013-07-03 | 株式会社日立国際電気 | 監視映像検索装置及び監視システム |
JP5423379B2 (ja) * | 2009-08-31 | 2014-02-19 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US8503767B2 (en) * | 2009-09-16 | 2013-08-06 | Microsoft Corporation | Textual attribute-based image categorization and search |
US20110070920A1 (en) * | 2009-09-24 | 2011-03-24 | Saied Aasim M | Method for a phone with content projector |
JP5476955B2 (ja) * | 2009-12-04 | 2014-04-23 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US20120272171A1 (en) * | 2011-04-21 | 2012-10-25 | Panasonic Corporation | Apparatus, Method and Computer-Implemented Program for Editable Categorization |
JP2012244525A (ja) * | 2011-05-23 | 2012-12-10 | Sony Corp | 情報処理装置、情報処理方法及びコンピュータプログラム |
-
2011
- 2011-05-23 JP JP2011114587A patent/JP2012244526A/ja not_active Withdrawn
-
2012
- 2012-04-12 WO PCT/JP2012/060004 patent/WO2012160899A1/ja active Application Filing
- 2012-04-12 CN CN201280023486.XA patent/CN103535024A/zh active Pending
- 2012-04-12 US US14/116,873 patent/US20140105468A1/en not_active Abandoned
- 2012-04-12 EP EP12789522.5A patent/EP2693744A4/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000090288A (ja) * | 1998-09-11 | 2000-03-31 | Nippon Telegr & Teleph Corp <Ntt> | 3次元共有仮想空間通信サービスにおける顔画像制御方法,3次元共有仮想空間通信用装置およびそのプログラム記録媒体 |
JP2000244886A (ja) * | 1999-01-20 | 2000-09-08 | Canon Inc | コンピュータ会議システム、コンピュータ処理装置、コンピュータ会議を行う方法、コンピュータ処理装置における処理方法、ビデオ会議システム、ビデオ会議を行う方法、ヘッドホン |
JP2001092990A (ja) * | 1999-09-20 | 2001-04-06 | Nippon Telegr & Teleph Corp <Ntt> | 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体 |
JP2005100084A (ja) * | 2003-09-25 | 2005-04-14 | Toshiba Corp | 画像処理装置及び方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP2693744A4 * |
Also Published As
Publication number | Publication date |
---|---|
EP2693744A1 (en) | 2014-02-05 |
US20140105468A1 (en) | 2014-04-17 |
CN103535024A (zh) | 2014-01-22 |
JP2012244526A (ja) | 2012-12-10 |
EP2693744A4 (en) | 2014-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11706521B2 (en) | User interfaces for capturing and managing visual media | |
US20230319394A1 (en) | User interfaces for capturing and managing visual media | |
JP7536090B2 (ja) | 機械翻訳方法および電子デバイス | |
KR101636460B1 (ko) | 전자 장치 및 그 제어 방법 | |
EP3226537B1 (en) | Mobile terminal and method for controlling the same | |
EP2917820B1 (en) | Method and apparatus for creating motion effect for image | |
EP2770724B1 (en) | Apparatus and method for positioning image area using image sensor location | |
KR102018887B1 (ko) | 신체 부위 검출을 이용한 이미지 프리뷰 | |
US9307153B2 (en) | Method and apparatus for previewing a dual-shot image | |
JP7467553B2 (ja) | 視覚メディアのキャプチャ及び管理用ユーザインタフェース | |
US10048858B2 (en) | Method and apparatus for swipe shift photo browsing | |
JP5645626B2 (ja) | 表示制御装置、表示制御方法、プログラム、並びに記憶媒体 | |
US9179090B2 (en) | Moving image recording device, control method therefor, and non-transitory computer readable storage medium | |
JP2011060272A (ja) | Ui提供方法及びこれを適用したディスプレイ装置 | |
WO2012160899A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
WO2012160898A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
US10290120B2 (en) | Color analysis and control using an electronic mobile device transparent display screen | |
JP6132832B2 (ja) | 電子機器、関連情報表示方法及びプログラム | |
US20200257396A1 (en) | Electronic device and control method therefor | |
JP6362110B2 (ja) | 表示制御装置、その制御方法、プログラム、及び記録媒体 | |
JP2014220555A (ja) | 撮像装置、その制御方法及びプログラム | |
CN115484394B (zh) | 一种隔空手势的引导使用方法及电子设备 | |
JP2017130034A (ja) | 電子袋とじ処理装置、電子袋とじ処理方法およびプログラム | |
JP6519205B2 (ja) | プログラム、情報処理装置及び処理方法 | |
JP6150538B2 (ja) | 動画記録装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12789522 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012789522 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14116873 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |