WO2016006090A1 - Electronic apparatus, method, and program - Google Patents

Electronic apparatus, method, and program Download PDF

Info

Publication number
WO2016006090A1
WO2016006090A1 PCT/JP2014/068502 JP2014068502W WO2016006090A1 WO 2016006090 A1 WO2016006090 A1 WO 2016006090A1 JP 2014068502 W JP2014068502 W JP 2014068502W WO 2016006090 A1 WO2016006090 A1 WO 2016006090A1
Authority
WO
WIPO (PCT)
Prior art keywords
group
image
images
classification
face
Prior art date
Application number
PCT/JP2014/068502
Other languages
French (fr)
Japanese (ja)
Inventor
大介 平川
勇宇次 入本
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to PCT/JP2014/068502 priority Critical patent/WO2016006090A1/en
Priority to JP2016532378A priority patent/JPWO2016006090A1/en
Publication of WO2016006090A1 publication Critical patent/WO2016006090A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • Embodiments described herein relate generally to an electronic device, a method, and a program.
  • An electronic apparatus includes a processor, a display control unit, and a reception unit.
  • the processor classifies a plurality of first images whose features of each image have corresponding to the first classification criterion into a first group, and a second feature in which the features of the portions of each image are different from the first classification criterion.
  • a plurality of second images corresponding to the classification criteria are classified into a second group.
  • the display control unit displays a plurality of first images included in the first group and a plurality of second images included in the second group on a display.
  • the accepting unit accepts a first operation for changing one or more second images included in the second group to the first group.
  • the processor changes at least the first classification criterion using one or more second images changed from the second group to the first group.
  • FIG. 1 is a perspective view showing an external appearance of an electronic apparatus according to one embodiment.
  • FIG. 2 is a diagram illustrating an example of a system configuration of a tablet according to an embodiment.
  • FIG. 3 is a diagram illustrating an example of a functional configuration of an image management program executed by the tablet of one embodiment.
  • FIG. 4 is a diagram illustrating a screen displayed on the LCD of one embodiment.
  • FIG. 5 is a flowchart illustrating a part of the procedure of the image clustering process in the tablet of one embodiment.
  • FIG. 6 is a diagram illustrating a screen displayed on the LCD after the image is reclassified according to one embodiment.
  • FIG. 7 is a diagram illustrating another example of a screen displayed on the LCD after the image is reclassified according to one embodiment.
  • FIGS. 1 to 7. Note that a plurality of expressions may be written together for the constituent elements according to the embodiment and the description of the elements. It is not precluded that other expressions not described in the component and description are made. Furthermore, it is not prevented that other expressions are given for the components and descriptions in which a plurality of expressions are not described.
  • FIG. 1 is a perspective view showing an external appearance of an electronic apparatus according to one embodiment.
  • This electronic device can be realized as an embedded system incorporated in various electronic devices such as a tablet computer, a notebook personal computer, a smartphone, a PDA, or a digital camera.
  • a tablet computer a notebook personal computer
  • smartphone a smartphone
  • PDA a digital camera
  • the tablet 10 is a portable electronic device also called a slate computer, and includes a main body 11 and a touch screen display 17 as shown in FIG.
  • the touch screen display 17 is attached to be superposed on the upper surface of the main body 11.
  • the main body 11 has a thin box-shaped housing.
  • the touch screen display 17 incorporates a flat panel display and a sensor configured to detect a contact position of a stylus pen or a finger on the screen of the flat panel display.
  • the flat panel display may be, for example, a liquid crystal display (LCD).
  • As the sensor for example, a capacitive touch panel, an electromagnetic induction digitizer, or the like can be used.
  • the main body 11 is provided with a camera module 18 for taking an image (photograph) from the front side of the main body 11.
  • the main body 11 may be provided with another camera module for taking an image from the back side of the main body 11.
  • FIG. 2 is a diagram illustrating an example of the system configuration of the tablet 10.
  • the tablet 10 includes a central processing unit (CPU) 101, a system controller 102, a main memory 103, a graphics controller 104, a BIOS-ROM 105, a nonvolatile memory 106, a wireless communication device 107, an embedded controller ( EC) 108, a card controller 110, and the like.
  • CPU central processing unit
  • system controller 102 main memory
  • main memory 103 main memory
  • BIOS-ROM 105 BIOS-ROM
  • nonvolatile memory 106 nonvolatile memory
  • wireless communication device 107 a wireless communication device
  • EC embedded controller
  • the CPU 101 is a processor that controls the operation of various modules in the tablet 10.
  • the CPU 101 executes various software loaded into the main memory 103 from the nonvolatile memory 106 that is a storage device.
  • These software include an operating system (OS) 201 and various application programs.
  • the application program includes an image management program 202.
  • This image management program 202 is, for example, an image (image file) taken using the camera module 18, an image stored in the nonvolatile memory 106, an image taken from an external storage medium or an external storage device (imported). Image) and the like.
  • the CPU 101 also executes a basic input / output system (BIOS) stored in the BIOS-ROM 105.
  • BIOS is a program for hardware control.
  • the system controller 102 is a device that connects between the local bus of the CPU 101 and various components.
  • the system controller 102 also includes a memory controller that controls access to the main memory 103.
  • the system controller 102 also has a function of executing communication with the graphics controller 104 via a PCI EXPRESS serial bus or the like.
  • the graphics controller 104 is a display controller that controls the LCD 17 ⁇ / b> A used as a display of the tablet 10.
  • a display signal generated by the graphics controller 104 is sent to the LCD 17A.
  • the LCD 17A displays a screen image based on the display signal.
  • a touch panel 17B used as a sensor of the tablet 10 is disposed.
  • the display is not limited to the LCD 17A, but may be another device such as an organic EL display.
  • the wireless communication device 107 is a device configured to execute wireless communication such as wireless LAN or 3G mobile communication.
  • the EC 108 is a one-chip microcomputer including an embedded controller for power management.
  • the EC 108 has a function of turning on or off the tablet 10 in accordance with the operation of the power button by the user.
  • the camera module 18 captures an image in response to, for example, the user touching (tapping) a button (graphical object) displayed on the screen of the touch screen display 17.
  • the card controller 110 executes communication with the recording medium 25A inserted into the card slot 25.
  • the card controller 110 executes, for example, communication when an image file stored in an SD card that is the recording medium 25 ⁇ / b> A is read and stored in the nonvolatile memory 106.
  • the image management program 202 executed by the tablet 10 has a function of managing a plurality of images (image files).
  • the image management program 202 can classify a plurality of images based on a person or an object.
  • FIG. 3 is a diagram illustrating an example of a functional configuration of the image management program 202 executed by the tablet 10.
  • FIG. 4 is a diagram showing a screen 30 displayed on the LCD 17 ⁇ / b> A when the tablet 10 executes the image management program 202.
  • the image management program 202 will be described in detail with reference to FIGS. 3 and 4.
  • the image management program 202 includes, for example, an image acquisition unit 81, a classification part detection unit 82, a feature amount calculation unit 83, a clustering unit 84, a display control unit 85, and an operation reception unit 86. And a threshold value calculation unit 87.
  • the operation reception unit 86 is an example of a reception unit.
  • the image management program 202 includes a plurality of images (photographs) stored in a storage device or storage medium built in or externally connected to the tablet 10, a storage device in another computer connected to the tablet 10 via a network, or the like. Can be managed. Each unit of the image management program 202 classifies a plurality of images based on a person, and displays the classification result on the screen 30 in FIG.
  • the image acquisition unit 81 in FIG. 3 stores a plurality of management target images in a storage device or storage medium that is built in or externally connected to the tablet 10, a storage device in another computer connected to the tablet 10 via a network, Etc. Note that the image acquisition unit 81 is not limited to an image, and may acquire information (related information) associated with an image such as an image creation date. The image acquisition unit 81 outputs the acquired plurality of images to the classification part detection unit 82.
  • the classification part detection unit 82 detects, for example, a plurality of face images from a plurality of images.
  • the face image is an example of a part included in each image.
  • a plurality of face images may be included in one image, and none may be included in one image.
  • the classification part detection unit 82 detects, for example, an area (face image area) estimated to include a face image in the image using pixel values of a plurality of pixels included in the image. This face image area is, for example, a rectangular area that circumscribes the face image.
  • the classification part detection unit 82 outputs data indicating the detected face image area to the feature amount calculation unit 83.
  • the feature amount calculation unit 83 calculates the feature amount of the face image (for example, the feature amount representing the color or shape of the object in the face image region) using the pixel values of the pixels included in the detected face image region. To do.
  • the feature amount calculation unit 83 calculates a plurality of feature amounts corresponding to the plurality of face images.
  • examples of the method for extracting the feature amount of the image include feature detection based on a region-based edge image recognition technique and feature detection based on a feature amount such as HOG (Histograms of Oriented Gradients).
  • HOG Hemograms of Oriented Gradients
  • the feature amount calculation unit 83 can detect a feature amount even for an image to which special information such as a QR code (registered trademark) is not added.
  • the clustering unit 84 classifies a plurality of images (photos) including the plurality of face images into a plurality of groups (clusters) based on the detected plurality of face images. More specifically, the clustering unit 84 clusters a plurality of images (photos) each including a face image based on the feature amount of the face image calculated by the feature amount calculation unit 83. The clustering unit 84 classifies a plurality of face images into similar face images, thereby classifying images (photos) including the face images into groups (for example, first to fourth groups 31 to 34). That is, the clustering unit 84 classifies images (photographs) including face images estimated to be the same person's face into the same group.
  • the clustering unit 84 classifies one or more images corresponding to the first face (the face of the first person) into the first group based on the detected plurality of face images, and the second face (the second face). Classify one or more images corresponding to the face of the second person) into the second group, and classify one or more images corresponding to the nth face (the face of the nth person) into the nth group. .
  • the clustering unit 84 generates a number of groups corresponding to the number of persons of the facial photograph included in the plurality of images. Since the clustering unit 84 makes a mistake in classification or classifies images including face images in which the same person does not exist into the “other” group, the number of face photo persons included in the plurality of images is generated. May be different from the number of groups.
  • One image including a plurality of face images can be classified into a plurality of groups. For example, when the image corresponding to the first face and the image corresponding to the second face are detected from the first image (photo) of the plurality of images, the clustering unit 84 detects the first image (photo). Are classified into both the first group and the second group. In addition, even when the clustering unit 84 detects at least one of the image corresponding to the first face or the image corresponding to the second face from the second image (photograph) of the plurality of images, Depending on the shooting state of the image corresponding to the first face or the image corresponding to the second face, it may not be classified into the first group or the second group.
  • the shooting state of the image corresponding to the first face or the image corresponding to the second face is the position of the image corresponding to the first face or the image corresponding to the second face, or the focus (for example, the focus on the face). It is at least one of whether or not.
  • a data clustering method such as a K-means method or a shortest distance method can be cited.
  • the clustering unit 84 classifies images by these data clustering methods using threshold values (classification criteria), for example.
  • the threshold value is an example of a first classification criterion and a second classification criterion. That is, the clustering unit 84 classifies the images into a plurality of groups based on the feature amount and threshold value of the face image.
  • the data clustering method may be a hierarchical method or a non-hierarchical method.
  • the clustering unit 84 may recognize the person corresponding to each group using the feature amount of the face image for each person prepared in advance.
  • the clustering unit 84 may classify images using not only the feature amount of the face image but also related information acquired by the image acquisition unit 81, for example. For example, when information about a person appearing in the image is set as the related information, the clustering unit 84 may classify the image using the related information.
  • the clustering unit 84 classifies the plurality of images into, for example, a first group 31, a second group 32, a third group 33, and a fourth group 34.
  • the first group 31 is an example of a first group.
  • the third group 33 is an example of a second group.
  • an image including a plurality of face images 41A, 41B, 41C, 41D, 41E, 41F, 41G, and 41H belongs to the first group 31. That is, in the classification using a certain threshold, the clustering unit 84 estimates that the plurality of face images 41A to 41H are face images indicating the face of the same person.
  • Images including a plurality of face images 42A, 42B, 42C, and 42D belong to the second group 32. That is, the clustering unit 84 estimates that the plurality of face images 42A to 42D are face images indicating the face of the same person in the classification using a certain threshold value.
  • the images including the plurality of face images 43A and 43B belong to the third group 33. That is, the clustering unit 84 estimates that the plurality of face images 43A and 43B are face images indicating the face of the same person in the classification using a certain threshold value.
  • the images including a plurality of face images 44A, 44B, 44C, 44D, 44E, 44F, 44G, 44H, 44I, and 44J belong to the fourth group 34.
  • the fourth group 34 is an “other” group. That is, the clustering unit 84 estimates that a plurality of face images 44A to 44J do not have face images showing the face of the same person in classification using a certain threshold value.
  • the display control unit 85 displays the face images 41A to 41H, 42A to 42D, 43A, 43B, and 44A to 44J on the screen 30 for each group as shown in FIG. 4 based on the image classification result by the clustering unit 84. In other words, the display control unit 85 displays a list of face images on the screen 30. Note that the display unit 85 is not limited to a face image, and may display a reduced image on the screen 30, for example.
  • the display control unit 85 collects a plurality of face images 41A to 41H belonging to the first group 31 and displays them on the screen 30.
  • the display control unit 85 displays the thumbnail 31A together with the face images 41A to 41H.
  • the thumbnail 31A is randomly selected from images including a plurality of face images 41A to 41H belonging to the first group 31.
  • the display control unit 85 collects a plurality of face images 42A to 42D belonging to the second group 32 and displays them on the screen 30.
  • the display control unit 85 displays the thumbnail 32A together with the face images 42A to 42D.
  • the thumbnail 32A is randomly selected from images including a plurality of face images 42A to 42D belonging to the second group 32.
  • the display control unit 85 collects a plurality of face images 43A and 43B belonging to the third group 33 and displays them on the screen 30.
  • the display control unit 85 displays the thumbnail 33A together with the face images 43A and 43B.
  • the thumbnail 33A is randomly selected from images including a plurality of face images 43A and 43B belonging to the third group 33.
  • the display control unit 85 collects a plurality of face images 44A to 44J belonging to the fourth group 34 and displays them on the screen 30.
  • the display control unit 85 displays the thumbnail 34A together with the face images 44A to 44J.
  • the thumbnail 34A is randomly selected from images including a plurality of face images 44A to 44J belonging to the fourth group 34.
  • the display control unit 85 displays a plurality of face images, which are part of the image, on the screen 30 for each group.
  • the clustering unit 84 may classify the plurality of face images 44A to 44J that are estimated to have no face images showing the face of the same person into the fourth group 34 as described above. They may be classified into groups. In this case, a plurality of groups to which only one face image (individual face images 44A to 44J) belongs are generated. That is, the number of images belonging to the group may be one or plural.
  • the display control unit 85 may hierarchically display the face image. For example, the display control unit 85 displays only the thumbnails 31A to 34A of the first to fourth groups 31 to 34 on the screen 30, and the face of each group 31 to 34 when the user touches the thumbnails 31A to 34A. Images may be displayed individually. Thus, the classification result of the image displayed on the screen 30 by the display control unit 85 is not limited to that shown in FIG.
  • the display control unit 85 also performs display of the entire screen 30.
  • the display control unit 85 further displays a preview unit 51, a selection release button 52, a group join button 53, a group deletion button 54, a group addition button 55, and a reclassification button 56 on the screen 30.
  • the preview unit 51 enlarges and displays a part of an image randomly selected from images including a plurality of face images 41A to 41H, 42A to 42D, 43A, 43B, 44A to 44J, for example.
  • the selection cancel button 52, the group join button 53, the group delete button 54, the group add button 55, and the reclassify button 56 are buttons (graphical objects) displayed on the screen 30.
  • the operation reception unit 86 performs various processes described later.
  • the operation accepting unit 86 performs a touch operation on the behavior of the finger or the like detected by the touch panel 17B when the user touches the touch panel 17B with a finger or a stylus pen (hereinafter referred to as a finger or the like) or moves the finger or the like. , Input as various events such as a long press operation and a move operation.
  • the operation accepting unit 86 selects, for example, a face image and a group, or moves a face image between groups according to a touch operation, a long press operation, and a movement operation performed on a group or a face image performed by a user. Various processes are performed.
  • the operation receiving unit 86 displays images including a plurality of face images 41A to 41H, 42A to 42D, 43A, 43B, and 44A to 44J in accordance with a user operation on the screen 30, in the first to fourth groups 31 to 34. Move between. For example, when the user presses and holds the position where the face image 43A of the screen 30 is displayed with a finger or the like and moves the finger or the like to the position where the first group 31 is displayed, the operation reception unit 86 displays the face The image 43A is moved (reclassified) to the first group 31. In other words, the operation receiving unit 86 receives an operation for changing one or more images included in one group to another group. The operation for moving the image is not limited to this.
  • the operation reception unit 86 brings the first group 31 into a selected state. Further, for example, when the user performs a long press operation at a position where the face image 41A on the screen 30 is displayed, the operation reception unit 86 sets the face image 41A to the selected state. Other groups and other face images are selected in the same manner.
  • the display control unit 85 shows the selected group and face image, for example, surrounded by a selection frame 61.
  • the operation receiving unit 86 cancels the face image and group selection operation by the user's operation.
  • the selection cancellation button 52 is operated, for example, when the user performs a touch (tap) operation on the position where the selection cancellation button 52 is displayed on the screen 30.
  • the selection release button 52 may be operated by a click operation with a mouse, for example.
  • the group join button 53, the group delete button 54, the group add button 55, and the reclassify button 56 are operated in the same manner.
  • the operation reception unit 86 When the user operates the group combination button 53, the operation reception unit 86 combines a plurality of groups in the selected state. In other words, the operation reception unit 86 moves images belonging to at least one other selected group to one selected group. For example, when the first group 31 and the third group 33 are selected as shown in FIG. 4, the operation accepting unit 86 selects an image including the face images 43A and 43B belonging to the third group 33 as the first group 31 and the third group 33. 1 group 31 is moved.
  • the operation reception unit 86 deletes at least one group in the selected state. In other words, the operation reception unit 86 moves the images belonging to the selected group to the fourth group 34 that is the “others” group. For example, when the first group 31 and the third group 33 are selected as shown in FIG. 4, the operation accepting unit 86 displays the face images 41A to 41H belonging to the first group 31 and the third group 33. , 43A, 43B are moved to the fourth group 34.
  • the operation reception unit 86 adds a new group (blank) that does not include an image.
  • the user can move the face image to the added group.
  • the clustering unit 84 mistakenly classifies two person images into one group, the user can add a new group and move the image of one person to the new group.
  • the operation accepting unit 86 causes the clustering unit 84 to classify a plurality of images again. Then, the display control unit 85 displays a new classification result on the screen 30. The image reclassification will be described later.
  • the operation accepting unit 86 moves an image, joins a plurality of groups, deletes a group, adds a group, and the like.
  • the operation receiving unit 86 receives an image moving operation between a plurality of groups by the user.
  • the operation reception unit 86 is not limited to this, and receives various operations by the user.
  • the threshold calculation unit 87 calculates a threshold for classification used by the clustering unit 84 based on the result of the operation of moving the image between the plurality of groups by the user.
  • the clustering unit 84 performs classification using a plurality of threshold values set for each group. For this reason, the threshold value calculation part 87 calculates a some threshold value separately. Note that the clustering unit 84 may classify all face images using one threshold value. In this case, the threshold calculation unit 87 calculates the threshold.
  • the face images 43 ⁇ / b> A and 43 ⁇ / b> B move to the first group 31 when the user performs a combining operation of the first group 31 and the third group 33.
  • the threshold value calculation unit 87 calculates a threshold value such that the clustering unit 84 classifies the face images 43A and 43B into the first group 31.
  • the threshold calculation unit 87 calculates a first threshold that is an individual threshold for the first group 31.
  • the first threshold is an example of a first classification criterion.
  • the threshold value calculation unit 87 calculates a threshold value that causes the clustering unit 84 to remove the face images 43A and 43B from the third group 33.
  • the threshold calculation unit 87 calculates, for example, a third threshold that is an individual threshold for the third group 33.
  • the third threshold is an example of the second classification criterion, and is different from the first threshold.
  • the threshold value calculation unit 87 outputs the calculated threshold value to the clustering unit 84.
  • the clustering unit 84 changes the existing threshold value to a new threshold value acquired from the threshold value calculation unit 87. In other words, the clustering unit 84 updates the threshold used for clustering by storing the threshold acquired from the threshold calculation unit 87.
  • the threshold value calculation unit 87 uses the face images 43A and 43B changed from the third group 33 to the first group 31 to calculate new first threshold values and third threshold values. calculate.
  • the clustering unit 84 changes the first threshold value and the third threshold value to the new first threshold value and third threshold value calculated by the threshold value calculation unit 87.
  • the clustering unit 84 performs image reclassification when the user operates the reclassification button 56. That is, the clustering unit 84 reclassifies the images into a plurality of groups based on the feature amount of the face image and the changed threshold value (first threshold value or third threshold value) reflecting the user's movement operation. To do.
  • the display control unit 85 displays the face image for each group on the screen 30 based on the image classification result by the clustering unit 84. That is, the display control unit 85 displays a face image on the screen 30 for each group classified based on the changed threshold value.
  • FIG. 5 is a flowchart illustrating a part of the procedure of the image clustering process in the tablet 10.
  • the image acquisition unit 81 acquires a plurality of images (a plurality of photos) (step S11).
  • the classification part detection unit 82 detects a face image included in each of the plurality of images (step S12).
  • the feature amount calculation unit 83 calculates the feature amount of the face image using the pixel values of the pixels included in the detected face image (step S13).
  • the feature amount calculation unit 83 calculates a plurality of feature amounts corresponding to the plurality of face images when the classification portion detection unit 82 detects a plurality of face images from the plurality of images.
  • the clustering unit 84 clusters a plurality of face images based on the calculated feature amount of the face image and the threshold value (step S14).
  • the clustering unit 84 uses, for example, a preset threshold value in the initial clustering.
  • the clustering unit 84 classifies the plurality of face images into clusters (groups) for similar face images. That is, the clustering unit 84 classifies face images estimated to be the same person's face into the same cluster. Classify.
  • the clustering unit 84 stores the classification result in the main memory 103, for example.
  • the display control unit 85 displays a face image for each group on the screen 30 based on the classification result (step S15).
  • the operation receiving unit 86 shifts to a state in which an image moving operation between a plurality of groups can be received. Then, the operation receiving unit 86 determines whether or not the user has performed an image moving operation between a plurality of groups (step S16).
  • the user When the person indicated by the face images 41A to 41H classified in the first group 31 and the person indicated by the face images 43A and 43B classified in the third group 33 are the same person, the user The first group 31 and the third group 33 are selected.
  • the user operates the group combination button 53 to combine the first group 31 and the third group 33.
  • the face images 43A and 43B of the third group 33 are moved (changed) to the first group 31, and the face images 41A to 41H, 41A, and 41B indicating the same person are collected in the first group 31.
  • the threshold value calculation unit 87 creates a new threshold value (first value) based on the result of the image movement operation between the plurality of groups by the user. Threshold value or third threshold value).
  • the clustering unit 84 changes the threshold used for clustering to the new threshold calculated by the threshold calculation unit 87 (step S17).
  • the operation reception unit 86 determines whether or not the user has operated the reclassification button 56 (step S18). When the user does not operate the reclassification button 56 (step S18: No) and does not end the image management program 202 (step S19: No), the operation reception unit 86 continues to receive the image movement operation (step S16). .
  • the threshold value calculation unit 87 calculates a new threshold value (step S17) each time the user performs an operation of moving an image between a plurality of groups (step S16: Yes).
  • the clustering unit 84 selects a plurality of face images based on the feature amount of the face image and the changed threshold value. Clustering (reclassification) is performed (step S14).
  • the display control unit 85 displays a face image for each group on the screen 30 based on the reclassification result (step S15).
  • FIG. 6 is a diagram showing a screen 30 displayed on the LCD 17A after the image is reclassified.
  • the threshold value calculation unit 87 calculates a new threshold value based on the result of the movement operation.
  • the clustering unit 84 classifies the face images 43 ⁇ / b> A and 43 ⁇ / b> B into the first group 31 and removes them from the third group 33 in order to classify the images using the threshold values. Since the face images 43A and 43B are out of the third group 33, the clustering unit 84 deletes (does not generate) the third group 33.
  • the clustering unit 84 that classifies images using the new threshold classifies the face images 44A and 44E belonging to the fourth group 34 into the new fifth group 35 and removes it from the fourth group 34. .
  • the clustering unit 84 uses the new threshold value calculated by the threshold value calculation unit 87 to move an image that has not been moved by the user between the plurality of groups, between the plurality of groups. There is. That is, the clustering unit 84 automatically reclassifies images other than the image moved by the user according to the changed threshold value.
  • the display control unit 85 displays the thumbnail 35A together with the face images 44A and 44E of the fifth group 35.
  • the display control unit 85 displays the frame 62 to indicate a portion (change portion) where the image classification result before the threshold is changed and the image classification result after the threshold is changed are different.
  • the clustering unit 84 compares the classification result of the image before the threshold change stored in the main memory 103 with the classification result of the image after the threshold change, and obtains a changed portion.
  • the clustering unit 84 notifies the display control unit 85 of the changed part.
  • the display control unit 85 displays a frame 62 that surrounds the changed portion (the first group 31, the fourth group 34, and the fifth group 35 in FIG. 6) on the screen 30 to indicate the changed portion.
  • FIG. 7 is a diagram showing another example of the screen 30 displayed on the LCD 17A after the image is reclassified.
  • FIG. 7 another example of reclassification will be described.
  • the user moves the face image 43 ⁇ / b> A belonging to the third group 33 to the first group 31.
  • the face image 43 ⁇ / b> A is changed to the first group 31.
  • the face image 43A is an example of a second image.
  • the threshold value calculation unit 87 sets a new threshold value (first value). 1 threshold or third threshold).
  • the clustering unit 84 performs image reclassification using the threshold value.
  • the clustering unit 84 classifies the face image 43A into the first group 31 and removes it from the third group 33 based on the changed first threshold value and third threshold value. Further, the clustering unit 84 automatically reclassifies the face image 43B into the first group 31 based on the changed first threshold value.
  • the face image 43B is an example of a third image. In this way, by changing the standard for classifying into the first group 31 (first classification standard), the clustering unit 84 assigns the face image 43B whose feature corresponds to the standard to the first group 31. Reclassify automatically.
  • the clustering unit 84 automatically reclassifies the face images 41A and 41B into the third group 33 based on the changed third threshold value.
  • the face images 41A and 41B are examples of fourth images.
  • the clustering unit 84 causes the face images 41A and 41B whose features correspond to the standard to be the third group. Reclassify to 33 automatically.
  • the display control unit 85 includes a frame 62 that surrounds the face images 43 ⁇ / b> A and 43 ⁇ / b> B changed to the first group 31 and the face images 41 ⁇ / b> A and 41 ⁇ / b> B changed to the third group 33. indicate.
  • the display control unit 85 displays the face images 43A and 43B that have been classified into the third group 33 and changed to the first group 31 in the past so that they can be identified by the frame 62.
  • the display control unit 85 displays the face images 41A and 41B that have been classified into the first group 31 and changed to the third group 33 in the past so that they can be identified by the frame 62.
  • the display control unit 85 displays not only the frame 62 but also, for example, by highlighting, enlarging, brightening, or changing the color of a face image or group so that the changed portion can be identified. May be.
  • the image management program 202 receives the image movement operation (step S16), changes the threshold value (step S17), receives the operation of the reclassification button 56 (step S18), and is based on the changed threshold value.
  • the image reclassification (step S14) and the reclassification result display (step S15) are continued until the image management program 202 is terminated (step S19: Yes).
  • the image management program 202 ends when a predetermined button is operated, for example, similarly to various application programs executed by the tablet 10.
  • the threshold value calculation unit 87 calculates a new threshold value (step S17). However, when the reclassification button 56 is operated (step S18: Yes), the threshold value calculation unit 87 may calculate a new threshold value.
  • step S18 when the user operates the reclassification button 56 (step S18: Yes), the clustering unit 84 reclassifies the image (step S14). However, when the threshold is changed (step S17), the clustering unit 84 may automatically reclassify the image without waiting for a user operation.
  • the image management program 202 classifies images based on face images.
  • the image management program 202 is not limited to this, and the images may be classified into a plurality of groups based on objects included in the images.
  • the image management program 202 classifies the image for each fruit or vegetable that appears in the image (photograph).
  • the part in which the fruit or vegetable of an image is reflected is an example of the part which each image has.
  • the classification part detection unit 82 detects a part in which fruits or vegetables are reflected from a plurality of images.
  • the clustering unit 84 classifies the images into a plurality of groups set for each fruit or vegetable based on the portion of the image in which the fruit or vegetable is reflected and the threshold value.
  • the threshold value calculation unit 87 calculates a threshold value for classifying images into a plurality of groups based on a result of an image moving operation between a plurality of groups by the user.
  • the clustering unit 84 changes the threshold used for clustering to the calculated new threshold. Accordingly, the threshold value is automatically changed based on the image moving operation by the user without the user manually changing the threshold value, so that a threshold value closer to the user's desire can be easily obtained.
  • the clustering unit 84 classifies the images into a plurality of groups based on the changed threshold value. That is, when an image moving operation is performed by the user, the image is reclassified based on the threshold value changed based on the moving operation. For this reason, it is not necessary for the user to reclassify unnecessary images in order to understand the effect on the classification result due to the change of the threshold value, and a classification result close to the user's desire can be obtained earlier.
  • the display control unit 85 shows a portion where the image classification result before the threshold is changed and the image classification result after the threshold is changed are displayed on the screen 30 on the LCD 17A by a frame 62, for example.
  • the classification result by the clustering unit 84 is presented to the user, so that the classification result close to the user's desire can be obtained more easily.
  • the threshold value calculation unit 87 changes the first threshold value so that the face images 43A and 43B are classified into the first group 31 when the face images 43A and 43B are moved to the first group 31, for example. Thereby, when the image is reclassified after the threshold value is changed, the face images 43A and 43B that should have been moved to the first group 31 by the user are prevented from being removed from the first group.
  • the threshold value calculation unit 87 changes the third threshold value so that the face images 43A and 43B are removed from the third group 33 when the face images 43A and 43B are moved from the third group 33, for example. Thereby, when the image is reclassified after the change of the threshold, the face images 43A and 43B that should have been moved from the third group 33 by the user are prevented from being classified again into the third group 33. Is done.
  • the image management program 202 executed by the tablet 10 of this embodiment is provided by being incorporated in advance in a ROM or the like.
  • the image management program 202 executed by the tablet 10 of the present embodiment is an installable or executable file, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. You may comprise so that it may record and provide on a computer-readable recording medium.
  • the image management program 202 executed by the tablet 10 of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the image management program 202 executed by the tablet 10 of this embodiment may be provided or distributed via a network such as the Internet.
  • the image management program 202 executed by the tablet 10 of the present embodiment includes the above-described units (image acquisition unit 81, classification part detection unit 82, feature amount calculation unit 83, clustering unit 84, display control unit 85, and operation reception unit 86. And a threshold calculation unit 87).
  • the CPU processor
  • the CPU reads out and executes the image management program 202 from the ROM, and the respective units are loaded on the main storage device.
  • an image acquisition unit 81, a classification part detection unit 82, a feature calculation unit 83, a clustering unit 84, a display control unit 85, an operation reception unit 86, and a threshold calculation unit 87 are generated on the main storage device. Yes.
  • the processor changes at least the first classification criterion by using one or more second images changed from the second group to the first group.
  • the classification standard is automatically changed based on the user's operation to change the group of images without manually changing the classification standard, so that a classification standard closer to the user's wish can be easily obtained. It is done.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to one embodiment, this electronic apparatus comprises a processor, a display control unit, and a reception unit. The processor classifies a plurality of first images into a first group, a feature of a section of each of the first images corresponding to a first classification reference, and classifies a plurality of second images into a second group, a feature of a section of each of the second images corresponding to a second classification reference which is different from the first classification reference. On a display, the display control unit displays the plurality of first images included in the first group and the plurality of second images included in the second group. The reception unit receives a first operation for changing one or more of the second images included in the second group to the first group. The processor at least changes the first classification reference by using the one or more second images that have changed from the second group to the first group.

Description

電子機器、方法及びプログラムElectronic device, method and program
 本発明の実施形態は、電子機器、方法及びプログラムに関する。 Embodiments described herein relate generally to an electronic device, a method, and a program.
 画像認識により、例えばデジタルカメラによって撮影された写真(画像ファイル)を、当該写真に写る人物毎に自動分類するソフトウェアが知られる。このような自動分類による写真の分類結果は、間違っている場合がある。自動分類による分類結果をより正確にするために、ユーザが自動分類に係るパラメータを変更可能である場合がある。 Software that automatically classifies, for example, a photograph (image file) taken by a digital camera for each person in the photograph by image recognition is known. The photo classification result by such automatic classification may be wrong. In order to make the classification result by the automatic classification more accurate, the user may be able to change the parameters related to the automatic classification.
特開2011-221791号公報JP 2011-221791 A
 自動分類に係るパラメータの変更が分類結果にどう影響するかは、再び自動分類を実行するまでユーザには分かりにくい。 * It is difficult for the user to understand how the change of parameters related to automatic classification affects the classification result until automatic classification is executed again.
 一つの実施の形態に係る電子機器は、プロセッサと、表示制御部と、受け付け部と、を備える。前記プロセッサは、各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類する。前記表示制御部は、前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示する。前記受け付け部は、前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付ける。前記プロセッサは、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する。 An electronic apparatus according to one embodiment includes a processor, a display control unit, and a reception unit. The processor classifies a plurality of first images whose features of each image have corresponding to the first classification criterion into a first group, and a second feature in which the features of the portions of each image are different from the first classification criterion. A plurality of second images corresponding to the classification criteria are classified into a second group. The display control unit displays a plurality of first images included in the first group and a plurality of second images included in the second group on a display. The accepting unit accepts a first operation for changing one or more second images included in the second group to the first group. The processor changes at least the first classification criterion using one or more second images changed from the second group to the first group.
図1は、一つの実施の形態に係る電子機器の外観を示す斜視図である。FIG. 1 is a perspective view showing an external appearance of an electronic apparatus according to one embodiment. 図2は、一つの実施形態のタブレットのシステム構成の例を示す図である。FIG. 2 is a diagram illustrating an example of a system configuration of a tablet according to an embodiment. 図3は、一つの実施形態のタブレットによって実行される画像管理プログラムの機能構成の例を示す図である。FIG. 3 is a diagram illustrating an example of a functional configuration of an image management program executed by the tablet of one embodiment. 図4は、一つの実施形態のLCDに表示される画面を示す図である。FIG. 4 is a diagram illustrating a screen displayed on the LCD of one embodiment. 図5は、一つの実施形態のタブレットにおける画像クラスタリング処理の手順の一部を例示するフローチャートである。FIG. 5 is a flowchart illustrating a part of the procedure of the image clustering process in the tablet of one embodiment. 図6は、一つの実施形態の画像の再分類がされた後の、LCDに表示される画面を示す図である。FIG. 6 is a diagram illustrating a screen displayed on the LCD after the image is reclassified according to one embodiment. 図7は、一つの実施形態の画像の再分類がされた後の、LCDに表示される画面の他の例を示す図である。FIG. 7 is a diagram illustrating another example of a screen displayed on the LCD after the image is reclassified according to one embodiment.
 以下に、一つの実施の形態について、図1乃至図7を参照して説明する。なお、実施形態に係る構成要素や、当該要素の説明について、複数の表現を併記することがある。当該構成要素及び説明について、記載されていない他の表現がされることは妨げられない。さらに、複数の表現が記載されない構成要素及び説明について、他の表現がされることは妨げられない。 Hereinafter, one embodiment will be described with reference to FIGS. 1 to 7. Note that a plurality of expressions may be written together for the constituent elements according to the embodiment and the description of the elements. It is not precluded that other expressions not described in the component and description are made. Furthermore, it is not prevented that other expressions are given for the components and descriptions in which a plurality of expressions are not described.
 図1は、一つの実施の形態に係る電子機器の外観を示す斜視図である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA、又はデジタルカメラのような各種電子機器に内蔵される組み込みシステムとして実現され得る。以下では、この電子機器がタブレットコンピュータ(以下、タブレットと称する)10として実現されている場合を想定する。タブレット10は、スレートコンピュータとも称される携帯型電子機器であり、図1に示すように、本体11とタッチスクリーンディスプレイ17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。 FIG. 1 is a perspective view showing an external appearance of an electronic apparatus according to one embodiment. This electronic device can be realized as an embedded system incorporated in various electronic devices such as a tablet computer, a notebook personal computer, a smartphone, a PDA, or a digital camera. Below, the case where this electronic device is implement | achieved as the tablet computer (henceforth a tablet) 10 is assumed. The tablet 10 is a portable electronic device also called a slate computer, and includes a main body 11 and a touch screen display 17 as shown in FIG. The touch screen display 17 is attached to be superposed on the upper surface of the main body 11.
 本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のスタイラスペン又は指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶ディスプレイ(LCD)であっても良い。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザなどを使用することができる。 The main body 11 has a thin box-shaped housing. The touch screen display 17 incorporates a flat panel display and a sensor configured to detect a contact position of a stylus pen or a finger on the screen of the flat panel display. The flat panel display may be, for example, a liquid crystal display (LCD). As the sensor, for example, a capacitive touch panel, an electromagnetic induction digitizer, or the like can be used.
 また、本体11には、本体11の前面側から画像(写真)を撮影するためのカメラモジュール18が設けられている。なお、本体11に、本体11の背面側から画像を撮影するための他のカメラモジュールが設けられても良い。 The main body 11 is provided with a camera module 18 for taking an image (photograph) from the front side of the main body 11. The main body 11 may be provided with another camera module for taking an image from the back side of the main body 11.
 図2は、タブレット10のシステム構成の例を示す図である。タブレット10は、図2に示されるように、中央演算処理装置(CPU)101、システムコントローラ102、主メモリ103、グラフィクスコントローラ104、BIOS-ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC)108、カードコントローラ110、等を備える。 FIG. 2 is a diagram illustrating an example of the system configuration of the tablet 10. As shown in FIG. 2, the tablet 10 includes a central processing unit (CPU) 101, a system controller 102, a main memory 103, a graphics controller 104, a BIOS-ROM 105, a nonvolatile memory 106, a wireless communication device 107, an embedded controller ( EC) 108, a card controller 110, and the like.
 CPU101は、タブレット10内の各種モジュールの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)201、及び各種アプリケーションプログラムが含まれている。アプリケーションプログラムには、画像管理プログラム202が含まれている。この画像管理プログラム202は、例えば、カメラモジュール18を用いて撮影された画像(画像ファイル)、不揮発性メモリ106に格納された画像、外部記憶媒体や外部記憶装置から取り込まれた画像(インポートされた画像)等を管理する機能を有する。 The CPU 101 is a processor that controls the operation of various modules in the tablet 10. The CPU 101 executes various software loaded into the main memory 103 from the nonvolatile memory 106 that is a storage device. These software include an operating system (OS) 201 and various application programs. The application program includes an image management program 202. This image management program 202 is, for example, an image (image file) taken using the camera module 18, an image stored in the nonvolatile memory 106, an image taken from an external storage medium or an external storage device (imported). Image) and the like.
 また、CPU101は、BIOS-ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。 The CPU 101 also executes a basic input / output system (BIOS) stored in the BIOS-ROM 105. The BIOS is a program for hardware control.
 システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。 The system controller 102 is a device that connects between the local bus of the CPU 101 and various components. The system controller 102 also includes a memory controller that controls access to the main memory 103. The system controller 102 also has a function of executing communication with the graphics controller 104 via a PCI EXPRESS serial bus or the like.
 グラフィクスコントローラ104は、本タブレット10のディスプレイとして使用されるLCD17Aを制御する表示コントローラである。このグラフィクスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17A上には、本タブレット10のセンサとして使用されるタッチパネル17Bが配置されている。なお、ディスプレイはLCD17Aに限らず、有機ELディスプレイのような他の装置であっても良い。 The graphics controller 104 is a display controller that controls the LCD 17 </ b> A used as a display of the tablet 10. A display signal generated by the graphics controller 104 is sent to the LCD 17A. The LCD 17A displays a screen image based on the display signal. On the LCD 17A, a touch panel 17B used as a sensor of the tablet 10 is disposed. The display is not limited to the LCD 17A, but may be another device such as an organic EL display.
 無線通信デバイス107は、無線LAN又は3G移動通信などの無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じて本タブレット10を電源オン又は電源オフする機能を有している。 The wireless communication device 107 is a device configured to execute wireless communication such as wireless LAN or 3G mobile communication. The EC 108 is a one-chip microcomputer including an embedded controller for power management. The EC 108 has a function of turning on or off the tablet 10 in accordance with the operation of the power button by the user.
 カメラモジュール18は、例えば、ユーザが、タッチスクリーンディスプレイ17の画面上に表示されたボタン(グラフィカルオブジェクト)をタッチ(タップ)したことに応じて、画像を撮影する。 The camera module 18 captures an image in response to, for example, the user touching (tapping) a button (graphical object) displayed on the screen of the touch screen display 17.
 カードコントローラ110は、カードスロット25に挿入された記録メディア25Aとの通信を実行する。カードコントローラ110は、例えば、記録メディア25AであるSDカードに格納された画像ファイルを読み出して不揮発性メモリ106に格納する際の通信等を実行する。 The card controller 110 executes communication with the recording medium 25A inserted into the card slot 25. The card controller 110 executes, for example, communication when an image file stored in an SD card that is the recording medium 25 </ b> A is read and stored in the nonvolatile memory 106.
 上述したように、タブレット10によって実行される画像管理プログラム202は、複数の画像(画像ファイル)を管理する機能を有する。画像管理プログラム202は、例えば、複数の画像を人物又は物に基づいて分類することができる。 As described above, the image management program 202 executed by the tablet 10 has a function of managing a plurality of images (image files). For example, the image management program 202 can classify a plurality of images based on a person or an object.
 図3は、本タブレット10によって実行される画像管理プログラム202の機能構成の例を示す図である。図4は、タブレット10が画像管理プログラム202を実行することにより、LCD17Aに表示される画面30を示す図である。以下、図3及び図4を参照して、画像管理プログラム202について詳しく説明する。 FIG. 3 is a diagram illustrating an example of a functional configuration of the image management program 202 executed by the tablet 10. FIG. 4 is a diagram showing a screen 30 displayed on the LCD 17 </ b> A when the tablet 10 executes the image management program 202. Hereinafter, the image management program 202 will be described in detail with reference to FIGS. 3 and 4.
 図3に示すように、画像管理プログラム202は、例えば、画像取得部81と、分類部分検出部82と、特徴量算出部83と、クラスタリング部84と、表示制御部85と、操作受付部86と、閾値算出部87とを備える。操作受付部86は、受け付け部の一例である。 As illustrated in FIG. 3, the image management program 202 includes, for example, an image acquisition unit 81, a classification part detection unit 82, a feature amount calculation unit 83, a clustering unit 84, a display control unit 85, and an operation reception unit 86. And a threshold value calculation unit 87. The operation reception unit 86 is an example of a reception unit.
 画像管理プログラム202は、タブレット10に内蔵又は外部接続される記憶装置や記憶メディア、タブレット10にネットワークを介して接続される別のコンピュータ内の記憶装置、等に格納される複数の画像(写真)を管理対象とすることができる。画像管理プログラム202の各部は、複数の画像を人物に基づいて分類し、図4の画面30に分類結果を表示する。 The image management program 202 includes a plurality of images (photographs) stored in a storage device or storage medium built in or externally connected to the tablet 10, a storage device in another computer connected to the tablet 10 via a network, or the like. Can be managed. Each unit of the image management program 202 classifies a plurality of images based on a person, and displays the classification result on the screen 30 in FIG.
 図3の画像取得部81は、管理対象の複数の画像を、タブレット10に内蔵又は外部接続される記憶装置や記憶メディア、タブレット10にネットワークを介して接続される別のコンピュータ内の記憶装置、等から取得する。なお、画像取得部81は、画像に限らず、例えば画像の作成日時のような画像に関連付けられた情報(関連情報)を取得しても良い。画像取得部81は、取得した複数の画像を、分類部分検出部82に出力する。 The image acquisition unit 81 in FIG. 3 stores a plurality of management target images in a storage device or storage medium that is built in or externally connected to the tablet 10, a storage device in another computer connected to the tablet 10 via a network, Etc. Note that the image acquisition unit 81 is not limited to an image, and may acquire information (related information) associated with an image such as an image creation date. The image acquisition unit 81 outputs the acquired plurality of images to the classification part detection unit 82.
 分類部分検出部82は、複数の画像から、例えば複数の顔画像を検出する。顔画像は、各画像が有する部分の一例である。顔画像は、一つの画像に複数含まれることがあり、また一つの画像に一つも含まれないこともある。 The classification part detection unit 82 detects, for example, a plurality of face images from a plurality of images. The face image is an example of a part included in each image. A plurality of face images may be included in one image, and none may be included in one image.
 分類部分検出部82は、例えば、画像に含まれる複数の画素の画素値を用いて、当該画像内の、顔画像が含まれると推定される領域(顔画像領域)を検出する。この顔画像領域は、例えば、顔画像に外接する矩形領域である。分類部分検出部82は、検出された顔画像領域を示すデータを特徴量算出部83に出力する。 The classification part detection unit 82 detects, for example, an area (face image area) estimated to include a face image in the image using pixel values of a plurality of pixels included in the image. This face image area is, for example, a rectangular area that circumscribes the face image. The classification part detection unit 82 outputs data indicating the detected face image area to the feature amount calculation unit 83.
 特徴量算出部83は、検出された顔画像領域に含まれる画素の画素値を用いて、当該顔画像の特徴量(例えば、顔画像領域内の物体の色や形状を表す特徴量)を算出する。分類部分検出部82によって複数の画像から複数の顔画像が検出されている場合、特徴量算出部83は、それら複数の顔画像に対応する複数の特徴量を算出する。 The feature amount calculation unit 83 calculates the feature amount of the face image (for example, the feature amount representing the color or shape of the object in the face image region) using the pixel values of the pixels included in the detected face image region. To do. When a plurality of face images are detected from a plurality of images by the classified portion detection unit 82, the feature amount calculation unit 83 calculates a plurality of feature amounts corresponding to the plurality of face images.
 なお、画像の特徴量を抽出する手法としては、例えば、領域ベースエッジ画像認識技術に基づく特徴検出や、HOG(Histograms of Oriented Gradients)などの特徴量に基づく特徴検出などが挙げられる。これらの手法を用いることにより、特徴量算出部83は、例えばQRコード(登録商標)のような特殊な情報が付加されていない画像に対しても特徴量の検出を行うことができる。 Note that examples of the method for extracting the feature amount of the image include feature detection based on a region-based edge image recognition technique and feature detection based on a feature amount such as HOG (Histograms of Oriented Gradients). By using these methods, the feature amount calculation unit 83 can detect a feature amount even for an image to which special information such as a QR code (registered trademark) is not added.
 クラスタリング部84は、検出された複数の顔画像に基づいて、それら複数の顔画像を含む複数の画像(写真)を複数のグループ(クラスタ)に分類する。より具体的には、クラスタリング部84は、特徴量算出部83によって算出された顔画像の特徴量に基づいて、各々が顔画像を含む複数の画像(写真)をクラスタリングする。クラスタリング部84は、複数の顔画像を類似する顔画像毎に分類することによって、その顔画像を含む画像(写真)をグループ(例えば第1乃至第4のグループ31~34)に分類する。つまり、クラスタリング部84は、同一の人物の顔であると推定される顔画像含む画像(写真)を同一のグループに分類する。 The clustering unit 84 classifies a plurality of images (photos) including the plurality of face images into a plurality of groups (clusters) based on the detected plurality of face images. More specifically, the clustering unit 84 clusters a plurality of images (photos) each including a face image based on the feature amount of the face image calculated by the feature amount calculation unit 83. The clustering unit 84 classifies a plurality of face images into similar face images, thereby classifying images (photos) including the face images into groups (for example, first to fourth groups 31 to 34). That is, the clustering unit 84 classifies images (photographs) including face images estimated to be the same person's face into the same group.
 例えば、クラスタリング部84は、検出された複数の顔画像に基づいて、第1顔(第1の人物の顔)に対応する一以上の画像を第1のグループに分類し、第2顔(第2の人物の顔)に対応する一以上の画像を第2のグループに分類し、……第n顔(第nの人物の顔)に対応する一以上の画像を第nのグループに分類する。このように、クラスタリング部84は、複数の画像に含まれる顔写真の人物の数に応じた個数のグループを生成する。なお、クラスタリング部84は、分類を間違えたり、同一人物が存在しない顔画像を含む画像を「その他」グループに分類したりするため、複数の画像に含まれる顔写真の人物の数は生成されたグループの数と異なって良い。 For example, the clustering unit 84 classifies one or more images corresponding to the first face (the face of the first person) into the first group based on the detected plurality of face images, and the second face (the second face). Classify one or more images corresponding to the face of the second person) into the second group, and classify one or more images corresponding to the nth face (the face of the nth person) into the nth group. . As described above, the clustering unit 84 generates a number of groups corresponding to the number of persons of the facial photograph included in the plurality of images. Since the clustering unit 84 makes a mistake in classification or classifies images including face images in which the same person does not exist into the “other” group, the number of face photo persons included in the plurality of images is generated. May be different from the number of groups.
 複数の顔画像を含む一つの画像は、複数のグループに分類され得る。クラスタリング部84は、例えば、複数の画像の内の第1画像(写真)から、第1顔に対応する画像と第2顔に対応する画像とが検出された場合、この第1画像(写真)を、第1のグループと、第2のグループとの双方に分類する。また、クラスタリング部84は、複数の画像の内の第2画像(写真)から、第1顔に対応する画像、又は第2顔に対応する画像の少なくとも一方が検出された場合であっても、第1顔に対応する画像、又は第2顔に対応する画像の撮影状態によっては、第1のグループ、又は第2のグループに分類しなくても良い。この第1顔に対応する画像、又は第2顔に対応する画像の撮影状態とは、第1顔に対応する画像、又は第2顔に対応する画像の位置、又はフォーカス(例えば、顔に焦点が合っていて、鮮明であるかどうか)の少なくとも一方である。 One image including a plurality of face images can be classified into a plurality of groups. For example, when the image corresponding to the first face and the image corresponding to the second face are detected from the first image (photo) of the plurality of images, the clustering unit 84 detects the first image (photo). Are classified into both the first group and the second group. In addition, even when the clustering unit 84 detects at least one of the image corresponding to the first face or the image corresponding to the second face from the second image (photograph) of the plurality of images, Depending on the shooting state of the image corresponding to the first face or the image corresponding to the second face, it may not be classified into the first group or the second group. The shooting state of the image corresponding to the first face or the image corresponding to the second face is the position of the image corresponding to the first face or the image corresponding to the second face, or the focus (for example, the focus on the face). It is at least one of whether or not.
 また、画像を分類する手法としては、例えばK-means法や最短距離法などのデータクラスタリング手法が挙げられる。クラスタリング部84は、例えば、閾値(分類基準)を用いるこれらのデータクラスタリング手法によって画像を分類する。閾値は、第1分類基準及び第2分類基準の一例である。すなわち、クラスタリング部84は、顔画像の特徴量と閾値とに基づいて、画像を複数のグループに分類する。なお、データクラスタリング手法は、階層的手法であっても非階層的手法であっても良い。クラスタリング部84は、予め用意された人物毎の顔画像の特徴量を用いて、各グループに対応する人物を認識しても良い。 Also, as a method for classifying images, for example, a data clustering method such as a K-means method or a shortest distance method can be cited. The clustering unit 84 classifies images by these data clustering methods using threshold values (classification criteria), for example. The threshold value is an example of a first classification criterion and a second classification criterion. That is, the clustering unit 84 classifies the images into a plurality of groups based on the feature amount and threshold value of the face image. The data clustering method may be a hierarchical method or a non-hierarchical method. The clustering unit 84 may recognize the person corresponding to each group using the feature amount of the face image for each person prepared in advance.
 クラスタリング部84は、顔画像の特徴量のみでなく、例えば、画像取得部81が取得した関連情報を用いて画像を分類しても良い。例えば、関連情報として当該画像に写る人物の情報が設定されている場合、クラスタリング部84は、当該関連情報を用いて画像の分類を行って良い。 The clustering unit 84 may classify images using not only the feature amount of the face image but also related information acquired by the image acquisition unit 81, for example. For example, when information about a person appearing in the image is set as the related information, the clustering unit 84 may classify the image using the related information.
 図4に示すように、クラスタリング部84は、例えば、複数の画像を第1のグループ31と、第2のグループ32と、第3のグループ33と、第4のグループ34とに分類する。第1のグループ31は、第1グループの一例である。第3のグループ33は、第2グループの一例である。 As shown in FIG. 4, the clustering unit 84 classifies the plurality of images into, for example, a first group 31, a second group 32, a third group 33, and a fourth group 34. The first group 31 is an example of a first group. The third group 33 is an example of a second group.
 例えば、複数の顔画像41A,41B,41C,41D,41E,41F,41G,41Hを含む画像は、第1のグループ31に属する。すなわち、クラスタリング部84は、ある閾値を用いた分類においては、複数の顔画像41A~41Hを、同一の人物の顔を示す顔画像であると推定する。 For example, an image including a plurality of face images 41A, 41B, 41C, 41D, 41E, 41F, 41G, and 41H belongs to the first group 31. That is, in the classification using a certain threshold, the clustering unit 84 estimates that the plurality of face images 41A to 41H are face images indicating the face of the same person.
 複数の顔画像42A,42B,42C,42Dを含む画像は、第2のグループ32に属する。すなわち、クラスタリング部84は、ある閾値を用いた分類においては、複数の顔画像42A~42Dを、同一の人物の顔を示す顔画像であると推定する。 Images including a plurality of face images 42A, 42B, 42C, and 42D belong to the second group 32. That is, the clustering unit 84 estimates that the plurality of face images 42A to 42D are face images indicating the face of the same person in the classification using a certain threshold value.
 複数の顔画像43A,43Bを含む画像は、第3のグループ33に属する。すなわち、クラスタリング部84は、ある閾値を用いた分類においては、複数の顔画像43A,43Bを、同一の人物の顔を示す顔画像であると推定する。 The images including the plurality of face images 43A and 43B belong to the third group 33. That is, the clustering unit 84 estimates that the plurality of face images 43A and 43B are face images indicating the face of the same person in the classification using a certain threshold value.
 複数の顔画像44A,44B,44C,44D,44E,44F,44G,44H,44I,44Jを含む画像は、第4のグループ34に属する。第4のグループ34は「その他」のグループである。すなわち、クラスタリング部84は、ある閾値を用いた分類においては、複数の顔画像44A~44Jを、同一の人物の顔を示す顔画像が存在しないと推定する。 The images including a plurality of face images 44A, 44B, 44C, 44D, 44E, 44F, 44G, 44H, 44I, and 44J belong to the fourth group 34. The fourth group 34 is an “other” group. That is, the clustering unit 84 estimates that a plurality of face images 44A to 44J do not have face images showing the face of the same person in classification using a certain threshold value.
 表示制御部85は、クラスタリング部84による画像の分類結果に基づいて、図4のようにグループ毎に顔画像41A~41H,42A~42D,43A,43B,44A~44Jを画面30に表示する。言い換えると、表示制御部85は、顔画像のリストを画面30に表示する。なお、表示部85は、顔画像に限らず、例えば縮小された画像を画面30に表示しても良い。 The display control unit 85 displays the face images 41A to 41H, 42A to 42D, 43A, 43B, and 44A to 44J on the screen 30 for each group as shown in FIG. 4 based on the image classification result by the clustering unit 84. In other words, the display control unit 85 displays a list of face images on the screen 30. Note that the display unit 85 is not limited to a face image, and may display a reduced image on the screen 30, for example.
 表示制御部85は、第1のグループ31に属する複数の顔画像41A~41Hを集めて画面30に表示する。表示制御部85は、顔画像41A~41Hとともにサムネイル31Aを表示する。サムネイル31Aは、第1のグループ31に属する複数の顔画像41A~41Hを含む画像からランダムに選ばれる。 The display control unit 85 collects a plurality of face images 41A to 41H belonging to the first group 31 and displays them on the screen 30. The display control unit 85 displays the thumbnail 31A together with the face images 41A to 41H. The thumbnail 31A is randomly selected from images including a plurality of face images 41A to 41H belonging to the first group 31.
 表示制御部85は、第2のグループ32に属する複数の顔画像42A~42Dを集めて画面30に表示する。表示制御部85は、顔画像42A~42Dとともにサムネイル32Aを表示する。サムネイル32Aは、第2のグループ32に属する複数の顔画像42A~42Dを含む画像からランダムに選ばれる。 The display control unit 85 collects a plurality of face images 42A to 42D belonging to the second group 32 and displays them on the screen 30. The display control unit 85 displays the thumbnail 32A together with the face images 42A to 42D. The thumbnail 32A is randomly selected from images including a plurality of face images 42A to 42D belonging to the second group 32.
 表示制御部85は、第3のグループ33に属する複数の顔画像43A,43Bを集めて画面30に表示する。表示制御部85は、顔画像43A,43Bとともにサムネイル33Aを表示する。サムネイル33Aは、第3のグループ33に属する複数の顔画像43A,43Bを含む画像からランダムに選ばれる。 The display control unit 85 collects a plurality of face images 43A and 43B belonging to the third group 33 and displays them on the screen 30. The display control unit 85 displays the thumbnail 33A together with the face images 43A and 43B. The thumbnail 33A is randomly selected from images including a plurality of face images 43A and 43B belonging to the third group 33.
 表示制御部85は、第4のグループ34に属する複数の顔画像44A~44Jを集めて画面30に表示する。表示制御部85は、顔画像44A~44Jとともにサムネイル34Aを表示する。サムネイル34Aは、第4のグループ34に属する複数の顔画像44A~44Jを含む画像からランダムに選ばれる。 The display control unit 85 collects a plurality of face images 44A to 44J belonging to the fourth group 34 and displays them on the screen 30. The display control unit 85 displays the thumbnail 34A together with the face images 44A to 44J. The thumbnail 34A is randomly selected from images including a plurality of face images 44A to 44J belonging to the fourth group 34.
 以上のように、表示制御部85は、画像の一部である複数の顔画像をグループ毎に画面30に表示する。なお、クラスタリング部84は、同一の人物の顔を示す顔画像が存在しないと推定される複数の顔画像44A~44Jを、上述のように第4のグループ34に分類しても良いが、個別にグループに分類しても良い。この場合、一つの顔画像(個々の顔画像44A~44J)のみが属する複数のグループが生成される。すなわち、グループに属する画像は、一つであっても良いし、複数であっても良い。 As described above, the display control unit 85 displays a plurality of face images, which are part of the image, on the screen 30 for each group. The clustering unit 84 may classify the plurality of face images 44A to 44J that are estimated to have no face images showing the face of the same person into the fourth group 34 as described above. They may be classified into groups. In this case, a plurality of groups to which only one face image (individual face images 44A to 44J) belongs are generated. That is, the number of images belonging to the group may be one or plural.
 表示制御部85は、顔画像を階層表示しても良い。例えば、表示制御部85は、第1乃至第4のグループ31~34のサムネイル31A~34Aのみを画面30に表示し、ユーザがサムネイル31A~34Aをタッチ操作したときに各グループ31~34の顔画像を個別に表示しても良い。このように、表示制御部85が画面30に表示する画像の分類結果は、図4に示すものに限られない。 The display control unit 85 may hierarchically display the face image. For example, the display control unit 85 displays only the thumbnails 31A to 34A of the first to fourth groups 31 to 34 on the screen 30, and the face of each group 31 to 34 when the user touches the thumbnails 31A to 34A. Images may be displayed individually. Thus, the classification result of the image displayed on the screen 30 by the display control unit 85 is not limited to that shown in FIG.
 表示制御部85は、画面30の全体の表示についても行う。表示制御部85は、画面30に、プレビュー部51と、選択解除ボタン52と、グループ結合ボタン53と、グループ削除ボタン54と、グループ追加ボタン55と、再分類ボタン56とをさらに表示する。 The display control unit 85 also performs display of the entire screen 30. The display control unit 85 further displays a preview unit 51, a selection release button 52, a group join button 53, a group deletion button 54, a group addition button 55, and a reclassification button 56 on the screen 30.
 プレビュー部51は、例えば、複数の顔画像41A~41H,42A~42D,43A,43B,44A~44Jを含む画像からランダムに選ばれた画像の一部を拡大して表示する。 The preview unit 51 enlarges and displays a part of an image randomly selected from images including a plurality of face images 41A to 41H, 42A to 42D, 43A, 43B, 44A to 44J, for example.
 選択解除ボタン52、グループ結合ボタン53、グループ削除ボタン54、グループ追加ボタン55、及び再分類ボタン56は、画面30に表示されたボタン(グラフィカルオブジェクト)である。ユーザが選択解除ボタン52、グループ結合ボタン53、グループ削除ボタン54、グループ追加ボタン55、又は再分類ボタン56を操作したことに応じて、操作受付部86は、後述の種々の処理を行う。 The selection cancel button 52, the group join button 53, the group delete button 54, the group add button 55, and the reclassify button 56 are buttons (graphical objects) displayed on the screen 30. In response to the user operating the selection cancel button 52, the group combination button 53, the group deletion button 54, the group addition button 55, or the reclassification button 56, the operation reception unit 86 performs various processes described later.
 操作受付部86は、例えばユーザがタッチパネル17Bに指又はスタイラスペン(以下、指等と称する)で触れたり、指等を移動させたりすることで、タッチパネル17Bが検知した指等の挙動をタッチ操作、長押し操作、及び移動操作のような種々のイベントとして入力する。 The operation accepting unit 86 performs a touch operation on the behavior of the finger or the like detected by the touch panel 17B when the user touches the touch panel 17B with a finger or a stylus pen (hereinafter referred to as a finger or the like) or moves the finger or the like. , Input as various events such as a long press operation and a move operation.
 操作受付部86は、ユーザが行うグループや顔画像の上でタッチ操作、長押し操作、及び移動操作に応じて、例えば、顔画像及びグループの選択や、顔画像のグループ間での移動のような種々の処理を行う。 The operation accepting unit 86 selects, for example, a face image and a group, or moves a face image between groups according to a touch operation, a long press operation, and a movement operation performed on a group or a face image performed by a user. Various processes are performed.
 操作受付部86は、画面30におけるユーザの操作に応じて、複数の顔画像41A~41H,42A~42D,43A,43B,44A~44Jを含む画像を、第1乃至第4のグループ31~34の間で移動させる。例えば、画面30の顔画像43Aが表示された位置をユーザが指等で長押し操作し、当該指等を第1のグループ31が表示される位置へ移動させると、操作受付部86は、顔画像43Aを第1のグループ31に移動(再分類)させる。言い換えると、操作受付部86は、一つのグループに含まれる1以上の画像を、他のグループへ変更するための操作を受け付ける。なお、画像を移動するための操作はこれに限られない。 The operation receiving unit 86 displays images including a plurality of face images 41A to 41H, 42A to 42D, 43A, 43B, and 44A to 44J in accordance with a user operation on the screen 30, in the first to fourth groups 31 to 34. Move between. For example, when the user presses and holds the position where the face image 43A of the screen 30 is displayed with a finger or the like and moves the finger or the like to the position where the first group 31 is displayed, the operation reception unit 86 displays the face The image 43A is moved (reclassified) to the first group 31. In other words, the operation receiving unit 86 receives an operation for changing one or more images included in one group to another group. The operation for moving the image is not limited to this.
 また、操作受付部86は、例えば、ユーザが画面30のサムネイル31Aが表示された位置に触れると、第1のグループ31を選択された状態にする。また、操作受付部86は、例えば、ユーザが画面30の顔画像41Aが表示された位置で長押し操作をすると、顔画像41Aが選択された状態にする。他のグループ及び他の顔画像も、同様に選択される。表示制御部85は、選択された状態のグループ及び顔画像を、例えば選択枠61で囲んで示す。 Further, for example, when the user touches the position where the thumbnail 31A of the screen 30 is displayed, the operation reception unit 86 brings the first group 31 into a selected state. Further, for example, when the user performs a long press operation at a position where the face image 41A on the screen 30 is displayed, the operation reception unit 86 sets the face image 41A to the selected state. Other groups and other face images are selected in the same manner. The display control unit 85 shows the selected group and face image, for example, surrounded by a selection frame 61.
 ユーザが選択解除ボタン51を操作すると、操作受付部86は、ユーザの操作による顔画像及びグループの選択操作を解除する。選択解除ボタン52は、例えば、ユーザが画面30の選択解除ボタン52が表示された位置にタッチ(タップ)操作することにより操作される。選択解除ボタン52は、例えばマウスによるクリック操作によって操作されても良い。なお、グループ結合ボタン53、グループ削除ボタン54、グループ追加ボタン55、再分類ボタン56も、同様に操作される。 When the user operates the selection cancel button 51, the operation receiving unit 86 cancels the face image and group selection operation by the user's operation. The selection cancellation button 52 is operated, for example, when the user performs a touch (tap) operation on the position where the selection cancellation button 52 is displayed on the screen 30. The selection release button 52 may be operated by a click operation with a mouse, for example. The group join button 53, the group delete button 54, the group add button 55, and the reclassify button 56 are operated in the same manner.
 ユーザがグループ結合ボタン53を操作すると、操作受付部86は、選択された状態の複数のグループを結合する。言い換えると、操作受付部86は、選択された一つのグループに、選択された他の少なくとも一つのグループに属する画像を移動させる。例えば、図4のように第1のグループ31と第3のグループ33とが選択されている場合、操作受付部86は、第3のグループ33に属する顔画像43A,43Bを含む画像を、第1のグループ31に移動させる。 When the user operates the group combination button 53, the operation reception unit 86 combines a plurality of groups in the selected state. In other words, the operation reception unit 86 moves images belonging to at least one other selected group to one selected group. For example, when the first group 31 and the third group 33 are selected as shown in FIG. 4, the operation accepting unit 86 selects an image including the face images 43A and 43B belonging to the third group 33 as the first group 31 and the third group 33. 1 group 31 is moved.
 ユーザがグループ削除ボタン54を操作すると、操作受付部86は、選択された状態の少なくとも一つのグループを削除する。言い換えると、操作受付部86は、選択されたグループに属する画像を、「その他」のグループである第4のグループ34に移動させる。例えば、図4のように第1のグループ31と第3のグループ33とが選択されている場合、操作受付部86は、第1のグループ31及び第3のグループ33に属する顔画像41A~41H,43A,43Bを、第4のグループ34に移動させる。 When the user operates the group deletion button 54, the operation reception unit 86 deletes at least one group in the selected state. In other words, the operation reception unit 86 moves the images belonging to the selected group to the fourth group 34 that is the “others” group. For example, when the first group 31 and the third group 33 are selected as shown in FIG. 4, the operation accepting unit 86 displays the face images 41A to 41H belonging to the first group 31 and the third group 33. , 43A, 43B are moved to the fourth group 34.
 ユーザがグループ追加ボタン55を操作すると、操作受付部86は、画像を含まない(ブランクの)新たなグループを追加する。ユーザは、追加されたグループに顔画像を移動させることができる。例えば、クラスタリング部84が一つのグループに誤って二人の人物の画像を分類した場合、ユーザは、新たなグループを追加し、当該新たなグループに一方の人物の画像を移動させることができる。 When the user operates the group addition button 55, the operation reception unit 86 adds a new group (blank) that does not include an image. The user can move the face image to the added group. For example, when the clustering unit 84 mistakenly classifies two person images into one group, the user can add a new group and move the image of one person to the new group.
 再分類ボタン56が操作されると、操作受付部86は、クラスタリング部84に複数の画像を再度分類させる。そして、表示制御部85は、新たな分類結果を画面30に表示する。画像の再分類については後述する。 When the reclassify button 56 is operated, the operation accepting unit 86 causes the clustering unit 84 to classify a plurality of images again. Then, the display control unit 85 displays a new classification result on the screen 30. The image reclassification will be described later.
 以上のように、操作受付部86は、画像の移動、複数のグループの結合、グループの削除、グループの追加などを行う。このように、操作受付部86は、ユーザによる複数のグループ間での画像の移動操作を受け付ける。操作受付部86は、これに限らず、ユーザによる種々の操作を受け付ける。 As described above, the operation accepting unit 86 moves an image, joins a plurality of groups, deletes a group, adds a group, and the like. As described above, the operation receiving unit 86 receives an image moving operation between a plurality of groups by the user. The operation reception unit 86 is not limited to this, and receives various operations by the user.
 閾値算出部87は、ユーザによる複数のグループ間での画像の移動操作の結果に基づき、クラスタリング部84が使用する分類のための閾値を算出する。本実施形態において、クラスタリング部84は、グループ毎に設定された複数の閾値を用いて分類を行う。このため、閾値算出部87は、複数の閾値を個別に算出する。なお、クラスタリング部84は、一つの閾値を用いて全ての顔画像を分類しても良い。この場合、閾値算出部87は、当該閾値を算出する。 The threshold calculation unit 87 calculates a threshold for classification used by the clustering unit 84 based on the result of the operation of moving the image between the plurality of groups by the user. In the present embodiment, the clustering unit 84 performs classification using a plurality of threshold values set for each group. For this reason, the threshold value calculation part 87 calculates a some threshold value separately. Note that the clustering unit 84 may classify all face images using one threshold value. In this case, the threshold calculation unit 87 calculates the threshold.
 以下、具体例を挙げて説明する。例えば、ユーザが第1のグループ31と第3のグループ33との結合操作を行うことで、顔画像43A,43Bが第1のグループ31に移動する。 Hereinafter, a specific example will be described. For example, the face images 43 </ b> A and 43 </ b> B move to the first group 31 when the user performs a combining operation of the first group 31 and the third group 33.
 このような操作がされると、閾値算出部87は、クラスタリング部84が顔画像43A,43Bを第1のグループ31に分類するような閾値を算出する。閾値算出部87は、第1のグループ31に関する個別の閾値である第1の閾値を算出する。第1の閾値は、第1分類基準の一例である。 When such an operation is performed, the threshold value calculation unit 87 calculates a threshold value such that the clustering unit 84 classifies the face images 43A and 43B into the first group 31. The threshold calculation unit 87 calculates a first threshold that is an individual threshold for the first group 31. The first threshold is an example of a first classification criterion.
 また、閾値算出部87は、クラスタリング部84が顔画像43A,43Bを第3のグループ33から外すような閾値を算出する。閾値算出部87は、例えば、第3のグループ33に関する個別の閾値である第3の閾値を算出する。第3の閾値は、第2分類基準の一例であり、第1の閾値とは異なる。 Further, the threshold value calculation unit 87 calculates a threshold value that causes the clustering unit 84 to remove the face images 43A and 43B from the third group 33. The threshold calculation unit 87 calculates, for example, a third threshold that is an individual threshold for the third group 33. The third threshold is an example of the second classification criterion, and is different from the first threshold.
 閾値算出部87は、算出した閾値をクラスタリング部84に出力する。クラスタリング部84は、既存の閾値を、閾値算出部87から取得した新たな閾値に変更する。言い換えると、クラスタリング部84は、閾値算出部87から取得した閾値を記憶することで、クラスタリングに使用する閾値を更新する。 The threshold value calculation unit 87 outputs the calculated threshold value to the clustering unit 84. The clustering unit 84 changes the existing threshold value to a new threshold value acquired from the threshold value calculation unit 87. In other words, the clustering unit 84 updates the threshold used for clustering by storing the threshold acquired from the threshold calculation unit 87.
 別の表現をすれば、閾値算出部87は、第3のグループ33から第1のグループ31に変更になった顔画像43A,43Bを用いて、新たな第1の閾値及び第3の閾値を算出する。クラスタリング部84は、第1の閾値と第3の閾値とを、閾値算出部87が算出した新たな第1の閾値及び第3の閾値に変更する。 In other words, the threshold value calculation unit 87 uses the face images 43A and 43B changed from the third group 33 to the first group 31 to calculate new first threshold values and third threshold values. calculate. The clustering unit 84 changes the first threshold value and the third threshold value to the new first threshold value and third threshold value calculated by the threshold value calculation unit 87.
 クラスタリング部84は、ユーザが再分類ボタン56を操作すると、画像の再分類を行う。すなわち、クラスタリング部84は、顔画像の特徴量と、ユーザの移動操作が反映された変更後の閾値(第1の閾値や第3の閾値)と、に基づいて画像を複数のグループに再分類する。 The clustering unit 84 performs image reclassification when the user operates the reclassification button 56. That is, the clustering unit 84 reclassifies the images into a plurality of groups based on the feature amount of the face image and the changed threshold value (first threshold value or third threshold value) reflecting the user's movement operation. To do.
 表示制御部85は、クラスタリング部84が画像を複数のグループに再分類すると、クラスタリング部84による画像の分類結果に基づいて、グループ毎に顔画像を画面30に表示する。すなわち、表示制御部85は、変更された閾値に基づいて分類されたグループ毎に、顔画像を画面30に表示する。 When the clustering unit 84 reclassifies the images into a plurality of groups, the display control unit 85 displays the face image for each group on the screen 30 based on the image classification result by the clustering unit 84. That is, the display control unit 85 displays a face image on the screen 30 for each group classified based on the changed threshold value.
 次いで、図5のフローチャートを参照して、タブレット10によって実行される画像クラスタリング処理の手順の例を説明する。図5は、タブレット10における画像クラスタリング処理の手順の一部を例示するフローチャートである。 Next, an example of the procedure of the image clustering process executed by the tablet 10 will be described with reference to the flowchart of FIG. FIG. 5 is a flowchart illustrating a part of the procedure of the image clustering process in the tablet 10.
 まず、画像取得部81が、複数の画像(複数の写真)を取得する(ステップS11)。分類部分検出部82は、複数の画像の各々に含まれている顔画像を検出する(ステップS12)。 First, the image acquisition unit 81 acquires a plurality of images (a plurality of photos) (step S11). The classification part detection unit 82 detects a face image included in each of the plurality of images (step S12).
 次に、特徴量算出部83は、検出された顔画像に含まれる画素の画素値を用いて、当該顔画像の特徴量を算出する(ステップS13)。特徴量算出部83は、分類部分検出部82によって複数の画像から複数の顔画像が検出されている場合、それら複数の顔画像に対応する複数の特徴量を算出する。 Next, the feature amount calculation unit 83 calculates the feature amount of the face image using the pixel values of the pixels included in the detected face image (step S13). The feature amount calculation unit 83 calculates a plurality of feature amounts corresponding to the plurality of face images when the classification portion detection unit 82 detects a plurality of face images from the plurality of images.
 次に、クラスタリング部84は、算出された顔画像の特徴量と、閾値と、に基づいて、複数の顔画像をクラスタリングする(ステップS14)。なお、クラスタリング部84は、最初のクラスタリングにおいて、例えば予め設定された閾値を用いる。クラスタリング部84は、複数の顔画像を、類似する顔画像毎のクラスタ(グループ)に分類する、つまり、クラスタリング部84は、同一の人物の顔であると推定される顔画像を同一のクラスタに分類する。クラスタリング部84は、例えば主メモリ103に分類結果を記憶する。 Next, the clustering unit 84 clusters a plurality of face images based on the calculated feature amount of the face image and the threshold value (step S14). Note that the clustering unit 84 uses, for example, a preset threshold value in the initial clustering. The clustering unit 84 classifies the plurality of face images into clusters (groups) for similar face images. That is, the clustering unit 84 classifies face images estimated to be the same person's face into the same cluster. Classify. The clustering unit 84 stores the classification result in the main memory 103, for example.
 次に、表示制御部85は、分類結果に基づき、グループ毎に顔画像を画面30に表示する(ステップS15)。表示制御部85が分類結果を画面30に表示すると、操作受付部86は、複数のグループ間での画像の移動操作を受け付け可能な状態に移行する。そして、操作受付部86は、ユーザによる複数のグループ間での画像の移動操作があったか否かを判断する(ステップS16)。 Next, the display control unit 85 displays a face image for each group on the screen 30 based on the classification result (step S15). When the display control unit 85 displays the classification result on the screen 30, the operation receiving unit 86 shifts to a state in which an image moving operation between a plurality of groups can be received. Then, the operation receiving unit 86 determines whether or not the user has performed an image moving operation between a plurality of groups (step S16).
 例えば、第1のグループ31に分類された顔画像41A~41Hが示す人物と、第3のグループ33に分類された顔画像43A,43Bが示す人物と、が同一人物であった場合、ユーザは、第1のグループ31と第3のグループ33とを選択する。ユーザは、グループ結合ボタン53を操作することで、第1のグループ31と第3のグループ33とを結合する。これにより、第3のグループ33の顔画像43A,43Bが第1のグループ31に移動し(変更され)、同一人物を示す顔画像41A~41H,41A,41Bが第1のグループ31に纏まる。 For example, when the person indicated by the face images 41A to 41H classified in the first group 31 and the person indicated by the face images 43A and 43B classified in the third group 33 are the same person, the user The first group 31 and the third group 33 are selected. The user operates the group combination button 53 to combine the first group 31 and the third group 33. As a result, the face images 43A and 43B of the third group 33 are moved (changed) to the first group 31, and the face images 41A to 41H, 41A, and 41B indicating the same person are collected in the first group 31.
 例えば上記のような画像の移動操作がされると(ステップS16:Yes)、閾値算出部87は、ユーザによる複数のグループ間での画像の移動操作の結果に基づき、新たな閾値(第1の閾値や第3の閾値)を算出する。クラスタリング部84は、クラスタリングに用いる閾値を、閾値算出部87が算出した新たな閾値に変更する(ステップS17)。 For example, when the image movement operation as described above is performed (step S16: Yes), the threshold value calculation unit 87 creates a new threshold value (first value) based on the result of the image movement operation between the plurality of groups by the user. Threshold value or third threshold value). The clustering unit 84 changes the threshold used for clustering to the new threshold calculated by the threshold calculation unit 87 (step S17).
 次に、操作受付部86は、ユーザが再分類ボタン56を操作したか否かを判断する(ステップS18)。ユーザが再分類ボタン56を操作せず(ステップS18:No)、画像管理プログラム202を終了しない場合(ステップS19:No)、操作受付部86は、画像の移動操作の受け付けを続ける(ステップS16)。閾値算出部87は、ユーザによる複数のグループ間での画像の移動操作がされる度に(ステップS16:Yes)、新たな閾値を算出する(ステップS17)。 Next, the operation reception unit 86 determines whether or not the user has operated the reclassification button 56 (step S18). When the user does not operate the reclassification button 56 (step S18: No) and does not end the image management program 202 (step S19: No), the operation reception unit 86 continues to receive the image movement operation (step S16). . The threshold value calculation unit 87 calculates a new threshold value (step S17) each time the user performs an operation of moving an image between a plurality of groups (step S16: Yes).
 画像の移動操作の後に、ユーザが再分類ボタン56を操作した場合(ステップS18:Yes)、クラスタリング部84は、顔画像の特徴量と、変更された閾値とに基づいて、複数の顔画像をクラスタリング(再分類)する(ステップS14)。表示制御部85は、再分類の結果に基づき、グループ毎に顔画像を画面30に表示する(ステップS15)。 When the user operates the reclassification button 56 after the image movement operation (step S18: Yes), the clustering unit 84 selects a plurality of face images based on the feature amount of the face image and the changed threshold value. Clustering (reclassification) is performed (step S14). The display control unit 85 displays a face image for each group on the screen 30 based on the reclassification result (step S15).
 図6は、画像の再分類がされた後の、LCD17Aに表示される画面30を示す図である。ユーザによって顔画像43A,43Bが第1のグループ31に移動させられると、当該移動操作の結果に基づいて、閾値算出部87が新たな閾値を算出する。クラスタリング部84は、当該閾値を用いて画像の分類を行うため、顔画像43A,43Bを第1のグループ31に分類し、第3のグループ33から外す。顔画像43A,43Bが第3のグループ33から外れるため、クラスタリング部84は、第3のグループ33を削除する(生成しない)。 FIG. 6 is a diagram showing a screen 30 displayed on the LCD 17A after the image is reclassified. When the face images 43A and 43B are moved to the first group 31 by the user, the threshold value calculation unit 87 calculates a new threshold value based on the result of the movement operation. The clustering unit 84 classifies the face images 43 </ b> A and 43 </ b> B into the first group 31 and removes them from the third group 33 in order to classify the images using the threshold values. Since the face images 43A and 43B are out of the third group 33, the clustering unit 84 deletes (does not generate) the third group 33.
 新たな閾値を用いて画像の分類を行うクラスタリング部84は、第4のグループ34に属していた顔画像44A,44Eを、新たな第5のグループ35に分類し、第4のグループ34から外す。このように、クラスタリング部84は、閾値算出部87が算出した新たな閾値を用いることで、ユーザによる複数のグループ間での移動操作が行われなかった画像を、複数のグループ間で移動させることがある。すなわち、クラスタリング部84は、変更された閾値に従って、ユーザによって移動させられた画像以外の画像についても自動的に再分類する。表示制御部85は、第5のグループ35の顔画像44A,44Eとともに、サムネイル35Aを表示する。 The clustering unit 84 that classifies images using the new threshold classifies the face images 44A and 44E belonging to the fourth group 34 into the new fifth group 35 and removes it from the fourth group 34. . In this way, the clustering unit 84 uses the new threshold value calculated by the threshold value calculation unit 87 to move an image that has not been moved by the user between the plurality of groups, between the plurality of groups. There is. That is, the clustering unit 84 automatically reclassifies images other than the image moved by the user according to the changed threshold value. The display control unit 85 displays the thumbnail 35A together with the face images 44A and 44E of the fifth group 35.
 表示制御部85は、枠62を表示することで、閾値が変更される前の画像の分類結果と、閾値が変更された後の画像の分類結果と、が異なる部分(変更部分)を示す。例えば、クラスタリング部84は、主メモリ103に記憶された閾値変更前の画像の分類結果を、閾値変更後の画像の分類結果と比較し、変更部分を得る。クラスタリング部84は、変更部分を表示制御部85に通知する。表示制御部85は、変更部分(図6における第1のグループ31、第4のグループ34、及び第5のグループ35)をそれぞれ囲む枠62を画面30に表示し、変更部分を示す。 The display control unit 85 displays the frame 62 to indicate a portion (change portion) where the image classification result before the threshold is changed and the image classification result after the threshold is changed are different. For example, the clustering unit 84 compares the classification result of the image before the threshold change stored in the main memory 103 with the classification result of the image after the threshold change, and obtains a changed portion. The clustering unit 84 notifies the display control unit 85 of the changed part. The display control unit 85 displays a frame 62 that surrounds the changed portion (the first group 31, the fourth group 34, and the fifth group 35 in FIG. 6) on the screen 30 to indicate the changed portion.
 図7は、画像の再分類がされた後の、LCD17Aに表示される画面30の他の例を示す図である。図7を参照して、再分類の他の例について説明する。図7の例において、例えば、ユーザは、第3のグループ33に属する顔画像43Aを、第1のグループ31に移動させる。言い換えると、顔画像43Aが、第1のグループ31に変更される。顔画像43Aは、第2画像の一例である。 FIG. 7 is a diagram showing another example of the screen 30 displayed on the LCD 17A after the image is reclassified. With reference to FIG. 7, another example of reclassification will be described. In the example of FIG. 7, for example, the user moves the face image 43 </ b> A belonging to the third group 33 to the first group 31. In other words, the face image 43 </ b> A is changed to the first group 31. The face image 43A is an example of a second image.
 ユーザによって顔画像43Aが第1のグループ31に移動させられると、当該移動操作の結果(顔画像43Aの第1のグループ31への変更)に基づいて、閾値算出部87が新たな閾値(第1の閾値や第3の閾値)を算出する。クラスタリング84部は、当該閾値を用いて画像の再分類を行う。 When the face image 43A is moved to the first group 31 by the user, based on the result of the movement operation (change of the face image 43A to the first group 31), the threshold value calculation unit 87 sets a new threshold value (first value). 1 threshold or third threshold). The clustering unit 84 performs image reclassification using the threshold value.
 クラスタリング部84は、変更された第1の閾値及び第3の閾値に基づき、顔画像43Aを第1のグループ31に分類し、第3のグループ33から外す。さらに、クラスタリング部84は、変更された第1の閾値に基づき、顔画像43Bについても第1のグループ31に自動的に再分類する。顔画像43Bは、第3画像の一例である。このように、第1のグループ31に分類するための基準(第1分類基準)が変更されることで、クラスタリング部84は、特徴が当該基準に対応する顔画像43Bを第1のグループ31に自動的に再分類する。 The clustering unit 84 classifies the face image 43A into the first group 31 and removes it from the third group 33 based on the changed first threshold value and third threshold value. Further, the clustering unit 84 automatically reclassifies the face image 43B into the first group 31 based on the changed first threshold value. The face image 43B is an example of a third image. In this way, by changing the standard for classifying into the first group 31 (first classification standard), the clustering unit 84 assigns the face image 43B whose feature corresponds to the standard to the first group 31. Reclassify automatically.
 クラスタリング部84は、変更された第3の閾値に基づき、顔画像41A,41Bを、第3のグループ33に自動的に再分類する。顔画像41A,41Bは、第4画像の一例である。このように、第3のグループ33に分類するための基準(第2分類基準)が変更されることで、クラスタリング部84は、特徴が当該基準に対応する顔画像41A,41Bを第3のグループ33に自動的に再分類する。 The clustering unit 84 automatically reclassifies the face images 41A and 41B into the third group 33 based on the changed third threshold value. The face images 41A and 41B are examples of fourth images. In this way, by changing the standard for classifying into the third group 33 (second classification standard), the clustering unit 84 causes the face images 41A and 41B whose features correspond to the standard to be the third group. Reclassify to 33 automatically.
 図7の例において、表示制御部85は、第1のグループ31に変更された顔画像43A,43Bと、第3のグループ33に変更された顔画像41A,41Bと、をそれぞれ囲む枠62を表示する。言い換えると、表示制御部85は、過去に第3のグループ33に分類されているとともに第1のグループ31に変更された顔画像43A,43Bを、枠62によって識別可能に表示する。同じく、表示制御部85は、過去に第1のグループ31に分類されているとともに第3のグループ33に変更された顔画像41A,41Bを、枠62によって識別可能に表示する。なお、表示制御部85は、枠62に限らず、例えば顔画像やグループをハイライト表示したり、拡大したり、明るくしたり、色を変えたりすることで、変更部分を識別可能に表示しても良い。 In the example of FIG. 7, the display control unit 85 includes a frame 62 that surrounds the face images 43 </ b> A and 43 </ b> B changed to the first group 31 and the face images 41 </ b> A and 41 </ b> B changed to the third group 33. indicate. In other words, the display control unit 85 displays the face images 43A and 43B that have been classified into the third group 33 and changed to the first group 31 in the past so that they can be identified by the frame 62. Similarly, the display control unit 85 displays the face images 41A and 41B that have been classified into the first group 31 and changed to the third group 33 in the past so that they can be identified by the frame 62. Note that the display control unit 85 displays not only the frame 62 but also, for example, by highlighting, enlarging, brightening, or changing the color of a face image or group so that the changed portion can be identified. May be.
 以上述べたように、画像管理プログラム202は、画像の移動操作の受け付け(ステップS16)、閾値の変更(ステップS17)、再分類ボタン56の操作の受付(ステップS18)、変更された閾値に基づく画像の再分類(ステップS14)、及び再分類結果の表示(ステップS15)を、画像管理プログラム202の終了操作があるまで(ステップS19:Yes)続ける。画像管理プログラム202は、例えば、タブレット10が実行する種々のアプリケーションプログラムと同様に、所定のボタンが操作されることで終了する。 As described above, the image management program 202 receives the image movement operation (step S16), changes the threshold value (step S17), receives the operation of the reclassification button 56 (step S18), and is based on the changed threshold value. The image reclassification (step S14) and the reclassification result display (step S15) are continued until the image management program 202 is terminated (step S19: Yes). The image management program 202 ends when a predetermined button is operated, for example, similarly to various application programs executed by the tablet 10.
 なお、上記処理では、ユーザによるグループ間での画像の移動操作があった場合に(ステップS16:Yes)、閾値算出部87が新たな閾値を算出する(ステップS17)。しかし、再分類ボタン56が操作された場合に(ステップS18:Yes)、閾値算出部87が新たな閾値を算出しても良い。 In the above process, when there is an image moving operation between groups by the user (step S16: Yes), the threshold value calculation unit 87 calculates a new threshold value (step S17). However, when the reclassification button 56 is operated (step S18: Yes), the threshold value calculation unit 87 may calculate a new threshold value.
 また、上記処理では、ユーザが再分類ボタン56を操作した場合に(ステップS18:Yes)、クラスタリング部84が画像を再分類する(ステップS14)。しかし、閾値が変更された場合に(ステップS17)、ユーザの操作を待たずにクラスタリング部84が画像を自動的に再分類しても良い。 In the above process, when the user operates the reclassification button 56 (step S18: Yes), the clustering unit 84 reclassifies the image (step S14). However, when the threshold is changed (step S17), the clustering unit 84 may automatically reclassify the image without waiting for a user operation.
 以上の説明は、画像管理プログラム202が顔画像に基づいて画像を分類する場合について述べるものである。しかし、画像管理プログラム202は、これに限らず、画像に含まれる物に基づいて画像を複数のグループに分類しても良い。 The above description describes the case where the image management program 202 classifies images based on face images. However, the image management program 202 is not limited to this, and the images may be classified into a plurality of groups based on objects included in the images.
 例えば、画像管理プログラム202は、画像(写真)に写る果物や野菜毎に、画像を分類する。この場合、画像の果物又は野菜が写っている部分が、各画像が有する部分の一例である。分類部分検出部82は、複数の画像から、果物又は野菜が写っている部分を検出する。そして、クラスタリング部84は、画像の果物又は野菜が写っている部分と、閾値とに基づいて、画像を果物又は野菜毎に設定された複数のグループに分類する。 For example, the image management program 202 classifies the image for each fruit or vegetable that appears in the image (photograph). In this case, the part in which the fruit or vegetable of an image is reflected is an example of the part which each image has. The classification part detection unit 82 detects a part in which fruits or vegetables are reflected from a plurality of images. Then, the clustering unit 84 classifies the images into a plurality of groups set for each fruit or vegetable based on the portion of the image in which the fruit or vegetable is reflected and the threshold value.
 なお、図5のフローチャートで説明した本実施形態の処理手順は全てソフトウェアによって実行することができる。このため、この処理手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。 Note that all the processing procedures of this embodiment described in the flowchart of FIG. 5 can be executed by software. For this reason, the same effect as this embodiment can be easily realized only by installing and executing this program on a normal computer through a computer-readable storage medium storing the program for executing this processing procedure. .
 上記実施の形態に係るタブレット10において、閾値算出部87は、ユーザによる複数のグループ間での画像の移動操作の結果に基づき、画像を複数のグループに分類するための閾値を算出する。クラスタリング部84は、クラスタリングに用いる閾値を、算出された新たな閾値に変更する。これにより、ユーザが閾値を手動で変更することなく、ユーザによる画像の移動操作に基づいて自動的に閾値が変更されるため、よりユーザの希望に近い閾値が容易に得られる。 In the tablet 10 according to the above-described embodiment, the threshold value calculation unit 87 calculates a threshold value for classifying images into a plurality of groups based on a result of an image moving operation between a plurality of groups by the user. The clustering unit 84 changes the threshold used for clustering to the calculated new threshold. Accordingly, the threshold value is automatically changed based on the image moving operation by the user without the user manually changing the threshold value, so that a threshold value closer to the user's desire can be easily obtained.
 クラスタリング部84は、変更された閾値に基づいて画像を複数のグループに分類する。すなわち、ユーザによる画像の移動操作が行われた場合に、当該移動操作に基づいて変更された閾値に基づき画像の再分類が行われる。このため、ユーザが閾値の変更による分類結果への影響を理解するため不要な画像の再分類を行う必要が無く、ユーザの希望に近い分類結果がより早く得られる。 The clustering unit 84 classifies the images into a plurality of groups based on the changed threshold value. That is, when an image moving operation is performed by the user, the image is reclassified based on the threshold value changed based on the moving operation. For this reason, it is not necessary for the user to reclassify unnecessary images in order to understand the effect on the classification result due to the change of the threshold value, and a classification result close to the user's desire can be obtained earlier.
 表示制御部85は、閾値が変更される前の画像の分類結果と、閾値が変更された後の画像の分類結果と、が異なる部分を、例えば枠62によってLCD17A上の画面30に示す。このように、クラスタリング部84による分類結果がユーザに提示されることで、ユーザが希望に近い分類結果をより容易に得ることができる。 The display control unit 85 shows a portion where the image classification result before the threshold is changed and the image classification result after the threshold is changed are displayed on the screen 30 on the LCD 17A by a frame 62, for example. Thus, the classification result by the clustering unit 84 is presented to the user, so that the classification result close to the user's desire can be obtained more easily.
 閾値算出部87は、例えば顔画像43A,43Bが第1のグループ31に移動させられると、顔画像43A,43Bが第1のグループ31に分類されるように第1の閾値を変更する。これにより、閾値の変更後に画像が再分類された場合に、ユーザによって第1のグループ31に移動させられたはずの顔画像43A,43Bが、第1のグループから外れることが抑制される。 The threshold value calculation unit 87 changes the first threshold value so that the face images 43A and 43B are classified into the first group 31 when the face images 43A and 43B are moved to the first group 31, for example. Thereby, when the image is reclassified after the threshold value is changed, the face images 43A and 43B that should have been moved to the first group 31 by the user are prevented from being removed from the first group.
 閾値算出部87は、例えば顔画像43A,43Bが第3のグループ33から移動させられると、顔画像43A,43Bが第3のグループ33から外れるように第3の閾値を変更する。これにより、閾値の変更後に画像が再分類された場合に、ユーザによって第3のグループ33から移動させられたはずの顔画像43A,43Bが、再び第3のグループ33に分類されることが抑制される。 The threshold value calculation unit 87 changes the third threshold value so that the face images 43A and 43B are removed from the third group 33 when the face images 43A and 43B are moved from the third group 33, for example. Thereby, when the image is reclassified after the change of the threshold, the face images 43A and 43B that should have been moved from the third group 33 by the user are prevented from being classified again into the third group 33. Is done.
 なお、本実施形態のタブレット10で実行される画像管理プログラム202は、ROM等に予め組み込まれて提供される。 Note that the image management program 202 executed by the tablet 10 of this embodiment is provided by being incorporated in advance in a ROM or the like.
 本実施形態のタブレット10で実行される画像管理プログラム202は、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。 The image management program 202 executed by the tablet 10 of the present embodiment is an installable or executable file, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. You may comprise so that it may record and provide on a computer-readable recording medium.
 さらに、本実施形態のタブレット10で実行される画像管理プログラム202を、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態のタブレット10で実行される画像管理プログラム202をインターネット等のネットワーク経由で提供又は配布するように構成しても良い。 Further, the image management program 202 executed by the tablet 10 of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the image management program 202 executed by the tablet 10 of this embodiment may be provided or distributed via a network such as the Internet.
 本実施形態のタブレット10で実行される画像管理プログラム202は、上述した各部(画像取得部81、分類部分検出部82、特徴量算出部83、クラスタリング部84、表示制御部85、操作受付部86、及び閾値算出部87)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像管理プログラム202を読み出して実行することにより上記各部が主記憶装置上にロードされ、画像取得部81、分類部分検出部82、特徴算出部83、クラスタリング部84、表示制御部85、操作受付部86、及び閾値算出部87が主記憶装置上に生成されるようになっている。 The image management program 202 executed by the tablet 10 of the present embodiment includes the above-described units (image acquisition unit 81, classification part detection unit 82, feature amount calculation unit 83, clustering unit 84, display control unit 85, and operation reception unit 86. And a threshold calculation unit 87). As actual hardware, the CPU (processor) reads out and executes the image management program 202 from the ROM, and the respective units are loaded on the main storage device. Then, an image acquisition unit 81, a classification part detection unit 82, a feature calculation unit 83, a clustering unit 84, a display control unit 85, an operation reception unit 86, and a threshold calculation unit 87 are generated on the main storage device. Yes.
 以上説明した少なくとも一つの実施形態によれば、プロセッサは、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する。これにより、ユーザが分類基準を手動で変更することなく、ユーザによる画像のグループを変更する操作に基づいて自動的に分類基準が変更されるため、よりユーザの希望に近い分類基準を容易に得られる。 According to at least one embodiment described above, the processor changes at least the first classification criterion by using one or more second images changed from the second group to the first group. As a result, the classification standard is automatically changed based on the user's operation to change the group of images without manually changing the classification standard, so that a classification standard closer to the user's wish can be easily obtained. It is done.
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

Claims (9)

  1.  各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類するプロセッサと、
     前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示するための表示制御部と、
     前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付ける受け付け部と、を備え、
     前記プロセッサは、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する、
     電子機器。
    A plurality of first images whose features of each image have a first classification criterion are classified into a first group, and a feature of each image has a second classification criterion different from the first classification criterion. A processor for classifying a plurality of second images into a second group;
    A display control unit for displaying a plurality of first images included in the first group and a plurality of second images included in the second group on a display;
    A receiving unit that receives a first operation for changing one or more second images included in the second group to the first group;
    The processor changes at least the first classification criterion by using one or more second images changed from the second group to the first group;
    Electronics.
  2.  前記プロセッサは、前記第1操作を受け付けた後、各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類する、請求項1の電子機器。 The processor, after accepting the first operation, automatically reclassifies a plurality of third images corresponding to the first classification standard after the feature of each image has changed into a first group. 1 electronic equipment.
  3.  前記プロセッサは、前記第1操作を受け付けた後、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準と前記第2分類基準との双方を変更し、
     各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類し、
     各画像が有する部分の特徴が変更後の第2分類基準に対応する複数の第4画像を第2グループに自動的に再分類し、
     前記表示制御部は、前記複数の第3画像のうち、過去に前記第2グループに分類されていた画像と、前記複数の第4画像のうち、過去に前記第1グループに分類されていた画像とを識別可能に表示する、請求項1の電子機器。
    The processor uses the one or more second images changed from the second group to the first group after accepting the first operation, and uses the first classification criterion and the second classification criterion. Change both sides,
    Automatically reclassifying a plurality of third images corresponding to the first classification criteria after the change in the characteristics of the portion of each image into the first group;
    Automatically reclassifying a plurality of fourth images corresponding to the second classification criteria after the change in the characteristics of the portion of each image into the second group;
    The display control unit includes an image previously classified into the second group among the plurality of third images, and an image previously classified into the first group among the plurality of fourth images. The electronic device according to claim 1, which is displayed in an identifiable manner.
  4.  各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、
     各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類し、
     前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示し、
     前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付け、
     前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する、
     ことを含む方法。
    Classifying a plurality of first images whose features of each image have corresponding to the first classification criterion into a first group;
    Classifying a plurality of second images corresponding to a second classification criterion that is different from the first classification criterion in a portion of each image into a second group;
    Displaying a plurality of first images included in the first group and a plurality of second images included in the second group on a display;
    Receiving a first operation for changing one or more second images included in the second group to the first group;
    Using at least one second image changed from the second group to the first group, and at least changing the first classification criterion;
    A method involving that.
  5.  前記第1操作を受け付けた後、各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類する、ことをさらに含む請求項4の方法。 The method further comprises: after receiving the first operation, automatically reclassifying a plurality of third images corresponding to the changed first classification criterion into a first group, in a feature of each image. Method 4.
  6.  前記第1操作を受け付けた後、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準と前記第2分類基準との双方を変更し、
     各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類し、
     各画像が有する部分の特徴が変更後の第2分類基準に対応する複数の第4画像を第2グループに自動的に再分類し、
     前記複数の第3画像のうち、過去に前記第2グループに分類されていた画像と、前記複数の第4画像のうち、過去に前記第1グループに分類されていた画像とを識別可能に表示する、
     ことをさらに含む請求項4の方法。
    After accepting the first operation, both the first classification criterion and the second classification criterion are changed using one or more second images changed from the second group to the first group. ,
    Automatically reclassifying a plurality of third images corresponding to the first classification criteria after the change in the characteristics of the portion of each image into the first group;
    Automatically reclassifying a plurality of fourth images corresponding to the second classification criteria after the change in the characteristics of the portion of each image into the second group;
    Among the plurality of third images, an image that has been classified into the second group in the past and an image that has been classified into the first group in the past among the plurality of fourth images are displayed in an identifiable manner. To
    The method of claim 4 further comprising:
  7.  各画像が有する部分の特徴が第1分類基準に対応する複数の第1画像を第1グループに分類し、
     各画像が有する部分の特徴が前記第1分類基準とは異なる第2分類基準に対応する複数の第2画像を第2グループに分類し、
     前記第1グループに含まれる複数の第1画像と、前記第2グループに含まれる複数の第2画像とをディスプレイ上に表示し、
     前記第2グループに含まれる1以上の第2画像を、前記第1グループへ変更するための第1操作を受け付け、
     前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準を少なくとも変更する、
     ことをコンピュータに実行させるためのプログラム。
    Classifying a plurality of first images whose features of each image have corresponding to the first classification criterion into a first group;
    Classifying a plurality of second images corresponding to a second classification criterion that is different from the first classification criterion in a portion of each image into a second group;
    Displaying a plurality of first images included in the first group and a plurality of second images included in the second group on a display;
    Receiving a first operation for changing one or more second images included in the second group to the first group;
    Using at least one second image changed from the second group to the first group, and at least changing the first classification criterion;
    A program that causes a computer to execute.
  8.  前記第1操作を受け付けた後、各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類する、ことをさらに前記コンピュータに実行させるための請求項7のプログラム。 In the computer, after receiving the first operation, the computer further reclassifies a plurality of third images corresponding to the first classification criterion after the feature of the portion of each image is changed into the first group. 8. The program according to claim 7 for execution.
  9.  前記第1操作を受け付けた後、前記第2グループから前記第1グループに変更となった1以上の第2画像を用いて、前記第1分類基準と前記第2分類基準との双方を変更し、
     各画像が有する部分の特徴が変更後の第1分類基準に対応する複数の第3画像を第1グループに自動的に再分類し、
     各画像が有する部分の特徴が変更後の第2分類基準に対応する複数の第4画像を第2グループに自動的に再分類し、
     前記複数の第3画像のうち、過去に前記第2グループに分類されていた画像と、前記複数の第4画像のうち、過去に前記第1グループに分類されていた画像とを識別可能に表示する、
     ことをさらに前記コンピュータに実行させるための請求項7のプログラム。
    After accepting the first operation, both the first classification criterion and the second classification criterion are changed using one or more second images changed from the second group to the first group. ,
    Automatically reclassifying a plurality of third images corresponding to the first classification criteria after the change in the characteristics of the portion of each image into the first group;
    Automatically reclassifying a plurality of fourth images corresponding to the second classification criteria after the change in the characteristics of the portion of each image into the second group;
    Among the plurality of third images, an image that has been classified into the second group in the past and an image that has been classified into the first group in the past among the plurality of fourth images are displayed in an identifiable manner. To
    The program according to claim 7, further causing the computer to execute the operation.
PCT/JP2014/068502 2014-07-10 2014-07-10 Electronic apparatus, method, and program WO2016006090A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2014/068502 WO2016006090A1 (en) 2014-07-10 2014-07-10 Electronic apparatus, method, and program
JP2016532378A JPWO2016006090A1 (en) 2014-07-10 2014-07-10 Electronic device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/068502 WO2016006090A1 (en) 2014-07-10 2014-07-10 Electronic apparatus, method, and program

Publications (1)

Publication Number Publication Date
WO2016006090A1 true WO2016006090A1 (en) 2016-01-14

Family

ID=55063763

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/068502 WO2016006090A1 (en) 2014-07-10 2014-07-10 Electronic apparatus, method, and program

Country Status (2)

Country Link
JP (1) JPWO2016006090A1 (en)
WO (1) WO2016006090A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520809A (en) * 2015-04-08 2017-07-27 小米科技有限責任公司Xiaomi Inc. Album display method and apparatus
WO2019008961A1 (en) * 2017-07-07 2019-01-10 日本電気株式会社 Information processing device, information processing method, and program
WO2021177073A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Information processing device and information processing method
WO2021193271A1 (en) * 2020-03-23 2021-09-30 株式会社湯山製作所 Inspection support system and inspection support program
JP2022526381A (en) * 2019-08-22 2022-05-24 シェンチェン センスタイム テクノロジー カンパニー リミテッド Image processing methods and devices, electronic devices and storage media
WO2022249277A1 (en) * 2021-05-25 2022-12-01 日本電気株式会社 Image processing device, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134763A (en) * 1999-11-09 2001-05-18 Hitachi Ltd Method for sorting defect on basis of picked-up image and method for displaying the result
JP2011145791A (en) * 2010-01-13 2011-07-28 Hitachi Ltd Classifier learning image production program, method and system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4132229B2 (en) * 1998-06-03 2008-08-13 株式会社ルネサステクノロジ Defect classification method
JP4220595B2 (en) * 1998-08-10 2009-02-04 株式会社日立製作所 Defect classification method and teaching data creation method
JP2011158373A (en) * 2010-02-02 2011-08-18 Dainippon Screen Mfg Co Ltd Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification
JP2012174222A (en) * 2011-02-24 2012-09-10 Olympus Corp Image recognition program, method, and device
JP2012208710A (en) * 2011-03-29 2012-10-25 Panasonic Corp Characteristic estimation device
JP6071288B2 (en) * 2012-07-09 2017-02-01 キヤノン株式会社 Image processing apparatus, image processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134763A (en) * 1999-11-09 2001-05-18 Hitachi Ltd Method for sorting defect on basis of picked-up image and method for displaying the result
JP2011145791A (en) * 2010-01-13 2011-07-28 Hitachi Ltd Classifier learning image production program, method and system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520809A (en) * 2015-04-08 2017-07-27 小米科技有限責任公司Xiaomi Inc. Album display method and apparatus
US9953212B2 (en) 2015-04-08 2018-04-24 Xiaomi Inc. Method and apparatus for album display, and storage medium
WO2019008961A1 (en) * 2017-07-07 2019-01-10 日本電気株式会社 Information processing device, information processing method, and program
JPWO2019008961A1 (en) * 2017-07-07 2020-06-25 日本電気株式会社 Information processing apparatus, information processing method, and program
US11663184B2 (en) 2017-07-07 2023-05-30 Nec Corporation Information processing method of grouping data, information processing system for grouping data, and non-transitory computer readable storage medium
JP2022526381A (en) * 2019-08-22 2022-05-24 シェンチェン センスタイム テクノロジー カンパニー リミテッド Image processing methods and devices, electronic devices and storage media
WO2021177073A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Information processing device and information processing method
WO2021193271A1 (en) * 2020-03-23 2021-09-30 株式会社湯山製作所 Inspection support system and inspection support program
WO2022249277A1 (en) * 2021-05-25 2022-12-01 日本電気株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JPWO2016006090A1 (en) 2017-05-25

Similar Documents

Publication Publication Date Title
US11113523B2 (en) Method for recognizing a specific object inside an image and electronic device thereof
US10649633B2 (en) Image processing method, image processing apparatus, and non-transitory computer-readable storage medium
US10796405B2 (en) Image processing apparatus and method, and non-transitory computer-readable storage medium storing program
US10958796B2 (en) Image processing apparatus, image processing method, and storage medium
WO2016006090A1 (en) Electronic apparatus, method, and program
EP3125135B1 (en) Picture processing method and device
US9129150B2 (en) Electronic apparatus and display control method
US10403014B2 (en) Image processing apparatus and image processing method
US20170039746A1 (en) Image processing apparatus, image processing method, and storage medium storing program
US9734591B2 (en) Image data processing method and electronic device supporting the same
EP3373201A1 (en) Information processing apparatus, information processing method, and storage medium
US11037265B2 (en) Information processing method, information processing apparatus, and storage medium
JP5799817B2 (en) Finger position detection device, finger position detection method, and computer program for finger position detection
US10878268B2 (en) Information processing apparatus, control method thereof, and storage medium
WO2013073168A1 (en) Image processing device, imaging device, and image processing method
CN112954210A (en) Photographing method and device, electronic equipment and medium
JP6723966B2 (en) Information processing apparatus, display control method, and program
CN108781252A (en) A kind of image capturing method and device
US11073962B2 (en) Information processing apparatus, display control method, and program
KR101429882B1 (en) Image Processor, Image Processing Method, Control Program, and Recording Medium
KR102303206B1 (en) Method and apparatus for recognizing object of image in electronic device
EP3128733B1 (en) Information processing method, information processing apparatus, and program
EP3131035A1 (en) Image processing apparatus, image processing method, and program
JP6419560B2 (en) Search device, method and program
JP2014209326A (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14897372

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016532378

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14897372

Country of ref document: EP

Kind code of ref document: A1