WO2016017320A1 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
WO2016017320A1
WO2016017320A1 PCT/JP2015/067775 JP2015067775W WO2016017320A1 WO 2016017320 A1 WO2016017320 A1 WO 2016017320A1 JP 2015067775 W JP2015067775 W JP 2015067775W WO 2016017320 A1 WO2016017320 A1 WO 2016017320A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
layout
unit
processing unit
document
Prior art date
Application number
PCT/JP2015/067775
Other languages
English (en)
French (fr)
Inventor
紀枝 藤本
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Priority to US14/899,547 priority Critical patent/US9438766B2/en
Priority to JP2015560477A priority patent/JP6038359B2/ja
Publication of WO2016017320A1 publication Critical patent/WO2016017320A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00249Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
    • H04N1/00251Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector with an apparatus for taking photographic images, e.g. a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00801Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity according to characteristics of the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00801Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity according to characteristics of the original
    • H04N1/00809Orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2137Intermediate information storage for one or a few pictures using still video cameras with temporary storage before final recording, e.g. in a frame buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/44Secrecy systems
    • H04N1/4406Restricting access, e.g. according to user identity
    • H04N1/442Restricting access, e.g. according to user identity using a biometric data reading device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0065Converting image data to a format usable by the connected apparatus or vice versa
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0098User intervention not otherwise provided for, e.g. placing documents, responding to an alarm

Definitions

  • the present invention relates to an information processing apparatus and an information processing method capable of printing a composite image in which a desired image is arbitrarily laid out.
  • An image forming apparatus having an image composition function that obtains a printed product of an image obtained by arbitrarily laying out a desired image by a user is known (for example, Patent Document 1 below).
  • a specific sheet created by a user is read by an image reading unit.
  • a frame line constituting a closed region for fitting a desired image is handwritten.
  • the image number of the image is entered in the closed region.
  • the image forming apparatus reads an image having an image number described in the closed region from a predetermined storage unit, and generates a composite image fitted in a position corresponding to the closed region.
  • the image forming apparatus prints the composite image.
  • the image forming apparatus when the image forming apparatus is used, the image forming apparatus is equipped with a user authentication function for performing authentication processing as to whether or not the user may accept a print job input based on user identification information input by the user. There is a case.
  • a situation may occur in which the image composition function is used immediately after receiving the user authentication.
  • the user performs an operation of inputting his / her identification information for authentication, and further causes the image forming apparatus to read the sheet in order to use the image composition function, thereby displaying the image of the sheet.
  • An input operation to be taken into the image forming apparatus is necessary and is troublesome.
  • An object of the present invention is to provide an information processing apparatus and an information processing method capable of improving convenience when using a user authentication function and an image composition function.
  • An information processing apparatus includes a photographing unit, an authentication processing unit, and a layout processing unit.
  • the authentication processing unit determines whether the photographed image includes a human face image based on a photographed image obtained from the photographing unit, and the photographed image includes a human face image. If it is determined that the person is present, the person authentication process is performed based on the face image of the person.
  • the layout processing unit determines whether or not a layout specifying image for specifying a page layout is included in the captured image based on the captured image, and the captured image When the layout specifying image is determined to be included in the image, a composite image is generated by laying out the material image according to the page layout specified by the layout specifying image.
  • the information processing method includes a first step and a second step.
  • the first step determines whether or not the photographed image includes a human face image based on the photographed image obtained from the photographing unit, and the photographed image includes the human face image.
  • the person authentication process is performed based on the face image of the person.
  • the second step is authenticated in the first step, it is determined whether or not a layout specifying image for specifying a page layout is included in the captured image based on the captured image, and the captured image is determined.
  • a layout specifying image is determined to be included in the image, a composite image is generated by laying out the material image according to the page layout specified by the layout specifying image.
  • an information processing apparatus and an information processing method capable of improving convenience when using the user authentication function and the image composition function are realized.
  • FIG. 1 is a block diagram illustrating an example of an electrical configuration of an information processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is an external view of a layout document.
  • FIG. 3 is a photographed image obtained by photographing the layout document with the photographing unit.
  • FIG. 4 is a diagram illustrating a correspondence relationship between image identification information and user identification information.
  • FIG. 5 is a flowchart showing a flow of a series of processing including authentication processing and image composition processing of the control unit.
  • FIG. 6 is a flowchart showing a flow of a series of processing including authentication processing and image composition processing of the control unit.
  • FIG. 7A is a diagram illustrating an example of a captured image.
  • FIG. 7B is an explanatory diagram of a processing method of authentication processing.
  • FIG. 7C is an explanatory diagram of a processing method of authentication processing.
  • FIG. 8A is a diagram illustrating a state in which a material image is laid out on a virtual mount.
  • FIG. 8B is an example of a composite image.
  • FIG. 9 is a block diagram showing an example of the electrical configuration of the information processing apparatus according to the modification of the present invention.
  • FIG. 10A is a diagram illustrating an example of a layout pattern.
  • FIG. 10B is a diagram illustrating an example of a layout pattern.
  • FIG. 10C is a diagram illustrating an example of a layout pattern.
  • FIG. 11 is a table showing a correspondence relationship between the image identification information, the gesture identification information, and the layout pattern identification information of the verification image.
  • FIG. 12A is a diagram showing variations of gestures.
  • FIG. 12A is a diagram showing variations of gestures.
  • FIG. 12B is a diagram illustrating an example of a photographed image obtained by photographing a user who makes a gesture.
  • FIG. 13A is a diagram illustrating an example of a captured image including an image of a layout document in which some numbers described in the closed region are rotated 90 ° counterclockwise.
  • FIG. 13B is an example of a composite image generated based on the captured image shown in FIG. 13A.
  • an image forming apparatus 1 which is an embodiment of an information processing apparatus of the present invention will be described with reference to FIG.
  • the image forming apparatus 1 is a multifunction machine having an image reading function, a facsimile function, an image forming function, and the like.
  • an image forming apparatus 1 includes an image reading unit 2, an automatic document feeder (ADF) 3, an image forming unit 4, an operation display unit 5, a communication interface (I / F) unit 6, and a storage unit. 7, a photographing unit 8 and a control unit 9 for controlling them.
  • ADF automatic document feeder
  • I / F communication interface
  • a control unit 9 for controlling them.
  • the image forming apparatus 1 that is a multifunction peripheral is illustrated and described as an example of the image forming apparatus according to the present invention.
  • the present invention is not limited to this, and for example, a smartphone, a printer, a facsimile apparatus, or a copier is also included in the present invention. It corresponds to the information processing apparatus concerning.
  • the image reading unit 2 includes a contact glass, an LED light source, a plurality of mirrors, an optical lens, a CCD, and the like.
  • the ADF 3 includes a document setting unit, a plurality of conveyance roller pairs, a paper discharge unit, and the like. The ADF 3 drives each of the transport roller pairs to transport the document set on the document setting unit to the paper discharge unit through the reading position on the contact glass.
  • the image forming unit 4 includes a photosensitive drum, a charging unit, a developing unit, a toner container, a transfer roller, a charge eliminating unit, a fixing roller, and a pressure roller.
  • the operation display unit 5 includes a display unit 10 and an operation unit 11.
  • the display unit 10 includes, for example, a color liquid crystal display and displays various types of information to a user who operates the operation display unit 5.
  • the storage unit 7 has a nonvolatile memory such as an EEPROM.
  • the operation unit 11 includes various push button keys disposed adjacent to the display unit 10 and a touch panel sensor disposed on the display screen of the display unit 10. Various instructions are input by the user of the image forming apparatus 1.
  • the operation unit 11 includes a photographing operation unit 111 for inputting an instruction for causing the photographing unit 8 to perform a photographing operation. When the user performs an operation on the operation display unit 5, the operation signal is output from the operation display unit 5 to the control unit 9.
  • the photographing unit 8 has a CCD and a photographing optical system.
  • the photographing optical system includes an optical element such as a lens that guides light from a subject to the CCD.
  • the CCD receives light guided by the photographing optical system, and generates a pixel signal corresponding to the light amount by a photoelectric conversion operation.
  • the pixel signal generated by the CCD is subjected to image processing by an image processing circuit (not shown).
  • the image processing circuit performs ⁇ correction processing, color correction processing for adjusting RGB color balance, color conversion processing from RGB data to CMYK data, and the like on the pixel signal.
  • a captured image constituted by the pixel signals after the image processing is stored in a captured image storage unit 73 described later.
  • the control unit 9 includes a CPU, a ROM, and a RAM.
  • the control unit 9 controls the operation of the image forming apparatus 1 by causing the CPU to execute a program stored in the ROM.
  • the ROM of the control unit 9 stores in advance a processing program for causing the CPU of the control unit 9 to execute processing described later (see flowcharts of FIGS. 4 and 5).
  • the processing program is recorded on a computer-readable recording medium such as a CD, a DVD, or a flash memory, and is installed from the recording medium into a storage unit such as the EEPROM of the control unit 9 or a hard disk (not shown). Also good.
  • the image forming apparatus 1 has an image composition function for generating a composite image in which a user arbitrarily lays out a read image read by the image reading unit 2 and combines it into one image.
  • the image forming apparatus 1 according to the present embodiment may accept a print job input based on user identification information input by the user when the image forming apparatus 1 is used. It has a user authentication function for performing authentication processing of whether or not. As described above, in the image forming apparatus 1 in which the authentication function and the image composition function are mounted, a situation may occur in which the image composition function is used immediately after receiving the user authentication.
  • the user performs an operation of inputting his / her identification information for authentication, and further causes the image forming apparatus to read the sheet in order to use the image composition function, thereby displaying the image of the sheet.
  • An input operation to be taken into the image forming apparatus is necessary and is troublesome.
  • the image forming apparatus 1 according to the present embodiment the convenience when using the user authentication function and the image composition function is improved.
  • the storage unit 7 includes a registration information storage unit 71, a collation image storage unit 72, and a captured image storage unit 73.
  • the registration information storage unit 71 stores user identification information. In the present embodiment, only a user whose user identification information is stored in the registration information storage unit 71 can use the image forming apparatus 1, that is, can input various jobs including a print job.
  • the collation image storage unit 72 stores in advance the face image of the user in which the user identification information is stored by the registration information storage unit 71 as a collation image used during user authentication. As shown in FIG. 4, the registration information storage unit 71 stores the identification information (image identification information) of the verification image in association with the user identification information.
  • the photographed image storage unit 73 stores a photographed image photographed by the photographing unit 8 at the time of user authentication.
  • control unit 9 functions as an authentication processing unit 91, a layout processing unit 92, and a print control unit 93 by executing various processes according to the processing program using the CPU. Note that a configuration in which a part or a plurality of functions of the control unit 9 is provided as an electronic circuit is also conceivable as another embodiment.
  • the authentication processing unit 91 determines whether or not a human face image is included in the photographed image based on the photographed image obtained from the photographing unit 8 (see image G1 in FIG. 3). Then, when it is determined that the photographed image includes a human face image, the authentication processing unit 91 performs the person authentication process based on the human face image and the verification image. .
  • the layout processing unit 92 When the person is authenticated by the authentication processing unit 91, the layout processing unit 92 includes an image (see image G2 in FIG. 3) of the layout document L1 (see FIG. 2) in the captured image based on the captured image. It is determined whether or not. If the layout processing unit 92 determines that the photographed image includes the image of the layout document L1, the layout processing unit 92 generates a composite image in which the read image is laid out according to the page layout specified by the image.
  • the image of the layout document L1 is an example of a layout specifying image in the present invention.
  • the read image is an example of a material image in the present invention. Examples of the material image include an image created by a personal computer (PC), an image taken by a camera, or an image acquired from the Internet.
  • the print control unit 93 causes the image forming unit 4 to print out the composite image.
  • step S ⁇ b> 501 the control unit 9 determines whether a shooting instruction is input by a user operation on the shooting operation unit 111 of the operation unit 11. If the controller 9 determines that the shooting instruction has not been input (NO in step S501), the controller 9 performs this determination again after a predetermined time has elapsed. On the other hand, when determining that the photographing instruction has been input (YES in step S501), the control unit 9 advances the process to step S502.
  • step S502 the control unit 9 causes the photographing unit 8 to perform a photographing operation.
  • the captured image generated by the imaging operation is stored in the captured image storage unit 73 after being subjected to the image processing by the image processing circuit.
  • the captured image is the captured image G1 shown in FIG.
  • step S503 the authentication processing unit 91 determines whether authentication has been completed. If it is determined that authentication has been completed (YES in step S503), the authentication processing unit 91 skips steps S504 to S507, and advances the process to step S508. On the other hand, if the authentication processing unit 91 determines that it has not been authenticated (NO in step S503), the processing proceeds to the process of step S504.
  • step S504 the authentication processing unit 91 reads the captured image G1 from the captured image storage unit 73, and determines whether the captured image G1 includes a human face image. Specifically, the authentication processing unit 91 determines whether or not there is a region W1 (see FIG. 7A) representing the outline of the eyes, mouth, chin, eyebrows, and face in the image region of the captured image G1. If the authentication processing unit 91 determines that the region W1 exists (YES in step S504), the authentication processing unit 91 determines that the captured image G1 includes a human face image, and the process proceeds to step S505. On the other hand, if the authentication processing unit 91 determines that the region W1 does not exist (NO in step S504), the authentication processing unit 91 determines that the photographed image G1 does not include a human face image, and advances the process to step S507.
  • a region W1 see FIG. 7A representing the outline of the eyes, mouth, chin, eyebrows, and face in the image region of the captured image G1. If
  • step S505 the authentication processing unit 91 performs an authentication process as to whether or not the person included in the captured image G1 is a registered user of the image forming apparatus 1.
  • the authentication processing unit 91 determines that the image of the area W1 is a human face image, and extracts an image R1 of a rectangular area (see FIG. 7A) surrounding the area W1.
  • this image R1 is referred to as an extracted image R1.
  • the authentication processing unit 91 collates the extracted image R1 with the collation image stored in the collation image storage unit 72.
  • the authentication processing unit 91 selects, based on the extracted image R1, a feature point T1 such as an eye, an eyebrow end, a mouth end, or a nose tip among the human faces included in the extracted image R1. It detects (refer FIG. 7B). Then, the authentication processing unit 91 calculates a degree of coincidence between both images based on, for example, the relationship between the positional relationship between these feature points T1 and the positional relationship between the feature points Tx in the matching image B1. Digitize based on formula.
  • a feature point T1 such as an eye, an eyebrow end, a mouth end, or a nose tip among the human faces included in the extracted image R1. It detects (refer FIG. 7B). Then, the authentication processing unit 91 calculates a degree of coincidence between both images based on, for example, the relationship between the positional relationship between these feature points T1 and the positional relationship between the feature points Tx in the matching image B1. Digitize based on formula.
  • step S506 if the authentication processing unit 91 determines that the numerical value indicating the degree of coincidence is equal to or less than a predetermined value (NO in step S506), the authentication processing unit 91 determines that authentication cannot be performed, and the control unit 9 receives a job input. The processing proceeds to step S507. On the other hand, if the numerical value indicating the degree of coincidence is greater than a predetermined value (YES in step S506), the authentication processing unit 91 determines that the authentication has been successful, and the control unit 9 receives input of subsequent jobs. Then, the process proceeds to step S508. Thus, when a registered user starts using the image forming apparatus 1, the user needs to photograph his / her face with the photographing unit 8.
  • step S507 the control unit 9 issues an error notification indicating that authentication cannot be performed. This error notification is performed by display on the display unit 10 or voice output by a voice output unit (not shown). The control unit 9 returns to the process of step S501 after the process of step S507.
  • step S508 the layout processing unit 92 determines whether or not the photographed image G1 as shown in FIG.
  • the layout document L1 is created by the user before shooting.
  • layout frames K1 to K5 forming closed areas are described by the user.
  • 2 shows the layout document L1 in which five layout frames K1 to K5 are described, the number of layout frames described in the layout document is not limited to five.
  • the layout position of the read image in the composite image, that is, the page layout is designated by the positions of the layout frames K1 to K5 in the layout document L1.
  • Such detection of the image G2 of the layout document L1 can be performed by, for example, a well-known edge detection process.
  • step S508 If the layout processing unit 92 determines that the image G2 of the layout document L1 exists in the captured image G1 (YES in step S508), the process proceeds to step S509. On the other hand, if the layout processing unit 92 determines that the image G2 of the layout document L1 does not exist in the captured image G1 (NO in step S508), the series of processing ends.
  • step S509 the layout processing unit 92 performs page layout determination processing for determining the page layout of each read image based on the image of the layout document L1 detected in step S508.
  • the layout processing unit 92 performs page layout determination processing for determining the page layout of each read image based on the image of the layout document L1 detected in step S508.
  • the user needs to photograph the layout document L1 together with his / her face with the photographing unit 8.
  • FIG. 5 is a flowchart showing a subroutine of the page layout determination process. In the page layout determination process, the processes of steps S601 to S607 are executed.
  • step S601 the layout processing unit 92 obtains the actual size of the layout document L1 based on the size of the captured image G1 and the image G2 of the layout document L1 and the distance from the capturing unit 8 to the layout document L1.
  • the distance from the photographing unit 8 to the layout document L1 can be detected by using a distance measuring sensor (not shown) mounted in the photographing unit 8.
  • the distance measuring sensor is not mounted on the photographing unit 8, for example, detection is performed by a known detection process based on the size of the user's face image included in the photographed image G1 and the focal length of the photographing unit 8. be able to.
  • step S602 the layout processing unit 92 determines a sheet having a size that matches or approximates the actual size of the layout document L1 as a print sheet on which the composite image is to be printed.
  • step S603 the layout processing unit 92 secures a storage area on the RAM having a storage capacity for image data necessary for printing at a predetermined resolution on the print sheet determined in step S602.
  • This storage area is assumed to be a virtual mount F1 (see FIGS. 8A and 8B).
  • step S604 the layout processing unit 92 based on the image G2 of the layout document L1 includes the images GK1 to GK5 of the layout frames K1 to K5 included in the layout document L1 and the layout frames K1 to K5 of the layout document L1.
  • the relative position is detected (see FIG. 3).
  • the layout processing unit 92 sets a position on the mount F1 corresponding to the obtained relative position as a layout position.
  • step S605 the layout processing unit 92 determines whether a number (an example of image designation information) is written in each closed region of the layout document L1 based on the image of the layout document L1. Since this number recognition method can use a well-known character recognition method, a detailed description thereof will be omitted. If the layout processing unit 92 determines that a number is written in each closed region (YES in step S605), the process proceeds to step S606. On the other hand, if the layout processing unit 92 determines that no number is written in each closed region (NO in step S605), the process proceeds to step S607.
  • a number an example of image designation information
  • step S606 the layout processing unit 92 sets the relationship between the layout position set on the mount F1 in step S604 and the read image to be laid out at the layout position based on the recognized number.
  • the image laid out at the layout position is a read image read later by the image reading unit 2. Therefore, at this time, the read image to be laid out does not exist, and the identification information of the read image cannot be associated with the layout position. Therefore, in the present embodiment, the layout processing unit 92 detects a number indicating the reading order of the read images described in the closed region as information for specifying the read image to be laid out at the layout position. Based on this information, the layout processing unit 92 sets the number of read images to be read by the image reading unit 2 as the read images to be laid out at the respective layout positions. Thereby, the page layout is determined.
  • step S607 the layout processing unit 92 sets the layout position set in the mount F1 in step S604 and the layout position based on predetermined rules, in this embodiment, the order of the areas of the closed regions.
  • a relationship with the read image to be laid out is set. That is, the layout processing unit 92 calculates the area of each closed region, and sets a number indicating the order of the areas as information specifying the read image to be laid out at each layout position. Based on this information, the layout processing unit 92 sets the number of read images to be read by the image reading unit 2 as the read images to be laid out at the respective layout positions. Thereby, the page layout is determined.
  • step S ⁇ b> 510 the control unit 9 determines whether a reading instruction is input by a user operation on the operation unit 11. If the controller 9 determines that the reading instruction has not been input (NO in step S510), the controller 9 performs this determination again after a predetermined time has elapsed. On the other hand, when determining that the reading instruction has been input (YES in step S510), the control unit 9 causes the image reading unit 2 to perform a document reading operation.
  • step S512 the layout processing unit 92 lays out the read image according to the page layout determined in step S606 or S607.
  • the layout processing unit 92 sets, for example, as shown in FIGS. 8A and 8B, that the read image to be read second should be laid out.
  • the read image is laid out at the set layout position.
  • the layout processing unit 92 lays out the read image read by the image reading unit 2 at each layout position of the mount F1, and generates a composite image.
  • FIG. 8B shows a composite image generated by laying out each read image shown in the upper part of FIG. 8A at each layout position of the mount F1 shown in the lower part of FIG. 8A.
  • the layout processing unit 92 may lay out the read image by enlarging or reducing the read image based on the shape of the closed region.
  • the layout processing unit 92 determines a trimming range based on the shape of the closed region with respect to the read image or the enlarged or reduced read image, trims the image in the trimming range, and lays out the layout position. You may do it.
  • step S513 the print control unit 93 outputs the composite image generated in step S511 to the image forming unit 4, causes the image forming unit 4 to perform a printing operation based on the composite image, and ends the series of processes.
  • the user authentication process is performed based on the face image included in the photographed image. If authenticated, page layout processing is performed based on the image of the layout document L1.
  • the image composition function is used immediately after receiving the user authentication. That is, in the situation, after the user performs the operation of inputting his / her identification information for user authentication, the operation of causing the image forming apparatus 1 to read the image of the layout document L1 in order to use the image composition function. It is no longer necessary to perform both operations separately, and these operations can be performed at once. Therefore, it is possible to improve convenience when using the user authentication function and the image composition function.
  • an image of the layout document L1 is used as a layout specifying image for specifying the page layout, and a layout pattern for generating a composite image by photographing the layout document L1 is displayed in the image forming apparatus 1. Entered.
  • the method for designating the image forming apparatus 1 with the layout pattern used when generating the composite image is not limited to the above.
  • one or a plurality of layout patterns are stored in advance in the storage unit 7 as layout patterns that can be employed when a composite image is generated. Then, the layout pattern to be employed when generating the composite image is designated from the layout patterns stored in the storage unit 7 and is instructed to the image forming apparatus 1 by a gesture taken by the user at the time of shooting. This will be specifically described below. Note that this embodiment is the same except that the processes in steps S508 and S509 in the flowchart shown in FIG. 5 are different, and only the differences from the above embodiment will be described.
  • the storage unit 7 of the image forming apparatus 1 includes a layout pattern storage unit 74 and a table storage unit 75 in addition to the units 71 to 73, as shown in FIG.
  • the layout pattern storage unit 74 stores in advance a plurality of types of information (layout pattern information) indicating page layout layout patterns as shown in FIGS. 10A to 10C, for example.
  • the layout pattern information may be the image of the layout document L1 as in the embodiment, or may be information indicating the relative position of the layout frame obtained from the image on the mount F1.
  • Such layout pattern information may be created by a manufacturer, may be created by photographing a layout document created by a user with the photographing unit 8, or may be created by a personal computer. May be.
  • the layout pattern information may be preinstalled in the layout pattern storage unit 74 before shipment of the image forming apparatus 1 or downloaded from the manufacturer's homepage or the like by the user after shipment. May be.
  • the numbers shown at the respective layout positions in FIGS. 10A to 10C are numbers indicating the reading order.
  • the table storage unit 75 includes image identification information of the image for verification, gesture identification information for identifying a gesture, and layout pattern identification for identifying a layout pattern. Correspondence with information is stored in a table format. That is, a layout pattern is set in advance according to a combination of a registered user and a gesture made by the registered user.
  • the layout processing unit 92 determines whether or not there is a person making a gesture on the captured image G1, based on the captured image G1.
  • the person's gesture is a gesture by a person's hand as shown in FIG. 12A, and has variations P1 to P6 corresponding to the number of fingers to be projected.
  • FIG. 12B shows an example of a photographed image G1 including an image of a person who makes a gesture with such a hand.
  • the layout processing unit 92 for example, from the photographed image G1 as shown in FIG. 12B, based on the hand feature points such as color and shape, and the type of gesture by the hand. Is detected.
  • the layout processing unit 92 based on the table stored in the table storage unit 75, identifies the detected gesture identification information and the image identification information of the matching image that matches the face image of the user at the time of the previous authentication. Based on the above, the identification information of the layout pattern information is detected. Then, the layout pattern information of the detected identification information is read from the layout pattern storage unit 74. Thereafter, the process of step S510 in FIG. 5 is performed.
  • the user authentication processing is performed based on the face image included in the photographed image and authenticated.
  • the page layout is determined based on the image of the hand making the gesture. Therefore, as in the above-described embodiment, convenience when using the user authentication function and the image composition function can be improved.
  • the read image read by the image reading unit 2 is a material image to be laid out.
  • the material image is not limited to the read image, and may be an image stored in advance in the storage unit 7 of the image forming apparatus 1, for example.
  • the image is associated with identification information such as an image number assigned in advance.
  • the layout processing unit 92 detects the material image corresponding to the identification information described in the layout frame based on the correspondence relationship between the material image stored in the storage unit 7 and the identification information. .
  • the layout processing unit 92 lays out the detected material image based on the relative position of the layout frame with respect to the layout document.
  • the layout processing unit 902 may detect the direction (inclination) of the numbers described in the closed region and lay out the material image according to the direction. For example, as shown in FIGS. 13A and 13B, when the number “3” described in the closed region is described in a state rotated 90 ° counterclockwise, the layout processing unit 902 The material image to be laid out at the layout position corresponding to the closed area is rotated 90 ° counterclockwise and laid out.
  • the control unit 9 complements the missing part. You may make it perform the process to perform. Further, when the handwritten line is bent, the control unit 9 may perform a process of linearizing the handwritten line and setting the layout position. When the handwritten line is a circle or an ellipse, the control unit 9 may execute a process of correcting the blur of the handwritten line and setting the shape of the layout frame to a smooth circle or ellipse. .
  • control unit 9 discharges a print sheet necessary for the user to create a layout document from a paper supply unit (not shown) to a paper discharge unit in response to an operation input by the user. Accordingly, the print sheet may be provided to the user.
  • the layout processing unit 92 determines the actual size of the layout document L1 based on the size of the captured image G1 and the image G2 of the layout document L1 and the distance from the shooting unit 8 to the layout document L1. Is required.
  • the method for calculating the actual size of the layout document L1 is not limited to this.
  • the actual size of the layout document L1 may be calculated based on the ratio between the size of the person included in the captured image G1 and the size of the layout document L1 and the distance from the imaging unit 8 to the layout document L1. It can be adopted.
  • a form in which the actual size of the layout document L1 is calculated can be employed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimiles In General (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 本発明の情報処理装置(1)は、撮影部(8)と、認証処理部(91)と、レイアウト処理部(92)と、を有する。前記認証処理部(91)は、前記撮影部(8)から得られる撮影画像に基づいて前記撮影画像に人物の顔の画像が含まれているか否かを判定し、前記撮影画像に人物の顔の画像が含まれていると判定した場合に、前記人物の顔の画像に基づいて前記人物の認証処理を行う。前記レイアウト処理部(92)は、前記認証処理部(91)により認証されると、前記撮影画像に基づいて前記撮影画像にページレイアウトを特定するためのレイアウト特定画像が含まれているか否かを判定し、前記撮影画像に前記レイアウト特定画像が含まれていると判定した場合に、前記レイアウト特定画像により特定されるページレイアウトに従って素材画像をレイアウトした合成画像を生成する。

Description

情報処理装置、情報処理方法
 本発明は、所望の画像を任意にレイアウトした合成画像を印刷可能な情報処理装置及び情報処理方法に関する。
 ユーザーが所望の画像を任意にレイアウトして合成した画像の印刷物を得る画像合成機能を備えた画像形成装置が知られている(例えば下記特許文献1)。この画像形成装置は、ユーザーによって作成された特定のシートを画像読取部で読み取る。その特定のシートには、所望の画像を嵌め込むための閉領域を構成する枠線が手書きされている。その閉領域内には画像の画像番号が記入されている。そして、画像形成装置は、前記閉領域内に記載されている画像番号の画像を所定の記憶部から読み出して前記閉領域に対応する位置に嵌め込んだ合成画像を生成する。そして、画像形成装置は、前記合成画像を印刷する。
 一方、画像形成装置の使用に際し、ユーザーが入力するユーザー識別情報に基づいて、印刷ジョブの入力を受け付けてもよいユーザーであるか否かの認証処理を行うユーザー認証機能が画像形成装置に搭載される場合がある。
特開2008-92317号公報
 前記認証機能と前記画像合成機能とを搭載した画像形成装置においては、前記ユーザー認証を受けたのち直ぐに前記画像合成機能を利用するというようなシチュエーションが生じ得る。この場合、ユーザーは、認証のために自らの識別情報を入力する作業を行った後、更に、前記画像合成機能を利用するために前記シートを前記画像形成装置に読み取らせて前記シートの画像を画像形成装置に取り込ませるための入力作業が必要となり、面倒である。
 本発明の目的は、ユーザー認証機能及び画像合成機能の利用時の利便性を向上することのできる情報処理装置及び情報処理方法を提供することである。
 本発明の一の局面に係る情報処理装置は、撮影部と、認証処理部と、レイアウト処理部と、を有する。前記認証処理部は、前記撮影部から得られる撮影画像に基づいて前記撮影画像に人物の顔の画像が含まれているか否かを判定し、前記撮影画像に人物の顔の画像が含まれていると判定した場合に、前記人物の顔の画像に基づいて前記人物の認証処理を行う。前記レイアウト処理部は、前記認証処理部により認証されると、前記撮影画像に基づいて前記撮影画像にページレイアウトを特定するためのレイアウト特定画像が含まれているか否かを判定し、前記撮影画像に前記レイアウト特定画像が含まれていると判定した場合に、前記レイアウト特定画像により特定されるページレイアウトに従って素材画像をレイアウトした合成画像を生成する。
 本発明の一の局面に係る情報処理方法は、第1ステップと、第2ステップと、を有する。前記第1ステップは、撮影部から得られる撮影画像に基づいて前記撮影画像に人物の顔の画像が含まれているか否かを判定し、前記撮影画像に人物の顔の画像が含まれていると判定した場合に、前記人物の顔の画像に基づいて前記人物の認証処理を行う。前記第2ステップは、前記第1ステップにより認証されると、前記撮影画像に基づいて前記撮影画像にページレイアウトを特定するためのレイアウト特定画像が含まれているか否かを判定し、前記撮影画像に前記レイアウト特定画像が含まれていると判定した場合に、前記レイアウト特定画像により特定されるページレイアウトに従って素材画像をレイアウトした合成画像を生成する。
 本発明によれば、ユーザー認証機能及び画像合成機能の利用時の利便性を向上することのできる情報処理装置及び情報処理方法が実現される。
図1は、本発明の実施形態に係る情報処理装置の電気的な構成の一例を示すブロック図である。 図2は、レイアウト原稿の外観図である。 図3は、レイアウト原稿を撮影部で撮影した撮影画像の図である。 図4は、画像識別情報とユーザー識別情報との対応関係を示す図である。 図5は、制御部の認証処理及び画像合成処理を含む一連の処理の流れを示すフローチャートである。 図6は、制御部の認証処理及び画像合成処理を含む一連の処理の流れを示すフローチャートである。 図7Aは、撮影画像の一例を示す図である。 図7Bは、認証処理の処理方法の説明図である。 図7Cは、認証処理の処理方法の説明図である。 図8Aは、素材画像を仮想的な台紙にレイアウトする状態を示す図である。 図8Bは、合成画像の一例である。 図9は、本発明の変形形態に係る情報処理装置の電気的な構成の一例を示すブロック図である。 図10Aは、レイアウトパターンの例を示す図である。 図10Bは、レイアウトパターンの例を示す図である。 図10Cは、レイアウトパターンの例を示す図である。 図11は、照合用画像の画像識別情報とジェスチャー識別情報とレイアウトパターン識別情報との対応関係を示すテーブルである。 図12Aは、ジェスチャーのバリエーションを示す図である。 図12Bは、ジェスチャーをするユーザーを撮影した撮影画像の一例を示す図である。 図13Aは、閉領域内に記載されている一部の数字が反時計周りに90°回転しているレイアウト原稿の画像を含む撮影画像の一例を示す図である。 図13Bは、図13Aに示す撮影画像に基づいて生成される合成画像の一例である。
 以下、図面を参照しながら、本発明の実施形態に係る情報処理装置について説明する。なお、以下に説明される実施形態は本発明を具体化した一例にすぎず、本発明の技術的範囲を限定するものではない。
 図1を参照して本発明の情報処理装置の一実施形態である画像形成装置1の概略構成について説明する。画像形成装置1は、画像読取機能、ファクシミリー機能、及び画像形成機能などを備える複合機である。図1に示されるように、画像形成装置1は、画像読取部2、自動原稿送り装置(ADF)3、画像形成部4、操作表示部5、通信インターフェイス(I/F)部6、記憶部7、撮影部8及びこれらを制御する制御部9を備えている。なお、本発明に係る画像形成装置の一例として複合機である画像形成装置1を例示して説明するが、本発明はこれに限られず、例えばスマートフォン、プリンター、ファクシミリー装置あるいは複写機も本発明に係る情報処理装置に該当する。
 画像読取部2は、コンタクトガラス、LED光源、複数のミラー、光学レンズ及びCCDなどを備えている。ADF3は、原稿セット部、複数の搬送ローラー対、及び排紙部などを備える。ADF3は、前記搬送ローラー対各々を駆動させることにより、前記原稿セット部にセットされた原稿を前記コンタクトガラス上の読取位置を通過させて前記排紙部まで搬送させる。画像形成部4は、感光体ドラム、帯電部、現像部、トナーコンテナ、転写ローラー、除電部、定着ローラー、加圧ローラーなどを備えている。
 操作表示部5は、表示部10と操作部11とを有する。表示部10は、例えばカラー液晶ディスプレイなどを有し、操作表示部5を操作するユーザーに対して各種の情報を表示する。記憶部7は、EEPROM等の不揮発性メモリーを有する。操作部11は、表示部10に隣接配置された各種の押しボタンキー及び表示部10の表示画面上に配置されるタッチパネルセンサーなどを有し、画像形成装置1のユーザーにより各種の指示が入力される。操作部11は、撮影部8に撮影動作を行わせる指示を入力するための撮影操作部111を有する。ユーザーにより操作表示部5に対する操作が行われると、その操作信号が操作表示部5から制御部9に出力される。
 撮影部8は、CCDと撮影光学系とを有する。前記撮影光学系は、被写体からの光を前記CCDに導くレンズなどの光学素子を含む。前記CCDは、前記撮影光学系により導かれた光を受光し、光電変換動作によってその光量に応じた画素信号を生成する。前記CCDによって生成された画素信号は不図示の画像処理回路による画像処理が施される。この画像処理回路は、前記画素信号に対し、γ補正処理、RGBカラーバランスの調整である色補正処理、RGBデータからCMYKデータへの色変換処理等を行う。前記画像処理後の前記画素信号により構成される撮影画像は、後述する撮影画像記憶部73に格納される。
 制御部9は、CPUと、ROMと、RAMとを備える。制御部9は、前記CPUが前記ROMに記憶されているプログラムを実行することにより、画像形成装置1の動作を制御する。制御部9のROMには、制御部9の前記CPUに後述の処理(図4、図5のフローチャート参照)を実行させる為の処理プログラムが予め記憶されている。なお、前記処理プログラムは、CD、DVD、フラッシュメモリなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から制御部9の前記EEPROM又は不図示のハードディスク等の記憶部にインストールされてもよい。
 ところで、本実施形態に係る画像形成装置1は、画像読取部2で読み取られた読取画像をユーザーが任意にレイアウトして1つの画像に合成した合成画像を生成する画像合成機能を有する。また、本実施形態に係る画像形成装置1は、前記画像合成機能の他に、画像形成装置1の使用に際し、ユーザーが入力するユーザー識別情報に基づいて、印刷ジョブの入力を受け付けてもよいユーザーであるか否かの認証処理を行うユーザー認証機能を有する。このように、前記認証機能と前記画像合成機能とが搭載されている画像形成装置1においては、前記ユーザー認証を受けたのち直ぐに前記画像合成機能を利用するというようなシチュエーションが生じ得る。この場合、ユーザーは、認証のために自らの識別情報を入力する作業を行った後、更に、前記画像合成機能を利用するために前記シートを前記画像形成装置に読み取らせて前記シートの画像を画像形成装置に取り込ませるための入力作業が必要となり、面倒である。これに対し、本実施形態に係る画像形成装置1では、ユーザー認証機能及び画像合成機能の利用時の利便性の向上が図られている。
 具体的に、図1に示されるように、記憶部7は、登録情報記憶部71と、照合用画像記憶部72と、撮影画像記憶部73とを有する。登録情報記憶部71は、ユーザー識別情報を記憶する。本実施形態では、登録情報記憶部71にユーザー識別情報が記憶されたユーザーのみが画像形成装置1を利用可能、すなわち印刷ジョブを含む各種のジョブの入力が可能である。照合用画像記憶部72は、登録情報記憶部71により前記ユーザー識別情報が記憶されたユーザーの顔の画像をユーザー認証時に用いる照合用画像として予め記憶する。登録情報記憶部71には、図4に示されるように、この照合用画像の識別情報(画像識別情報)が前記ユーザー識別情報に対応付けて記憶されている。撮影画像記憶部73は、前記ユーザー認証時に撮影部8で撮影される撮影画像を記憶する。
 また、制御部9は、CPUを用いて前記処理プログラムに従って各種の処理を実行することにより、認証処理部91と、レイアウト処理部92と、印刷制御部93として機能する。なお、制御部9が有する機能の一部又は複数が電子回路として設けられる構成も他の実施形態として考えられる。
 認証処理部91は、撮影部8から得られる撮影画像(図3の画像G1参照)に基づいて前記撮影画像に人物の顔の画像が含まれているか否かを判定する。そして、認証処理部91は、前記撮影画像に人物の顔の画像が含まれていると判定した場合に、前記人物の顔の画像と前記照合用画像とに基づいて前記人物の認証処理を行う。
 レイアウト処理部92は、認証処理部91により前記人物が認証された場合に、前記撮影画像に基づいて前記撮影画像にレイアウト原稿L1(図2参照)の画像(図3の画像G2参照)が含まれているか否かを判定する。レイアウト処理部92は、前記撮影画像にレイアウト原稿L1の画像が含まれていると判定した場合に、その画像により特定されるページレイアウトに従って前記読取画像をレイアウトした合成画像を生成する。レイアウト原稿L1の画像は、本発明におけるレイアウト特定画像の一例である。前記読取画像は、本発明における素材画像の一例である。前記素材画像としては、パーソナルコンピューター(PC)等で作成された画像や、カメラ等で撮影した画像、或いはインターネットから取得した画像がある。
 印刷制御部93は、レイアウト処理部92により前記合成画像が生成されると、前記合成画像を画像形成部4に印刷出力させる。
 次に、図5、図6を用いて、具体的な制御部9によって実行される処理の手順の一例について説明する。なお、図5、図6のフローチャートにおいてステップS501、S502、・・・は処理手順(ステップ)番号を表している。
 <ステップS501>
 ステップS501において、制御部9は、操作部11の撮影操作部111に対するユーザー操作によって撮影指示が入力された否かを判定する。制御部9は、前記撮影指示が入力されていないと判定すると(ステップS501でNO)、所定時間経過後に再度この判定を行う。一方、制御部9は、前記撮影指示が入力されたと判定すると(ステップS501でYES)、処理をステップS502に進める。
 <ステップS502>
 ステップS502において、制御部9は、撮影部8に撮影動作を行わせる。この撮影動作により生成される撮影画像は、前記画像処理回路による前記画像処理が施された後、撮影画像記憶部73に格納される。ここでは、撮影画像が図3に示される撮影画像G1であるものとする。
 <ステップS503>
 ステップS503において、認証処理部91は、認証済みであるか否かを判定する。認証処理部91は、認証済みであると判定した場合(ステップS503でYES)、ステップS504~S507の処理をスキップして処理をステップS508の処理に進める。一方、認証処理部91は、認証済みではないと判定した場合(ステップS503でNO)、処理をステップS504の処理に進める。
 <ステップS504>
 ステップS504において、認証処理部91は、撮影画像記憶部73から撮影画像G1を読み出して、撮影画像G1に人物の顔の画像が含まれているか否かを判定する。具体的に、認証処理部91は、撮影画像G1の画像領域のうち目、口、あご、眉毛、顔の輪郭を表す領域W1(図7A参照)が存在するか否かを判定する。認証処理部91は、領域W1が存在すると判定した場合(ステップS504でYES)、撮影画像G1に人物の顔の画像が含まれていると判定し、処理をステップS505に進める。一方、認証処理部91は、領域W1が存在しないと判定した場合(ステップS504でNO)、撮影画像G1に人物の顔の画像が含まれていないと判定し、処理をステップS507に進める。
 <ステップS505>
 ステップS505において、認証処理部91は、撮影画像G1に含まれている人物が画像形成装置1の登録ユーザーであるか否かの認証処理を行う。認証処理部91は、領域W1の画像を人物の顔の画像として判定し、その領域W1を囲む矩形領域(図7A参照)の画像R1を抽出する。以下、この画像R1を抽出画像R1という。そして、認証処理部91は、その抽出画像R1と、照合用画像記憶部72に記憶されている前記照合用画像との照合を行う。
 具体的に、認証処理部91は、抽出画像R1に基づいて、その抽出画像R1に含まれる人物の顔のうち、例えば目、眉の端部、口の端部、鼻先などの特徴点T1を検出する(図7B参照)。そして、認証処理部91は、例えばこれらの特徴点T1同士の位置関係と、前記照合用画像B1における特徴点Tx同士の位置関係との関係などに基づいて、両画像の一致度を所定の演算式に基づいて数値化する。
 <ステップS506>
 ステップS506において、認証処理部91は、前記一致度を示す前記数値が所定値以下であると判定した場合(ステップS506でNO)、認証できないと判定して、制御部9はジョブの入力を受け付けないようにし、処理をステップS507に進める。一方、認証処理部91は、前記一致度を示す前記数値が所定値より大きい場合(ステップS506でYES)、認証できたと判定して、制御部9は、それ以降のジョブの入力を受け付けるようにし、処理をステップS508に進める。このように、登録ユーザーが画像形成装置1の利用を開始する際、そのユーザーは、自身の顔を撮影部8で撮影する必要がある。
 <ステップS507>
 ステップS507において、制御部9は、認証できない旨のエラー報知を行う。このエラー報知は、表示部10による表示や不図示の音声出力部による音声出力により行われる。制御部9は、ステップS507の処理後、ステップS501の処理に戻る。
 <ステップS508>
 ステップS508において、レイアウト処理部92は、例えば図3に示されるような撮影画像G1にレイアウト原稿L1の画像G2が含まれているか否かを判定する。レイアウト原稿L1は、ユーザーにより撮影前に作成される。レイアウト原稿L1には、閉領域を形成するレイアウト枠K1~K5がユーザーによって記載されている。なお、図2には、5つのレイアウト枠K1~K5が記載されたレイアウト原稿L1が示されているが、レイアウト原稿に記載されるレイアウト枠の数は5つに限定されるものではない。レイアウト原稿L1におけるレイアウト枠K1~K5の位置によって、前記合成画像における前記読取画像のレイアウト位置、すなわちページレイアウトが指定される。このようなレイアウト原稿L1の画像G2の検出は、例えば周知のエッジ検出処理により行うことができる。レイアウト処理部92は、撮影画像G1の中にレイアウト原稿L1の画像G2が存在すると判定した場合(ステップS508でYES)、処理をステップS509に進める。一方、レイアウト処理部92は、撮影画像G1の中にレイアウト原稿L1の画像G2が存在しないと判定した場合(ステップS508でNO)、一連の処理を終了する。
 <ステップS509>
 ステップS509において、レイアウト処理部92は、ステップS508で検出されたレイアウト原稿L1の画像に基づいて、各読取画像のページレイアウトを決定するページレイアウト決定処理を行う。このように、前記認証を受けたのち直ぐに前記画像合成機能を利用するという前述のシチュエーションでは、ユーザーは、自身の顔と一緒にレイアウト原稿L1を撮影部8で撮影する必要がある。図5は、前記ページレイアウト決定処理のサブルーチンを示すフローチャートであり、前記ページレイアウト決定処理において、ステップS601~S607の処理が実行される。
 <ステップS601>
 ステップS601において、レイアウト処理部92は、撮影画像G1及びレイアウト原稿L1の画像G2の大きさと、撮影部8からレイアウト原稿L1までの距離とに基づいて、レイアウト原稿L1の実際のサイズを求める。なお、撮影部8からレイアウト原稿L1までの距離については、撮影部8に不図示の測距センサが搭載されている場合は、その測距センサを用いて検出することができる。前記測距センサが撮影部8に搭載されていない場合は、例えば、撮影画像G1に含まれているユーザーの顔の画像の大きさと撮影部8の焦点距離とに基づく周知の検出処理によって検出することができる。
 <ステップS602>
 ステップS602において、レイアウト処理部92は、レイアウト原稿L1の実際のサイズに一致又は近似するサイズのシートを、合成画像を印刷すべき印刷シートとして決定する。
 <ステップS603>
 ステップS603において、レイアウト処理部92は、ステップS602で決定した印刷シートに対し、予め定められた解像度で印刷を行うのに必要な画像データ分の記憶容量を有する記憶領域をRAM上に確保し、この記憶領域を仮想的な台紙F1(図8A及び図8B参照)とする。
 <ステップS604>
 ステップS604において、レイアウト処理部92は、レイアウト原稿L1の画像G2に基づき、そのレイアウト原稿L1に含まれる各レイアウト枠K1~K5の画像GK1~GK5、及び、レイアウト原稿L1におけるレイアウト枠K1~K5の相対位置を検出する(図3参照)。そして、レイアウト処理部92は、この求めた相対位置に対応する台紙F1上の位置をレイアウト位置として設定する。
 <ステップS605>
 ステップS605において、レイアウト処理部92は、レイアウト原稿L1の画像に基づき、レイアウト原稿L1の前記各閉領域内に数字(画像指定情報の一例)が記載されているか否かを判定する。この数字の認識方法は、周知の文字認識方法を利用することができるため、詳細な説明は省略する。レイアウト処理部92は、前記各閉領域内に数字が記載されていると判定した場合は(ステップS605でYES)、処理をステップS606に進める。一方、レイアウト処理部92は、前記各閉領域内に数字が記載されていないと判定した場合は(ステップS605でNO)、処理をステップS607に進める。
 <ステップS606>
 ステップS606において、レイアウト処理部92は、その認識した数字に基づき、ステップS604で台紙F1に設定した前記レイアウト位置と、前記レイアウト位置にレイアウトすべき読取画像との関係を設定する。本実施形態では、前述したように、前記レイアウト位置にレイアウトされる画像は、後に画像読取部2で読み取られる読取画像である。よって、この時点ではレイアウトすべき前記読取画像は存在せず、前記レイアウト位置に前記読取画像の識別情報を対応させることはできない。そのため、本実施形態では、レイアウト処理部92は、前記レイアウト位置にレイアウトすべき前記読取画像を特定する情報として、前記閉領域内に記載される前記読取画像の読取順を示す数字を検出する。レイアウト処理部92は、この情報に基づき、前記レイアウト位置各々にレイアウトすべき前記読取画像として画像読取部2により何番目に読み取られる読取画像とするかを設定する。これにより、ページレイアウトが決定される。
 <ステップS607>
 ステップS607において、レイアウト処理部92は、予め定められたルール、本実施形態では、前記各閉領域の面積の大小順に基づいて、ステップS604で台紙F1に設定した前記レイアウト位置と、前記レイアウト位置にレイアウトすべき読取画像との関係を設定する。すなわち、レイアウト処理部92は、前記各閉領域の面積を算出し、その面積順を示す数字を、前記レイアウト位置各々にレイアウトすべき前記読取画像を特定する情報として設定する。レイアウト処理部92は、この情報に基づき、前記レイアウト位置各々にレイアウトすべき前記読取画像として画像読取部2により何番目に読み取られる読取画像とするかを設定する。これにより、ページレイアウトが決定される。
 <ステップS510、S511>
 ステップS510において、制御部9は、操作部11に対するユーザー操作によって読取指示が入力された否かを判定する。制御部9は、前記読取指示が入力されていないと判定すると(ステップS510でNO)、所定時間経過後に再度この判定を行う。一方、制御部9は、前記読取指示が入力されたと判定すると(ステップS510でYES)、画像読取部2に原稿の読取動作を行わせる。
 <ステップS512>
 ステップS512において、レイアウト処理部92は、ステップS606又はS607で決定したページレイアウトに従って前記読取画像をレイアウトする。レイアウト処理部92は、前記各閉領域内の数字に基づいてページレイアウトを設定した場合、図8A及び図8Bに示されるように、例えば2番目に読み取られる読取画像をレイアウトすべきであるとして設定されたレイアウト位置に、その読取画像をレイアウトする。このようにして、レイアウト処理部92は、画像読取部2で読み取られた前記読取画像を台紙F1の各レイアウト位置にレイアウトし、合成画像を生成する。図8Bは、図8Aの上段に示す各読取画像を、図8Aの下段に示す台紙F1の各レイアウト位置にレイアウトされたことにより生成された合成画像を示す。
 なお、前記閉領域の形状が前記読取画像の形状と一致しない場合、レイアウト処理部92は、前記閉領域の形状に基づいて前記読取画像を拡大又は縮小してレイアウトするようにしてもよい。或いは、レイアウト処理部92は、前記読取画像又は拡大又は縮小後の読取画像に対し、前記閉領域の形状に基づいてトリミング範囲を決定し、そのトリミング範囲の画像をトリミングしてレイアウト位置にレイアウトするようにしてもよい。
 <ステップS513>
 ステップS513において、印刷制御部93は、ステップS511で生成された合成画像を画像形成部4に出力し、画像形成部4に前記合成画像に基づく印刷動作を行わせて一連の処理を終了する。
 以上のように、本実施形態では、ユーザーの顔とレイアウト原稿L1とが一緒に撮影部8で撮影された場合、その撮影画像に含まれる前記顔の画像に基づいて前記ユーザー認証処理が行われ、認証されると、レイアウト原稿L1の画像に基づいてページレイアウト処理が行われる。これにより、前記ユーザー認証を受けたのち直ぐに前記画像合成機能を利用するというようなシチュエーションにおける利便性を向上することができる。すなわち、前記シチュエーションにおいて、ユーザーがユーザー認証のために自らの識別情報を入力する作業を行った後、前記画像合成機能を利用するためにレイアウト原稿L1の画像を画像形成装置1に読み取らせる作業を行うというように両作業を別々に必要がなくなり、これらの作業を一度に行うことができる。よって、ユーザー認証機能及び画像合成機能の利用時の利便性を向上することができる。
 以上、本発明の好ましい実施形態について説明したが、本発明は前述した内容のものに限られず、種々の変形例が適用可能である。
 (1)前記実施形態では、ページレイアウトを特定するためのレイアウト特定画像としてレイアウト原稿L1の画像が利用され、このレイアウト原稿L1の撮影によって合成画像を生成する際のレイアウトパターンが画像形成装置1に入力される。しかし、合成画像を生成する際に採用するレイアウトパターンを画像形成装置1に指定する方法は、前記のものに限られない。
 本実施形態に係る画像形成装置1においては、1又は複数のレイアウトパターンが、合成画像の生成する際に採用され得るレイアウトパターンとして記憶部7に予め記憶されている。そして、合成画像の生成する際に採用するレイアウトパターンが、撮影時にユーザーがとったジェスチャーによって、記憶部7に記憶されているレイアウトパターンの中から指定され画像形成装置1に指示される。以下、具体的に説明する。なお、本実施形態は、図5に示すフローチャートのステップS508、S509の処理が異なる以外は同様であるため、前記実施形態との相違点についてのみ説明する。
 本実施形態に係る画像形成装置1の記憶部7は、図9に示されるように、前記各部71~73に加えて、レイアウトパターン記憶部74及びテーブル記憶部75を有する。
 レイアウトパターン記憶部74には、例えば図10A~図10Cに示されるようなページレイアウトのレイアウトパターンを示す情報(レイアウトパターン情報)が複数種類予め記憶されている。このレイアウトパターン情報は、前記実施形態のようにレイアウト原稿L1の画像そのものでもよいし、その画像から求められる前記レイアウト枠の台紙F1における相対位置を示す情報でもよい。また、このようなレイアウトパターン情報は、メーカーによって作成されたものでもよいし、ユーザーによって作成されたレイアウト原稿が撮影部8で撮影されることによって作成されたものでもよいし、或いはパーソナルコンピューターで作成されてもよい。レイアウトパターン情報がメーカーで作成される場合、画像形成装置1の出荷までに前記レイアウトパターン情報がレイアウトパターン記憶部74にプリインストールされてもよいし、出荷後にユーザーによってメーカーのホームページ等からインターネットでダウンロードされてもよい。図10A~図10Cの各レイアウト位置に示される数字は、読取順を示す数字である。
 テーブル記憶部75には、例えば図12A及び図12Bに示されるように、前記照合用画像の画像識別情報と、ジェスチャーを識別するためのジェスチャー識別情報と、レイアウトパターンを識別するためのレイアウトパターン識別情報との対応関係がテーブル形式で記憶されている。すなわち、登録ユーザーとその登録ユーザーがするジェスチャーとの組み合わせに応じてレイアウトパターンが予め設定されている。
 レイアウト処理部92は、撮影画像G1に基づき、その撮影画像G1にジェスチャーをする人物の存在の有無を判定する。本実施形態では、人物のジェスチャーとは、図12Aに示されるように人物の手によるジェスチャーであって、突き出す指の数に応じたバリエーションP1~P6を有する。図12Bに、このような手によるジェスチャーをする人物の画像を含んだ撮影画像G1の一例を示す。レイアウト処理部92は、例えば図12Bに示されるような撮影画像G1から、色や形等、手の特徴点に基づいて、手の画像(図12Bの矢印300参照)及びその手によるジェスチャーの種類を検出する。
 レイアウト処理部92は、テーブル記憶部75に格納されているテーブルに基づき、検出したジェスチャーの識別情報と、先に行われた認証時においてユーザーの顔の画像と一致した照合用画像の画像識別情報とに基づいて、レイアウトパターン情報の識別情報を検出する。そして、この検出した識別情報のレイアウトパターン情報をレイアウトパターン記憶部74から読み出す。これ以降、図5のステップS510の処理が行われる。
 このように、ユーザーの顔とジェスチャーをする手とが一緒に撮影部8で撮影された場合、その撮影画像に含まれる前記顔の画像に基づいて前記ユーザー認証処理が行われ、認証されると、ジェスチャーをする手の画像に基づいてページレイアウトが決定される。よって、前記実施形態と同様、ユーザー認証機能及び画像合成機能の利用時の利便性を向上することができる。
 (2)前記各実施形態では、画像読取部2により読み取られる読取画像をレイアウト対象の素材画像とされている。しかし、前記素材画像は、前記読取画像に限定されるものではなく、例えば画像形成装置1の記憶部7に予め格納された画像でもよい。この場合、その画像には予め付された画像番号などの識別情報が対応付けられている。そして、レイアウト処理部92は、前記レイアウト枠に記載されている前記識別情報に対応する前記素材画像を記憶部7に記憶されている前記素材画像と前記識別情報との対応関係に基づいて検出する。レイアウト処理部92は、そのレイアウト枠の前記レイアウト原稿に対する相対位置に基づいて、検出した前記素材画像をレイアウトする。
 (3)レイアウト処理部902は、前記閉領域内に記載されている数字の向き(傾き)を検出し、その向きに応じて前記素材画像をレイアウトしてもよい。例えば、図13A及び図13Bに示されるように、前記閉領域内に記載されている数字「3」が反時計回りに90°回転された状態で記載されている場合、レイアウト処理部902は、前記閉領域に対応するレイアウト位置にレイアウトする素材画像を反時計周りに90°回転させてレイアウトする。
 (4)シートに描かれる手書き線が途中で欠落していることによりレイアウト原稿に記載されているレイアウト枠によって閉領域が形成されていない場合には、前記制御部9が、その欠落部分を補完する処理を行うようにしてもよい。また、手書き線が曲がっている場合に、前記制御部9が、その手書き線を直線化してレイアウト位置を設定する処理を行うようにしてもよい。なお、手書き線が円又は楕円である場合には、前記制御部9が、その手書き線のブレを修正して滑らかな円又は楕円にレイアウト枠の形状を設定する処理を実行することも考えられる。
 (5)画像形成装置1において、前記制御部9が、ユーザーによる操作入力に応じて、ユーザーがレイアウト原稿を作成するために必要な印刷シートを図略の給紙部から排紙部に排出させることにより、その印刷シートがユーザーに提供されてもよい。
 (6)前記実施形態では、レイアウト処理部92は、撮影画像G1及びレイアウト原稿L1の画像G2の大きさと、撮影部8からレイアウト原稿L1までの距離とに基づいて、レイアウト原稿L1の実際のサイズが求められる。ただし、レイアウト原稿L1の実際のサイズの算出方法は、これに限られない。例えば、撮影画像G1に含まれる人物の大きさとレイアウト原稿L1の大きさとの比率と、撮影部8からレイアウト原稿L1までの距離とに基づいて、レイアウト原稿L1の実際のサイズが算出される形態も採用可能である。また、撮影画像G1に含まれるレイアウト原稿L1の画像の大きさと、撮影画像G1に含まれる人物の大きさとレイアウト原稿L1の大きさとの比率と、撮影部8からレイアウト原稿L1までの距離とに基づいて、レイアウト原稿L1の実際のサイズが算出される形態も採用可能である。

Claims (8)

  1.  撮影部と、
     前記撮影部から得られる撮影画像に基づいて前記撮影画像に人物の顔の画像が含まれているか否かを判定し、前記撮影画像に人物の顔の画像が含まれていると判定した場合に、前記人物の顔の画像に基づいて前記人物の認証処理を行う認証処理部と、
     前記認証処理部により認証されると、前記撮影画像に基づいて前記撮影画像にページレイアウトを特定するためのレイアウト特定画像が含まれているか否かを判定し、前記撮影画像に前記レイアウト特定画像が含まれていると判定した場合に、前記レイアウト特定画像により特定されるページレイアウトに従って素材画像をレイアウトした合成画像を生成するレイアウト処理部と、
     を備える情報処理装置。
  2.  前記レイアウト特定画像は、前記ページレイアウトを構成するレイアウト枠と、前記レイアウト枠に合わせてレイアウトすべき前記素材画像を指定するための画像指定情報とが示されたレイアウト原稿の画像である請求項1に記載の情報処理装置。
  3.  原稿の画像を読み取る画像読取部を有し、
     前記素材画像は、前記画像読取部により読み取られる読取画像であり、
     前記画像指定情報は、前記読取画像の前記画像読取部による読取順を示す数字であり、
     前記レイアウト処理部は、前記読取画像をその読取順に対応する数字が記載された前記レイアウト枠の前記レイアウト原稿に対する相対位置に基づいてレイアウトする請求項2に記載の情報処理装置。
  4.  前記レイアウト処理部は、前記レイアウト枠に記載されている前記数字の向きを検出し、その向きに応じて前記素材画像をレイアウトする請求項3に記載の情報処理装置。
  5.  前記素材画像をその識別情報とともに記憶する画像記憶部を有し、
     前記画像指定情報は、前記画像記憶部に記憶されている前記素材画像の識別情報であり、
     前記レイアウト処理部は、前記レイアウト枠に記載されている識別情報に対応する前記素材画像を前記画像記憶部に記憶されている前記素材画像と前記識別情報との対応関係に基づいて検出し、そのレイアウト枠の前記レイアウト原稿に対する相対位置に基づいて、検出した前記素材画像をレイアウトする請求項2に記載の情報処理装置。
  6.  前記レイアウト処理部は、前記撮影画像に含まれる前記レイアウト原稿の画像の大きさ、及び、前記撮影画像に含まれる人物の大きさと前記レイアウト原稿の大きさとの比率の少なくとも一方と、前記撮影部から前記レイアウト原稿までの距離とに基づいて、前記レイアウト原稿の実際のサイズを検出し、この検出した前記レイアウト原稿の実際のサイズに基づいて前記合成画像のサイズを決定する請求項2に記載の情報処理装置。
  7.  前記レイアウト特定画像は、予め定められたジェスチャーをする人物の画像であり、
     前記ジェスチャーの種類と前記ページレイアウトの種類との対応関係を記憶するレイアウト記憶部を備え、
     前記レイアウト処理部は、前記撮影画像に含まれている前記人物の画像が示すジェスチャーに対応するページレイアウトを前記レイアウト記憶部に記憶されている前記ジェスチャーと前記ページレイアウトとの対応関係に基づいて検出し、そのページレイアウトに従って前記素材画像をレイアウトする請求項1に記載の情報処理装置。
  8.  撮影部から得られる撮影画像に基づいて前記撮影画像に人物の顔の画像が含まれているか否かを判定し、前記撮影画像に人物の顔の画像が含まれていると判定した場合に、前記人物の顔の画像に基づいて前記人物の認証処理を行う第1ステップと、
     前記第1ステップにより認証されると、前記撮影画像に基づいて前記撮影画像にページレイアウトを特定するためのレイアウト特定画像が含まれているか否かを判定し、前記撮影画像に前記レイアウト特定画像が含まれていると判定した場合に、前記レイアウト特定画像により特定されるページレイアウトに従って素材画像をレイアウトした合成画像を生成する第2ステップと、
     を有する情報処理方法。
PCT/JP2015/067775 2014-07-28 2015-06-19 情報処理装置、情報処理方法 WO2016017320A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/899,547 US9438766B2 (en) 2014-07-28 2015-06-19 Information processing apparatus, information processing method
JP2015560477A JP6038359B2 (ja) 2014-07-28 2015-06-19 情報処理装置、情報処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-153192 2014-07-28
JP2014153192 2014-07-28

Publications (1)

Publication Number Publication Date
WO2016017320A1 true WO2016017320A1 (ja) 2016-02-04

Family

ID=55217225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/067775 WO2016017320A1 (ja) 2014-07-28 2015-06-19 情報処理装置、情報処理方法

Country Status (3)

Country Link
US (1) US9438766B2 (ja)
JP (1) JP6038359B2 (ja)
WO (1) WO2016017320A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064164A (ja) * 2019-10-15 2021-04-22 シャープ株式会社 画像形成装置、制御プログラムおよび制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234500A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp 画像レイアウト装置、画像レイアウト方法、画像レイアウト装置におけるプログラム、及び画像編集装置
JP2007082085A (ja) * 2005-09-16 2007-03-29 Fujifilm Corp 画像レイアウト装置および方法並びにプログラム
JP2013083689A (ja) * 2011-10-06 2013-05-09 Kddi Corp 閲覧者と被写体人物との関係に応じて表示サイズを決定する画面出力装置、プログラム及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162506A (ja) * 2001-11-22 2003-06-06 Sony Corp ネットワーク情報処理システム、情報提供管理装置、情報処理装置及び情報処理方法
JP2008092317A (ja) 2006-10-03 2008-04-17 Canon Inc 画像読取記録装置および画像読取記録装置の制御方法
JP2013131878A (ja) * 2011-12-21 2013-07-04 Sony Corp 画像処理装置、画像処理方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234500A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp 画像レイアウト装置、画像レイアウト方法、画像レイアウト装置におけるプログラム、及び画像編集装置
JP2007082085A (ja) * 2005-09-16 2007-03-29 Fujifilm Corp 画像レイアウト装置および方法並びにプログラム
JP2013083689A (ja) * 2011-10-06 2013-05-09 Kddi Corp 閲覧者と被写体人物との関係に応じて表示サイズを決定する画面出力装置、プログラム及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064164A (ja) * 2019-10-15 2021-04-22 シャープ株式会社 画像形成装置、制御プログラムおよび制御方法
JP7315430B2 (ja) 2019-10-15 2023-07-26 シャープ株式会社 画像形成装置、制御プログラムおよび制御方法

Also Published As

Publication number Publication date
US20160205284A1 (en) 2016-07-14
JP6038359B2 (ja) 2016-12-07
JPWO2016017320A1 (ja) 2017-04-27
US9438766B2 (en) 2016-09-06

Similar Documents

Publication Publication Date Title
US9380179B2 (en) AR display device in which an image is overlapped with a reality space, AR display control device, print condition setting system, print system, print setting display method, and non-transitory computer-readable recording medium
JP5900468B2 (ja) Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム
US10757284B2 (en) Image forming apparatus, storage medium, and control method that switches from sleep mode to standby mode upon detecting a job data of a registered user
US10313536B2 (en) Information processing system, electronic apparatus, information processing apparatus, information processing method, electronic apparatus processing method and non-transitory computer readable medium to confirm difference in meeting contents using sound information
JP2016170528A (ja) 頭部装着型表示装置及び頭部装着型表示装置における外部機器との接続方法
JP6974032B2 (ja) 画像表示装置、画像形成装置、制御プログラムおよび制御方法
US10063733B2 (en) Alignment sheet, image forming apparatus and method for aligning image forming position
JP2006344100A (ja) 認証装置、画像出力装置
US10477055B2 (en) Image forming apparatus
JP6038359B2 (ja) 情報処理装置、情報処理方法
JP6642316B2 (ja) 情報処理システム、電子機器、情報処理装置、情報処理方法、電子機器処理方法、及びプログラム
JP6454991B2 (ja) 印刷条件設定装置、印刷条件設定システム、印刷条件設定方法
CN109151241B (zh) 印刷系统、显示装置、显示装置的控制方法以及记录介质
JP2009135578A (ja) 画像処理方法、画像処理装置、画像形成装置及び画像処理プログラム
JP6245690B2 (ja) 画像形成装置
JP6988679B2 (ja) 画像形成システム
JP6881373B2 (ja) 画像形成装置
JP5801332B2 (ja) 画像形成装置及び画像形成方法
JP6500842B2 (ja) 印刷システム
JP2019129357A (ja) 画像処理装置
JP7147369B2 (ja) 画像形成システム、画像形成装置、情報処理装置、画像形成方法
JP7388428B2 (ja) 画像処理装置、画像処理装置の制御方法
JP6141237B2 (ja) 画像処理装置、画像処理方法
US20090232402A1 (en) Image Processing Apparatus, Image Processing Method, and Computer Program for Image Processing
JP2016175263A (ja) 装置、プログラム及び方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015560477

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14899547

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15827910

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15827910

Country of ref document: EP

Kind code of ref document: A1