WO2017056677A1 - ミシン及びプログラムを記録した記録媒体 - Google Patents

ミシン及びプログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2017056677A1
WO2017056677A1 PCT/JP2016/072303 JP2016072303W WO2017056677A1 WO 2017056677 A1 WO2017056677 A1 WO 2017056677A1 JP 2016072303 W JP2016072303 W JP 2016072303W WO 2017056677 A1 WO2017056677 A1 WO 2017056677A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
range
sewing machine
unit
pixels
Prior art date
Application number
PCT/JP2016/072303
Other languages
English (en)
French (fr)
Inventor
一崇 今泉
Original Assignee
ブラザー工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブラザー工業株式会社 filed Critical ブラザー工業株式会社
Publication of WO2017056677A1 publication Critical patent/WO2017056677A1/ja
Priority to US15/803,606 priority Critical patent/US10450682B2/en

Links

Images

Classifications

    • DTEXTILES; PAPER
    • D05SEWING; EMBROIDERING; TUFTING
    • D05BSEWING
    • D05B19/00Programme-controlled sewing machines
    • D05B19/02Sewing machines having electronic memory or microprocessor control unit
    • D05B19/04Sewing machines having electronic memory or microprocessor control unit characterised by memory aspects
    • D05B19/10Arrangements for selecting combinations of stitch or pattern data from memory ; Handling data in order to control stitch format, e.g. size, direction, mirror image
    • DTEXTILES; PAPER
    • D05SEWING; EMBROIDERING; TUFTING
    • D05BSEWING
    • D05B19/00Programme-controlled sewing machines
    • D05B19/02Sewing machines having electronic memory or microprocessor control unit
    • DTEXTILES; PAPER
    • D05SEWING; EMBROIDERING; TUFTING
    • D05BSEWING
    • D05B29/00Pressers; Presser feet
    • DTEXTILES; PAPER
    • D05SEWING; EMBROIDERING; TUFTING
    • D05BSEWING
    • D05B55/00Needle holders; Needle bars
    • DTEXTILES; PAPER
    • D05SEWING; EMBROIDERING; TUFTING
    • D05CEMBROIDERING; TUFTING
    • D05C5/00Embroidering machines with arrangements for automatic control of a series of individual steps
    • D05C5/02Embroidering machines with arrangements for automatic control of a series of individual steps by electrical or magnetic control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition

Definitions

  • An object of the present invention is to provide a sewing machine capable of acquiring a composite image and a recording medium on which a program is recorded while suppressing the occurrence of color shading at the joint between partial images.
  • the sewing machine includes an imaging unit having a predetermined imaging range, a conveyance unit that conveys the object to be photographed relative to the imaging unit, and the object to be conveyed by the conveyance unit.
  • a specification unit that specifies a target range that is a range that can be captured by the imaging unit and is wider than the imaging range, and the object to be captured by the transport unit with respect to the imaging unit.
  • the relative position of the object to be imaged with respect to the imaging unit in the second direction orthogonal to the first direction is changed so that the imaging unit captures a part of the target range while relatively transporting in one direction.
  • the calculation unit for calculating the minimum number of times of conveyance in the first direction when photographing the entire target range and a plurality of pixels generated by photographing the color reference member by the photographing unit.
  • Base representing the reference image Based on the color information of the image data, a specific range that is a range within the imaging range that can capture the entire target range with the minimum number of conveyance times calculated by the calculation means, and the relative position corresponding to the specific range
  • a setting unit for setting the imaging unit and the transport unit, and relative to the imaging unit relative to the imaging unit, the object to be captured at the relative position set by the setting unit.
  • the recording medium that records the program according to the second aspect of the present invention records a program for causing the sewing machine computer to function as various processing means of the sewing machine.
  • FIG. 1 is a perspective view of a sewing machine 1.
  • FIG. 4 is an explanatory diagram showing a configuration of a lower end portion of a head portion 14.
  • 2 is a block diagram showing an electrical configuration of the sewing machine 1.
  • FIG. It is a flowchart of a main process. It is a graph which shows the relationship between a main scanning direction pixel number and a gray scale value. It is explanatory drawing of the relationship with the relative position of the to-be-photographed object with respect to the imaging
  • photography range H1, the specific range H2, and the image sensor 35 photography range H1, the specific range H2, and the image sensor 35.
  • photography range H1, the specific range H2, and the image sensor 35 photography range H1, the specific range H2, and the image sensor 35.
  • the vertical direction, the lower right side, the upper left side, the lower left side, and the upper right side in FIG. 1 are the vertical direction, front, rear, left, and right sides of the sewing machine 1, respectively. That is, the surface on which a later-described liquid crystal display (hereinafter referred to as LCD) 15 is disposed is the front surface of the sewing machine 1.
  • the longitudinal direction of the bed portion 11 and the arm portion 13 is the left-right direction of the sewing machine 1.
  • the side on which the pedestal 12 is disposed is the right side.
  • the extending direction of the pedestal 12 is the vertical direction of the sewing machine 1.
  • the sewing machine 1 includes a bed portion 11, a pillar portion 12, an arm portion 13, and a head portion 14.
  • the bed portion 11 is a base portion of the sewing machine 1 that extends in the left-right direction.
  • the pedestal 12 is erected upward from the right end of the bed 11.
  • the arm portion 13 faces the bed portion 11 and extends leftward from the upper end of the pedestal column portion 12.
  • the head 14 is a part that is connected to the left tip of the arm 13.
  • the bed portion 11 includes a needle plate 21 (see FIG. 2) on the upper surface thereof.
  • the needle plate 21 has a needle hole 22 (see FIG. 6) into which a sewing needle 7 described later can be inserted.
  • a sewing product for example, a work cloth
  • the sewing machine 1 includes a feed dog, a feed mechanism, a shuttle mechanism, and the like (not shown) on the lower side of the needle plate 21 (that is, in the bed portion 11).
  • the feed dog is driven by a feed mechanism during normal sewing that is not embroidery sewing, and moves the workpiece to be sewn by a predetermined amount of movement.
  • the shuttle mechanism entangles the upper thread (not shown) with the lower thread (not shown) below the needle plate 21.
  • the sewing machine 1 includes a moving mechanism 40.
  • the moving mechanism 40 is configured to be able to relatively convey the sewing object C (photographed object) held in the embroidery frame 50 with respect to the image sensor 35 and the needle bar 6.
  • the moving mechanism 40 includes a main body 41 and a carriage 42.
  • the carriage 42 includes a frame holder (not shown), a Y-axis moving mechanism (not shown), and a Y-axis motor 84 (see FIG. 3).
  • the frame holder is provided on the right side surface of the carriage 42.
  • One selected from a plurality of types of embroidery frames 50 having different sizes and shapes can be attached to and detached from the frame holder.
  • the Y-axis moving mechanism moves the frame holder in the front-rear direction (Y-axis direction).
  • the Y-axis motor 84 drives the Y-axis moving mechanism.
  • the embroidery frame 50 of the present embodiment includes a first frame member 51, a second frame member 52, and an attachment portion 55, and can hold the sewing product C with the first frame member 51 and the second frame member 52. is there.
  • the sewable area 54 set inside the embroidery frame 50 is an area where the sewing machine 1 can form a seam.
  • the attachment part 55 is a part attached to the frame holder.
  • the attachment portion 55 has a shape unique to the embroidery frame 50.
  • the main body 41 includes an X-axis moving mechanism (not shown) and an X-axis motor 83 (see FIG. 3).
  • the X-axis moving mechanism moves the carriage 42 in the left-right direction (X-axis direction).
  • the X-axis motor 83 drives the X-axis movement mechanism.
  • the moving mechanism 40 can move the embroidery frame 50 mounted on the carriage 42 (specifically, a frame holder) to a position indicated by a unique XY coordinate system (embroidery coordinate system).
  • a unique XY coordinate system embroidery coordinate system
  • the right side, the left side, the front side, and the rear side of the sewing machine 1 are the X plus direction, the X minus direction, the Y minus direction, and the Y plus direction.
  • An LCD 15 is provided on the front surface of the pedestal 12.
  • the LCD 15 displays an image including various items such as commands, illustrations, setting values, and messages.
  • a touch panel 26 capable of detecting the pressed position is provided on the front side of the LCD 15.
  • the CPU 61 (see FIG. 3) of the sewing machine 1 recognizes the item selected in the image based on the detected pressing position.
  • the pressing operation of the touch panel 26 by the user is referred to as a panel operation.
  • the user can select a pattern to be sewn and a command to be executed by operating the panel.
  • the pedestal 12 includes a sewing machine motor 81 (see FIG. 3).
  • FIG. 1 shows a state where the cover 16 is opened.
  • a thread accommodating portion 18 is provided below the cover 16 (that is, inside the arm portion 13).
  • the yarn accommodating portion 18 can accommodate the yarn spool 20 around which the upper yarn is wound.
  • a main shaft (not shown) extending in the left-right direction is provided inside the arm portion 13. The main shaft is rotationally driven by a sewing machine motor 81.
  • Various switches including a start / stop switch 29 are provided at the lower left part of the front surface of the arm unit 13.
  • the start / stop switch 29 starts or stops the operation of the sewing machine 1. That is, the start / stop switch 29 is used to input an instruction to start or stop sewing.
  • the head 14 is provided with a needle bar 6, a presser bar 8, a needle bar vertical movement mechanism 34, and the like.
  • a sewing needle 7 is detachably attached to the lower end of the needle bar 6.
  • a presser foot 9 is detachably attached to the lower end portion of the presser bar 8.
  • the needle bar 6 is provided at the lower end of the needle bar vertical movement mechanism 34.
  • the needle bar vertical movement mechanism 34 drives the needle bar 6 in the vertical direction by rotating the main shaft.
  • the image sensor 35 is, for example, a well-known CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the image sensor 35 is a known area sensor in which a plurality of imaging elements 37 (for example, a plurality of CMOSs) arranged in the main scanning direction are arranged in a plurality of rows in the sub-scanning direction.
  • the main scanning direction and the sub-scanning direction correspond to the X-axis direction (left-right direction) and the Y-axis direction (front-back direction) of the sewing machine 1, respectively.
  • the entire range that the image sensor 35 captures in one capture is referred to as a capture range H1 (see FIG. 6).
  • the number of image sensors 37 arranged in the main scanning direction is larger than the number of image sensors 37 arranged in the sub-scanning direction. That is, since the number of pixels in the main scanning direction is larger than the number of pixels in the sub-scanning direction, the imaging range H1 has a rectangular shape whose main scanning direction is longer than the sub-scanning direction.
  • the image sensor 35 of the present embodiment is an area sensor having 1280 pixels in the main scanning direction and 720 pixels in the sub-scanning direction.
  • the shooting range H1 is narrower than the target range R described later.
  • the image sensor 35 is arranged so as to be able to photograph an area including the lower part of the needle bar 6 and can generate image data.
  • the output image data is stored in a predetermined storage area of the RAM 63 (see FIG. 3).
  • An image coordinate system (hereinafter also referred to as “image coordinate system”) represented by image data generated by the image sensor 35 and a coordinate system of the entire space (hereinafter also referred to as “world coordinate system”) are used.
  • the parameters are associated in advance by parameters stored in the flash memory 64 (see FIG. 3).
  • the world coordinate system and the embroidery coordinate system are associated in advance by parameters stored in the flash memory 64. Therefore, the sewing machine 1 can execute processing for specifying the coordinates of the embroidery coordinate system based on the image data generated by the image sensor 35.
  • the image sensor 35 of the present embodiment has a function of generating image data in which white balance is corrected. More specifically, the image sensor 35 has an auto white balance function (AWB) and a manual white balance function (MWB).
  • AVB is a function for correcting the color temperature of image data using a determined white balance value (determined WB value) determined based on the color information of the image data.
  • MWB is a function that corrects the color temperature of image data using a set white balance value (set WB value).
  • the set WB value is a white balance value (WB value) set by the CPU 61.
  • the color information is information representing a color.
  • the color information of the present embodiment is represented by gradation values (numbers from 0 to 255) of three primary colors of red (R), green (G), and blue (B).
  • the sewing machine 1 includes a CPU 61, a ROM 62, a RAM 63, a flash memory 64, and an input / output interface (I / O) 66.
  • the CPU 61 is connected to the ROM 62, the RAM 63, the flash memory 64, and the input / output I / O 66 via the bus 65.
  • the CPU 61 is in charge of main control of the sewing machine 1 and executes various calculations and processes related to photographing and sewing in accordance with various programs stored in the ROM 62.
  • the ROM 62 includes a plurality of storage areas including a program storage area. In the program storage area, various programs for operating the sewing machine 1 (for example, programs for executing main processing described later) are stored.
  • the RAM 63 is provided with a storage area for storing calculation results and the like calculated by the CPU 61.
  • the flash memory 64 stores various parameters for the sewing machine 1 to execute various processes.
  • Drive circuits 71 to 74, a touch panel 26, a start / stop switch 29, an image sensor 35, and a detector 36 are connected to the input / output I / O 66.
  • the detector 36 is configured to detect that the embroidery frame 50 is mounted on the moving mechanism 40 and output a detection result corresponding to the type of the embroidery frame 50.
  • a sewing machine motor 81 is connected to the drive circuit 71.
  • the drive circuit 71 drives the sewing machine motor 81 in accordance with a control signal from the CPU 61.
  • the needle bar vertical movement mechanism 34 (see FIG. 2) is driven via the main shaft (not shown) of the sewing machine 1, and the needle bar 6 moves up and down.
  • An X-axis motor 83 is connected to the drive circuit 72.
  • a Y-axis motor 84 is connected to the drive circuit 73.
  • the drive circuits 72 and 73 drive the X-axis motor 83 and the Y-axis motor 84, respectively, according to control signals from the CPU 61.
  • the embroidery frame 50 mounted on the moving mechanism 40 is moved in the left-right direction (X-axis direction) and the front-rear direction (Y-axis direction) by the amount of movement corresponding to the control signal.
  • the drive circuit 74 displays an image on the LCD 15 by driving the LCD 15 in accordance with a control signal from the CPU 61.
  • the sewing machine 1 will be briefly described.
  • the embroidery frame 50 is moved in the X-axis direction and the Y-axis direction by the moving mechanism 40, and the needle bar vertical movement mechanism 34 (see FIG. 2) and the shuttle mechanism (illustrated). (Omitted) is driven.
  • the embroidery pattern is sewn on the workpiece C held on the embroidery frame 50 by the sewing needle 7 attached to the needle bar 6.
  • the main process of the sewing machine 1 will be described with reference to FIGS.
  • the main process alignment between the sewing object C held in the embroidery frame 50 and the embroidery pattern to be sewn is performed, and the embroidery pattern is sewn according to the alignment result.
  • An image obtained by photographing the sewing product C in the sewable area 54 is used for the alignment process between the sewing product C and the embroidery pattern.
  • the main process is started when the user inputs an instruction to select an embroidery pattern to be sewn by panel operation.
  • the CPU 61 detects the instruction, it reads out a program for executing the main processing stored in the program storage area of the ROM 62 into the RAM 63.
  • the CPU 61 executes the following steps in accordance with instructions included in the program read into the RAM 63.
  • the CPU 61 specifies the target range R (S1).
  • the target range R can be photographed by the image sensor 35 when the moving mechanism 40 conveys the object to be photographed (the article to be sewn C in this example) held by the embroidery frame 50 relative to the image sensor 35.
  • the range is wider than the shooting range H1.
  • the CPU 61 of this example specifies the type of the embroidery frame 50 based on the detection result of the detector 36 and specifies the sewable area 54 of the embroidery frame 50 as the target range R.
  • the correspondence between the type of the embroidery frame 50 and the sewing area 54 is stored in the flash memory 64 in advance.
  • the CPU 61 in this example specifies the target range R by the number of pixels of the image sensor 35. In S1, for example, a range of 1600 pixels in the left-right direction and 2850 pixels in the front-rear direction is specified as the target range R.
  • the CPU 61 calculates the minimum number of times of conveyance (S2).
  • the sewing machine 1 of this example generates a composite image that represents the entire target range R as follows. While the sewing machine 1 conveys the embroidery frame 50 in which the object to be photographed is held by the moving mechanism 40 relative to the image sensor 35 in the front-rear direction (first direction) while keeping the position in the left-right direction constant, The image sensor 35 captures a part of the target range R. The sewing machine 1 repeats the same processing by changing the relative position of the subject to the image sensor 35 in the left-right direction (second direction).
  • the minimum number of times of conveyance is the minimum number of times of conveyance in the front-rear direction for conveyance while photographing when photographing the entire target range R specified in S1.
  • the size of the target range R in the left-right direction is 1600 pixels
  • the size of the shooting range H1 in the left-right direction is 1280 pixels.
  • the CPU 61 sets 2 which is an integer obtained by rounding up the quotient obtained by dividing the size of the target range R in the left-right direction by the size of the shooting range H1 in the left-right direction as the minimum number of conveyances.
  • the minimum number of times of conveyance does not include the number of times that the object is conveyed in the front-rear direction without photographing.
  • the CPU 61 calculates the width H2W of the specific range H2 in the main scanning direction (S3).
  • the specific range H ⁇ b> 2 is an image that can capture the entire target range R specified in S ⁇ b> 1 by conveying the object to be imaged relative to the image sensor 35 in the front-rear direction with the minimum number of conveyance times calculated in S ⁇ b> 2.
  • the range is within the range H1.
  • the CPU 61 generates a plurality of partial image data representing partial images captured in a specific range H2 within the imaging range H1.
  • the CPU 61 combines the generated plurality of partial image data to generate combined image data representing the entire target range R.
  • the length in the main scanning direction (left-right direction) of the specific range H2 for each conveyance in which the relative positions in the left-right direction between the image sensor 35 and the object to be photographed are the same.
  • the CPU 61 calculates 800 pixels as the width H2W of the specific range H2 in the main scanning direction by dividing the width H1W of the target range R in the main scanning direction by the minimum number of times of conveyance.
  • the reference image data represents a reference image 95 (see FIG. 5) composed of a plurality of pixels generated by photographing a color reference member by the image sensor 35.
  • the color reference member is a member that serves as a color reference, and is, for example, a known flat reflector.
  • the reference image data is data representing the shades of colors caused by factors of the environment in which the sewing machine 1 is used, and is used for setting the specific range H2.
  • the reference image data of S4 in this example is image data obtained by photographing a member serving as a white reference by the image sensor 35.
  • the reference image data is represented by a gray scale value for each of a plurality of pixels.
  • the reference image data is generated by photographing the color reference member by the image sensor 35 at the time of factory shipment, and is stored in the flash memory 64.
  • the reference image data is different data for each sewing machine reflecting the attachment error of the image sensor 35 and the like.
  • the CPU61 sets specific range H2 and relative position (S5).
  • the CPU 61 sets the specific range H2 based on the color information of the reference image data representing the reference image 95 composed of a plurality of pixels, which is generated by photographing the color reference member by the image sensor 35 and acquired in S4.
  • the CPU 61 of this example sets the specific range H2 using the gray scale value for each of the plurality of pixels represented by the reference image data as color information.
  • the CPU 61 in this example sets the same range within the shooting range H1 as the specific range H2 regardless of the relative position of the subject to the image sensor 35.
  • the relative position is a position in the left-right direction of the subject (embroidery frame 50) with respect to the image sensor 35 corresponding to the specific range H2.
  • the CPU 61 of this example specifies a gray scale value for each of a plurality of target pixels based on the gray scale value of the reference image 95 represented by the reference image data acquired in S4.
  • the plurality of target pixels are a plurality of pixels arranged in the main scanning direction among the plurality of pixels constituting the reference image 95.
  • a plurality of pixels at a specific position in the sub-scanning direction in the reference image 95 (for example, a plurality of pixels at the center in the front-rear direction of the grayscale image) are used as a plurality of target pixels.
  • the gray scale value in this example is a gradation value expressed in 256 levels from 0 to 255. The larger the gray scale value, the closer to white compared to the case where the gray scale value is small.
  • a graph 90 illustrated in FIG. 5 has a gray scale value of a plurality of target pixels with the pixel number assigned along the main scanning direction (left-right direction) of the reference image 95 as the horizontal axis and the gray scale value as the vertical axis. Indicates change in scale value.
  • a gray scale value corresponding to each of a plurality of target pixels indicates a gray scale value corresponding to one pixel number (that is, one point on the horizontal axis shown in FIG. 5).
  • a graph 90 including a curve 91 in FIG. 5 shows changes in grayscale values of a plurality of pixels arranged in the main scanning direction at a position 98 on the front side in the subscanning direction of the grayscale image.
  • the specific range H2 in the sub-scanning direction is set in advance, and the position 98 is the center of the specific range H2 in the sub-scanning direction.
  • the change in the gray scale value is caused by environmental factors (for example, ambient brightness, light source differences, etc.) in which the sewing machine 1 is used.
  • the CPU 61 acquires the maximum gray scale value 92 based on the gray scale values of the specified target pixels.
  • the maximum value 92 corresponds to the value closest to white.
  • the CPU 61 specifies the intersection between the gray scale value 93 and the curve 91 when the gray scale value 93 is gradually lowered from the maximum value 92. In this example, there are two intersections between the gray scale value 93 and the curve 91. When there are three or more intersections between the gray scale value 93 and the curve 91, the CPU 61 selects two intersections having the maximum distance between the intersections from the three or more intersections.
  • the CPU 61 has a range in which, between the two intersections, the interval between the intersection on one side in the main scanning direction and the intersection on the other side is 800 pixels that is the width H2W of the specific range H2 in the main scanning direction calculated in S3. Is specified as a specific range H2 in the main scanning direction.
  • the CPU 61 determines that the range is narrower than the width H2W of the specific range H2 calculated in S3.
  • the specific range H ⁇ b> 2 is specified such that the difference between the gray scale values is within a predetermined threshold (for example, ⁇ 10%).
  • the CPU 61 includes a pixel having a gray scale value closest to white (maximum value 92) among the plurality of pixels, and the difference between the gray scale values of the pixels at both ends in the main scanning direction is a predetermined value.
  • the following range is set as the specific range H2.
  • the CPU 61 specifies the relative position in the left-right direction of the object to be imaged (embroidery frame 50) with respect to the image sensor 35 to represent the entire target range R by shooting the specific range H2. .
  • the relationship between the range of the object to be photographed (embroidery frame 50) that falls within the photographing range H1 and the relative position is stored in the flash memory 64 in advance.
  • the CPU 61 refers to the relationship between the range of the object to be captured that falls within the imaging range H1 and the relative position, and relative to the image sensor 35 in the left-right direction with respect to the image sensor 35 for capturing the specific range H2. Identify the location.
  • the specific range H2 is set for the shooting range H1 corresponding to the entire reference image 95 in FIG.
  • the relative position in the main scanning direction (left-right direction) of the object to be imaged (embroidery frame 50) with respect to the image sensor 35 at the time of the first conveyance is the range 961 of the object to be imaged by the image sensor 35. It is a position where can be photographed.
  • partial image data representing the range 971 is used to generate composite image data representing the entire target range R.
  • the left half LR of the target range R is represented by a plurality of partial images obtained by the first conveyance in the main scanning direction. As shown in the lower part of FIG.
  • the relative position of the object to be imaged (embroidery frame 50) in the sub-scanning direction with respect to the image sensor 35 at the time of the second conveyance is such that the image sensor 35 can image the area 962 of the object to be imaged.
  • partial image data representing the range 972 is used for generating composite image data.
  • the right half RR of the target range R is represented by a plurality of partial images obtained by the second conveyance in the main scanning direction.
  • the CPU61 acquires the setting data of the image sensor 35 memorize
  • the setting data includes data used in processing for correcting data used in MWB and image data acquired from the image sensor 35.
  • the setting data in this example is a WB value, white reference image data, and black reference image data.
  • the WB value acquired in S6 is a default value or a value stored in the latest color reference data processing.
  • the default value is a value determined based on image data obtained by the image sensor 35 photographing the color reference member when the sewing machine 1 is shipped from the factory.
  • the color reference data process is a process that is executed separately from the main process and determines the WB value based on image data obtained by the image sensor 35 photographing the color reference member.
  • the white reference image data is image data obtained by photographing a member serving as a white reference by the image sensor 35.
  • the white reference member may be the same as or different from the member used to capture the reference image data in S4.
  • the black reference image data is image data obtained by photographing the black reference member with the image sensor 35.
  • the white reference image data and the black reference image data are default values or values stored in the latest color reference data processing.
  • the white reference image data and the black reference image data are data in which the white balance is adjusted using the acquired WB value.
  • the reference image data in S4 is represented by a gray scale value, whereas the white reference image data is a gradation value (from 0) of three primary colors of red (R), green (G), and blue (B). 255).
  • the CPU 61 sets the AWB of the image sensor 35 to OFF, and sets the MWB of the image sensor 35 having the WB value acquired in S6 as the set WB value to ON (S7).
  • the CPU 61 controls the drive circuits 72 and 73 to move the embroidery frame 50 (S8).
  • the CPU 61 moves the embroidery frame 50 backward at a constant speed after moving the embroidery frame 50 to the shooting start position (upper side in FIG. 6) at the relative position in the left-right direction of the first conveyance specified in S5.
  • the CPU 61 moves the embroidery frame 50 to the photographing end position at the relative position in the left-right direction of the first conveyance specified in S5, the photographing at the relative position in the left-right direction of the second conveyance specified in S5.
  • the embroidery frame 50 is moved backward at the same speed as the embroidery frame 50.
  • the CPU 61 moves the embroidery frame 50 to the photographing end position at the relative position in the left-right direction of the second conveyance specified in S5.
  • the relative position in the front-rear direction may be the same between the photographing end position of the first conveyance and the photographing end position of the second conveyance.
  • the CPU 61 causes the image sensor 35 to continuously photograph the target range R in synchronization with the movement of the embroidery frame 50, and acquires a plurality of partial image data (S9). More specifically, while the image sensor 35 is moving from the shooting start position of the first conveyance to the shooting end position, the target range R is partially shot a plurality of times with the shooting range H1 as one shooting unit. Thus, the entire left half LR of the target range R is photographed. While moving from the shooting start position of the second conveyance to the shooting end position, the image sensor 35 uses the shooting range H1 as a single shooting unit, and partially captures the target range R a plurality of times. The entire right half RR of the range R is photographed.
  • the image sensor 35 corrects a plurality of captured image data using the set WB value set in S7.
  • the CPU 61 acquires a plurality of corrected image data from the image sensor 35.
  • CPU61 acquires the data showing the image corresponding to the specific range H2 specified by S5 among several corrected image data as several partial image data.
  • the CPU 61 corrects the plurality of partial image data stored in S9 based on the white reference image data and the black reference image data (S10).
  • the CPU 61 performs known shading correction on each of the plurality of partial image data based on the white reference image data and the black reference image data acquired in S6. More specifically, a portion corresponding to the specific range H2 specified in S5 in the white reference image data acquired in S6 is used for the following shading correction. Similarly, a portion corresponding to the specific range H2 specified in S5 in the black reference image data acquired in S6 is used for the following shading correction.
  • An image represented by the white reference image data is referred to as a white reference image
  • an image represented by the black reference image data is referred to as a black reference image.
  • R, G, and B gradation values are obtained for N rows and M columns (N and M are natural numbers) of a plurality of pixels in a matrix that form the white reference image.
  • gradation values of R, G, and B in the pixels in N rows and M columns among the plurality of pixels in a matrix that form the black reference image are acquired.
  • the R, G, and B gradation values of the pixels in N rows and M columns among the plurality of pixels in a matrix that form the partial image are acquired.
  • the gradation value of the white reference image data is W
  • the gradation value of the black reference image data is B
  • the gradation value of the partial image data is S
  • the corrected data D Is obtained by the following equation.
  • Data D after correction (SB) * 255 / (WB)
  • each of the plurality of partial image data is based on white reference image data and black reference image data obtained by shooting under the same shooting conditions (for example, brightness and light source) as the plurality of partial image data. It is corrected. That is, the plurality of partial images are color-corrected using the white reference image and the black reference image so as to suppress the influence of the actual usage environment of the sewing machine 1. Therefore, the sewing machine 1 can acquire a plurality of partial image data expressed in appropriate colors that make the color of the image natural.
  • a portion corresponding to the specific range H2 specified in S5 among the white reference image data and the black reference image data is used for shading correction of a plurality of partial image data.
  • Both ends of the specific range H2 specified in S5 in the main scanning direction correspond to the same or approximate gray scale values in the gray scale image of the reference image 95 (see FIG. 5). Therefore, the sewing machine 1 can perform substantially the same level of color correction at the above-described shading correction on both ends of each partial image in the main scanning direction.
  • the CPU 61 generates composite image data representing the entire target range R based on the plurality of partial image data acquired in S9 and corrected in S10 (S11).
  • the composite image data is image data representing one composite image obtained by combining a plurality of partial images represented by a plurality of partial image data.
  • the composite image data is generated by the following procedure.
  • the CPU 61 generates image data representing an image of the left half LR of the target range R based on a plurality of partial image data corresponding to each of the plurality of partial images obtained by the first conveyance.
  • the CPU 61 generates image data representing an image of the right half RR of the target range R based on a plurality of partial image data corresponding to each of the plurality of partial images obtained by the second conveyance.
  • the CPU 61 generates composite image data representing a composite image of the entire target range R based on the image data representing the image of the left half LR of the target range R and the image data representing the image of the right half RR.
  • the CPU 61 displays a composite image on the LCD 15 based on the composite image data generated in S11 (S12). For example, the CPU 61 displays a screen 120 shown in FIG.
  • the screen 120 includes a composite image 121, an embroidery image 122, an arrangement change key group 123, and a sewing start key 124.
  • the composite image 121 is an image represented by the composite image data generated in S11.
  • the embroidery image 122 is a finished image of the embroidery pattern selected before starting the main process.
  • the arrangement change key group 123 inputs an instruction to change the arrangement of the embroidery pattern on the sewing product C represented by the composite image 121.
  • the sewing start key 124 inputs an instruction to start processing for sewing the embroidery pattern represented by the embroidery image 122 on the sewing product C in the arrangement displayed on the screen 120.
  • the CPU 61 waits until it detects an instruction to start sewing or an instruction to change the arrangement (S13 NO, S15: NO). When the CPU 61 detects an instruction to change the arrangement (S13: NO, S15: YES), the CPU 61 changes the arrangement of the embroidery pattern based on the instruction to change (S16). The CPU 61 displays the embroidery pattern in the changed layout (S12). When the CPU 61 detects an instruction to start sewing (S13: YES), it controls the drive circuits 72 and 73 according to the embroidery data to drive the moving mechanism 40 and move the embroidery frame 50. The CPU 61 drives the drive circuit 71 in synchronization with the drive control of the drive circuits 72 and 73 to drive the needle bar vertical movement mechanism 34 (S14). As a result, a plurality of stitches representing the embroidery pattern are formed on the sewing product C held in the embroidery frame 50 in accordance with the embroidery data. The sewing machine 1 completes the main process.
  • the seam of the composite image generated by the sewing machine 1 will be described.
  • the width H2W in the main scanning direction of the target range R and the specific range H2 is the same.
  • the composite images 45 to 48 are different from each other in the position in the main scanning direction of the specific range with respect to the imaging range H1.
  • the composite image 45 is a part of a composite image obtained by setting a specific range according to the main process.
  • the composite image 46 is a part of a composite image obtained by setting the left end of the specific range to the left end of the shooting range H1.
  • the composite image 47 is a part of a composite image obtained by setting the center of the specific range to the center of the shooting range H1.
  • the composite image 48 is a part of a composite image obtained by setting the right end of the specific range to the right end of the shooting range H1. That is, in the synthesized images 46 to 48, the color information at both ends in the main scanning direction is not considered when the specific range is specified. Therefore, the synthesized images 46 to 48 have color shading differences at the joints M2 to M4 of the partial images synthesized side by side in the main scanning direction (left and right direction). On the other hand, in the synthesized image 45, there is no difference in color density at the joint M1 of the partial images synthesized side by side in the main scanning direction (left-right direction). This is because the specific range H2 is set so that the color information at both ends in the main scanning direction in each partial image becomes substantially the same as the CPU 61 executes each process described above.
  • the image sensor 35 and the moving mechanism 40 are examples of the photographing unit and the conveying unit of the present invention, respectively.
  • the CPU 61 that executes S1 is an example of the specifying means of the present invention.
  • the CPU 61 that executes S2 is an example of the calculation means of the present invention.
  • the CPU 61 that executes S5 is an example of the setting means of the present invention.
  • S8 and S9 are examples of the control means of the present invention.
  • the CPU 61 that executes the process of S11 is an example of a generation unit of the present invention.
  • the sewing machine 1 sets the specific range H2 so that the entire target range R can be photographed with the minimum number of times of conveyance, based on the reference image data obtained by the image sensor 35 photographing the color reference member. Therefore, the sewing machine 1 can quickly generate the composite image data while suppressing the occurrence of color shading at the joint between the partial images.
  • the sewing machine 1 of this example stores the reference image data in the flash memory 64. For this reason, the sewing machine 1 does not have to cause the image sensor 35 to photograph the color reference member every time the main process is executed, and performs processing compared to the case where the process of generating the reference image data is executed every time the main process is executed. It can be simplified.
  • the sewing machine 1 determines the specific range H2 using the gray scale value of the basic image data as color information.
  • the gray scale value suitably represents light and shade due to ambient brightness, light source differences, and the like. Therefore, the sewing machine 1 can appropriately determine the specific range H2 by using the gray scale value as the color information.
  • the sewing machine 1 can speed up the process of determining the specific range H2 based on the color information, compared to the case where the specific range is determined based on the color information represented by color.
  • the sewing machine 1 when the gray scale conversion is performed on both ends in the main scanning direction in the partial image represented by the partial image data, the difference in the gray scale value is equal to or less than a predetermined value.
  • the gray scale value in the case of gray scale conversion represents luminance and brightness. Therefore, the sewing machine 1 can suppress the occurrence of a color shade difference at the joint in the main scanning direction between the partial images.
  • the sewing machine 1 sets, as the specific range H2, a range including pixels having the highest grayscale value 92, that is, the value closest to white. Therefore, according to the sewing machine 1, the range including the brightest part in the photographing range H1 can be set as the specific range H2.
  • the sewing machine 1 can generate composite image data that allows the user to better understand the situation of the object to be photographed, as compared with the case where the specific range H2 does not include a pixel whose gray scale value is closest to white.
  • the sewing machine 1 sets the same range as the specific range H2 with respect to the shooting range H1, regardless of the relative position in the main scanning direction.
  • the positional relationship of the range 971 with respect to the range 961 and the positional relationship of the range 972 with respect to the range 962 are the same.
  • the sewing machine 1 can make the color shades in the main scanning direction in the composite image represented by the composite image data more uniform as compared with the case where the image is taken in the specific range H2 that differs for each relative position.
  • the sewing machine 1 stores the white reference image data and the black reference image data in the flash memory 64. Therefore, the sewing machine 1 can appropriately represent the color of the subject (particularly white and a color close to white) based on the color reference data.
  • the CPU 61 can acquire an image in which color unevenness and illuminance unevenness are reduced by performing known shading correction using the reference image data as compared to before correction.
  • the sewing machine 1 matches the WB value when acquiring the white reference image data and the black reference image data with the WB value when acquiring the partial image data.
  • the sewing machine 1 can improve the correction accuracy of the image data and the plurality of partial images as compared with the case where the white balance of the photographed image is adjusted using a different WB value for each photographing (each image data). That is, the sewing machine 1 can generate a composite image expressed in an appropriate color so that the color of the image becomes natural. For example, when the user wants to arrange an embroidery pattern in accordance with the arrangement of the pattern of the sewing product C, the user can grasp the image of the embroidery finish more accurately and accurately arrange the embroidery pattern.
  • the sewing machine of the present invention is not limited to the above-described embodiment, and various modifications may be made without departing from the gist of the present invention.
  • the following modifications (A) to (C) may be added as appropriate.
  • the configuration of the sewing machine 1 may be changed as appropriate.
  • the sewing machine 1 may be an industrial sewing machine or a multi-needle sewing machine.
  • the imaging unit may be any device that can capture an image, for example, a line sensor in which a plurality of imaging elements 37 are arranged in the main scanning direction.
  • the transport unit only needs to transport the object to be photographed relative to the image capturing unit in the first direction and the direction intersecting the first direction.
  • the conveyance unit may be, for example, a feed dog capable of conveying the object in the front-rear direction and the left-right direction.
  • the conveyance direction (first direction, second direction) of the object to be photographed by the conveyance unit may be changed as appropriate.
  • the program including a command for executing the main process may be stored in the storage device of the sewing machine 1 before the CPU 61 executes the program. Accordingly, each of the program acquisition method, the acquisition route, and the device storing the program may be changed as appropriate.
  • the program executed by the CPU 61 may be received from another device via a cable or wireless communication and stored in a storage device such as a flash memory.
  • Other devices include, for example, a PC and a server connected via a network.
  • Each step of the main process (see FIG. 4) is not limited to the example executed by the CPU 61, and a part or all of the steps may be executed by another electronic device (for example, ASIC).
  • Each step of the main process may be distributed by a plurality of electronic devices (for example, a plurality of CPUs).
  • Each step of the main process can be changed in order, omitted, or added as necessary.
  • a mode in which an operating system (OS) or the like running on the sewing machine 1 performs part or all of the main processing based on a command from the CPU 61 is also included in the scope of the present disclosure. For example, the following changes (C-1) to (C-5) may be appropriately added to the main process.
  • the reference image data acquired in S4 is not limited to data represented by a gray scale value for each of a plurality of pixels, and information indicating other color spaces (for example, known HSV, HLS, etc.) But you can.
  • the image data correction method in S10 may be changed as appropriate.
  • the color information of the image data may be represented by other than RGB gradation values.
  • the reference image data in S4 may be acquired by converting the gradation value of the white reference image data in S6 into a gray scale value. In this way, it is not necessary to store the white reference image data and the reference image data separately.
  • a specific range H2 in the sub-scanning direction may be set based on the reference image data.
  • the average value of the grayscale values of a plurality of pixels corresponding to the same pixel number (that is, a plurality of pixels arranged in the sub-scanning direction) among the plurality of pixels constituting the grayscale image is
  • the gray scale value of the target pixel may be specified.
  • the graph 90 in FIG. 5 shows a state in which the average value of the gray scale values of a plurality of pixels arranged in the sub-scanning direction in the gray scale image changes according to the position of the gray scale image in the main scanning direction.
  • the specific range may be determined based on grayscale values of a plurality of pixels such as a moving average value of grayscale values of pixels in the main scanning direction. In this case, it is avoided that the specific range is determined based on the singular value of the gray scale value when the gray scale value is uneven.
  • the CPU 61 may shoot a color reference member and generate reference image data in the main process.
  • An embroidery frame 150 having a color reference member will be described with reference to FIG.
  • the embroidery frame 150 includes an inner frame 151 and an outer frame 152, and holds and holds the workpiece by the inner frame 151 and the outer frame 152.
  • the embroidery frame 150 has a mounting portion 154 on the left side surface of the outer frame 152.
  • the mounting portion 154 is configured to be detachably mounted on the moving mechanism 40 of the sewing machine 1.
  • the mounting portion 154 is provided with a detection target portion 156.
  • the detection target unit 156 has a shape unique to the embroidery frame 150.
  • the sewing machine 1 can specify that the embroidery frame 150 is attached based on the shape of the detection target portion 156 detected by the detector 36 (see FIG. 3). is there.
  • the sewing machine 1 detects that the embroidery frame 150 is attached to the moving mechanism 40, the sewing machine 1 sets a sewable area corresponding to the embroidery frame 150 inside the inner periphery 155 of the inner frame 151.
  • the inner frame 151 has a flat portion 153 on the front side.
  • the flat portion 153 has a flat surface. In a state where the sewing product is held by the embroidery frame 150, the flat surface portion 153 is exposed so as to be photographed by the image sensor 35 without being covered with the sewing product.
  • a color reference member 160 is provided on the flat portion 153 of the embroidery frame 150.
  • the color reference member 160 includes a white reference member 161 and a black reference member 162 that extend in the left-right direction.
  • the white reference member 161 is a member that serves as a white reference.
  • the black reference member 162 is a member serving as a black reference.
  • the white reference member 161 and the black reference member 162 are well-known reflecting plates whose surfaces are planar.
  • the white reference member 161 and the black reference member 162 may be formed by printing a predetermined color paint on the flat surface portion 153, or by forming a predetermined color reflective tape material on the flat surface portion 153. May be.
  • the white reference member 161 and the black reference member 162 are extended in the short side direction (left-right direction) of the embroidery frame 150 on the front side which is one end side in the long side direction of the embroidery frame 150.
  • the sewing machine 1 may photograph the color reference member 160 of the embroidery frame 150 and generate white reference image data and black reference image data acquired in S6 in addition to the reference image data acquired in S4.
  • the partial image data may be corrected based on image data obtained by photographing the reference member 160.
  • the image represented by the image data generated by the image sensor 35 may be used, for example, for generating embroidery data in addition to being used for a background image when an embroidery pattern is arranged or edited.
  • the embroidery frame that can be attached to the sewing machine 1 is, for example, a known embroidery frame that has an upper frame and a lower frame, and holds an article to be sewn between the upper frame and the lower frame, in addition to the configuration shown in FIG. May be.
  • the color reference member is preferably provided on the upper frame.
  • the sewing machine 1 can set a specific range based on reference image data obtained by photographing at least a part of the color reference member 160 included in the embroidery frame 150. Since the color reference member 160 is provided on the flat surface portion 153, the user does not need to prepare the color reference member separately from the embroidery frame 150. The color reference member 160 is provided on substantially the same plane as the surface on which the workpiece is held. The embroidery frame 150 attached to the moving mechanism 40 is disposed in parallel with the bed portion 11. Therefore, the sewing machine 1 can cause the image sensor 35 to photograph each of the color reference member 160 and the object to be photographed held by the embroidery frame 150 under the condition that the distance from the bed portion 11 is substantially the same. is there.
  • the color reference member 160 Since the color reference member 160 is disposed on the flat surface portion 153, the color reference member 160 is exposed to the image sensor 35 while the object to be photographed is held by the embroidery frame 150. Therefore, the user can specify the sewing machine 1 based on the reference image data by performing the same processing as in FIG. 4 after a simple operation of mounting the embroidery frame 150 holding the object to be photographed on the moving mechanism 40. A range can be set.
  • the color reference member 160 may include only the white reference member 161.
  • the target range R may be specified based on the coordinates of the world coordinate system or the embroidery coordinate system.
  • the CPU 61 may convert the specific range represented by the embroidery coordinate system into the specific range of the image coordinate system from the correspondence between the coordinates of the embroidery coordinate system stored in the flash memory 64 and the image coordinate system. .
  • the CPU 61 may set a different range as the specific range for each relative position. In this case, it is only necessary to specify a specific range for each relative position so that the color information of the portions that become the joints of the partial images are the same or similar to each other.
  • the CPU 61 may generate composite image data from the partial image data so as to overlap the partial image and the partial image. In this case, the CPU 61 may set the specific range in consideration of the overlapping portion.
  • the CPU 61 may not set a range including a pixel having a gray scale value closest to white among the plurality of pixels of the reference image as the specific range.
  • the method of specifying the target range may be changed as appropriate.
  • the CPU 61 may specify a range designated by the user through a panel operation or the like as the target range.

Landscapes

  • Engineering & Computer Science (AREA)
  • Textile Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Sewing Machines And Sewing (AREA)
  • Image Processing (AREA)

Abstract

部分画像間の繋ぎ目に色の濃淡の差異が生じることを抑制しつつ、合成画像を取得可能なミシン及びプログラムを記録した記録媒体を提供すること。撮影部と、搬送部とを備えるミシンは、撮影範囲よりも広い範囲である対象範囲を特定する(S1)。ミシンは、対象範囲全体を撮影する場合の、第一方向の最小搬送回数を算出する(S2)。最小搬送回数で対象範囲全体を撮影可能な、撮影範囲内の範囲である特定範囲と、特定範囲に対応する相対位置とを設定する(S5)。ミシンは、撮影部の特定範囲で撮影された部分画像を表す部分画像データを複数生成する処理を最小搬送回数実行する(S8、S9)。ミシンは、複数の部分画像データを合成して、対象範囲全体を表す合成画像データを生成する(S11)。

Description

ミシン及びプログラムを記録した記録媒体
 本発明は、撮影部を備えたミシン及びプログラムを記録した記録媒体に関する。
 撮影部を備えたミシンが知られている(例えば、特許文献1参照)。特許文献1に記載のミシンでは、被撮影物を複数領域に分割した画像(部分画像)が、撮影部によって撮影される。撮影部は、撮影した部分画像を示す画像データを複数生成する。ミシンは、生成された複数の画像データに基づいて、撮影した複数の部分画像を合成することで、被撮影物の全領域を示す合成画像を生成する。
特開2009-201704号公報
 ミシンが使用される環境の要因(例えば、周囲の明るさ、光源の違い等)に起因して、撮影部が生成した画像データによって表される部分画像の色合いが異なる場合がある。この場合、ミシンが複数の部分画像を合成して合成画像を生成すると、合成画像における部分画像間の繋ぎ目に色の濃淡の差異が生じる可能性がある。
 本発明の目的は、部分画像間の繋ぎ目に色の濃淡の差異が生じることを抑制しつつ、合成画像を取得可能なミシン及びプログラムを記録した記録媒体を提供することである。
 本発明の第一態様に係るミシンは、所定の撮影範囲を有する撮影部と、前記撮影部に対して被撮影物を相対的に搬送する搬送部と、前記搬送部により前記被撮影物を搬送することで前記撮影部により撮影が可能な範囲であって、前記撮影範囲よりも広い範囲である対象範囲を特定する特定手段と、前記搬送部により前記被撮影物を前記撮影部に対して第一方向に相対的に搬送しながら、前記撮影部が前記対象範囲の一部を撮影することを、前記第一方向と直交する第二方向における前記撮影部に対する前記被撮影物の相対位置を変えて繰り返すことで、前記対象範囲全体を撮影する場合の、前記第一方向の最小搬送回数を算出する算出手段と、前記撮影部によって色基準部材が撮影されて生成された、複数の画素からなる基準画像を表す基準画像データの色情報に基づいて、前記算出手段が算出した前記最小搬送回数で前記対象範囲全体を撮影可能な、前記撮影範囲内の範囲である特定範囲と、前記特定範囲に対応する前記相対位置とを設定する設定手段と、前記撮影部と前記搬送部とを制御して、前記設定手段により設定された前記相対位置で前記被撮影物を前記撮影部に対して前記第一方向に相対的に搬送しながら、前記撮影部に前記被撮影物を撮影させ、前記撮影部の前記特定範囲で撮影された部分画像を表す部分画像データを複数生成する処理を前記最小搬送回数実行する制御手段と、生成された複数の前記部分画像データを合成して、前記対象範囲全体を表す合成画像データを生成する生成手段とを備える。
 本発明の第二態様に係るプログラムを記録した記録媒体は、ミシンの各種処理手段としてミシンのコンピュータを機能させるためのプログラムを記録する。
 本発明の第一態様及び第二態様によれば、撮影部と搬送部とを備えるミシンにおいて、撮影部が色基準部材を撮影して得られた基準画像データに基づいて、最小搬送回数で対象範囲全体を撮影可能に、特定範囲が設定される。したがってミシンは、部分画像間の繋ぎ目に色の濃淡の差異が生じることを抑制しつつ、迅速に合成画像データを生成できる。
ミシン1の斜視図である。 頭部14の下端部の構成を示す説明図である。 ミシン1の電気的構成を示すブロック図である。 メイン処理のフローチャートである。 主走査方向画素番号とグレースケール値との関係を示すグラフである。 撮影範囲H1、特定範囲H2、及びイメージセンサ35に対する被撮影物の相対位置との関係の説明図である。 画面120の説明図である。 合成画像45から48の説明図である。 変形例の刺繍枠150の平面図である。
 本開示の実施形態を、図面を参照して説明する。図1及び図2を参照して、ミシン1の物理的構成を説明する。図1の上下方向、右下側、左上側、左下側、右上側が、各々、ミシン1の上下方向、前方、後方、左方、右方である。つまり、後述の液晶ディスプレイ(以下、LCDと称す)15が配置された面がミシン1の前面である。ベッド部11及びアーム部13の長手方向がミシン1の左右方向である。脚柱部12が配置されている側が右側である。脚柱部12の伸長方向がミシン1の上下方向である。
 図1に示すように、ミシン1は、ベッド部11、脚柱部12、アーム部13、及び頭部14を備える。ベッド部11は、左右方向に延びるミシン1の土台部である。脚柱部12は、ベッド部11の右端部から上方へ立設されている。アーム部13は、ベッド部11に対向して脚柱部12の上端から左方へ延びる。頭部14は、アーム部13の左先端部に連結する部位である。
 ベッド部11は、その上面に針板21(図2参照)を備える。針板21は、後述する縫針7が挿通可能な針穴22(図6参照)を有する。針板21の上面には、図示しない被縫製物(例えば、加工布)が載置される。ミシン1は、針板21の下側(つまり、ベッド部11内)に、図示しない送り歯、送り機構、及び釜機構等を備える。送り歯は、刺繍縫製ではない通常の縫製時に、送り機構によって駆動され、被縫製物を所定の移動量で移動させる。釜機構は、針板21の下方において上糸(図示略)を下糸(図示略)に絡ませる。
 ミシン1は移動機構40を備える。移動機構40は、イメージセンサ35及び針棒6に対して刺繍枠50に保持された被縫製物C(被撮影物)を相対的に搬送可能に構成されている。移動機構40は、本体部41及びキャリッジ42を備える。キャリッジ42は、枠ホルダ(図示略)、Y軸移動機構(図示略)、及びY軸モータ84(図3参照)を備える。枠ホルダは、キャリッジ42の右側面に設けられている。枠ホルダには、大きさ及び形状が異なる複数種類の刺繍枠50の中から選択された1つを着脱可能である。Y軸移動機構は、枠ホルダを前後方向(Y軸方向)に移動させる。Y軸モータ84は、Y軸移動機構を駆動する。
 本実施形態の刺繍枠50は、第一枠部材51、第二枠部材52及び取付部55を有し、且つ第一枠部材51と第二枠部材52とで被縫製物Cを保持可能である。刺繍枠50の内側に設定される縫製可能領域54は、ミシン1が縫目を形成可能な領域である。取付部55は、枠ホルダに装着される部位である。取付部55は、刺繍枠50に固有の形状を有する。刺繍枠50が移動機構40の枠ホルダに装着された場合、ミシン1は後述の検出器36(図3参照)によって検出される取付部55の形状に基づき、刺繍枠50が取り付けられたこと及び刺繍枠50の種類を特定可能である。
 本体部41は、X軸移動機構(図示略)及びX軸モータ83(図3参照)を内部に備える。X軸移動機構は、キャリッジ42を左右方向(X軸方向)に移動させる。X軸モータ83は、X軸移動機構を駆動する。移動機構40は、キャリッジ42(詳細には、枠ホルダ)に装着された刺繍枠50を、固有のXY座標系(刺繍座標系)で示される位置に移動可能である。刺繍座標系では、例えば、ミシン1の右方、左方、前方、及び後方が、Xプラス方向、Xマイナス方向、Yマイナス方向、及びYプラス方向である。
 脚柱部12の前面には、LCD15が設けられている。LCD15には、コマンド、イラスト、設定値、及びメッセージ等の様々な項目を含む画像が表示される。LCD15の前面側には、押圧された位置を検知可能なタッチパネル26が設けられている。ユーザが、指又はスタイラスペン(図示略)を用いてタッチパネル26の押圧操作を行うと、タッチパネル26によって押圧位置が検知される。ミシン1のCPU61(図3参照)は、検知された押圧位置に基づき、画像中で選択された項目を認識する。以下、ユーザによるタッチパネル26の押圧操作を、パネル操作と言う。ユーザはパネル操作によって、縫製したい模様及び実行すべきコマンド等を選択できる。脚柱部12は、内部にミシンモータ81(図3参照)を備える。
 アーム部13の上部には、開閉可能なカバー16が設けられている。図1は、カバー16が開いた状態を示す。カバー16の下方(つまり、アーム部13の内部)には、糸収容部18が設けられている。糸収容部18は、上糸が巻回された糸駒20を収容可能である。アーム部13内部には、左右方向に延びる主軸(図示略)が設けられている。主軸は、ミシンモータ81により回転駆動される。アーム部13の前面左下部には、スタート/ストップスイッチ29を含む各種スイッチが設けられている。スタート/ストップスイッチ29は、ミシン1の運転を開始又は停止させる。即ち、スタート/ストップスイッチ29は、縫製開始又は縫製停止の指示を入力するのに使用される。
 図2に示すように、頭部14には、針棒6、押え棒8、及び針棒上下動機構34等が設けられている。針棒6の下端には、縫針7が着脱可能に装着される。押え棒8の下端部には、押え足9が着脱可能に取り付けられている。針棒6は、針棒上下動機構34の下端に設けられる。針棒上下動機構34は、主軸の回転により針棒6を上下方向に駆動させる。
 頭部14の内部には、所定の撮影範囲を有するイメージセンサ35が設けられる。イメージセンサ35は、例えば、周知のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。イメージセンサ35は、主走査方向に並ぶ複数の撮像素子37(例えば、複数のCMOS)が、副走査方向に複数列で配置された公知のエリアセンサである。本実施形態では、主走査方向及び副走査方向は各々、ミシン1のX軸方向(左右方向)及びY軸方向(前後方向)に相当する。
 イメージセンサ35が1回の撮影で撮影する全範囲を、撮影範囲H1(図6参照)と称す。本実施形態のイメージセンサ35では、主走査方向に並ぶ撮像素子37の数量が、副走査方向に並ぶ撮像素子37の数量よりも多い。つまり、主走査方向の画素数が副走査方向の画素数よりも多いため、撮影範囲H1は副走査方向よりも主走査方向が長い矩形状である。一例として、本実施形態のイメージセンサ35は、主走査方向に1280画素、副走査方向に720画素のエリアセンサである。撮影範囲H1は、後述の対象範囲Rよりも狭い。
 イメージセンサ35は、針棒6の下方を含む領域を撮影可能に配置され、画像データを生成可能である。出力された画像データはRAM63(図3参照)の所定記憶エリアに記憶される。イメージセンサ35が生成した画像データによって表される画像の座標系(以下、「画像座標系」ともいう。)と、空間全体の座標系(以下、「ワールド座標系」ともいう。)とは、フラッシュメモリ64(図3参照)に記憶されたパラメータによって予め関連づけられている。ワールド座標系と刺繍座標系とは、フラッシュメモリ64に記憶されたパラメータによって予め関連づけられている。このためミシン1は、イメージセンサ35が生成した画像データに基づき、刺繍座標系の座標を特定する処理を実行可能である。
 本実施形態のイメージセンサ35は、ホワイトバランスを補正した画像データを生成する機能を有する。より具体的には、イメージセンサ35は、オートホワイトバランス機能(AWB)と、マニュアルホワイトバランス機能(MWB)とを有する。AWBは、画像データの色情報に基づき決定された決定ホワイトバランス値(決定WB値)を用いて画像データの色温度補正を行う機能である。MWBは、設定ホワイトバランス値(設定WB値)を用いて画像データの色温度補正を行う機能である。設定WB値は、CPU61によって設定されたホワイトバランス値(WB値)である。色情報は、色を表す情報である。本実施形態の色情報は、赤(R)、緑(G)、青(B)の三つの原色の階調値(0から255の数値)で表される。
 図3を参照して、ミシン1の電気的構成を説明する。ミシン1は、CPU61、ROM62、RAM63、フラッシュメモリ64、及び入出力インターフェイス(I/O)66を備えている。CPU61はバス65を介して、ROM62、RAM63、フラッシュメモリ64、及び入出力I/O66と接続されている。
 CPU61は、ミシン1の主制御を司り、ROM62に記憶された各種プログラムに従って、撮影及び縫製に関わる各種演算及び処理を実行する。ROM62は、図示しないが、プログラム記憶エリアを含む複数の記憶エリアを備える。プログラム記憶エリアには、ミシン1を動作させるための各種プログラム(例えば、後述のメイン処理を実行させるためのプログラム)が記憶されている。
 RAM63には、CPU61が演算処理した演算結果等を収容する記憶エリアが設けられる。フラッシュメモリ64には、ミシン1が各種処理を実行するための各種パラメータ等が記憶されている。入出力I/O66には、駆動回路71から74、タッチパネル26、スタート/ストップスイッチ29、イメージセンサ35、及び検出器36が接続されている。検出器36は、刺繍枠50が移動機構40に装着されたことを検出し、刺繍枠50の種類に応じた検出結果を出力するよう構成されている。
 駆動回路71には、ミシンモータ81が接続されている。駆動回路71は、CPU61からの制御信号に従って、ミシンモータ81を駆動する。ミシンモータ81の駆動に伴い、ミシン1の主軸(図示略)を介して針棒上下動機構34(図2参照)が駆動され、針棒6が上下動する。駆動回路72には、X軸モータ83が接続されている。駆動回路73には、Y軸モータ84が接続されている。駆動回路72及び73は、各々、CPU61からの制御信号に従って、X軸モータ83及びY軸モータ84を駆動する。X軸モータ83及びY軸モータ84の駆動に伴い、制御信号に応じた移動量だけ、移動機構40に装着されている刺繍枠50が左右方向(X軸方向)及び前後方向(Y軸方向)に移動する。駆動回路74は、CPU61からの制御信号に従ってLCD15を駆動することで、LCD15に画像を表示する。
 ミシン1の動作を簡単に説明する。刺繍枠50を用いた刺繍縫製時には、刺繍枠50が移動機構40によってX軸方向及びY軸方向に移動されるのと併せて、針棒上下動機構34(図2参照)及び釜機構(図示略)が駆動される。これにより、針棒6に装着された縫針7によって、刺繍枠50に保持された被縫製物Cに対して刺繍模様が縫製される。
 図4から図8を参照して、ミシン1のメイン処理を説明する。メイン処理では、刺繍枠50に保持された被縫製物Cと、縫製予定の刺繍模様との位置合わせと、位置合わせ結果に従った刺繍模様の縫製とが行われる。被縫製物Cと刺繍模様との位置合わせの処理には、縫製可能領域54内の被縫製物Cを撮影した画像が用いられる。メイン処理は、ユーザがパネル操作によって縫製予定の刺繍模様を選択する指示を入力した場合に起動される。CPU61は指示を検知すると、ROM62のプログラム記憶エリアに記憶されたメイン処理を実行するためのプログラムを、RAM63に読み出す。CPU61は、RAM63に読み出したプログラムに含まれる指示に従って、以下のステップを実行する。メイン処理を実行するのに必要な各種パラメータは、フラッシュメモリ64に記憶されている。メイン処理の過程で得られた各種データは、適宜RAM63に記憶される。以下では説明を簡単にするために、メイン処理の開始前に、白色の布である被縫製物Cを保持した刺繍枠50が移動機構40に装着されている場合について説明する。
 図4に示すメイン処理では、CPU61は対象範囲Rを特定する(S1)。対象範囲Rは、移動機構40が刺繍枠50によって保持された被撮影物(本例では被縫製物C)をイメージセンサ35に対して相対的に搬送することでイメージセンサ35により撮影が可能な範囲であって、撮影範囲H1よりも広い範囲である。本例のCPU61は、検出器36の検出結果に基づき、刺繍枠50の種類を特定し、刺繍枠50の縫製可能領域54を対象範囲Rとして特定する。刺繍枠50の種類と、縫製可能領域54との対応は、予めフラッシュメモリ64に記憶されている。本例のCPU61は、イメージセンサ35の画素数で対象範囲Rを特定する。S1において、例えば、左右方向の大きさが1600画素、前後方向の大きさが2850画素の範囲が対象範囲Rとして特定される。
 CPU61は、最小搬送回数を算出する(S2)。本例のミシン1は、以下のように対象範囲R全体を表す合成画像を生成する。ミシン1は、移動機構40により被撮影物が保持された刺繍枠50をイメージセンサ35に対して、左右方向の位置は一定のまま、前後方向(第一方向)に相対的に搬送しながら、イメージセンサ35が対象範囲Rの一部を撮影する。ミシン1は、左右方向(第二方向)におけるイメージセンサ35に対する被撮影物の相対位置を変えて、同様の処理を繰り返す。最小搬送回数は、S1で特定された対象範囲R全体を撮影する場合の、撮影しながら搬送する前後方向の最小搬送回数である。具体例では、対象範囲Rの左右方向の大きさが1600画素であり、撮影範囲H1の左右方向の大きさは1280画素である。CPU61は、対象範囲Rの左右方向の大きさを、撮影範囲H1の左右方向の大きさで除した商を切り上げた整数である2を最小搬送回数とする。最小搬送回数には、撮影をしないで前後方向に被撮影物を搬送する回数は含まれない。
 CPU61は主走査方向の特定範囲H2の幅H2Wを算出する(S3)。特定範囲H2は、S2で算出された最小搬送回数、被撮影物をイメージセンサ35に対して前後方向に相対的に搬送することで、S1で特定された対象範囲R全体を撮影可能な、撮影範囲H1内の範囲である。本例では、CPU61は撮影範囲H1の内の特定範囲H2で撮影された部分画像を表す部分画像データを複数生成する。CPU61は、生成された複数の部分画像データを合成して、対象範囲R全体を表す合成画像データを生成する。本例では、イメージセンサ35と被撮影物との左右方向における相対位置が互いに異なる搬送毎の特定範囲H2の主走査方向(左右方向)の長さを同一にする。具体的に、CPU61は、対象範囲Rの主走査方向の幅H1Wを最小搬送回数で除して、主走査方向の特定範囲H2の幅H2Wとして、800画素を算出する。
 CPU61は、基準画像データを取得する(S4)。基準画像データは、イメージセンサ35によって色基準部材が撮影されて生成された、複数の画素からなる基準画像95(図5参照)を表す。色基準部材は、色の基準となる部材であり、例えば、公知の平面状の反射板である。基準画像データは、ミシン1が使用される環境の要因等に起因する色の濃淡を表すデータであり、特定範囲H2の設定に用いられる。本例のS4の基準画像データは、白色の基準となる部材をイメージセンサ35により撮影して得られる画像データである。基準画像データは、複数の画素毎のグレースケール値で表される。基準画像データは、例えば、工場出荷時に、イメージセンサ35によって色基準部材を撮影して生成され、フラッシュメモリ64に記憶されている。基準画像データは、イメージセンサ35の取り付け誤差等を反映したミシン1個体毎に異なるデータである。
 CPU61は、特定範囲H2と、相対位置とを設定する(S5)。CPU61は、イメージセンサ35によって色基準部材が撮影されて生成され、S4で取得された、複数の画素からなる基準画像95を表す基準画像データの色情報に基づいて特定範囲H2を設定する。本例のCPU61は、基準画像データが表す複数の画素毎のグレースケール値を色情報として用いて特定範囲H2を設定する。本例のCPU61は、イメージセンサ35に対する被撮影物の相対位置によらず、撮影範囲H1内の同じ範囲を特定範囲H2として設定する。相対位置は、特定範囲H2に対応する、イメージセンサ35に対する被撮影物(刺繍枠50)の左右方向の位置である。本例のCPU61はS4で取得された基準画像データにより表される基準画像95のグレースケール値に基づいて、複数の対象画素毎にグレースケール値を特定する。複数の対象画素は、基準画像95を構成する複数画素のうち、主走査方向に並ぶ複数画素である。基準画像95において特定の副走査方向の位置にある複数画素(例えば、グレースケール画像の前後方向中心にある複数画素)が、複数の対象画素として使用される。本例のグレースケール値は、0から255の256段階で表される階調値である。グレースケール値が大きいほど、グレースケール値が小さい場合に比べ、白色に近い。
 図5に例示するグラフ90は、基準画像95の主走査方向(左右方向)に沿って割り振られた画素番号を横軸とし、グレースケール値の大きさを縦軸として、複数の対象画素のグレースケール値の変化を示す。複数の対象画素に各々対応するグレースケール値が、一つの画素番号(つまり、図5に示す横軸上の一点)に対応するグレースケール値を示す。一例として、図5の曲線91を含むグラフ90は、グレースケール画像の副走査方向前側の位置98において主走査方向に並ぶ複数画素のグレースケール値の変化を示す。本例では、副走査方向の特定範囲H2は予め設定されており、位置98は、副走査方向の特定範囲H2の中心である。グレースケール値の変化は、ミシン1が使用される環境の要因(例えば、周囲の明るさ、光源の違い等)に起因するものである。
 CPU61は、特定された複数の対象画素のグレースケール値に基づき、グレースケール値の最高値92を取得する。最高値92は、最も白色に近い値に対応する。CPU61は、グレースケール値93を最高値92から徐々に下げていった場合の、グレースケール値93と、曲線91との交点を特定する。本例では、グレースケール値93と、曲線91との交点は2つである。グレースケール値93と、曲線91との交点が3つ以上ある場合、CPU61は、3つ以上の交点の中から、交点間の距離が最大となる2つの交点を選ぶ。CPU61は、2つの交点のうち、主走査方向の一方側の交点と、他方側の交点との間が、S3で算出された主走査方向の特定範囲H2の幅H2Wである800画素となる範囲を主走査方向の特定範囲H2として特定する。
 同一のグレースケール値を有する画素を特定範囲H2の両端部にした場合、S3で算出された主走査方向の特定範囲H2の幅H2Wよりも狭い範囲となる場合、CPU61は主走査方向の両端部のグレースケール値の差が所定閾値内(例えば、±10%)にあるグレースケール値を有するように、特定範囲H2を特定する。このようにしてCPU61は、複数の画素のうち、グレースケール値が最も白に近い値(最高値92)である画素を含み、主走査方向の両端部の画素のグレースケール値の差が所定値以下になる範囲を特定範囲H2として設定する。CPU61は、特定された特定範囲H2に基づき、特定範囲H2を撮影することで対象範囲R全体を表すための、イメージセンサ35に対する被撮影物(刺繍枠50)の左右方向の相対位置を特定する。撮影範囲H1に収まる被撮影物(刺繍枠50)の範囲と相対位置との関係は、予めフラッシュメモリ64に記憶されている。CPU61は、撮影範囲H1に収まる被撮影物の範囲と相対位置との関係を参照して、特定範囲H2を撮影するための、イメージセンサ35に対する被撮影物(刺繍枠50)の左右方向の相対位置を特定する。
 具体例では、図5の基準画像95全体に対応する撮影範囲H1に対して、特定範囲H2が設定される。図6上に示すように、1回目の搬送時における、イメージセンサ35に対する被撮影物(刺繍枠50)の主走査方向(左右方向)の相対位置は、イメージセンサ35が被撮影物の範囲961を撮影可能な位置である。範囲961を撮影して得られた画像データのうちの範囲971を表す部分画像データが対象範囲R全体を表す合成画像データの生成に用いられる。主走査方向における1回目の搬送で得られる複数の部分画像によって、対象範囲Rの左半分LRが表される。図6下に示すように、2回目の搬送時における、イメージセンサ35に対する被撮影物(刺繍枠50)の副走査方向の相対位置は、イメージセンサ35が被撮影物の範囲962を撮影可能な位置である。範囲962を撮影して得られた画像データのうちの範囲972を表す部分画像データが合成画像データの生成に用いられる。主走査方向における2回目の搬送で得られる複数の部分画像によって、対象範囲Rの右半分RRが表される。
 CPU61は、フラッシュメモリ64に記憶された、イメージセンサ35の設定データを取得する(S6)。設定データは、MWBで使用されるデータ及びイメージセンサ35から取得された画像データを補正する処理で使用されるデータを含む。本例の設定データは、WB値、白色基準画像データ及び黒色基準画像データである。S6で取得されるWB値は、デフォルトの値又は最新の色基準データ処理で記憶された値である。デフォルトの値は、ミシン1の工場出荷時に、イメージセンサ35が色基準部材を撮影して得られた画像データに基づき決定された値である。色基準データ処理は、メイン処理とは別途実行される、イメージセンサ35が色基準部材を撮影して得られた画像データに基づきWB値を決定する処理である。白色基準画像データは、白色の基準となる部材をイメージセンサ35により撮影して得られる画像データである。白色の基準となる部材は、S4で基準画像データの撮影に用いられた部材と同じであってもよいし、異なっていてもよい。黒色基準画像データは、黒色の基準となる部材をイメージセンサ35により撮影して得られる画像データである。白色基準画像データ及び黒色基準画像データは、デフォルトの値又は最新の色基準データ処理で記憶された値である。白色基準画像データ及び黒色基準画像データは、取得されたWB値を用いてホワイトバランスが調整されたデータである。S4の基準画像データは、グレースケール値で表されていたのに対し、白色基準画像データは、赤(R)、緑(G)、青(B)の三つの原色の階調値(0から255の数値)で表される。
 CPU61は、イメージセンサ35のAWBをOFFに設定し、S6で取得されたWB値を設定WB値とするイメージセンサ35のMWBをONに設定する(S7)。
 CPU61は、駆動回路72、73を制御して刺繍枠50を移動させる(S8)。CPU61は、S5で特定された1回目の搬送の左右方向の相対位置における、撮影開始位置(図6上)に刺繍枠50を移動後、刺繍枠50を等速で後ろ方向に移動させる。CPU61は、S5で特定された1回目の搬送の左右方向の相対位置における、撮影終了位置まで刺繍枠50を移動させたら、S5で特定された2回目の搬送の左右方向の相対位置における、撮影開始位置(図6下)に刺繍枠50を移動後、刺繍枠50と等速で後ろ方向に移動させる。CPU61は、S5で特定された2回目の搬送の左右方向の相対位置における、撮影終了位置まで刺繍枠50を移動させる。1回目の搬送の撮影終了位置と、2回目の搬送の撮影終了位置とで、前後方向の相対位置は同じであってもよい。
 CPU61は、刺繍枠50の移動と同期して、イメージセンサ35に対象範囲Rを連続的に撮影させ、複数の部分画像データを取得する(S9)。より詳細には、イメージセンサ35は、1回目の搬送の撮影開始位置から撮影終了位置まで移動されている間、撮影範囲H1を1回の撮影単位として、対象範囲Rを部分的に複数回撮影することで、対象範囲Rの左半分LR全体を撮影する。イメージセンサ35は、2回目の搬送の撮影開始位置から撮影終了位置まで移動されている間、撮影範囲H1を1回の撮影単位として、対象範囲Rを部分的に複数回撮影することで、対象範囲Rの右半分RR全体を撮影する。更にイメージセンサ35は、S7で設定された設定WB値を用いて、撮影した複数の画像データを補正する。CPU61は、補正された複数の画像データを、イメージセンサ35から取得する。CPU61は、補正された複数の画像データのうち、S5で特定された特定範囲H2に対応する画像を表すデータを、複数の部分画像データとして取得する。S8とS9との処理により、S5で設定された相対位置で被撮影物をイメージセンサ35に対して第一方向に相対的に搬送しながら、イメージセンサ35に被撮影物を撮影させ、イメージセンサ35の特定範囲で撮影された複数の部分画像を表す複数の部分画像データを生成する処理が最小搬送回数実行される。
 CPU61は、白色基準画像データ及び黒色基準画像データに基づき、S9で記憶された複数の部分画像データを補正する(S10)。本実施形態では、CPU61は、S6で取得された白色基準画像データ及び黒色基準画像データに基づき、複数の部分画像データの各々に対して公知のシェーディング補正を行う。より詳細には、S6で取得された白色基準画像データのうち、S5で特定された特定範囲H2に対応する部分が、以下のシェーディング補正に使用される。同様に、S6で取得された黒色基準画像データのうち、S5で特定された特定範囲H2に対応する部分が、以下のシェーディング補正に使用される。
 シェーディング補正の手順を、具体例を挙げて簡単に説明する。白色基準画像データが表す画像を白色基準画像と言い、黒色基準画像データが表す画像を黒色基準画像と言う。白色基準画像データに基づいて、白色基準画像を構成するマトリクス状の複数画素のうち、N行M列(N、Mは自然数)の画素におけるR、G、Bの階調値が取得される。同様に、黒色基準画像データに基づいて、黒色基準画像を構成するマトリクス状の複数画素のうち、N行M列の画素におけるR、G、Bの階調値が取得される。部分画像データに基づいて、部分画像を構成するマトリクス状の複数画素のうち、N行M列の画素におけるR、G、Bの階調値が取得される。N行M列の画素における、白色基準画像データの階調値をWとし、黒色基準画像データの階調値をBとし、部分画像データの階調値をSとした場合、補正後のデータDは次式により得られる。
 補正後のデータD=(S-B)*255/(W-B)
 階調値Wが(240,232,238)であり、階調値Bが(10,5,9)であり、階調値Sが(54,152,43)であった場合、CPU61は、(R,G,B)の各々について補正後のデータDを以下のように計算する。
 R=(54-10)*255/(240-10)=49
 G=(152-5)*255/(232-5)=165
 B=(43-9)*255/(238-9)=38
CPU61は、上記の計算を、各画像に含まれる全ての画素について実行する。
 S10の処理によって、複数の部分画像データの各々が、複数の部分画像データと同じ撮影条件(例えば、明るさ、光源)で撮影して得られた白色基準画像データ及び黒色基準画像データに基づいて補正される。つまり、複数の部分画像が、白色基準画像及び黒色基準画像を用いて、ミシン1の実際の使用環境による影響を抑えるように色補正される。したがってミシン1は、画像の色合いが自然となる適正な色で表現された複数の部分画像データを取得できる。
 更にS10では、白色基準画像データ及び黒色基準画像データのうち、S5で特定された特定範囲H2に対応する部分が、複数の部分画像データのシェーディング補正に使用される。S5で特定された特定範囲H2の主走査方向の両端部は、基準画像95(図5参照)のグレースケール画像において互いに同一又は近似のグレースケール値に対応する。したがってミシン1は、各部分画像における主走査方向の両端部に対して、上記のシェーディング補正時にほぼ同じレベルの色補正を実行できる。
 CPU61は、S9で取得され、S10で補正された複数の部分画像データに基づき、対象範囲R全体を表す合成画像データを生成する(S11)。合成画像データは、複数の部分画像データによって表される複数の部分画像が合成された、1つの合成画像を表す画像データである。例えば、以下の手順で合成画像データが生成される。CPU61は、1回目の搬送で得られた複数の部分画像の各々に対応する複数の部分画像データに基づき、対象範囲Rの左半分LRの画像を表す画像データを生成する。同様にCPU61は、2回目の搬送で得られた複数の部分画像の各々に対応する複数の部分画像データに基づき、対象範囲Rの右半分RRの画像を表す画像データを生成する。CPU61は、対象範囲Rの左半分LRの画像を表す画像データと、右半分RRの画像を表す画像データとに基づき、対象範囲R全体の合成画像を表す合成画像データを生成する。
 CPU61は、S11で生成された合成画像データに基づき、LCD15上に合成画像を表示する(S12)。CPU61は、例えば、図7に示す画面120を表示する。画面120は、合成画像121と、刺繍イメージ122と、配置変更キー群123と、縫製開始キー124とを含む。合成画像121は、S11で生成された合成画像データによって表される画像である。刺繍イメージ122は、メイン処理開始前に選択された刺繍模様の仕上がりイメージである。配置変更キー群123は、合成画像121で表される被縫製物Cに対する刺繍模様の配置を変更する指示を入力する。縫製開始キー124は、画面120に表示された配置で、刺繍イメージ122によって表される刺繍模様を、被縫製物Cに縫製する処理を開始する指示を入力する。ユーザは、パネル操作又はスタート/ストップスイッチ29を押下して、縫製開始の指示を入力する。
 CPU61は、縫製開始の指示、又は配置変更の指示を検知するまで待機する(S13NO、S15:NO)。CPU61は、配置変更の指示を検知した場合(S13:NO、S15:YES)、変更の指示に基づき、刺繍模様の配置を変更する(S16)。CPU61は、変更後の配置で刺繍模様を表示する(S12)。CPU61は、縫製開始の指示を検知した場合(S13:YES)、刺繍データに従って、駆動回路72、73を制御して、移動機構40を駆動し、刺繍枠50を移動させる。CPU61は、駆動回路72、73の駆動制御と同期して、駆動回路71を駆動して針棒上下動機構34を駆動させる(S14)。これにより、刺繍データに従って、刺繍枠50に保持された被縫製物Cに、刺繍模様を表す複数の縫目が形成される。ミシン1は以上で、メイン処理を終了する。
 図8を参照し、ミシン1で生成される合成画像の継ぎ目について説明する。合成画像45から48は、対象範囲R及び特定範囲H2の主走査方向の幅H2Wは同じである。合成画像45から48は、撮影範囲H1に対する特定範囲の主走査方向の位置が互いに異なる。合成画像45は、メイン処理に従って特定範囲を設定して得られる合成画像の一部である。合成画像46は、特定範囲の左端を撮影範囲H1の左端に設定して得られる合成画像の一部である。合成画像47は、特定範囲の中央を撮影範囲H1の中央に設定して得られる合成画像の一部である。合成画像48は、特定範囲の右端を撮影範囲H1の右端に設定して得られる合成画像の一部である。つまり、合成画像46から48では、特定範囲が特定される際に、主走査方向の両端部の色情報が考慮されていない。よって、合成画像46から48は各々、主走査方向(左右方向)に並んで合成された部分画像の繋ぎ目M2からM4に、色の濃淡の差異がある。一方、合成画像45は、主走査方向(左右方向)に並んで合成された部分画像の繋ぎ目M1に、色の濃淡の差異が生じない。その理由は、CPU61が前述の各処理を実行することによって、各部分画像における主走査方向の両端部の色情報が、ほぼ同じになるように特定範囲H2が設定されたからである。
 ミシン1において、イメージセンサ35及び移動機構40は各々、本発明の撮影部及び搬送部の一例である。S1を実行するCPU61は、本発明の特定手段の一例である。S2を実行するCPU61は、本発明の算出手段の一例である。S5を実行するCPU61は、本発明の設定手段の一例である。S8及びS9は、本発明の制御手段の一例である。S11の処理を実行するCPU61は、本発明の生成手段の一例である。
 ミシン1は、イメージセンサ35が色基準部材を撮影して得られた基準画像データに基づいて、最小搬送回数で対象範囲R全体を撮影可能に、特定範囲H2を設定する。したがってミシン1は、部分画像間の繋ぎ目に色の濃淡の差異が生じることを抑制しつつ、迅速に合成画像データを生成できる。本例のミシン1は、基準画像データを、フラッシュメモリ64に格納する。このため、ミシン1は、メイン処理を実行する毎に、イメージセンサ35に色基準部材を撮影させる必要は無く、メイン処理実行毎に基準画像データを生成する処理が実行される場合に比べ処理を簡略化できる。
 ミシン1は、基礎画像データのグレースケール値を色情報として特定範囲H2を決定する。グレースケール値は、周囲の明るさ、光源の違い等に起因する濃淡を好適に表す。したがってミシン1は、グレースケール値を色情報として用いることによって、特定範囲H2を適切に決定できる。ミシン1は、カラーで表される色情報に基づき特定範囲を決定する場合に比べ、色情報に基づき特定範囲H2を決定する処理を高速化できる。
 ミシン1によれば、部分画像データによって表される部分画像における主走査方向の両端部は、グレースケール変換した場合にグレースケール値の差が所定値以下となる。グレースケール変換した場合のグレースケール値は、輝度及び明るさを表す。したがって、ミシン1は、部分画像間の主走査方向の繋ぎ目に色の濃淡の差異が生じることを抑制できる。
 ミシン1は、グレースケール値の最高値92、つまり最も白に近い値である画素を含む範囲を特定範囲H2として設定する。よって、ミシン1によれば、撮影範囲H1の内の最も明るい部分を含む範囲を特定範囲H2とすることができる。ミシン1は、特定範囲H2にグレースケール値が最も白に近い値である画素が含まれない場合に比べ、被撮影物の状況がよく分かる合成画像データを生成できる。
 ミシン1は、主走査方向における相対位置によらず、撮影範囲H1に対して同じ範囲を特定範囲H2として設定する。範囲961に対する範囲971の位置関係と、範囲962に対する範囲972の位置関係とは同じである。ミシン1は、相対位置毎に異なる特定範囲H2で撮影される場合に比べ、合成画像データが表す合成画像内の主走査方向における色の濃淡をより均一化できる。ミシン1は、白色基準画像データと、黒色基準画像データとをフラッシュメモリ64に格納する。したがって、ミシン1は、色基準データに基づき、被撮影物の色(特に白色及び白色に近い色)を適切に表現できる。CPU61は、基準画像データを用いた公知のシェーディング補正を行うことによって、補正前に比べ、色ムラ及び照度ムラを低減させた画像を取得できる。
 ミシン1は、白色基準画像データ及び黒色基準画像データを取得する際のWB値と、部分画像データを取得する際のWB値とを一致させる。ミシン1は、撮影毎(画像データ毎)に異なるWB値を用いて撮影画像のホワイトバランスを調整する場合に比べ、画像データ及び複数の部分画像の補正精度を向上できる。つまりミシン1は、画像の色合いが自然となるように適正な色で表現された合成画像を生成できる。ユーザは、例えば、被縫製物Cの模様の配置に合わせて、刺繍模様を配置したい場合に、刺繍仕上がりのイメージをより的確に把握し、刺繍模様の配置を的確に行うことができる。
 本発明のミシンは、上記した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更が加えられてもよい。例えば、以下の(A)から(C)までの変形が適宜加えられてもよい。
 (A)ミシン1の構成は適宜変更してよい。ミシン1は、工業用ミシン及び多針ミシンであってもよい。撮影部は、画像を撮影可能な機器であればよく、例えば、主走査方向に複数の撮像素子37が配列されたラインセンサでもよい。搬送部は、被撮影物を撮影部に対して相対的に第一方向と、第一方向に交差する方向に搬送できればよい。搬送部は、例えば、前後方向と左右方向に被撮影物を搬送可能な送り歯でもよい。搬送部による被撮影物の搬送方向(第一方向、第二方向)は、適宜変更されてよい。
 (B)メイン処理(図5参照)を実行させるための指令を含むプログラムは、CPU61がプログラムを実行するまでに、ミシン1の記憶機器に記憶されればよい。従って、プログラムの取得方法、取得経路及びプログラムを記憶する機器の各々は、適宜変更してもよい。CPU61が実行するプログラムは、ケーブル又は無線通信を介して、他の装置から受信し、フラッシュメモリ等の記憶装置に記憶されてもよい。他の装置は、例えば、PC、及びネットワーク網を介して接続されるサーバを含む。
 (C)メイン処理(図4参照)の各ステップは、CPU61によって実行される例に限定されず、一部又は全部が他の電子機器(例えば、ASIC)によって実行されてもよい。メイン処理の各ステップは、複数の電子機器(例えば、複数のCPU)によって分散処理されてもよい。メイン処理の各ステップは、必要に応じて順序の変更、ステップの省略、及び追加が可能である。ミシン1上で稼動しているオペレーティングシステム(OS)等が、CPU61からの指令に基づきメイン処理の一部又は全部を行う態様も、本開示の範囲に含まれる。例えば、メイン処理に以下の(C-1)から(C-5)の変更が適宜加えられてもよい。
 (C-1)S4で取得される基準画像データは、複数の画素毎のグレースケール値で表されるデータに限定されず、他の色空間を示す情報(例えば、公知のHSV、HLS等)でもよい。S10における画像データの補正方法は、適宜変更されてよい。画像データの色情報は、RGBの階調値以外によって表されてもよい。S4の基準画像データは、S6の白色基準画像データの階調値をグレースケール値に変換することにより取得されてもよい。このようにすれば、白色基準画像データと、基準画像データとを別々に記憶する必要がない。基準画像データに基づき、副走査方向の特定範囲H2が設定されてもよい。
 (C-2)S5では、グレースケール画像を構成する複数画素のうち、同一の画素番号に対応する複数画素(つまり、副走査方向に並ぶ複数画素)の各グレースケール値の平均値が、各対象画素のグレースケール値として特定されてもよい。この場合、図5のグラフ90は、グレースケール画像において副走査方向に並ぶ複数画素の各グレースケール値の平均値が、グレースケール画像の主走査方向位置に応じて変化する状態を示す。主走査方向の画素のグレースケール値の移動平均値等の複数の画素のグレースケール値に基づき、特定範囲が決定されてもよい。この場合、グレースケール値にムラがある場合等に、グレースケール値の特異値に基づき特定範囲が決定されることが回避される。
 (C-3)CPU61は、メイン処理において、色基準部材を撮影し、基準画像データを生成してもよい。図9を参照して、色基準部材を有する刺繍枠150を説明する。図9に示すように、刺繍枠150は、内枠151と、外枠152とを有し、内枠151と外枠152とで被縫製物を挟持して保持する。刺繍枠150は、外枠152の左側面に、装着部154を有する。装着部154は、ミシン1の移動機構40に取り外し可能に装着されるよう構成されている。装着部154には、検出対象部156が設けられている。検出対象部156は、刺繍枠150に固有の形状を有する。刺繍枠150が移動機構40に取り付けられた場合、ミシン1は、検出器36(図3参照)によって検出される検出対象部156の形状に基づき、刺繍枠150が取り付けられたことを特定可能である。ミシン1は、移動機構40に刺繍枠150が取り付けられたことを検知した場合、内枠151の内周155の内側に、刺繍枠150に対応する縫製可能領域を設定する。内枠151は、前側に平面部153を有する。平面部153は、平面状の表面を有する。刺繍枠150によって被縫製物が保持された状態において、平面部153は、被縫製物で覆われることなくイメージセンサ35で撮影可能に露出する。
 刺繍枠150の平面部153には、色基準部材160が設けられている。色基準部材160は、左右方向に延びる白色基準部材161及び黒色基準部材162を備える。白色基準部材161は、白色の基準となる部材である。黒色基準部材162は、黒色の基準となる部材である。白色基準部材161及び黒色基準部材162は、表面が平面状の周知の反射板である。白色基準部材161及び黒色基準部材162は所定の色の塗料が平面部153に印刷されることにより形成されてもよいし、所定の色の反射テープ材が平面部153に貼付されることにより形成されてもよい。白色基準部材161及び黒色基準部材162は、刺繍枠150の長辺方向の一端部側となる前側において刺繍枠150の短辺方向(左右方向)に延設されている。ミシン1は、刺繍枠150の色基準部材160を撮影して、S4で取得される基準画像データに加え、S6で取得される白色基準画像データ及び黒色基準画像データを生成してもよく、色基準部材160を撮影した画像データに基づき、部分画像データを補正してもよい。イメージセンサ35が生成した画像データによって表される画像は、例えば、刺繍模様が配置されたり、編集されたりする際の背景画像に用いられる他、刺繍データの生成に利用されてもよい。ミシン1に装着可能な刺繍枠は、図9に示す構成のもの以外に、例えば、上枠及び下枠を有し、上枠と下枠とによって被縫製物を挟持する公知の刺繍枠であってもよい。この場合、色基準部材は、上枠に設けられることが好ましい。
 ミシン1が刺繍枠150を備える場合、ミシン1は、刺繍枠150が有する色基準部材160の少なくとも一部を撮影した基準画像データに基づき、特定範囲を設定できる。色基準部材160が平面部153に設けられているので、ユーザは、色基準部材を刺繍枠150とは別に準備する必要はない。色基準部材160は、被縫製物が保持される面と略同一平面上に設けられている。移動機構40に取り付けられた刺繍枠150は、ベッド部11と平行に配置される。よってミシン1は、色基準部材160と、刺繍枠150に保持された被撮影物との各々を、ベッド部11からの距離が略同じとなる条件で、イメージセンサ35によって撮影させることが可能である。色基準部材160は、平面部153に配置されているので、被撮影物が刺繍枠150に保持された状態で、イメージセンサ35に対して露出する。したがって、ユーザは、被撮影物を保持した刺繍枠150を移動機構40に装着させるという簡単な操作の後、図4と同様の処理を実行させることで、ミシン1に基準画像データに基づき、特定範囲を設定させることができる。ミシン1が色基準部材160を撮影してS6で取得される白色基準画像データ及び黒色基準画像データを生成しない場合、色基準部材160は、白色基準部材161のみを備えてもよい。
 (C-4)S1において、対象範囲Rは、ワールド座標系又は刺繍座標系の座標に基づき特定されてもよい。その場合CPU61は、フラッシュメモリ64に記憶された刺繍座標系の座標と、画像座標系との対応から、刺繍座標系で表された特定範囲を、画像座標系の特定範囲に変換してもよい。CPU61は、S5において、相対位置毎に、異なる範囲が特定範囲として設定してもよい。この場合、部分画像の継ぎ目となる部分の色情報が、互いに同一又は類似するように、相対位置毎に特定範囲が特定されればよい。CPU61は、部分画像と部分画像との一部を重ねるように、部分画像データから合成画像データを生成してもよい。この場合、CPU61は重なり部分を考慮して、特定範囲を設定してもよい。CPU61は、基準画像の複数の画素のうち、グレースケール値が最も白に近い値である画素を含む範囲を特定範囲として設定しなくてもよい。
 (C-5)対象範囲の特定方法は適宜変更されてよい。CPU61は、例えば、ユーザがパネル操作等で指定した範囲を対象範囲として特定してもよい。
1:ミシン、6:針棒、7:縫針、35:イメージセンサ、37:撮像素子、40:移動機構、50:刺繍枠、61:CPU、62:ROM、63:RAM、64:フラッシュメモリ
 

Claims (6)

  1.  所定の撮影範囲を有する撮影部と、
     前記撮影部に対して被撮影物を相対的に搬送する搬送部と、
     前記搬送部により前記被撮影物を搬送することで前記撮影部により撮影が可能な範囲であって、前記撮影範囲よりも広い範囲である対象範囲を特定する特定手段と、
     前記搬送部により前記被撮影物を前記撮影部に対して第一方向に相対的に搬送しながら、前記撮影部が前記対象範囲の一部を撮影することを、前記第一方向と直交する第二方向における前記撮影部に対する前記被撮影物の相対位置を変えて繰り返すことで、前記対象範囲全体を撮影する場合の、前記第一方向の最小搬送回数を算出する算出手段と、
     前記撮影部によって色基準部材が撮影されて生成された、複数の画素からなる基準画像を表す基準画像データの色情報に基づいて、前記算出手段が算出した前記最小搬送回数で前記対象範囲全体を撮影可能な、前記撮影範囲内の範囲である特定範囲と、前記特定範囲に対応する前記相対位置とを設定する設定手段と、
     前記撮影部と前記搬送部とを制御して、前記設定手段により設定された前記相対位置で前記被撮影物を前記撮影部に対して前記第一方向に相対的に搬送しながら、前記撮影部に前記被撮影物を撮影させ、前記撮影部の前記特定範囲で撮影された部分画像を表す部分画像データを複数生成する処理を前記最小搬送回数実行する制御手段と、
     生成された複数の前記部分画像データを合成して、前記対象範囲全体を表す合成画像データを生成する生成手段と
    を備えたことを特徴とするミシン。
  2.  前記基準画像データは、前記複数の画素毎のグレースケール値を表し、
     前記設定手段は、前記基準画像データが表す前記複数の画素毎のグレースケール値を前記色情報として用いて前記特定範囲を決定することを特徴とする請求項1に記載のミシン。
  3.  前記設定手段は、前記複数の画素のうち、前記第二方向の両端部の画素の前記グレースケール値の差が所定値以下になる範囲を前記特定範囲として設定することを特徴とする請求項2に記載のミシン。
  4.  前記設定手段は、前記複数の画素のうち、前記グレースケール値が最も白に近い値である画素を含む範囲を前記特定範囲として設定することを特徴とする請求項2又は3に記載のミシン。
  5.  前記設定手段は、前記相対位置によらず同じ範囲を前記特定範囲として設定することを特徴とする請求項1から4の何れかに記載のミシン。
  6.  請求項1から5までの何れかに記載のミシンの各種処理手段としてコンピュータを機能させるためのプログラムを記録した記録媒体。
     
PCT/JP2016/072303 2015-09-30 2016-07-29 ミシン及びプログラムを記録した記録媒体 WO2017056677A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/803,606 US10450682B2 (en) 2015-09-30 2017-11-03 Sewing machine and non-transitory computer-readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-194557 2015-09-30
JP2015194557A JP2017064135A (ja) 2015-09-30 2015-09-30 ミシン及びプログラムを記録した記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/803,606 Continuation US10450682B2 (en) 2015-09-30 2017-11-03 Sewing machine and non-transitory computer-readable medium

Publications (1)

Publication Number Publication Date
WO2017056677A1 true WO2017056677A1 (ja) 2017-04-06

Family

ID=58427466

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/072303 WO2017056677A1 (ja) 2015-09-30 2016-07-29 ミシン及びプログラムを記録した記録媒体

Country Status (3)

Country Link
US (1) US10450682B2 (ja)
JP (1) JP2017064135A (ja)
WO (1) WO2017056677A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116821A1 (ja) * 2017-12-15 2019-06-20 ブラザー工業株式会社 ミシン

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7088692B2 (ja) * 2018-03-01 2022-06-21 株式会社ジャノメ 刺繍ミシン、糸色まとめ方法およびプログラム
KR102695860B1 (ko) 2018-12-13 2024-08-19 엘지전자 주식회사 인덕션 히터를 갖는 세탁장치 및 이의 제어방법
JP7277172B2 (ja) * 2019-02-26 2023-05-18 Juki株式会社 ミシン

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09176955A (ja) * 1995-12-26 1997-07-08 Datsukusu:Kk 刺繍模様設計方法及び装置
JP2002273078A (ja) * 2001-03-14 2002-09-24 Dan:Kk 平編地のリンキング方法および平編地リンキング装置
JP2009201704A (ja) * 2008-02-28 2009-09-10 Brother Ind Ltd ミシン
JP2010004904A (ja) * 2008-06-24 2010-01-14 Juki Corp ボタンの表裏判定方法
JP2012147985A (ja) * 2011-01-20 2012-08-09 Brother Ind Ltd ミシン

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2649540B2 (ja) * 1988-04-28 1997-09-03 蛇の目ミシン工業株式会社 刺しゅうミシン
JP3932625B2 (ja) * 1997-09-29 2007-06-20 ブラザー工業株式会社 刺繍縫製可能なミシン及び模様データ編集装置
EP1734166A1 (de) * 2005-06-17 2006-12-20 Fritz Gegauf AG Verfahren und Vorrichtung zum Erzeugen von Nähdaten
JP4974044B2 (ja) * 2006-03-23 2012-07-11 ブラザー工業株式会社 刺繍縫製可能なミシン
JP4862928B2 (ja) * 2009-09-03 2012-01-25 ブラザー工業株式会社 ミシン
JP4862929B2 (ja) * 2009-09-03 2012-01-25 ブラザー工業株式会社 ミシン
JP2011161087A (ja) * 2010-02-12 2011-08-25 Brother Industries Ltd ミシン
JP2011194042A (ja) * 2010-03-19 2011-10-06 Brother Industries Ltd ミシン
US8594829B2 (en) 2011-01-20 2013-11-26 Brother Kogyo Kabushiki Kaisha Sewing machine and computer program product stored on non-transitory computer-readable medium
JP2014155578A (ja) * 2013-02-15 2014-08-28 Brother Ind Ltd 撮影装置のコントローラに実行させるためのプログラム、ミシンシステム及び刺繍枠
JP2014155580A (ja) * 2013-02-15 2014-08-28 Brother Ind Ltd ミシン、ミシンプログラム、及びミシンシステム
JP2015175071A (ja) * 2014-03-14 2015-10-05 ブラザー工業株式会社 保持部材
JP6394157B2 (ja) * 2014-07-31 2018-09-26 ブラザー工業株式会社 ミシン及びプログラムを記録した記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09176955A (ja) * 1995-12-26 1997-07-08 Datsukusu:Kk 刺繍模様設計方法及び装置
JP2002273078A (ja) * 2001-03-14 2002-09-24 Dan:Kk 平編地のリンキング方法および平編地リンキング装置
JP2009201704A (ja) * 2008-02-28 2009-09-10 Brother Ind Ltd ミシン
JP2010004904A (ja) * 2008-06-24 2010-01-14 Juki Corp ボタンの表裏判定方法
JP2012147985A (ja) * 2011-01-20 2012-08-09 Brother Ind Ltd ミシン

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116821A1 (ja) * 2017-12-15 2019-06-20 ブラザー工業株式会社 ミシン
US11248324B2 (en) 2017-12-15 2022-02-15 Brother Kogyo Kabushiki Kaisha Sewing machine
US11585026B2 (en) 2017-12-15 2023-02-21 Brother Kogyo Kabushiki Kaisha Sewing machine
US11624135B2 (en) 2017-12-15 2023-04-11 Brother Kogyo Kabushiki Kaisha Sewing machine

Also Published As

Publication number Publication date
JP2017064135A (ja) 2017-04-06
US10450682B2 (en) 2019-10-22
US20180057985A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
JP6394157B2 (ja) ミシン及びプログラムを記録した記録媒体
US8606390B2 (en) Sewing machine having a camera for forming images of a sewing area
JP5141299B2 (ja) ミシン
WO2017056677A1 (ja) ミシン及びプログラムを記録した記録媒体
US8527083B2 (en) Sewing machine and non-transitory computer-readable medium storing sewing machine control program
JP2014042706A (ja) ミシン
US8700200B2 (en) Sewing machine and non-transitory computer-readable medium storing sewing machine control program
WO2017090294A1 (ja) ミシン及びプログラムを記録した記録媒体
US8584607B2 (en) Sewing machine
JP2015167780A (ja) ミシン
US10626533B2 (en) Sewing machine
WO2018078958A1 (ja) ミシン及び保持部材
JP2015173774A (ja) ミシン
JP6604171B2 (ja) 刺繍模様編集プログラム及び刺繍模様編集装置
JP2015093127A (ja) ミシン
US20200308745A1 (en) Sewing machine and pattern alignment method
JP2015084960A (ja) 刺繍データ作成装置、刺繍データ作成プログラム、及び、刺繍データ作成プログラムを記憶したコンピュータ読取り可能な記憶媒体
JP3813131B2 (ja) 刺繍データ作成装置
JP2020005693A (ja) ミシン及び非一時的コンピュータ可読媒体
JP2001104670A (ja) 縫いデータ処理装置
JPH0367435B2 (ja)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16850854

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16850854

Country of ref document: EP

Kind code of ref document: A1