WO2014203403A1 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
WO2014203403A1
WO2014203403A1 PCT/JP2013/067155 JP2013067155W WO2014203403A1 WO 2014203403 A1 WO2014203403 A1 WO 2014203403A1 JP 2013067155 W JP2013067155 W JP 2013067155W WO 2014203403 A1 WO2014203403 A1 WO 2014203403A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
component
unit
images
Prior art date
Application number
PCT/JP2013/067155
Other languages
English (en)
French (fr)
Inventor
信二 滋野
照雄 下村
幸三 馬場
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2013/067155 priority Critical patent/WO2014203403A1/ja
Priority to JP2015522462A priority patent/JP6260620B2/ja
Priority to CN201380077482.4A priority patent/CN105283902B/zh
Publication of WO2014203403A1 publication Critical patent/WO2014203403A1/ja
Priority to US14/959,853 priority patent/US20160086031A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks

Definitions

  • the present application relates to an image processing apparatus, an image processing method, and an image processing program.
  • an object of the present invention is to convert a captured image into an image suitable for recognition processing.
  • the image processing apparatus converts the input image into a plurality of types of images based on the values of the pixels included in the input image, and the plurality of the plurality of types based on the luminance information for the converted types of images.
  • An image processing unit that selects at least one image from among the types of images and outputs the selected image.
  • the captured image can be converted into an image suitable for recognition processing.
  • FIG. 1 is a diagram illustrating a functional configuration example of an image processing apparatus according to the present embodiment.
  • FIG. 2 is a diagram illustrating a hardware configuration example of the image processing apparatus.
  • FIG. 3 is a flowchart showing an example of processing of the image processing apparatus.
  • FIG. 4 is a diagram for explaining processing in the projective transformation unit.
  • FIG. 5 is a flowchart illustrating an example of processing of the image processing unit.
  • FIG. 6 is a diagram illustrating an example of a target image for channel evaluation.
  • FIG. 7 is a diagram illustrating an example of each component image obtained by channel division.
  • FIG. 8 is a diagram showing an example of an image of a numeric part displayed in 7 segments.
  • FIG. 9 is a diagram illustrating an example of boundary enhancement processing.
  • FIG. 10 is a diagram for explaining a first embodiment of image processing.
  • FIG. 11 is a diagram for explaining a second embodiment of image processing.
  • FIG. 1 is a diagram illustrating a functional configuration example of an image processing apparatus according to the present embodiment.
  • An image processing apparatus 10 shown in the example of FIG. 1 includes an input unit 11, an output unit 12, a storage unit 13, an imaging unit 14, a marker detection unit 15, a projective conversion unit 16, an image processing unit 17, The image recognition unit 18, the communication unit 19, and the control unit 20 are included.
  • the input unit 11 accepts various inputs such as start and end of various instructions and input of settings from a user who uses the image processing apparatus 10.
  • the input unit 11 receives each instruction such as a photographing instruction, a marker detection instruction, a projective conversion instruction, an image optimization instruction, and an image recognition instruction in the present embodiment.
  • the input unit 11 may be, for example, a keyboard or a mouse, may be a touch panel type using a screen, or may be a microphone (hereinafter referred to as “microphone”).
  • the output unit 12 outputs the content input by the input unit 11 and the content executed based on the input content.
  • the output unit 12 includes a display unit such as a display and a monitor when outputting by screen display, and has an audio output unit such as a speaker when outputting by sound.
  • the output unit 12 may be displayed on a touch panel.
  • the input unit 11 and the output unit 12 described above may be integrated with input / output, such as a touch panel.
  • the storage unit 13 stores various types of information necessary in the present embodiment.
  • the storage unit 13 stores input information obtained from the input unit 11, image information obtained from the imaging unit 14, image information obtained from an external device or the like via the communication unit 19, and image processing results in the present embodiment. To do.
  • the storage unit 13 stores various setting information for executing image processing according to the present embodiment, execution progress and results of various processing, and the like. Note that the information stored in the storage unit 13 is not limited to the information described above.
  • the storage unit 13 reads or writes various stored information at a predetermined timing as necessary under the control of the control unit 20 or the like.
  • the storage unit 13 is, for example, a hard disk or a memory.
  • the imaging unit 14 captures an image including a recognition target object such as a meter installed in various places and acquires the captured image.
  • the imaging unit 14 shoots the recognition target based on imaging conditions set in advance in shooting parameters such as the size and resolution of the image to be shot, the presence / absence of flash, and the zoom rate.
  • the imaging unit 14 is, for example, a digital camera, but is not limited to this.
  • the recognition target object imaged by the imaging unit 14 is provided with one or more markers around the recognition target object so that the position of the recognition target object can be known from the image.
  • the marker is a point (point or area) having a color that increases the color difference or luminance difference from the background portion, but is not limited thereto.
  • the marker may be a preset pattern or mark (for example, a square, a triangle, a star, etc.), or may be a combination of a plurality of these.
  • the marker is set at the four corners of the rectangle, but the marker is not limited to this.
  • the plurality of markers are not limited to the same mark.
  • the image captured by the imaging unit 14 may be stored in the storage unit 13 or may be input to the marker detection unit 15 as it is.
  • the marker detection unit 15 detects the position of the marker from the image information including the recognition object captured by the imaging unit 14 or the like or the image information including the recognition object acquired from the external device via the communication unit 19.
  • the marker detection unit 15 converts the captured image into a binary image.
  • the color information set for the marker is used, and for each pixel of the image, the neighboring color of the color information is 1 and the pixels having the other color information are 0. Perform valuation.
  • the neighborhood color is a range including a predetermined error with respect to preset marker color information. Examples of color information include brightness and luminance, but are not limited thereto.
  • the present invention is not limited to the above example.
  • the neighboring color may be 0, and the pixels of other colors may be 1.
  • the marker detection unit 15 may perform noise removal.
  • the marker detection unit 15 can remove binary noise by, for example, expanding and contracting the binarized image described above.
  • the expansion is a process of replacing, for example, even if there is a white pixel around the pixel of interest with white.
  • the contraction refers to a process of replacing even one pixel in the vicinity with black if there is one.
  • the marker detection unit 15 may perform noise removal by performing a smoothing process or the like before the binarization described above. Moreover, the marker detection part 15 extracts a marker area
  • the marker detection unit 15 may perform processing such as notifying the user as “no marker”.
  • the marker detection unit 15 acquires a marker position (coordinates) with respect to the extracted marker region. The marker detection unit 15 acquires, for example, the center position of each marker area as each marker position.
  • the marker position can be acquired as two-dimensional coordinates (x, y) set for the image, but is not limited to this.
  • the projective transformation unit 16 performs projective transformation in order to position the marker positions (four points) in the captured image detected by the marker detection unit 15 at four preset points.
  • the projective transformation unit 16 calculates, for example, a homography matrix from the marker positions (for example, four points) and the converted four point positions, and performs projective transformation of the image using the calculated matrix.
  • the present invention is not limited to this.
  • the projective transformation unit 16 performs projective transformation on the image in the region surrounded by the marker, and generates an image of the region surrounded by the marker region.
  • the image processing unit 17 performs processing for correcting the image converted by the projection conversion unit 16 into an image suitable for image recognition. For example, the image processing unit 17 converts the image converted by the projection conversion unit 16 into a plurality of types of images (channel images) set in advance based on the value of each pixel. In addition, the image processing unit 17 selects at least one image from a plurality of types of converted images based on a predetermined condition (for example, a luminance difference or luminance dispersion) based on luminance information of each image.
  • a predetermined condition for example, a luminance difference or luminance dispersion
  • the process executed by the image processing unit 17 may be referred to as an optimization process.
  • the image processing unit 17 includes at least one of, for example, the type of the recognition target object, the shooting time, the shooting conditions (flash presence / absence, ambient brightness, camera auto gain function / etc.), And the shooting position. Information may be used to select or optimize an image. A specific example of the image processing unit 17 will be described later.
  • the image recognizing unit 18 recognizes at least one piece of information such as a numerical value, a character, a symbol, and a shape (for example, the shape and position of the needle of an analog meter) from the image optimized by the image processing unit 17.
  • the image recognizing unit 18 recognizes the numerical value in the case of a digital meter that uses a display method for displaying seven segments representing one-digit numbers with seven line segments (segments) such as a display unit of a calculator, for example. .
  • the image recognition unit 18 recognizes the shape (position) of a needle or the like in the case of an analog meter that reads a numerical value based on the position of the needle with respect to the numerical value written on the dial.
  • the recognition contents in the image recognition unit 18 are not limited to these.
  • the image recognizing unit 18 may perform character recognition by optical character recognition (OCR) or the like when reading numerical values or characters in an image, and matching processing with numbers, characters, shapes, or the like stored in advance.
  • OCR optical character recognition
  • the communication unit 19 is a transmission / reception unit for transmitting / receiving various types of information to / from an external device via a communication network such as the Internet or a Local Area Network (LAN).
  • the communication unit 19 can receive various kinds of information already stored in the external device or the like, and can transmit the result processed by the image processing device 10 to the external device or the like via a communication network or the like. it can.
  • the control unit 20 controls the entire components of the image processing apparatus 10. Specifically, the control unit 20 performs each control related to image processing based on, for example, an instruction from the input unit 11 by a user or the like.
  • each control refers to, for example, causing the imaging unit 14 to capture a recognition object (for example, a meter), causing the marker detection unit 15 to detect a marker, and causing the projection conversion unit 16 to perform projective conversion. To optimize the image.
  • each control has the image recognition part 18 recognize an image etc., However, It is not limited to these.
  • Examples of the image processing apparatus 10 described above include communication terminals such as a tablet terminal, a smartphone, and a mobile phone, but are not limited thereto.
  • Other examples of the image processing apparatus 10 include a personal computer (PC) that acquires an image captured by a camera or the like different from the image processing apparatus 10 by the communication unit 19 and performs image processing in the present embodiment.
  • a computer such as a server may be used.
  • FIG. 2 is a diagram illustrating a hardware configuration example of the image processing apparatus.
  • the image processing apparatus 10 will be described using a communication terminal such as a tablet terminal as an example.
  • the 2 includes a microphone 31, a speaker 32, a display 33, an operation unit 34, a camera 35, a position information acquisition unit 36, a time unit 37, a power unit 38, A memory 39, a communication unit 40, a central processing unit (CPU) 41, and a driver 42 are included, and these are connected to each other via a system bus B.
  • the microphone 31 inputs a voice uttered by the user and other sounds.
  • the speaker 32 outputs the other party's voice or sounds such as ringtones.
  • the microphone 31 and the speaker 32 are used, for example, when talking to a call partner using a call function or the like.
  • the display unit 33 is a display such as a Liquid Crystal Display (LCD) or an organic Electro Luminescence (EL).
  • the display unit 33 may be a touch panel display having a display and a touch panel, for example.
  • the operation unit 34 is, for example, an icon or button group displayed on the touch panel, an operation button provided on the image processing apparatus itself, or the like.
  • the operation buttons are, for example, a power button, a shooting button, a volume adjustment button, and other operation buttons, but are not limited thereto.
  • the operation unit 34 can input various instructions and information from the user.
  • the camera 35 photographs a recognition object managed by a worker or the like.
  • the camera 35 may be a camera built in the image processing apparatus 10, and is not built in the image processing apparatus 10, and the image processing apparatus captures data captured by connecting directly or indirectly through communication. 10 may be used.
  • the position information acquisition unit 36 acquires position information (for example, latitude / longitude information) of the image processing apparatus 10 using a Global Positioning System (GPS) function or the like.
  • the position information is used when, for example, determining at which position an image captured by the camera 35 is captured, but is not limited thereto.
  • the acquisition example of the position information is not limited to the GPS.
  • the image processing apparatus 10 performs short-distance communication with Wireless Fidelity (Wi-Fi (registered trademark)) or the like, the access is performed.
  • the position information of the image processing apparatus 10 may be acquired from the point position information or the like.
  • the position information acquisition unit 36 may acquire an inclination, an angle, a direction, and the like using an acceleration sensor, a gyro sensor, or the like provided in the image processing apparatus 10.
  • the position information acquisition unit 36 is mounted on the camera instead of the image processing apparatus 10. It is preferable to acquire information on the position where the image was taken.
  • the time part 37 acquires time.
  • the time unit 37 can be acquired including the date and time, and may have a function as a timer. The time obtained by the time unit 37 is used, for example, when managing the time when an image captured by the camera 35 is acquired, but is not limited thereto.
  • the power unit 38 supplies power to each component of the image processing apparatus 10.
  • the power unit 38 is an internal power source such as a battery, but is not limited thereto.
  • the power unit 38 can also detect the amount of power constantly or at predetermined time intervals and monitor the remaining amount of power.
  • the memory 39 is, for example, an auxiliary storage device or a main storage device.
  • the memory 39 is, for example, a Read Only Memory (ROM) or a Random Access Memory (RAM).
  • the memory 39 may be a storage unit such as a hard disk drive (HDD) or a solid state drive (SSD).
  • the memory 39 stores various data, programs, and the like, and inputs / outputs such data as necessary.
  • the memory 39 reads out and executes an execution program or the like according to an instruction from the CPU 41, and stores various information obtained during execution of the program.
  • the communication unit 40 is a communication interface that receives a radio signal (communication data) from a base station using, for example, an antenna or transmits a radio signal to the base station via an antenna.
  • the communication unit 40 may perform short-range communication with an external device using a communication method such as infrared communication, Wi-Fi, Bluetooth (registered trademark), or the like.
  • the CPU 41 controls the processing of the entire computer, such as various operations and data input / output with each hardware component, based on a control program such as an OS and an execution program stored in the memory 39, thereby displaying a screen. Each process in the display is realized.
  • the driver 42 can detachably set the recording medium 43 and the like, can read various information recorded on the set recording medium 43, and can write predetermined information on the recording medium 43.
  • the driver 42 is, for example, a medium loading slot or the like, but is not limited thereto.
  • the recording medium 43 is a computer-readable recording medium that stores an execution program and the like as described above.
  • the recording medium 43 may be a semiconductor memory such as a flash memory, for example.
  • the recording medium 43 may be a portable recording medium such as a Universal Serial Bus (USB) memory, but is not limited thereto.
  • USB Universal Serial Bus
  • FIG. 3 is a flowchart illustrating an example of processing of the image processing apparatus.
  • the imaging unit 14 acquires a captured image (S01).
  • the communication unit 19 may acquire the captured image data.
  • the marker detection unit 15 performs marker detection processing on the captured image (S02).
  • the marker detection unit 15 determines whether there is a marker from the detection result (S03). In the process of S03, when there is a marker (YES in S03), the projective transformation unit 16 performs projective transformation on the marker region (S04). Next, the image processing unit 17 performs an optimization process on the image subjected to projective transformation by the process of S04 described above (S05). Next, the image recognizing unit 18 recognizes at least one piece of information such as characters, numerical values, symbols, needle shapes and positions of the recognition target object from the optimized image obtained by the process of S05 described above ( S06).
  • FIG. 4 is a diagram for explaining processing in the projective transformation unit.
  • FIG. 4A shows an example of a photographed image
  • FIG. 4B shows an example of an image acquired by projective transformation.
  • the projective conversion unit 16 captures an image 50-1 as illustrated in FIG.
  • the image 50-1 includes a recognition object such as a meter.
  • an analog meter is shown.
  • the image photographed by the user may have a meter portion tilted or not photographed from the front. Therefore, the projective conversion unit 16 converts the markers 51-1 to 51-4 indicating the position of the meter into, for example, a preset four-point positional relationship (vertical / horizontal distance) as shown in FIG.
  • a normalized projective transformation image 50-2 as shown in FIG. 4B is acquired.
  • a 3 ⁇ 3 homography matrix can be calculated from the marker position (4 points) and the converted 4 points, and the projective transformation of the image can be performed using the calculated matrix. It is not limited to this.
  • the image processing unit 17 performs, for example, a plurality of preset image processes, leaves only the detection target (for example, a 7-segment Light Emitting Diode (LED) display portion and a needle portion), and removes the rest.
  • the detection target for example, a 7-segment Light Emitting Diode (LED) display portion and a needle portion
  • FIG. 5 is a flowchart illustrating an example of processing of the image processing unit.
  • the image processing unit 17 acquires a projective transformation image obtained by the projecting transformation unit 16 (S01).
  • the image processing unit 17 converts the image for each component (channel) based on the value of each pixel included in the acquired image, and performs channel evaluation using the converted image (S12).
  • the channel is a color component of each pixel included in the color image acquired in the process of S01. For example, red (R), green (G), blue (B), hue (H), saturation (S ), Luminance (I), etc., but is not limited to this.
  • the image processing unit 17 evaluates the luminance information and the like of the plurality of types of component images described above, excludes unnecessary channel images, and performs optimization using necessary channel images. For example, the image processing unit 17 performs channel division for dividing the channel image of the component necessary for image optimization from the projective transformation image based on the evaluation result obtained by the processing of S12 described above (S13). At least one image (channel) is selected from each channel image (S14).
  • the image processing unit 17 performs mask processing on the selected channel image (S15), and performs optimization processing such as boundary enhancement on the obtained image (S16).
  • optimization processing such as boundary enhancement on the obtained image (S16).
  • S16 for example, binarization, brightness correction, sharpening correction, and the like may be performed. Thereby, the optimization of the image in this embodiment is realizable.
  • a target channel (component) image is excluded by comparing the acquired projective transformation image with a preset condition. As a result, only the necessary channels are selected to optimize the image.
  • the preset conditions mentioned above and the example of the process corresponding to the conditions are demonstrated.
  • the image processing unit 17 converts one input image into an R component image, a G component image, and a B component image as a plurality of types of images. Next, the image processing unit 17 sets a line of a certain pixel included in the input image, and each component (R component and G component, R component and B component, G component) between RGB for each pixel in the line. And B component) are obtained. Further, the image processing unit 17 extracts a pixel in which the maximum difference among the differences obtained for one pixel exceeds a predetermined value.
  • the image processing unit 17 obtains the number of pixels extracted in the above-described line, and determines whether the H component image, the S component image, and the I component image are to be converted according to the obtained number of pixels. Decide whether or not.
  • condition 1 for example, the luminance of a line in a horizontal row or a vertical row is acquired from an image.
  • the line may be at least one line from the vertical or horizontal direction, but is not limited thereto.
  • the image processing unit 17 obtains absolute values of differences between RGB at all pixels on the obtained line, and compares the obtained value with a preset threshold value (first threshold value).
  • the first threshold value is a threshold value for determining whether the image is close to monochrome, for example, but is not limited to this.
  • the image processing unit 17 excludes the H component, S component, and I component channels, and sets the R component, the G component, and the B component as conversion targets.
  • the image processing unit 17 for each component image of R component, G component, B component, H component, S component, and I component, for each pixel line that is an input image, for each pixel in the line The luminance values of the R component, G component, and B component of the pixel are obtained. Further, the image processing unit 17 obtains the number of pixels in which any of the obtained luminance values exceeds a predetermined value.
  • the image processing unit 17 excludes the channel of the component exceeding the predetermined value, and determines whether or not the image of the other component is to be converted.
  • condition 2 as in condition 1, for example, the luminance of one horizontal line or one vertical line is acquired from the image.
  • the image processing unit 17 counts pixels that are equal to or greater than a preset threshold (second threshold) for the specific channels of the R component, G component, and B component on the line.
  • the image processing unit 17 compares the count value (number of pixels) between the above-described channels, and excludes a channel with a large count when only a specific channel is large.
  • the second threshold is a threshold for determining whether the luminance of each pixel on the line is saturated with a predetermined component, but is not limited to this.
  • the image processing unit 17 converts the component images excluding the component images having a large number from the component images of the R component, the G component, the B component, the H component, the S component, and the I component described above as conversion targets.
  • FIG. 6 is a diagram illustrating an example of a target image for channel evaluation.
  • 6A to 6D show projective transformation images.
  • 6A and 6B show examples of digital numerical display meters
  • FIGS. 6C and 6D show examples of analog display meters.
  • the position and number of lines for performing the channel evaluation described above may be set in advance, and among the types of recognition objects included in the input image, the shooting time, the shooting location, and the shooting parameters, etc. It may be set according to at least one condition.
  • the line setting may be arbitrarily set according to the shape of the range (marker region) of the captured recognition object, the color, size of the marker, the influence of external light, and the like. For example, in the case of digital numerical values as shown in (i) of FIG. 6 (A) and (i) of FIG. 6 (B), by setting one horizontal straight line passing through the segment part and the non-segment part, It can be evaluated from the luminance information of each component image described above in the line 60.
  • the image processing unit 17 sets a plurality of horizontal straight lines 60 (for example, two vertically) passing through the segment part and the non-segment part as shown in (ii) of FIG.
  • the stability of channel evaluation can be improved.
  • the image processing unit 17 also adds a single line 60 in the vertical direction as shown in (iii) of FIG. 6A in consideration of the case of being affected by a flash or the like in the imaging unit 14, for example. May be.
  • the vertical line 60 since there is a high possibility of reflection at the center during flash photography or the like, it is preferable to set the line 60 near the center of the image, but the present invention is not limited to this.
  • a plurality of lines 60 may be set in the vertical direction.
  • the image processing unit 17 sets, for example, one line that always passes through the needle in the case of an analog meter (less than a needle movement width of 180 degrees). Further, the image processing unit 17 may set one line in the vertical direction in consideration of the influence of the flash in the imaging unit 14 as described above. In addition, since the meter processing unit 17 may have a small meter needle, setting two or more horizontal lines up and down makes the image processing unit 17 strong against noise during channel evaluation. In the case of an analog meter (needle movement width of 180 degrees or more), the image processing unit 17 knows the center of rotation of the needle, so that a cross passing through the center as shown in (i) of FIG. The two lines 60 are set.
  • the image processing unit 17 may set two vertical and horizontal lines 60 as shown in (ii) of FIG. 6D so that the needle always passes on the line regardless of the position. Good.
  • the image processing unit 17 acquires the luminance and the like of each component for the line 60 as shown in the example of FIG. 6, and excludes the channel based on the luminance.
  • the image shown in FIG. 6B does not exclude each component because the difference between the R component, the G component, and the B component is small.
  • the image processing unit 17 is not limited to the conditions 1 and 2 described above, and may exclude unnecessary channel images under other conditions. Further, the image processing unit 17 may set all the component images of the R component, G component, B component, H component, S component, and I component described above as conversion targets. ⁇ About channel division> Next, a specific example of channel division in S13 will be described. In the channel division, the normalized image after projective transformation is divided into images for each predetermined component (channel) to be converted by the channel evaluation process in S12.
  • FIG. 7 is a diagram illustrating an example of each component image obtained by channel division.
  • FIG. 7A shows an example of a digital meter
  • FIG. 7B shows an example of an analog meter.
  • component images of R component, G component, B component, H component, S component, and I component for the original image are shown.
  • the image processing unit 17 can generate each component image described above from the original image by channel division.
  • channel selection for example, when a detection unit (segment unit) and a non-detection unit (non-segment unit) are separated as in a digital meter, and when a detection unit and a non-detection unit are mixed as in an analog meter. Select the channel separately.
  • ⁇ Separate type> For example, when the detection unit (segment unit) and the non-detection unit (non-segment unit) are separated in the projective transformation image as shown in FIG. Thus, a channel image having a high sum of luminance differences from the non-detection part to be compared is selected.
  • FIG. 8 is a diagram illustrating an example of an image of a numeric part displayed in 7 segments.
  • areas A and B indicate non-detection parts (non-segment parts).
  • Segment (1) shows the center horizontal segment of 7 segments
  • segment (2) shows the upper left vertical segment of 7 segments
  • segment (3) shows the top horizontal segment of 7 segments.
  • Segment (4) indicates the upper right vertical segment of 7 segments
  • segment (5) indicates the lower right vertical segment of 7 segments
  • segment (6) indicates the lowermost horizontal segment of 7 segments.
  • Segment (7) represents the lower left vertical segment of 7 segments.
  • the image processing unit 17 acquires the brightness values of the areas A and B from each area image. This luminance value is, for example, the average luminance value of each region.
  • the image processing unit 17 acquires a difference value between the luminance value of the segment (1) and the average luminance value of the region A and the region B.
  • the image processing unit 17 acquires a difference value between the luminance value of each segment of the segments (2) to (4) and the luminance value of the region A.
  • the image processing unit 17 acquires a difference value between the luminance value of each segment of the segments (5) to (7) and the luminance value of the region B.
  • the areas of the detection unit and the non-detection unit on the screen may be set in advance by the user or the like, and each area may be set according to the type of the recognition target such as a meter. It may be set.
  • the image processing unit 17 uses, for example, the difference value (luminance difference) acquired for each segment by the above-described method for each channel image of R, G, B, H, S, and I as shown in FIG. ) Is selected.
  • the image processing unit 17 has a channel with a smaller variance in luminance of the non-histogram portions in the regions A and B (the luminance difference in the region is smaller). Select an image.
  • the image processing unit 17 is, for example, R, G, B, H, S, shown in FIG.
  • the variance of luminance obtained for each pixel is obtained, and an image with low variance is selected.
  • the mixed type is, for example, a case where the detection unit (needle) and the non-detection unit (scale, character) overlap because the needle moves on a scale or a character in an analog meter or the like, but is limited to this. is not.
  • the image processing unit 17 may create a luminance histogram based on the luminance value and select an image with low variance using the created luminance histogram when obtaining the luminance dispersion. Further, the image processing unit 17 may perform channel selection processing using an image after performing mask processing described later. The image processing unit 17 selects, for example, the G component image in the example of FIG. 7A and the H component image in the example of FIG.
  • the R, G, B, H, S, and I channel images are processed in the separation type and the mixed type.
  • the processing for the channel image can be omitted. Therefore, the processing speed can be improved.
  • the channel selection method differs between the separation type and the mixed type. Therefore, the image processing unit 17 may set which method is used for channel selection by the user or the like. Further, the image processing unit 17 can change the channel selection method or change the mask image depending on, for example, the type (for example, digital meter, analog meter), shape, etc. of the meter to be imaged.
  • the type of meter may be set by, for example, a user (worker) or the like, and the image processing apparatus 10 recognizes the product code included in the image and characterizes the meter from the recognized product code. May be. Further, the image processing unit 17 may change the coefficient of brightness correction, for example, day and night based on the shooting time of the recognition target object. In addition, the image processing unit 17 adjusts a threshold value or the like corresponding to the shooting location (installation position), and when the recognition target is actually shot at that location, the image processing unit 17 takes a picture using the threshold value. Also good.
  • the image processing unit 17 uses 7-segment display with strong brightness and blurring, so that a component image with less blurring is used for recognition by channel selection. it can.
  • ⁇ Mask processing> Next, a specific example of the mask process in S15 described above will be described.
  • the mask processing performs masking processing for masking unnecessary image regions by performing AND processing with a photographed image and projective transformation image using a preset mask image. Note that the mask image differs depending on the type (shape, size) of the meter or the like that is the recognition target.
  • the image processing unit 17 stores a mask image corresponding to the type of the recognition target object (for example, a product code) in the storage unit 13 or the like in advance, and generates a mask image corresponding to the type designated by the user or the like. It may be used. Further, the image processing unit 17 may read a product code or the like of the recognition target object from the image by character recognition using OCR or the like, and obtain a corresponding mask image from the read product code. Further, the image processing unit 17 may automatically create a mask image from the radius or center of a meter obtained from the image. By performing the mask processing described above, information on unnecessary portions can be deleted and noise can be reduced, so that an image can be optimized more appropriately.
  • the type of the recognition target object for example, a product code
  • FIG. 9 is a diagram illustrating an example of boundary enhancement processing.
  • FIG. 9A shows an example of boundary enhancement for an image of a digital meter
  • FIG. 9B shows an example of boundary enhancement for an image of an analog meter.
  • the G component image 70-1 selected by the channel selection described above may be erroneously detected due to the influence of noise due to light (external light, etc.) on the numerical value “4”. .
  • the image processing unit 17 generates a blurred image 70-2 by blurring processing on the G component image, and obtains an absolute value of a difference between the generated blurred image 70-2 and the G component image 70-1.
  • the noise on the numerical value “4” disappears, and a good emphasized image 70-3 can be acquired as an authentication target.
  • the blurring process can be generated using, for example, a smoothing filter, a median filter, a Gaussian filter, or the like, but is not limited thereto.
  • the absolute value of the difference between the blurred image 71-2 obtained by performing the blurring process described above on the H component image 71-1, and the H component image 71-1.
  • the image 71-3 in which the needle of the meter is emphasized can be acquired.
  • the projective transformation image acquired by the above-described method is corrected and acquired as an image suitable for image recognition (for example, meter recognition).
  • the optimization processing in the present embodiment is preferably used for, for example, an image or video taken outdoors that is easily affected by outside light or the like, but is not limited thereto.
  • brightness correction and sharpening correction can be performed in addition to the above-described processing.
  • N 1 Indicates a scaling factor
  • the setting contents are not limited to this.
  • the image processing unit 17 sets a preset sharpening coefficient N 3 A filter process using a 3 ⁇ 3 matrix using is performed.
  • N 3 Is a sharpening coefficient.
  • N 3 An arbitrary value can be set at ⁇ 1.0, and the edge is emphasized as the number increases.
  • N 4 Indicates a scaling factor
  • N 5 Indicates an added value coefficient.
  • boundary emphasis can be used, for example, when there is little difference between characters, numerical values, and the background, but is not limited thereto.
  • the determination conditions include, for example, “recognized object (meter) type”, “meter installation location (position information)”, “shooting time”, “original color of marker (known color) and detected from image There are “difference from color (corrected color)”, “marker and peripheral edge strength”, but not limited thereto.
  • the image processing unit 17 may set the meter installation location in advance by, for example, a user, or may be acquired by the position information acquisition unit 36 provided in the image processing apparatus 10 or the like. Further, for the shooting time, for example, time information may be acquired from the time unit 37 included in the image processing apparatus 10.
  • FIG. 10 is a diagram for explaining the first embodiment of the image processing.
  • the image processing apparatus 10 inputs an original image 80 captured by the imaging unit 14, detects a marker in the input image, and performs projective transformation in which a marker region is cut out based on the detected marker position.
  • An image 81 is acquired.
  • the image processing apparatus 10 performs the above-described channel evaluation, channel selection, and the like on the projection conversion image 81 by the image processing unit 17, and acquires color component images 82-1 to 82-3 corresponding to the channels. .
  • the channel selection method may be changed depending on the shooting time, or the channel selection method may be dynamically changed from an image obtained by binarizing the R component image. Is not to be done.
  • an image 82-1 indicates an R component image
  • an image 82-2 indicates a G component image
  • an image 82-3 indicates a B component image.
  • the example of FIG. 10 shows a 7-segment display that can be recognized by extracting red. However, when the image is taken at night, the image becomes blurred due to the influence of irradiation light, auto gain, etc., and is difficult to recognize. It becomes. Therefore, in the example of FIG. 10, the G component image 82-2 is used by the above-described channel selection processing or the like.
  • a blurred image 83 is generated by a median filter or a Gaussian filter for the G component image 82-2, and a luminance difference between the generated blurred image and the original G component image 82-2 is extracted.
  • a recognition image 84 for recognition by the recognition unit 18 is generated.
  • the G component image 82-2 is used by channel selection by image optimization.
  • the present invention is not limited to this, and a recognition image is generated using two or more images. Then, the final recognition image may be generated by combining the plurality of generated recognition images.
  • FIG. 11 is a diagram for explaining a second embodiment of the image processing.
  • the image processing apparatus 10 inputs an original image 90 captured by the imaging unit 14, detects a marker in the input image, and performs projective transformation in which a marker region is cut out based on the detected marker position.
  • An image 91 is acquired.
  • the above-described channel evaluation and channel selection are performed on the projective transformation image 91, and color component images 92-1 to 92-5 are acquired.
  • the channel selection method may be changed depending on the shooting time, or the channel selection method may be dynamically changed from an image obtained by binarizing the R component image, but the present invention is not limited to this. It is not something.
  • the meter is difficult to recognize by sunlight and shadow.
  • optimization is performed not as a human-readable image but as an image that can be easily recognized as a meter.
  • the image processing apparatus 10 uses the image processing unit 17 to divide channels into R, G, B (red, green, blue), H, S, I (hue, saturation, luminance), etc. Select.
  • R, G, B red, green, blue
  • an image 92-1 indicates an H component image
  • an image 92-2 indicates an S component image
  • an image 92-3 indicates an R component image
  • an image 92-4 indicates a G component image.
  • An image is shown
  • an image 92-5 shows an image of the B component.
  • the H component image 92-1 is used by the above-described channel selection or the like.
  • the image processing apparatus 10 generates a binarized image 93 for the H component image 92-1 and further synthesizes it with a preset mask image 94.
  • the mask image 94 in the present embodiment can be arbitrarily selected from a plurality of preset mask images according to the type of meter, but is not limited thereto.
  • the image processing apparatus 10 can automatically create a mask image from the radius and center of the meter. Thereby, the image recognition part 18 produces
  • the H component image 92-1 is used by channel selection by image optimization.
  • the present invention is not limited to this, and a recognition image is generated using two or more images. Then, the final recognition image may be generated by combining the plurality of generated recognition images.
  • the processing for emphasizing the shape of the needle is performed.
  • the present invention is not limited to this. For example, processing for emphasizing the numerical value of the dial may be performed. When recognizing a numerical value from the position of the needle in the recognition image 95 shown in FIG.
  • the image recognition unit 18 stores in advance a minimum value and a maximum value of the needle swing width based on the type of the meter, and the meter.
  • the numerical value for the needle position can be recognized in a range corresponding to the type of the needle.
  • an example of generating a recognition image for a digital meter (7 segments) and an analog meter (needle meter) as an example of a recognition target has been described.
  • the present invention is not limited to this. This embodiment can be similarly applied to, for example, digital display other than 7-segment display and analog display other than the needle meter.
  • data recognized by the image recognition unit 18 can be managed using cloud computing having one or more information processing devices.
  • cloud computing having one or more information processing devices.
  • an image obtained by capturing a measurement device such as a radiation dosimeter or a temperature sensor installed in one or more predetermined locations is acquired, the image is recognized, and a measurement obtained as a result of the recognition
  • information such as the value indicated by the device, the installation location, and the shooting time in a cloud or the like, it is possible to provide information such as time-series comparison and statistics.
  • the recognition target object is not limited to this.
  • An image captured at a predetermined timing or cycle may be acquired from a previously fixed camera, and a numerical value or the like may be recognized by the above-described image processing.
  • the image processing in the present embodiment may be executed by an application (application) installed in the terminal. For example, periodic recognition is started after the application is started, a camera image is photographed once every period, the image processing in the present embodiment described above is performed on the photographed image, and the recognition result is saved in a file. You may do it.
  • the above-described image processing may be performed when a virus infection state is determined from a color change state caused by a reaction of a specimen or the like.
  • a detection plate with a marker is photographed as a recognition target, and the detection plate is normalized (for example, distortion correction) based on marker detection of the captured image, and an appropriate color component is extracted from the image.
  • the reagent reaction can be detected by image recognition.
  • it for example, even if there are various illumination conditions and types of meters to be imaged, it can be converted into an image suitable for recognition processing.
  • a color marker or the like is pasted around the recognition object, the marker is automatically detected by image recognition or the like, and image conversion, image optimization processing, or the like is performed based on the detected marker.
  • image recognition or the like an arbitrary photographer (worker or the like) uses an arbitrary imaging device and information such as target characters and numerical values from an image captured at an arbitrary place at an arbitrary time. Can be properly recognized.
  • it is difficult to recognize an image by generating a plurality of channel images for each color component from one image and selecting and optimizing an appropriate image according to various conditions.
  • the processing time can be shortened.
  • the computer load concerning an image processing can be reduced, even if it is a computer etc. with low processing capability, the prolongation of processing time can be suppressed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 画像処理装置において、入力画像に含まれる画素の値に基づいて、該入力画像を複数種類の画像に変換し、変換した前記複数種類の画像に対するそれぞれの輝度情報に基づいて、前記複数種類の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する画像処理部を有する。

Description

画像処理装置、画像処理方法、及び画像処理プログラム
 本願は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
 作業員等が、様々な場所に設置されたメータ等の認識対象物を撮影し、その撮影した画像情報を認識してメータ等に表示された数値等を読み取る手法がある。また、認識対象物が撮影された画像中のどこにあるかを識別するため、認識対象物に識別用マーカを付け、撮影された画像に含まれる識別用マーカの位置から認識対象物の画像領域を取得する手法がある(例えば、特許文献1参照)。
特開2002−56371号公報
 しかしながら、例えば屋外等に設置されている認識対象物を撮影した場合は、外光の影響が大きく、画像全体の色味が変化したり、画像の一部に光源(例えば、太陽やカメラのフラッシュ等)が写り込むため画像の認識が難しくなる場合がある。
 また、上述したような外光の影響や、メータの種類の相違による読み取り易さが画像毎に異なるため、単なる照度補正だけではメータの数値等を認識しやすい状態の画像にすることができない。
 1つの側面では、本発明は、撮影画像を認識処理に適した画像に変換することを目的とする。
 一態様における画像処理装置は、入力画像に含まれる画素の値に基づいて、該入力画像を複数種類の画像に変換し、変換した前記複数種類の画像に対するそれぞれの輝度情報に基づいて、前記複数種類の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する画像処理部を有する。
 撮影画像を認識処理に適した画像に変換することができる。
 図1は本実施形態における画像処理装置の機能構成例を示す図である。
 図2は画像処理装置のハードウェア構成例を示す図である。
 図3は画像処理装置の処理の一例を示すフローチャートである。
 図4は射影変換部における処理を説明するための図である。
 図5は画像処理部の処理の一例を示すフローチャートである。
 図6はチャネル評価の対象画像の一例を示す図である。
 図7はチャネル分割された各成分画像の一例を示す図である。
 図8は7セグメント表示された数字部分の画像例を示す図である。
 図9は境界強調処理の一例を示す図である。
 図10は画像処理の第1実施例を説明するための図である。
 図11は画像処理の第2実施例を説明するための図である。
 以下、図面に基づいて実施形態を説明する。
 <画像処理装置の機能構成例>
 図1は、本実施形態における画像処理装置の機能構成例を示す図である。図1の例に示す画像処理装置10は、入力部11と、出力部12と、記憶部13と、撮像部14と、マーカ検出部15と、射影変換部16と、画像処理部17と、画像認識部18と、通信部19と、制御部20とを有する。
 入力部11は、画像処理装置10を使用するユーザ等から、各種指示の開始や終了、設定の入力等の各種入力を受け付ける。具体的には、入力手段11は、例えば本実施形態における撮影指示、マーカ検出指示、射影変換指示、画像最適化指示、画像認識指示等の各指示を受け付ける。
 入力部11は、例えばキーボードやマウス等でもよく、また画面を用いたタッチパネル形式等でもよく、或いは例えばマイクロフォン(以下、「マイク」という)等でもよい。
 出力部12は、入力部11により入力された内容や、入力内容に基づき実行された内容等の出力を行う。出力部12は、例えば画面表示により出力する場合には、ディスプレイやモニタ等の表示部を有し、音声により出力する場合には、スピーカ等の音声出力手段を有する。また、出力部12は、タッチパネル上に表示してもよい。したがって、上述した入力部11と出力部12とは、例えばタッチパネルのように入出力が一体型であってもよい。
 記憶部13は、本実施形態において必要となる各種情報を記憶する。例えば、記憶部13は、入力部11から得られる入力情報、撮像部14から得られる画像情報、通信部19を介して外部装置等から取得した画像情報、本実施形態における画像処理結果等を記憶する。また、記憶部13は、本実施形態における画像処理を実行するための各種設定情報、各種処理の実行経過や結果等を記憶する。なお、記憶部13に記憶される情報は、上述した情報に限定されるものではない。
 記憶部13は、制御部20等による制御により、記憶された各種情報を必要に応じて所定のタイミングで読み出したり、書き込んだりする。記憶部13は、例えばハードディスクやメモリ等である。
 撮像部14は、例えば様々な場所に設置されたメータ等の認識対象物を含む画像を撮影し、撮影された画像を取得する。撮像部14は、撮影する画像のサイズや解像度、フラッシュの有無、ズーム率等の撮影パラメータに予め設定された撮像条件に基づいて、認識対象物の撮影を行う。撮像部14は、例えばデジタルカメラ等であるが、これに限定されるものではない。
 ここで、撮像部14により撮影される認識対象物には、画像中から認識対象物の位置がわかるように、認識対象物の周囲に1又は複数のマーカが取り付けられている。マーカとは、背景部分との色差や輝度差が大きくなるような色を有するポイント(点又は領域)等であるが、これに限定されるものではない。例えば、マーカは、予め設定された模様やマーク(例えば四角、三角、星印等)でもよく、これらを複数組み合わせたものであってもよい。
 マーカは、例えば読み取る対象メータの数値や形状等が示された領域が矩形の場合に、その矩形の4隅にマーカを設定するが、これに限定されるものではない。例えば、円形のメータの場合には、その円周上に等間隔に配列した4点であってもよい。また、複数のマーカは、全て同一のマークに限定されるものではなく、例えば撮影した画像からメータの向きが分かるように、少なくとも1つのマークを他のマークと異なるマークにしてもよい。撮像部14により撮影された画像は、記憶部13に記憶されてもよく、そのままマーカ検出部15に入力されてもよい。
 マーカ検出部15は、撮像部14等により撮影された認識対象物を含む画像情報又は通信部19を介して外部装置から取得した認識対象物を含む画像情報からマーカの位置を検出する。例えば、マーカ検出部15は、撮像部14により撮影された画像がカラー画像の場合、撮影画像を二値画像に変換する。ここで、二値画像に変換するとは、マーカに対して設定した色情報を使用し、画像の画素毎に、その色情報の近傍色を1、それ以外の色情報を持つ画素を0として二値化を行う。なお、近傍色とは、予め設定されたマーカの色情報に対して所定の誤差を含む範囲である。色情報としては、明度や輝度等があるが、これに限定されるものではない。また、二値化する場合には、上述の例に限定されるものではなく、例えば近傍色を0、それ以外の色の画素を1としてもよい。
 また、マーカ検出部15は、ノイズ除去を行ってもよい。マーカ検出部15は、上述した二値化された画像に対して、例えば膨張、収縮を行うことで、二値ノイズを除去することができる。膨張とは、例えば注目画素の周辺に1画素でも白い画素があれば白に置き換える処理をいう。また、収縮とは、膨張とは逆に周辺に1画素でも黒い画素があれば黒に置き換える処理をいう。なお、マーカ検出部15は、上述したニ値化する前に平滑化処理等を行うことで、ノイズ除去を行ってもよい。
 また、マーカ検出部15は、マーカ領域を抽出する。具体的には、上述したノイズ除去を行った二値化画像に対してラベリング処理を行って1又は複数の領域を抽出する。ここで、マーカ検出部15は、予め設定された数のマーカ領域(例えば、4領域)が得られない場合には、「マーカなし」としてユーザに通知する等の処理を行ってもよい。
 また、マーカ検出部15は、抽出されたマーカ領域に対するマーカ位置(座標)を取得する。なお、マーカ検出部15は、例えば各マーカ領域の中心位置を各マーカ位置として取得する。マーカ位置は、画像に対して設定された2次元座標(x,y)として取得することができるが、これに限定されるものではない。
 射影変換部16は、マーカ検出部15により検出された撮影画像中のマーカ位置(4点)を予め設定された4点に位置付けるため、射影変換を行う。射影変換部16は、例えばマーカ位置(例えば、4点)と、変換後の4点の位置とから、例えばホモグラフィ(homography)行列を算出し、算出した行列を用いて画像の射影変換を行うことができるが、これに限定されるものではない。なお、射影変換部16は、マーカで囲まれた領域内の画像に対する射影変換を行い、そのマーカ領域に囲まれた領域の画像を生成する。射影変換を行うことで、撮影画像中のマーカ領域が傾いていたり、認識対象物を正面から撮影できていないような場合でも正面から撮影した画像として取得することができる。
 画像処理部17は、射影変換部16により変換された画像に対して、画像認識に適した画像に補正する処理を行う。例えば、画像処理部17は、射影変換部16により変換された画像に対して、各画素の値に基づいて予め設定された複数種類の画像(チャネル画像)に変換する。また、画像処理部17は、変換した複数種類の画像の中から、各画像の輝度情報に基づく所定の条件(例えば、輝度差や輝度分散等)に基づいて少なくとも1つの画像を選択する。なお、以後の説明において、画像処理部17が実行する処理を指して最適化処理と記載する場合がある。
 なお、画像処理部17は、例えば認識対象物の種類や撮影時間、撮影条件(フラッシュの有無、周辺の明るさ、カメラのオートゲイン機能の有無等)、及び撮影位置等のうち、少なくとも1つの情報を用いて画像の選択や最適化等をいってもよい。画像処理部17の具体例については後述する。
 画像認識部18は、画像処理部17により最適化された画像から、数値や文字、記号、及び形状(例えば、アナログメータの針の形状、位置)等のうち、少なくとも1つの情報を認識する。例えば、画像認識部18は、例えば電卓の表示部のように7つの線分(セグメント)で1桁の数字を表す7セグメント表示する表示方式を用いるデジタルメータの場合には、その数値を認識する。また、画像認識部18は、文字盤に記載された数値に対する針の位置により数値を読み取るようなアナログメータの場合には、その針の形状(位置)等を認識する。画像認識部18における認識内容は、これらに限定されるものではない。
 例えば、画像認識部18は、画像中の数値や文字を読み取る場合には、Optical Character Recognition(OCR)等による文字認識を行ってもよく、予め記憶された数字や文字、形状等とのマッチング処理を行うことで、画像中の数値や文字、形状等を認識してもよい。
 通信部19は、例えばインターネットやLocal Area Network(LAN)等の通信ネットワークを介して外部装置と各種情報の送受信を行うための送受信部である。通信部19は、外部装置等にすでに記憶されている各種情報等を受信することができ、また画像処理装置10で処理された結果を、通信ネットワーク等を介して外部装置等に送信することもできる。
 制御部20は、画像処理装置10の各構成部全体の制御を行う。具体的には、制御部20は、例えばユーザ等による入力部11からの指示等に基づいて、画像処理に関する各制御を行う。ここで、各制御とは、例えば上述した撮像部14に認識対象物(例えば、メータ等)を撮影させる、マーカ検出部15にマーカ検出させる、射影変換部16に射影変換させる、画像処理部17に画像を最適化させる等がある。また、各制御は、画像認識部18に画像を認識させる等があるが、これらに限定されるものではない。
 上述した画像処理装置10の例としては、例えばタブレット端末やスマートフォン、携帯電話等の通信端末があるが、これに限定されるものではない。画像処理装置10の例としては、その他にも、画像処理装置10とは異なるカメラ等で撮影された画像を通信部19により取得して、本実施形態における画像処理を行うPersonal Computer(PC)やサーバ等のコンピュータでもよい。この場合、画像処理装置10は撮像部14を有しなくてもよい。また、画像処理装置10は、デジタルカメラ(撮像装置)やゲーム機器等でもよい。
 上述した本実施形態の構成により、撮影された際の照明の条件や撮影対象のメータの種類が多様であっても、認識処理に適した画像に変換することができる。
 <画像処理装置10のハードウェア構成例>
 図2は、画像処理装置のハードウェア構成例を示す図である。なお、図2の例では、画像処理装置10は、例えばタブレット端末等の通信端末を例に説明する。図2の例に示す画像処理装置10は、マイク31と、スピーカ32と、ディスプレイ33と、操作部34と、カメラ35と、位置情報取得部36と、時刻部37と、電力部38と、メモリ39と、通信部40と、Central Processing Unit(CPU)41と、ドライバ42とを有し、これらはシステムバスBで相互に接続されている。
 マイク31は、ユーザが発した音声や、その他の音を入力する。スピーカ32は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク31及びスピーカ32は、例えば通話機能等により通話相手と会話するとき等に用いられる。
 表示部33は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。また、表示部33は、例えばディスプレイとタッチパネルとを有するタッチパネルディスプレイ等でもよい。
 操作部34は、例えばタッチパネル上に表示されるアイコンやボタン群、画像処理装置自体に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタン、撮影ボタン、音量調整ボタン、その他の操作ボタンであるが、これに限定されるものではない。操作部34は、ユーザからの各種指示や情報等を入力することができる。
 カメラ35は、作業員等が管理する認識対象物を撮影する。カメラ35は、画像処理装置10に内蔵されたカメラでもよく、また、画像処理装置10には内蔵されておらず、直接的もしくは通信を介して間接的に接続して撮影したデータを画像処理装置10に送信するカメラでもよい。
 位置情報取得部36は、Global Positioning System(GPS)機能等を用いて画像処理装置10の位置情報(例えば、緯度・経度情報等)を取得する。位置情報は、例えばカメラ35により撮影された画像が、どの位置で撮影されたものであるか等を判断することきに用いられるが、これに限定されるものではない。また、位置情報の取得例は、GPSに限定されるものではなく、例えば画像処理装置10がWireless Fidelity(Wi−Fi(登録商標))等で近距離通信をしている場合には、そのアクセスポイントの位置情報等から画像処理装置10の位置情報を取得してもよい。また、位置情報取得部36は、画像処理装置10に設けられた加速度センサやジャイロセンサ等を用いて傾きや角度、方向等を取得してもよい。
 なお、カメラ35が、画像処理装置10に直接的にもしくは通信を介して間接的に接続して撮影を行うカメラである場合、位置情報取得部36は、画像処理装置10ではなくカメラに搭載され、撮影が行われた位置の情報を取得することが好ましい。
 時刻部37は、時刻を取得する。時刻部37は、年月日も含めて取得することができ、またタイマとしての機能を有していてもよい。時刻部37により得られる時刻は、例えばカメラ35で撮影された画像を取得したときの時間等を管理する場合に用いられるが、これに限定されるものではない。
 電力部38は、画像処理装置10の各構成に対して電力を供給する。電力部38は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部38は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
 メモリ39は、例えば補助記憶装置や主記憶装置等である。メモリ39は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等である。また、メモリ39は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段でもよい。
 メモリ39は、各種のデータやプログラム等を記憶し、必要に応じてそれらのデータ等の入出力を行う。また、メモリ39は、CPU41からの指示により実行プログラム等を読み出して実行したり、プログラム実行中に得られる各種情報等を記憶する。
 通信部40は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信インターフェースである。また、通信部40は、例えば赤外線通信やWi−Fi、Bluetooth(登録商標)等の通信手法を用いて、外部装置と近距離通信を行ってもよい。
 CPU41は、OS等の制御プログラム、及びメモリ39に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、画面表示における各処理を実現する。なお、プログラム実行中に必要な各種情報等は、メモリ39から取得し、実行結果等を格納してもよい。
 ドライバ42は、例えば記録媒体43等を着脱自在にセットすることができ、セットした記録媒体43に記録された各種情報を読み込んだり、所定の情報を記録媒体43に書き込むことができる。ドライバ42は、例えば媒体装填スロット等であるが、これに限定されるものではない。
 記録媒体43は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体43は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体43は、Universal Serial Bus(USB)メモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
 本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、画像処理プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示処理等を実現することができる。
 <画像処理プログラム>
 次に、本実施形態における画像処理プログラムを用いた画像処理装置10の処理の一例について、フローチャートを用いて説明する。図3は、画像処理装置の処理の一例を示すフローチャートである。
 図3の例に示す画像処理装置10において、撮像部14は、撮影画像を取得する(S01)。なお、S01の処理では、通信部19により撮影画像のデータを受信することで取得してもよい。次に、マーカ検出部15は、撮影した画像に対してマーカ検出処理を行う(S02)。
 マーカ検出部15は、検出結果からマーカがあるか否かを判断する(S03)。S03の処理において、マーカがある場合(S03において、YES)、射影変換部16は、そのマーカ領域に対する射影変換を行う(S04)。
 次に、画像処理部17は、上述したS04の処理により射影変換された画像の最適化処理を行う(S05)。次に、画像認識部18は、上述したS05の処理により得られる最適化された画像から認識対象物の文字や数値、記号、針の形状及び位置等のうち、少なくとも1つの情報を認識する(S06)。
 なお、画像処理装置10は、上述したS03の処理において、マーカ検出部15の検出結果が、マーカなしである場合(S03において、NO)、ユーザ通知を行い(S07)、処理を終了する。なお、S07の処理では、ユーザ通知後、ユーザが再度撮影した撮影画像を取得して、S02以降の処理を行ってもよい。
 <射影変換部16の具体例>
 次に、上述した射影変換部16の具体例について説明する。図4は、射影変換部における処理を説明するための図である。図4(A)は、撮影された画像の一例を示し、図4(B)は、射影変換により取得される画像の一例を示している。
 射影変換部16は、例えば撮像部14により撮影された図4(A)に示すような画像50−1を撮影する。画像50−1には、例えばメータ等の認識対象物が含まれている。なお、図4(A)の例では、アナログメータが示されている。
 ここで、ユーザ(作業員等)により撮影される画像は、メータ部分が傾いていたり、正面から撮影されていない場合がある。したがって、射影変換部16は、例えば図4(A)に示すようにメータの位置を示すマーカ51−1~51−4を、予め設定された4点の位置関係(縦横の距離)に変換し、図4(B)に示すような正規化した射影変換画像50−2を取得する。
 なお、画像の正規化は、例えばマーカ位置(4点)と変換後の4点から3×3のホモグラフィ行列を算出し、算出した行列を用いて画像の射影変換を行うことができるが、これに限定されるものではない。
 <画像処理部17の具体例>
 次に、上述した画像処理部17の具体例について説明する。画像処理部17では、例えば予め設定された複数の画像処理を行い、検出対象(例えば7セグメントのLight Emitting Diode(LED)表示部分や針部分)のみ残し、それ以外を除去する。
 例えば、同じメータでも撮影条件(例えば、デジタル部分の光源の影響、外光等の周辺の明るさの影響、オートゲイン機能等の撮影パラメータの影響)等により、撮影結果が異なる。そこで、画像処理部17は、以下に示す画像処理等を行う。
 図5は、画像処理部の処理の一例を示すフローチャートである。図5の例において、画像処理部17は、射影変換部16により得られる射影変換画像を取得する(S01)。次に、画像処理部17は、取得した画像に含まれる各画素の値に基づいて、成分(チャネル)毎の画像に変換し、変換した画像を用いてチャネル評価を行う(S12)。チャネルとは、S01の処理で取得したカラー画像に含まれる各画素のそれぞれの色成分であり、例えば赤(R)、緑(G)、青(B)、色相(H)、彩度(S)、輝度(I)等であるが、これに限定されるものではない。
 画像処理部17は、上述した複数種類の成分画像の輝度情報等を評価して不要なチャネル画像を除外し、必要なチャネル画像を用いて最適化を行う。例えば、画像処理部17は、上述したS12の処理により得られる評価結果に基づいて、画像の最適化に必要な成分のチャネル画像を射影変換画像から分割するチャネル分割を行い(S13)、得られた各チャネル画像から、少なくとも1つの画像(チャネル)を選択する(S14)。
 次に、画像処理部17は、選択したチャネル画像に対してマスク処理を行い(S15)、得られた画像に対して境界強調等の最適化処理を行う(S16)。なお、S16の処理では、例えば二値化や明るさ補正、鮮鋭化補正等の処理を行ってもよい。これにより、本実施形態における画像の最適化を実現することができる。
 <チャネル評価の具体例>
 次に、上述したS12におけるチャネル評価の具体例について説明する。チャネル評価では、取得した射影変換画像に対し、予め設定された条件と比較することで、対象のチャネル(成分)画像を除外する。これにより、必要なチャネルのみを選択して画像の最適化を行う。以下に、上述した予め設定された条件と、その条件に対応する処理の例について説明する。
 <条件1>
 例えば、画像処理部17は、複数種類の画像として、1つの入力画像に対してR成分の画像、G成分の画像、B成分の画像に変換する。次に、画像処理部17は、入力画像に含まれる、ある画素のラインを設定し、そのライン中の各画素についてRGB間の各成分(R成分とG成分、R成分とB成分、G成分とB成分)のそれぞれの差分を求める。また、画像処理部17は、1つの画素について求めた差分のうち最大の差分が所定の値を超える画素を抽出する。更に、画像処理部17は、上述したライン中において抽出される画素数を求め、求めた画素数に応じて、H成分の画像、S成分の画像、及びI成分の画像を変換対象とするか否かを決定する。
 上述した内容を具体的に説明する。条件1では、例えば画像から横1列又は縦1列のラインの輝度を取得する。なお、ラインは、縦又は横から少なくとも1列であればよいが、これに限定されるものではない。次に、画像処理部17は、取得したライン上の全画素でRGB間のそれぞれの差の絶対値を求め、求めた値と予め設定された閾値(第1の閾値)とを比較する。なお、第1の閾値は、例えばモノクロに近い画像か否かを判断するための閾値であるが、これに限定されるものではない。例えば、画像処理部17は、求めた値が閾値以下の場合、H成分、S成分、及びI成分のチャネルを除外し、R成分、G成分、B成分を変換対象とする。
 <条件2>
 例えば、画像処理部17は、R成分、G成分、B成分、H成分、S成分、及びI成分の各成分画像に対し、入力画像である画素のラインにつき、そのライン中の画素について、各画素のR成分、G成分、B成分の輝度値を求める。また、画像処理部17は、求めた輝度値が何れかが所定値を超える画素数を求める。また、画像処理部17は、その所定の値を超えた成分のチャネルを除外し、それ以外の成分の画像を変換対象とするか否かを決定する。
 上述の内容を具体的に説明する。条件2では、条件1と同様に、例えば画像から横1列又は縦1列のラインの輝度を取得する。次に、画像処理部17は、ライン上のR成分、G成分、B成分の特定チャネルに対して、予め設定された閾値(第2の閾値)以上の画素をカウントする。次に、画像処理部17は、そのカウント値(画素数)を上述したチャネル間で比較し、特定のチャネルのみ多い場合に、そのカウントの多いチャネルを除外する。なお、第2の閾値は、例えばライン上の各画素の輝度が所定の成分で飽和しているか否かを判断するための閾値であるが、これに限定されるものではない。これにより、画像処理部17は、上述したR成分、G成分、B成分、H成分、S成分、及びI成分の各成分画像のうち、カウントの多い成分画像を除いた成分画像を変換対象とする。
 ここで、図6は、チャネル評価の対象画像の一例を示す図である。図6(A)~(D)は、射影変換画像を示している。図6(A)、(B)は、デジタル数値表示のメータ例を示し、図6(C)、(D)は、アナログ表示のメータ例を示している。
 上述したチャネル評価を行うためのラインの位置及び数は、予め固定に設定されていてもよく、また入力画像に含まれる認識対象物の種類、撮影時間、撮影場所、及び撮影パラメータ等のうち、少なくとも1つの条件によって設定されてもよい。また、ライン設定は、撮影された認識対象物の範囲(マーカ領域)の形状、マーカの色、大きさ、外光等の影響等に応じて任意にラインを設定してもよい。
 例えば、図6(A)の(i)、図6(B)の(i)に示すようなデジタル数値の場合に、セグメント部と非セグメント部とを通る横直線1本を設定することで、そのライン60における上述した各成分画像の輝度情報等から評価することができる。
 なお、画像処理部17は、例えば図6(A)の(ii)に示すようにセグメント部と非セグメント部とを通る横直線のライン60を複数本(例えば、上下2本)設定することでチャネル評価の安定性を向上させることができる。また、画像処理部17は、例えば撮像部14におけるフラッシュ等の影響を受ける場合を考慮して、図6(A)の(iii)に示すように、縦方向にも1本のライン60を追加してもよい。なお、縦ライン60の場合には、フラッシュ撮影時等に中央に反射が入る可能性が高いため、画像の中央付近にライン60を設定することが好ましいがこれに限定されるものではなく、例えば縦方向に複数本のライン60を設定してもよい。
 また、画像処理部17は、図6(C)の(i)に示すように、アナログメータ(針の移動幅180度未満)の場合には、例えば針を必ず通る線1本を設定する。また、画像処理部17は、上述したように撮像部14におけるフラッシュの影響等を考慮し、縦方向にも線1本設定してもよい。また、画像処理部17は、メータの針が小さい場合があるため、横線を上下に2本以上設定することで、チャネル評価時におけるノイズに強くなる。
 また、画像処理部17は、アナログメータ(針の移動幅180度以上)の場合には、針が回転する中心が分かるので、図6(D)の(i)に示すように中心を通る十字の2本ライン60を設定する。また、画像処理部17は、針がどの位置に来ても必ずライン上を通るように、例えば図6(D)の(ii)に示すように縦横2本ずつのライン60を設定してもよい。
 画像処理部17は、図6の例に示すようなライン60に対して、各成分の輝度等を取得し、その輝度に基づいてチャネルを除外する。例えば、図6(A)に示すようなデジタル画像の場合には、Rと、G、Bとの間に輝度差があり、Rの輝度が高い。その場合、R成分は飽和しているため、R成分の画像を使用しないようにする。
 また、図6(B)に示す画像は、R成分、G成分、B成分の差が小さいため、各成分とも除外しない。また、図6(C)に示すような画像の場合、R成分、G成分、及びB成分にそれぞれ差があり、R、G、B共に高輝度領域が存在するため、各成分画像は除外しない。
 なお、画像処理部17は、上述した条件1及び条件2に限定されずに、他の条件で不要なチャネル画像を除外してもよい。また、画像処理部17は、上述したR成分、G成分、B成分、H成分、S成分、及びI成分の各成分画像の全てを変換対象としてもよい。
 <チャネル分割について>
 次に、上述したS13におけるチャネル分割の具体例について説明する。チャネル分割では、射影変換後の正規化画像に対して、S12のチャネル評価処理により変換対象となった所定の成分(チャネル)毎の画像に分割する。例えば、全てのチャネルが変換対象である場合、入力画像からR成分、G成分、B成分、H成分、S成分、及びI成分の各成分画像に変換する。なお、分割されるチャネル数については、これに限定されるものではない。
 ここで、図7は、チャネル分割された各成分画像の一例を示す図である。図7(A)は、デジタルメータの一例を示し、図7(B)は、アナログメータの一例を示している。また、図7(A)、(B)の例では、元画像(射影変換画像)に対するR成分、G成分、B成分、H成分、S成分、I成分の各成分画像が示されている。画像処理部17は、チャネル分割により元画像から上述した各成分画像を生成することができる。
 <チャネル選択について>
 次に、上述したS14におけるチャネル選択の具体例について説明する。チャネル選択では、例えばデジタルメータのように検出部(セグメント部)と非検出部(非セグメント部)とが分離する場合と、アナログメータのように検出部と非検出部とが混在する場合とで分けてチャネル選択を行う。
 <分離型の場合>
 画像処理部17は、例えば上述した図7(A)に示すように射影変換画像において検出部(セグメント部)と非検出部(非セグメント部)とが分離する場合、n個の検出部に対して比較対象の非検出部との輝度差の合計が高いチャネル画像を選択する。例えば、画像処理部17は、3桁の数値がある場合には、7×3=21箇所のセグメント部に対して、各々の非セグメント部との差を取得する。
 なお、画像処理部17は、複数の選択候補がある場合には、例えば非検出部の輝度の分散が小さい方の画像を選択することができる。
 図8は、7セグメント表示された数字部分の画像例を示す図である。図8の例において領域A、Bは、非検出部(非セグメント部)を示している。セグメント(1)は7セグメントの中央の横セグメントを示し、セグメント(2)は7セグメントの上左の縦セグメントを示し、セグメント(3)は7セグメントの最上の横セグメントを示している。また、セグメント(4)は7セグメントの上右の縦セグメントを示し、セグメント(5)は7セグメントの下右の縦セグメントを示し、セグメント(6)は7セグメントの最下の横セグメントを示している。また、セグメント(7)は7セグメントの下左の縦セグメントを示す。
 画像処理部17は、領域A、Bのそれぞれの輝度値を各領域画像から取得する。この輝度値は、例えばそれぞれの領域の平均輝度値である。画像処理部17は、セグメント(1)の輝度値と、領域A及び領域Bの平均輝度値との差分値を取得する。また、画像処理部17は、セグメント(2)~(4)の各セグメントの輝度値と、領域Aの輝度値との差分値を取得する。更に、画像処理部17は、セグメント(5)~(7)の各セグメントの輝度値と、領域Bの輝度値との差分値を取得する。なお、分離型において、画面上における検出部と非検出部の各領域については、予めユーザ等がその範囲を設定しておいてもよく、メータ等の認識対象物の種類に応じて各領域が設定されるようにしてもよい。
 画像処理部17は、例えば図7(A)に示すようなR,G,B,H,S,Iの各チャネル画像に対して上述の手法により各セグメントに対して取得した差分値(輝度差)の合計が高い画像を1つ選択する。なお、画像処理部17は、差分値の合計が高い画像が複数ある場合には、領域A及び領域Bの非ヒストグラム部の輝度の分散が小さい(領域内で輝度の差が少ない)方のチャネル画像を選択する。
 <混合型の場合>
 また、画像処理部17は、図7(B)に示すように検出部と非検出部とが混在型の場合には、例えば図7(B)に示すR,G,B,H,S,Iの各チャネル画像に対して、画素毎に得られた輝度の分散を求め、その分散の低い画像を選択する。混合型とは、例えばアナログメータ等において針が目盛りや文字上を動くため、検出部(針)と非検出部(目盛り、文字)とが重なるような場合であるが、これに限定されるものではない。
 画像処理部17は、上述したように輝度の分散を求める場合に、輝度値に基づく輝度ヒストグラムを作成し、作成した輝度ヒストグラムを用いて分散の低い画像を選択してもよい。また、画像処理部17は、後述するマスク処理を行った後の画像を用いてチャネル選択処理を行ってもよい。
 画像処理部17は、上述した手法により、例えば図7(A)の例では、G成分画像が選択され、図7(B)の例では、H成分画像が選択される。なお、上述の例では、R,G,B,H,S,Iの各チャネル画像に対して分離型と混合型における処理を行ったが、例えば上述したチャネル評価によって除外されたチャネルがある場合には、そのチャネル画像に対する処理を省略できる。したがって、処理速度を向上させることができる。
 本実施形態では、上述したように、分離型と混在型とによりチャネルの選択手法が異なる。そのため、画像処理部17は、どちらの手法でチャネル選択を行うかをユーザ等により設定させてもよい。また、画像処理部17は、例えば撮影対象となっているメータの種類(例えば、デジタルメータ、アナログメータ)、形状等により、チャネル選択手法を変えたり、マスク画像を変えることができる。なお、メータの種類は、例えばユーザ(作業員)等が設定してもよく、また画像処理装置10が画像中に含まれる製品コード等を文字認識し、認識した製品コードからメータの種類を特定してもよい。
 また、画像処理部17は、認識対象物の撮影時間に基づき、例えば昼夜によって明るさ補正の係数を変化させてもよい。また、画像処理部17は、撮影場所(設置位置)に対応させて閾値等を調整しておき、その場所で実際に認識対象物の撮影を行う場合に、その閾値を使用して撮影してもよい。例えば、画像処理部17は、撮影時間が夜間の場合は、7セグメントの表示の明るさが強く、滲みが発生するため、チャネル選択により、にじみの少ない成分画像を認識に用いるようにすることができる。
 <マスク処理>
 次に、上述したS15におけるマスク処理の具体例について説明する。マスク処理は、予め設定されたマスク画像を用いて撮影画像や射影変換画像とのAND処理を行うことにより、不要な画像領域をマスクするマスキング処理を行う。なお、マスク画像は、認識対象物であるメータ等の種類(形状、大きさ)等により異なる。そのため、画像処理部17は、例えば予め認識対象物の種類(例えば製品コード等)に対応するマスク画像を記憶手段13等に記憶しておき、ユーザ等により指示された種類に応じたマスク画像を用いてもよい。また、画像処理部17は、画像からOCR等を用いた文字認識により認識対象物の製品コード等を読み取り、読み取った製品コードから対応するマスク画像を取得してもよい。また、画像処理部17は、画像から得られるメータの半径や中心からマスク画像を自動作成してもよい。
 上述したマスク処理を行うことで、不要な部分の情報を削除して、ノイズを低減することができるため、より適切に画像を最適化することができる。
 <境界強調処理>
 次に、上述したS16における境界強調処理の具体例について説明する。図9は、境界強調処理の一例を示す図である。図9(A)は、デジタルメータの画像に対する境界強調の一例を示し、図9(B)は、アナログメータの画像に対する境界強調の一例を示している。
 図9(A)の例において、上述したチャネル選択により選択されたG成分画像70−1は、数値「4」上の光(外光等)によるノイズの影響で誤検知される可能性がある。そこで、画像処理部17は、G成分画像に対するぼかし処理により、ぼかし画像70−2を生成し、生成したぼかし画像70−2と、G成分画像70−1との差の絶対値を求めることで、数値「4」上のノイズが消えて認証対象に良好な強調画像70−3を取得することができる。なお、ぼかし処理とは、例えば平滑化フィルタやメディアンフィルタ、ガウシアンフィルタ等を用いて生成することができるが、これに限定されるものではない。
 また、図9(B)の例では、H成分画像71−1に対して、上述したぼかし処理を行い、得られたぼかし画像71−2と、H成分画像71−1との差の絶対値により、メータの針が強調された画像71−3を取得することができる。
 <最適化処理の具体例>
 本実施形態における画像の最適化処理は、上述した手法により取得した射影変換画像を補正し、画像認識(例えば、メータ認識)に適切な画像に取得する。本実施形態における最適化処理は、例えば外光等の影響を受けやすい屋外で撮影された画像や映像等に用いるのが好ましいが、これに限定されるものではない。
 本実施形態における最適化処理としては、上述した処理の他に、例えば明るさ補正や鮮鋭化補正等を行うことができる。
 <明るさ補正の具体例>
 例えば、srcを最適化前画像、dstを最適化後画像とすると、明るさ補正は「dst=src×N+N」と定義することができる。ここで、Nはスケーリング係数を示し、Nは加算値係数を示す。例えば、画像処理部17は、メータ等の認識対象物を撮影した場所が撮影時間の関係で暗い画像となった場合、輝度0~128を0~255に拡張する場合、N=2.0、N=0(ただし、255以上は全て255)と設定することができる。なお、設定内容については、これに限定されるものではない。
 <鮮鋭化補正の具体例>
 画像処理部17は、鮮鋭化補正の場合には、予め設定された鮮鋭化係数Nを用いた3×3の行列を用いたフィルタ処理を行う。
 鮮鋭化補正は、例えば「dst=M×src(3,3)」として定義することができ、そのときの行列Mは以下に示す(1)式に示すように定義することができる。
Figure JPOXMLDOC01-appb-M000001
 なお、上述した(1)式において、Nは鮮鋭化係数であり、例えばエッジを強調したい場合には、N≧1.0で任意の値を設定することができ、数が大きいほどエッジが強調される。
 また、画像処理部17は、上述したS16に示す境界強調処理において、例えば「dst=src×N+N」とすることで、スケール変換を行うことができる。ここで、Nはスケーリング係数を示し、Nは加算値係数を示す。例えば、上述した図9に示すように、元画像とぼかし画像との差の絶対値を取った場合、画像が暗くなるため、画像処理部17は、低輝度部分を均等に拡張する。なお、境界強調は、例えば文字、数値と、その背景との差が少ない場合に利用することができるが、これに限定されるものではない。
 <上述した最適化処理における係数の決め方について>
 本実施形態では、上述した最適化処理における係数の組合せを複数用意しておき、撮影画像に対する少なくとも1つ以上の情報から、上述した係数を決定する。決定する条件としては、例えば「認識対象物(メータ)の種類」、「メータの設置場所(位置情報)」、「撮影時間」、「マーカの元の色(既知の色)と画像から検出した色(補正した色)との差」、「マーカと周辺のエッジ強度」等があるが、これに限定されるものではない。
 なお、画像処理部17は、メータの設置場所については、例えばユーザ等により予め設定してもよく、画像処理装置10が備える位置情報取得部36等により取得してもよい。また、撮影時間は、例えば画像処理装置10が備える時刻部37から時間情報を取得してもよい。
 次に、上述した本実施形態における画像処理の実施例について図を用いて説明する。図10は、画像処理の第1実施例を説明するための図である。なお、図10の例では、認識対象物がデジタルメータである場合の画像処理の一例を示している。図10の例において、画像処理装置10は、撮像部14により撮影された元画像80を入力し、入力画像中のマーカを検出し、検出したマーカの位置に基づいてマーカ領域を切り出した射影変換画像81を取得する。
 次に、画像処理装置10は、画像処理部17により射影変換画像81に対して、上述したチャネル評価やチャネル選択等を行い、チャネルに応じた色成分画像82−1~82−3を取得する。なお、チャネル選択の際には、例えば撮影時間によりチャネル選択手法を変えてもよく、またR成分画像を二値化した画像等から動的にチャネル選択手法を変えてもよいが、これに限定されるものではない。
 図10の例において、画像82−1はR成分の画像を示し、画像82−2はG成分の画像を示し、画像82−3はB成分の画像を示している。図10の例では、赤を抽出することで認識できる7セグメント表示を示しているが、夜間に撮影した場合には照射光とオートゲイン等の影響で、赤が滲んだ画像になり認識が困難となる。そのため、図10の例では、上述したチャネル選択処理等によりG成分の画像82−2を用いる。この場合、G成分の画像82−2に対して、メディアンフィルタやガウシアンフィルタによりぼかし画像83を生成し、生成したぼかし画像と元のG成分の画像82−2との輝度差を取り出して、画像認識部18が認識するための認識画像84を生成する。
 なお、図10の例では、画像最適化によるチャネル選択によりG成分の画像82−2のみを用いたが、これに限定されるものではなく、2以上の画像を用いて、それぞれ認識画像を生成し、生成した複数の認識画像を合成して最終的な認識画像を生成してもよい。
 図11は、画像処理の第2実施例を説明するための図である。なお、図11の例では、認識対象物がアナログメータである場合の画像処理の一例を示している。図11の例において、画像処理装置10は、撮像部14により撮影された元画像90を入力し、入力画像中のマーカを検出し、検出したマーカの位置に基づいてマーカ領域を切り出した射影変換画像91を取得する。
 次に、射影変換画像91に対して、上述したチャネル評価やチャネル選択等を行い、色成分画像92−1~92−5を取得する。なお、チャネル選択の際には、例えば撮影時間によりチャネル選択手法を変えてもよく、またR成分画像を二値化した画像から動的にチャネル選択手法を変えてもよいが、これに限定されるものではない。
 図11の例では、太陽光と影とによりメータの認識をしづらい画像になっている。本実施形態における画像最適化処理では、人が見やすい画像への変換ではなく、メータとして認識しやすい画像として最適化する。
 例えば、画像処理装置10は、画像処理部17によりチャネルをR、G、B(赤、緑、青)や、H、S、I(色相、彩度、輝度)等に分解して使用するチャネルを選択する。図11の例において、画像92−1はH成分の画像を示し、画像92−2はS成分の画像を示し、画像92−3はR成分の画像を示し、画像92−4はG成分の画像を示し、画像92−5はB成分の画像を示している。
 ここで、図11の例では、上述したチャネル選択等によりH成分の画像92−1を用いる。この場合、画像処理装置10は、H成分の画像92−1に対して二値化画像93を生成し、更に予め設定されたマスク画像94と合成する。本実施形態におけるマスク画像94は、予め設定された複数のマスク画像からメータの種類等に応じて任意に選択することができるが、これに限定されるものではない。例えば、画像処理装置10は、メータの半径や中心からマスク画像を自動作成することもできる。
 これにより、画像認識部18が、認識するための認識画像95を生成する。なお、図11の例では、画像最適化によるチャネル選択によりH成分の画像92−1のみを用いたが、これに限定されるものではなく、2以上の画像を用いて、それぞれ認識画像を生成し、生成した複数の認識画像を合成して最終的な認識画像を生成してもよい。
 また、図11の例では、針の形状を強調する処理を行ったが、これに限定されるものではなく、例えば、文字盤の数値を強調する処理も併せて行ってもよい。図11に示す認識画像95の針の位置から数値を認識する場合、画像認識部18は、メータの種類等に基づく針の振り幅の最小値と最大値とを予め記憶しておき、そのメータの種類に応じた範囲で針の位置に対する数値を認識することができる。
 なお、本実施形態では、認識対象物の一例としてデジタルメータ(7セグメント)とアナログメータ(針メータ)とに対する認識用画像の生成例について説明したが、これに限定されるものではない。本実施形態は、例えば7セグメント表示以外のデジタル表示や針メータ以外のアナログ表示でも同様に適用することができる。また、デジタル表示とアナログ表示を両方含むメータ等については、上述した画像処理を部分的に組み合わせてもよく、デジタル部分とアナログ部分とでそれぞれ対応する画像処理を行ってもよい。
 <本実施形態の応用例>
 本実施形態は、画像認識部18により認識されたデータを、1以上の情報処理装置を有するクラウドコンピューティングを用いて管理することができる。例えば、本実施形態では、1以上の所定の場所に設置された放射線の線量計や温度センサ等の計測機器が撮影された画像を取得し、その画像を認識し、認識した結果得られた計測機器が示す値と設置場所、撮影時間等の情報をクラウド等に記憶しておくことで、時系列比較や統計等の情報の提供を行うことができる。
 また、上述した本実施形態は、作業員が、スマートフォンやデジタルカメラ等のような端末を用いて認識対象物を撮影する例を示したが、これに限定されるものではなく、認識対象物の前に固定で設置されたカメラから所定のタイミング又は周期で撮影された画像を取得して、上述した画像処理による数値等の認識を行ってもよい。
 また、本実施形態における画像処理は、端末にインストールされたアプリケーション(アプリ)により実行してもよい。例えば、アプリ起動後に周期的な認識を開始し、周期毎に1回にカメラ画像を撮影し、撮影した画像に対して上述した本実施形態における画像処理を実行し、認識結果をファイルに保存するようにしてもよい。
 また、本実施形態は、検体等の反応による色変化状況等からウィルス感染状態を判別する場合に、上述した画像処理を行ってもよい。例えば、認識対象物としてマーカが付された検知プレートを撮影し、撮影した画像のマーカ検出からその検知プレートの正規化(例えば、歪み補正)等を行い、画像中から適切な色成分を抽出して、画像認識による試薬反応の検出を行うことができる。なお、上述した各実施形態については、必要に応じて適宜組み合わせて使用してもよい。
 上述したように、本実施形態によれば、例えば撮影された際の照明の条件や撮影対象のメータの種類が多様であっても、認識処理に適した画像に変換することができる。例えば、本実施形態では、カラーマーカ等を認識対象物の周囲に貼り付け、画像認識等により自動的にマーカを検出し、検出したマーカに基づいて画像変換、画像最適化処理等を行う。これにより、本実施形態では、認識対象の撮影距離や撮影角度に依存せずに精度よく認識することができる。また、本実施形態によれば、任意の撮影者(作業者等)が、任意の撮影装置を使用して、任意の場所で、任意の時間に撮影した画像から目的の文字や数値等の情報を適切に認識することができる。
 また、本実施形態によれば、1つの画像から色成分毎の複数のチャネル画像を生成し、種々の条件に応じて適切な画像を選択して最適化を行うことで、認識が困難な画像を処理対象から除外することで、処理にかかる時間を短縮化できる。これにより、本実施形態では、画像処理にかかる計算機負荷を軽減できるため、処理能力が低いコンピュータ等であっても処理時間の長期化を抑止できる。
 以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した実施例の構成要素を全部又は複数を組み合わせることも可能である。
 10 画像処理装置
 11 入力部
 12 出力部
 13 記憶部
 14 撮像部
 15 マーカ検出部
 16 射影変換部
 17 画像処理部
 18 画像認識部
 19 通信部
 20 制御部
 31 マイクロフォン
 32 スピーカ
 33 ディスプレイ
 34 操作部
 35 カメラ
 36 位置情報取得部
 37 時刻部
 38 電力部
 39 メモリ
 40 通信部
 41 CPU
 42 ドライバ
 43 記録媒体
 50,70,71 画像
 51 マーカ
 60 ライン
 80,82,90,92 元画像
 81,91 射影変換画像
 83 ぼかし画像
 84,95 認識画像
 93 二値化画像
 94 マスク画像

Claims (8)

  1.  入力画像に含まれる画素の値に基づいて、該入力画像を複数種類の画像に変換し、変換した前記複数種類の画像に対するそれぞれの輝度情報に基づいて、前記複数種類の画像の中から少なくとも1つの画像を選択し、選択した前記画像を、出力する画像処理部を有することを特徴とする画像処理装置。
  2.  前記画像処理部は、
     前記入力画像のR成分、G成分、及びB成分の各成分画像に対し、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値のうち最大の差分が、予め設定された閾値を超える画素数に応じて、前記複数種類の画像として、前記入力画像のH成分、S成分、及びI成分の各成分画像を変換対象とするか否かを決定することを特徴とする請求項1に記載の画像処理装置。
  3.  前記画像処理部は、
     前記入力画像のR成分、G成分、B成分、H成分、S成分、I成分の各成分画像のうち、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値の画素数が、予め設定された閾値を越えるか否かにより、前記複数種類の画像として、前記閾値を超えた成分以外の成分画像を変換対象として決定することを特徴とする請求項1又は2に記載の画像処理装置。
  4.  前記ラインの位置及び数は、前記入力画像に含まれる認識対象物の種類、撮影時間、撮影場所、及び撮影パラメータ等のうち、少なくとも1つに基づいて設定されることを特徴とする請求項2又は3に記載の画像処理装置。
  5.  前記入力画像に含まれるマーカの位置を検出するマーカ検出部と、
     前記マーカ検出部により得られたマーカの位置に対応する画像領域の射影変換を行う射影変換部とを有し、
     前記画像処理部は、前記射影変換部により得られる画像を前記入力画像とすることを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6.  前記画像処理部により得られる画像から情報を認識する画像認識部を有し、
     前記画像認識部は、前記画像に含まれる認識対象物から文字、数値、記号、及び形状のうち、少なくとも1つの情報を認識することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  7.  画像処理装置が、
     入力画像に含まれる画素の値に基づいて、該入力画像を複数種類の画像に変換し、変換した前記複数種類の画像に対するそれぞれの輝度情報に基づいて、前記複数種類の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する、ことを特徴とする画像処理方法。
  8.  入力画像に含まれる画素の値に基づいて、該入力画像を複数種類の画像に変換し、変換した前記複数種類の画像に対するそれぞれの輝度情報に基づいて、前記複数種類の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する、処理をコンピュータに実行させる画像処理プログラム。
PCT/JP2013/067155 2013-06-17 2013-06-17 画像処理装置、画像処理方法、及び画像処理プログラム WO2014203403A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2013/067155 WO2014203403A1 (ja) 2013-06-17 2013-06-17 画像処理装置、画像処理方法、及び画像処理プログラム
JP2015522462A JP6260620B2 (ja) 2013-06-17 2013-06-17 画像処理装置、画像処理方法、及び画像処理プログラム
CN201380077482.4A CN105283902B (zh) 2013-06-17 2013-06-17 图像处理装置、图像处理方法、以及图像处理程序的存储介质
US14/959,853 US20160086031A1 (en) 2013-06-17 2015-12-04 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/067155 WO2014203403A1 (ja) 2013-06-17 2013-06-17 画像処理装置、画像処理方法、及び画像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/959,853 Continuation US20160086031A1 (en) 2013-06-17 2015-12-04 Image processing apparatus, image processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2014203403A1 true WO2014203403A1 (ja) 2014-12-24

Family

ID=52104164

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/067155 WO2014203403A1 (ja) 2013-06-17 2013-06-17 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (4)

Country Link
US (1) US20160086031A1 (ja)
JP (1) JP6260620B2 (ja)
CN (1) CN105283902B (ja)
WO (1) WO2014203403A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206146A (ja) * 2012-03-28 2013-10-07 Osaka Gas Co Ltd エネルギ情報出力装置及びデータ管理システム
JP2017126187A (ja) * 2016-01-14 2017-07-20 株式会社明電舎 メータ読取装置
JP2019016027A (ja) * 2017-07-04 2019-01-31 中国計器工業株式会社 光学的数字読取り方法及び装置
WO2019093449A1 (ja) * 2017-11-09 2019-05-16 株式会社日立産業制御ソリューションズ 計測値読取りシステム、計測値読取り装置及び計測値読取方法
JP2019145182A (ja) * 2019-06-11 2019-08-29 株式会社東芝 読取システム、読取方法、プログラム、及び記憶媒体
JP2019144703A (ja) * 2018-02-16 2019-08-29 株式会社東芝 読取システム、読取方法、プログラム、及び記憶媒体
WO2020121626A1 (ja) * 2018-12-12 2020-06-18 住友電気工業株式会社 画像処理装置、コンピュータプログラム、および画像処理システム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150116496A1 (en) * 2013-10-29 2015-04-30 Ottarr, Llc Camera, Sensor and/or Light-Equipped Anchor
US10051253B1 (en) 2015-12-18 2018-08-14 Snap Inc. Binarization of a video stream
US10120635B2 (en) * 2016-03-09 2018-11-06 Samsung Electronics Co., Ltd. Configuration and operation of display devices including device management
CN107390260A (zh) * 2016-05-16 2017-11-24 中国辐射防护研究院 基于ocr技术用于数字显示仪表的数字化校准系统及方法
SG11201810480RA (en) 2016-05-31 2018-12-28 Theia Group Incorporated System for transmission and digitization of machine telemetry
AU2018260589B2 (en) 2017-04-24 2023-05-25 Theia Group, Incorporated System for recording and real-time transmission of in-flight of aircraft cockpit to ground services
JP6897431B2 (ja) * 2017-08-30 2021-06-30 オムロン株式会社 画像処理装置、設定支援方法、および設定支援プログラム
US10789716B2 (en) * 2017-11-17 2020-09-29 Canon Kabushiki Kaisha Image processing apparatus and method of controlling the same and recording medium
US10262432B1 (en) * 2017-12-30 2019-04-16 Gabriel Keilholz System and method for measuring and comparing items using computer vision
CN108797723B (zh) * 2018-03-27 2019-03-12 张卫平 基于图像检测的智能化冲洗装置
JP6868057B2 (ja) * 2019-05-27 2021-05-12 株式会社東芝 読取システム、読取方法、プログラム、記憶媒体、及び移動体
JP7333733B2 (ja) * 2019-09-13 2023-08-25 株式会社Pfu 媒体搬送装置、制御方法及び制御プログラム
CN112329775B (zh) * 2020-11-12 2022-04-15 中国舰船研究设计中心 一种数字多用表字符识别方法
EP4195164A1 (en) * 2021-12-13 2023-06-14 Ispark Robust remote instrument reading
CN116758081B (zh) * 2023-08-18 2023-11-17 安徽乾劲企业管理有限公司 一种无人机道路桥梁巡检图像处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003298853A (ja) * 2002-04-01 2003-10-17 Pfu Ltd 画像処理装置
JP2007280041A (ja) * 2006-04-06 2007-10-25 Sumitomo Electric Ind Ltd 車体色判別装置
JP2009005398A (ja) * 2008-09-01 2009-01-08 Toshiba Corp 画像処理装置
JP2010128727A (ja) * 2008-11-27 2010-06-10 Hitachi Kokusai Electric Inc 画像処理装置
JP2013022385A (ja) * 2011-07-25 2013-02-04 Sankyo Co Ltd 携帯端末,携帯端末用プログラム,遊技用システム,及び遊技用管理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0896141A (ja) * 1994-09-29 1996-04-12 Canon Inc 画像処理装置
JP4435355B2 (ja) * 2000-01-19 2010-03-17 株式会社キーエンス カラー画像の変換方法、変換装置、及び記録媒体
US7155053B2 (en) * 2003-05-13 2006-12-26 Olympus Corporation Color image processing method and apparatus
US7529007B2 (en) * 2005-06-10 2009-05-05 Lexmark International, Inc. Methods of identifying the type of a document to be scanned
EP2131589B1 (en) * 2007-03-28 2018-10-24 Fujitsu Limited Image processing device, image processing method, and image processing program
US8456545B2 (en) * 2009-05-08 2013-06-04 Qualcomm Incorporated Systems, methods, and apparatus for generation of reinforcement pattern and systems, methods, and apparatus for artifact evaluation
JP5663866B2 (ja) * 2009-08-20 2015-02-04 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP5026484B2 (ja) * 2009-09-17 2012-09-12 シャープ株式会社 携帯端末装置、画像出力装置、撮像画像処理システム、携帯端末装置の制御方法、画像出力方法、プログラム、および記録媒体
KR101720771B1 (ko) * 2010-02-02 2017-03-28 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체
JP5573618B2 (ja) * 2010-11-12 2014-08-20 富士通株式会社 画像処理プログラムおよび画像処理装置
JP5713350B2 (ja) * 2011-10-25 2015-05-07 日本電信電話株式会社 画像処理装置、方法、及びプログラム
KR101295092B1 (ko) * 2011-12-28 2013-08-09 현대자동차주식회사 차량용 색상검출기

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003298853A (ja) * 2002-04-01 2003-10-17 Pfu Ltd 画像処理装置
JP2007280041A (ja) * 2006-04-06 2007-10-25 Sumitomo Electric Ind Ltd 車体色判別装置
JP2009005398A (ja) * 2008-09-01 2009-01-08 Toshiba Corp 画像処理装置
JP2010128727A (ja) * 2008-11-27 2010-06-10 Hitachi Kokusai Electric Inc 画像処理装置
JP2013022385A (ja) * 2011-07-25 2013-02-04 Sankyo Co Ltd 携帯端末,携帯端末用プログラム,遊技用システム,及び遊技用管理装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206146A (ja) * 2012-03-28 2013-10-07 Osaka Gas Co Ltd エネルギ情報出力装置及びデータ管理システム
JP2017126187A (ja) * 2016-01-14 2017-07-20 株式会社明電舎 メータ読取装置
JP2019016027A (ja) * 2017-07-04 2019-01-31 中国計器工業株式会社 光学的数字読取り方法及び装置
WO2019093449A1 (ja) * 2017-11-09 2019-05-16 株式会社日立産業制御ソリューションズ 計測値読取りシステム、計測値読取り装置及び計測値読取方法
JP2019087156A (ja) * 2017-11-09 2019-06-06 株式会社 日立産業制御ソリューションズ 計測値読取りシステム、計測値読取り装置及び計測値読取方法
JP7041497B2 (ja) 2017-11-09 2022-03-24 株式会社 日立産業制御ソリューションズ 計測値読取りシステム、計測値読取り装置及び計測値読取方法
JP2019144703A (ja) * 2018-02-16 2019-08-29 株式会社東芝 読取システム、読取方法、プログラム、及び記憶媒体
US11455787B2 (en) * 2018-02-16 2022-09-27 Kabushiki Kaisha Toshiba Reading system, reading device, reading method, and storage medium
US11900664B2 (en) 2018-02-16 2024-02-13 Kabushiki Kaisha Toshiba Reading system, reading device, reading method, and storage medium
WO2020121626A1 (ja) * 2018-12-12 2020-06-18 住友電気工業株式会社 画像処理装置、コンピュータプログラム、および画像処理システム
JP2019145182A (ja) * 2019-06-11 2019-08-29 株式会社東芝 読取システム、読取方法、プログラム、及び記憶媒体

Also Published As

Publication number Publication date
JPWO2014203403A1 (ja) 2017-02-23
CN105283902A (zh) 2016-01-27
CN105283902B (zh) 2018-10-30
JP6260620B2 (ja) 2018-01-17
US20160086031A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
JP6260620B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US9002061B2 (en) Image processing device, image processing method and computer-readable medium
US9602728B2 (en) Image capturing parameter adjustment in preview mode
WO2022179108A1 (zh) 投影校正方法、装置、存储介质和电子设备
EP3125135A1 (en) Picture processing method and device
US10110800B2 (en) Method and apparatus for setting image capturing parameters
US8570403B2 (en) Face image replacement system and method implemented by portable electronic device
CN108932696B (zh) 信号灯的光晕抑制方法及装置
US10027878B2 (en) Detection of object in digital image
US9196029B2 (en) Threshold setting device for setting threshold used in binarization process, object detection device, threshold setting method, and computer readable storage medium
JP2016151955A (ja) 画像処理装置、撮像装置、距離計測装置、および画像処理方法
CN107622497B (zh) 图像裁剪方法、装置、计算机可读存储介质和计算机设备
US20210168279A1 (en) Document image correction method and apparatus
JP6325902B2 (ja) 寸法計測方法、カメラ付き電子機器、および、カメラ付き電子機器用プログラム
JPWO2015156151A1 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6953178B2 (ja) 画像処理装置、画像処理方法、プログラム
CA2939753C (en) Image acquisition using a level-indication icon
WO2014098143A1 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム
JP2017059927A (ja) ユーザ端末、色彩補正システム及び色彩補正方法
JP6115024B2 (ja) 撮像装置及び撮像処理方法並びにプログラム
JP6217225B2 (ja) 画像照合装置、画像照合方法及びプログラム
CN112351197B (zh) 一种拍摄参数调整方法、装置、存储介质及电子设备
CN110460773B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP2012204853A (ja) 撮像装置及び携帯端末機並びに撮像装置の調整方法
JP2017225011A (ja) 傷画素補正システムおよび傷画素補正方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380077482.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13887058

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015522462

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13887058

Country of ref document: EP

Kind code of ref document: A1