WO2016108472A1 - 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치 - Google Patents

이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치 Download PDF

Info

Publication number
WO2016108472A1
WO2016108472A1 PCT/KR2015/013585 KR2015013585W WO2016108472A1 WO 2016108472 A1 WO2016108472 A1 WO 2016108472A1 KR 2015013585 W KR2015013585 W KR 2015013585W WO 2016108472 A1 WO2016108472 A1 WO 2016108472A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature points
subject
photographed subject
photographed
Prior art date
Application number
PCT/KR2015/013585
Other languages
English (en)
French (fr)
Inventor
박상래
Original Assignee
박상래
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박상래 filed Critical 박상래
Priority to CN201580052082.7A priority Critical patent/CN107004263B/zh
Priority to EP15875566.0A priority patent/EP3242269A4/en
Priority to JP2017516753A priority patent/JP2018508052A/ja
Priority to US15/514,653 priority patent/US11127149B2/en
Publication of WO2016108472A1 publication Critical patent/WO2016108472A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks

Definitions

  • the present invention relates to an image analysis, and more particularly, to a method, an apparatus and a computer-readable medium for comparing and analyzing a photographed image and an original image.
  • the present invention relates to a method and apparatus for comparing a photographed image with an original image and analyzing the same.
  • counterfeiting and modulation technologies have also been developed day by day.
  • the act of producing a product forging a famous brand or forging a security securities is a situation in which a duplicate of genuine and similar products cannot be identified by the naked eye.
  • analogue or digital instruments such as pressure gauges, magnetic level gauges, and electrical contact pressure gauges are installed in factories, ships, airplanes, gas supply facilities, and the like for safety check.
  • inspectors may be able to manipulate or misrepresent the results of an inspection by an analog or digital instrument or omit a safety check using an analog or digital instrument. In this case, the safety check is not made transparently and quickly, which may cause a large accident.
  • the problem to be solved by the present invention is to provide an image analysis method, apparatus and computer-readable medium for meeting the above-mentioned need in the art.
  • the problem to be solved of the present invention is to increase the reliability of image comparison by modifying the original image or the photographed image even when the image is taken out of the original image.
  • the problem to be solved of the present invention is to quantify and quantify the authenticity / fake judgment due to the automated image matching judgment technology.
  • an object of the present invention is to easily calculate the consumption rate of the product in use through the difference between the image of the new product and the product in use.
  • the problem to be solved of the present invention is to ensure that the safety check through an analog instrument or a digital instrument transparent and quick due to the automated image inspection technology.
  • the problem to be solved of the present invention is to provide a request to output the feature point information or the original image of the image of the subject using the RFID tag, bar code, and the like.
  • the method includes measuring a distance between a subject and the image analysis device; Outputting an image of the photographed subject; Selecting at least two feature points in the image of the photographed subject based on the information on the output feature points; Calculating a relative size of a prestored original image with respect to the subject based on the measured distance; Extracting feature points in a pre-stored original image for the subject based on the calculated relative size, corresponding to the selected at least two feature points; And comparing the image of the photographed subject with the original image based on the selected feature points and the extracted feature points.
  • the image of the photographed subject may be output together with information about at least two predetermined feature points of the photographed subject.
  • the image analyzing apparatus may include a distance sensor configured to measure a distance between a subject and the image analyzing apparatus; An output unit configured to output an image of a photographed subject; A selection unit which selects at least two feature points from the image of the photographed subject based on the information on the output feature points; And calculating a relative size of a prestored original image for the subject based on the measured distance, and corresponding to the selected at least two feature points based on the calculated relative size. And a control unit configured to extract feature points from an original image, and compare the image of the photographed subject with the original image based on the selected feature points and the extracted feature points.
  • the output unit may be further configured to output information about at least two predetermined feature points of the photographed subject together with the image of the photographed subject.
  • an image analysis computer-readable medium may store instructions for causing a computer to perform the following operations.
  • the operations may include: measuring a distance between a subject and an image analyzing apparatus; Outputting an image of a photographed subject; Selecting at least two feature points in the image of the photographed subject based on the information on the output feature points; Calculating a relative size of a prestored original image with respect to the subject based on the measured distance; Extracting feature points from a pre-stored original image for the subject, corresponding to the selected at least two feature points based on the calculated relative size; And comparing the image of the photographed subject with the original image based on the selected feature points and the extracted feature points.
  • the image of the photographed subject may be output together with information about at least two predetermined feature points of the photographed subject.
  • a customs inspection system a smart camera for determining whether the subject is genuine; And a customs server for communicating with the smart camera via a wired or wireless network.
  • the smart camera may include: a distance sensor configured to measure a distance between a subject and the smart camera; An output unit configured to output an image of a photographed subject; A selection unit which selects at least two feature points from the image of the photographed subject based on the information on the output feature points; And a transceiver configured to communicate with the customs server, wherein the transceiver may be further configured to transmit the measured distance information and information of the selected feature points to the customs server.
  • the output unit may be further configured to output information about at least two predetermined feature points of the photographed subject together with the image of the photographed subject.
  • the customs server calculates the relative size of the pre-stored original image for the subject based on the distance information received from the smart camera, based on the calculated relative size, at least received from the smart camera Extract feature points from a pre-stored original image for the subject, corresponding to two feature points, and compare the original image with the image for the photographed subject based on the received feature points and the extracted feature points. And transmit the comparison data by the comparison to the smart camera.
  • the safety check through an analog instrument or a digital instrument can be made transparent and quickly.
  • FIG. 1 illustrates components of an image analyzing apparatus according to an embodiment of the present invention.
  • FIG. 2 shows a flowchart of an image analysis method performed by an image analysis apparatus according to an embodiment of the present invention.
  • FIG. 3 illustrates an image comparison method in an image analyzing apparatus according to an example.
  • FIG. 4 illustrates an image comparison method in an image analyzing apparatus according to another example.
  • FIG. 5 is a view illustrating an image comparison method in an image analyzing apparatus according to another example.
  • FIG. 6 illustrates an exemplary image processing scheme according to a further embodiment of the present invention.
  • FIG. 7 illustrates an image comparison scheme by example image processing in accordance with a further embodiment of the present invention.
  • FIG 1 illustrates components of an image analysis device 100 according to an embodiment of the present invention.
  • the image analysis device 100 includes an input unit 101, an output unit 103, a selection unit 105, a control unit 107, a photographing unit 109, a database 111, and a distance. It may include a sensor 113. In one aspect of the present invention, only additional components other than the components shown in FIG. 1 or some of these components may be included in the image analysis apparatus 100. In other words, the components shown in FIG. 1 are not essential, such that the image analysis apparatus 100 having more components or fewer components may be implemented.
  • the image analysis device 100 in the present specification has a wireless or wired connection capability such as a smart camera, a digital camera, a mobile device, a mobile station, a mobile terminal, a user terminal, an access terminal, a wireless communication device, a PC, a laptop, a PDA, and the like. Handheld devices, computing devices, and the like.
  • the input unit 101 may receive inputs input from the image analyzing apparatus 100.
  • the input unit 101 may receive identification information about the photographed subject.
  • identification information may include, but is not limited to, brand information, product information, trademark information, CI (Company Identity) information, feature point information, etc. of the photographed subject.
  • the input unit 101 may receive user inputs from a user.
  • the input unit 101 may receive a user input for selecting feature points of the captured image.
  • the input unit 101 may include a keypad, a dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.
  • the input unit 101 may include a short range communication module (not shown).
  • the input unit 101 may be configured to receive a user input input by the external console device.
  • short range communication technology Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used.
  • the external console device when the input unit 101 performs near field communication through infrared communication, the external console device may be an infrared remote controller.
  • the external console device when the input unit 101 performs short range communication through a Bluetooth function, the external console device may be a mobile device including a Bluetooth module.
  • the mobile device including the Bluetooth module may be, for example, a smart phone including the Bluetooth module.
  • the input unit 101 may receive a signal by sensing a user's key operation or a touch input, or may receive an operation or a voice through the photographing unit 109 or a microphone (not shown) and convert the signal into an input signal.
  • a signal by sensing a user's key operation or a touch input, or may receive an operation or a voice through the photographing unit 109 or a microphone (not shown) and convert the signal into an input signal.
  • well-known speech recognition techniques or motion recognition techniques may be used.
  • the input unit 101 may be implemented as an RFID tag reader or a barcode reader. Accordingly, the feature point or the original image of the subject can be identified by the database 111 to be described later using the RFID tag of the subject recognized by the RFID tag reader, and the feature point or the original image of the subject is identified by the barcode of the subject recognized by the barcode reader.
  • the database 111 can be grasped.
  • the signal (s) corresponding to the touch input may be sent to the controller 107.
  • the controller 107 may process the received signal (s) to recognize which area of the input unit 101 has been touched.
  • the output unit 103 may provide a user interface (UI) in the image analyzing apparatus 100. According to one aspect of the present invention, the output unit 103 may be configured to generate an output related to visual, auditory or tactile. The output unit 103 may display (output) information processed by the image analysis apparatus 100.
  • UI user interface
  • the output unit 103 may display (output) information processed by the image analysis apparatus 100.
  • the output unit 103 may output an image of the photographed subject.
  • the output unit 103 may output information about a plurality of predetermined feature points of the photographed subject.
  • the image of the photographed subject and the information about the predetermined plurality of feature points of the photographed subject may be output at the same time.
  • the output unit 103 may output comparison result data between the captured image and the original image.
  • the comparison result data may include the match ratio between the captured image and the original image, whether the product is genuine or fake, the consumption rate of the product, the expected usage period of the product, the scale value of the analog gauge if the captured image is an analog gauge, If the image is a digital instrument, the digital instrument may include, but is not limited to, numerical instrument values.
  • the output unit 103 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode, OLED), a flexible display, and a 3D display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • a flexible display and a 3D display.
  • Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display.
  • a representative example of the transparent display is TOLED (Transparant OLED).
  • a plurality of outputs may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces, respectively.
  • the output unit 103 may output other forms in addition to the video signal, for example, an audio signal, a vibration signal, and the like.
  • the input unit 101 and the output unit 103 may be integrated into one component.
  • the selector 105 may select at least two feature points from the image of the photographed subject based on the information about the feature points output to the output unit 103. In this case, the selection of at least two feature points in the image of the photographed subject is automatically performed by the selector 105 or an input unit for selecting at least two feature points in the image of the photographed subject. ) Can be made after receiving. Usually, the selection of the at least two feature points is automatically made by the selection unit 105, and may be based on the case where there is an input reception for the at least two feature points from the input unit 101.
  • the selection unit 105 may be integrated with the control unit 107 as one component.
  • the controller 107 may typically control overall operations of the image analyzing apparatus 100. For example, the controller 107 may extract feature points in the pre-stored original image of the subject corresponding to the selected feature points from the database 111. In addition, the controller 107 may compare the photographed image with the original image based on the selected feature points and the extracted feature points. In addition, the controller 107 may calculate a matching ratio between the photographed image and the original image, and further determine whether the photographed subject is genuine / fake based on the match ratio, or calculate a consumption rate of the photographed subject. Also, the controller 107 may measure the scale value of the analog gauge when the photographed image is the analog gauge based on the selected feature points and the extracted feature points. This will be described later with reference to FIG. 4. In addition, the controller 1055 may measure the gauge value displayed numerically on the digital gauge when the photographed image is a digital gauge, based on the selected feature points and the extracted feature points. This will be described later with reference to FIG. 5.
  • the controller 107 may generate example information for the predetermined feature points. Such example information may be generated based on input subject identification information.
  • controller 107 may implement a pattern recognition process capable of recognizing signals input from the input unit 101 or the photographing unit 109 as text or images. In addition, the controller 107 may perform processes such as voice recognition or motion recognition.
  • the database 111 may store a program, code, or command for the operation of the controller 107, and may store input / output data.
  • the database 111 may store identification information of the subject, feature point information on the photographed image, original image information, and feature point information on the original image.
  • the database 111 may prestore the feature point information of the analog gauge or the digital gauge, and the feature point information of the analog gauge or the digital gauge may be a reference image of the analog gauge or the digital gauge. And the location of the feature point on the reference image and the number of feature points.
  • the operations of the controller 107 and the database 111 may be performed by a server (not shown).
  • the server may include a customs server, but is not limited thereto.
  • the server and the image analysis device may be configured to include a transceiver, respectively, and may communicate with each other via a wired or wireless network.
  • the database 111 may store distance data and angle of view data measured by the distance sensor 113, and photographing data photographed by the photographing unit 109. In a further aspect of the present invention, such data may be transmitted to a server (customs server) through a transceiver (not shown) of the image analysis apparatus 100.
  • the database 111 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • the image analyzing apparatus 100 may operate in connection with a web storage that performs a storage function of the database 111 on the Internet.
  • such a database 111 may exist outside of the image analyzing apparatus 100.
  • the database 111 may be configured to communicate with the image analysis apparatus 100.
  • the photographing unit 109 is an optional configuration and may be arranged to directly photograph a subject.
  • the image frame (image) captured by the photographing unit 109 may be stored in the database 111 or transmitted to the outside via a network.
  • the imaging unit 109 may be composed of two or more depending on the environment used. If necessary, the photographing unit 109 may be disposed outside the image analyzing apparatus 100 to communicate with the image analyzing apparatus 100.
  • the distance sensor 113 may be configured to measure the distance between the subject and the image analysis device 100.
  • the image analyzing apparatus 100 may include a plurality of distance sensors, so that the distance from the two or more points on the subject to the image analyzing apparatus 100 may be measured. Then, the controller 107 may calculate tilt information of the subject based on the measured plurality of distances. In addition, the controller 107 may modify one of the image of the photographed subject and the original image to correspond to the remaining images based on the calculated tilt information.
  • Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
  • the embodiments described herein may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs). It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. In some cases, the embodiments described herein may be implemented by the controller 107 itself.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules.
  • Each of the software modules may perform one or more functions and operations described herein.
  • Software code may be implemented in software applications written in a suitable programming language. The software code may be stored in the database 111 and executed by the controller 107.
  • FIG. 2 is a flowchart of an image analysis method performed by the image analysis apparatus 100 according to an exemplary embodiment.
  • the image analysis apparatus 100 may receive identification information on a subject to be photographed (201).
  • identification information may include, but is not limited to, brand information, product information, trademark (logo) information, CI information, feature point information, and the like, for example.
  • feature point information such as the location of a feature point and the number of feature points associated with a particular trademark and a particular product, may be pre-stored in the database 111.
  • the database 111 may prestore the feature point information of the analog gauge or the digital gauge, and the feature point information of the analog gauge or the digital gauge may be a reference image of the analog gauge or the digital gauge. And the location of the feature point on the reference image and the number of feature points.
  • the image analyzing apparatus 100 may receive image data about the photographed subject.
  • the photographed image data may be stored in the database 111 or transferred to the controller 107 to be output from the output unit 103. It may be. That is, in this case, the image analyzing apparatus 100 may directly photograph the subject.
  • the photographing of the subject may also vary in size as the distance between the photographing unit 109 and the subject changes. Therefore, in this case, based on the distance between the subject and the image analyzing apparatus 100 calculated by the distance sensor 113 of the image analyzing apparatus 100, the controller 107 may determine the size of the subject (eg, the original image). Size) can be adjusted. More specifically, the distance sensor may be used to measure the distance between the photographing unit 109 and the subject, and based on the measured distance, the size of one pixel of the photographed image may be determined. . The image analysis apparatus 100 may change the size of the photographed image based on the size of one pixel determined as described above.
  • the image analysis device 100 may include a plurality of distance sensors disposed at different locations. In this case, even when the photographing angle is inclined, the correct distance between the subject and the photographing unit 109 can be calculated by correcting the difference in the sensing distance between the first distance sensor and the second distance sensor.
  • the input identification information when the input identification information is trademark information of a specific brand, information about feature points illustrating feature points of a specific trademark stored in the database 111 may be output.
  • the input identification information when the input identification information is feature point information of an analog gauge or a digital gauge, feature point information of an analog gauge or a digital gauge stored in the database 111 may be displayed and output.
  • the feature point information of the analog instrument or digital instrument may include a reference image of the analog instrument or a digital instrument and the position of the feature point and the number of feature points in the reference image.
  • Information about these feature points may be referred to as example information, and the example information may be output from the image analyzing apparatus 100 together with an image of a photographed subject (203). That is, together with the image of the photographed subject, information about a plurality of predetermined feature points of the photographed subject may be output.
  • outputting an image for a photographed subject further processes the image for the photographed subject to highlight a particular color of the photographed subject. It may include doing. Thus, in this case, for example, if a tag of a particular color is mounted in the captured image to indicate caution or warning, etc. in customs or customs procedures, the image is emphasized only to highlight this particular color and render the remaining colors achromatic. May be processed.
  • the image analyzing apparatus 100 may select at least two feature points from the output image of the photographed subject based on the information about the output feature points (ie, example information). (205). In other words, the image analyzing apparatus 100 may select at least two feature points from the output subject image based on the example information. In this case, the selection of at least two feature points in the image of the photographed subject is automatically performed based on the example information by the image analyzing apparatus 100 or selects at least two feature points in the image of the photographed subject. The input may be made after the image analysis apparatus 100 receives an input from a user. In the usual case, the selection of the at least two feature points is automatically performed by the image analysis apparatus 100, and may be based on the case where there is an input reception for the at least two feature points from a user.
  • the image analysis apparatus 100 may extract feature points from a pre-stored original image for the subject corresponding to each of the selected feature points (207).
  • the location of the feature points, the number of feature points, the original image, the number of feature points in the original image, the location of the feature points in the original image, etc. may be stored in the database 111. Can be. Therefore, when the feature points for the photographed image are input, the feature points in the original image corresponding thereto may be extracted from the database 111.
  • the original image may be output by the output unit 103 after being processed into a translucent shape and overlapped with the image of the photographed subject. That is, the original image may be semi-transparently processed, and the image of the photographed subject may be superimposed on the semi-transparently processed original image and output to the output unit 103.
  • the image analyzing apparatus 100 may compare the photographed image with the original image based on the selected feature points and the extracted feature points (209).
  • the captured image and the original image may be compared based on the distance between the selected feature points and the distance between the extracted feature points.
  • a matching ratio between the captured image and the original image may be calculated based on the distance between the selected feature points and the extracted feature points.
  • the matching ratio between the captured image and the original image may be determined as a ratio of the distance between the selected feature points and the extracted feature points.
  • the image analyzing apparatus 100 may calculate the consumption rate of the subject, the usage period of the subject, or the available period of use of the subject.
  • the database 111 should store information on the consumption rate of different subjects, the usage period of the subjects, or the available usage periods of the subjects according to the matching ratio (value) of the captured image and the original image.
  • the image analysis apparatus 100 may calculate the tilt of the photographed image by comparing the selected feature points with the extracted feature points. Then, the image analyzing apparatus 100 may transform one image of the photographed image and the original image to correspond to the other image based on the calculated tilt. In this way, it is possible to reduce the likelihood of damage to the reliability of the coincidence due to the distortion of the imaging.
  • FIG 3 illustrates an image comparison method in the image analysis apparatus 100 according to an example.
  • the captured image 301 may be output from the image analyzing apparatus 100.
  • the image analysis apparatus 100 may include feature points (eg, finger shapes) on the captured image 301 based on example information (not shown) output together with the captured image 301. Cursor) can be selected. In the case of the subject illustrated in FIG. 3, four feature points may be predetermined.
  • the feature points in the original image 303 corresponding to the selected feature points may be extracted.
  • the original image 303 and the feature points for the original image are not output from the output unit 103 of the image analysis apparatus 100, but through communication between the database 111 and the control unit 107. Can be processed.
  • the four feature points may have a total of six feature point pairs. Therefore, the distance between the feature points of each of the six pairs of feature points in the photographed image and the original image is calculated, and the distance between the feature points in each pair unit is numerically compared.
  • FIG 4 illustrates an image comparison method in the image analysis device 100 according to another example.
  • the captured image 401 may be output from the image analyzing apparatus 100.
  • the image analysis apparatus 100 may include feature points (eg, a circle shape) on the captured image 401 based on example information (not shown) output together with the captured image 401. (Indicated by the cursor of)).
  • the feature points may be predetermined as 2 (a, b).
  • the feature points in the original image 403 (the reference image of the analog instrument) corresponding to the selected feature points can be extracted.
  • the original image 403 and the feature points for the original image are not output from the output unit 103 of the image analysis apparatus 100, but through communication between the database 111 and the control unit 107. Can be processed.
  • the feature points have two a (point of change) and b (reference point) on the needle, and a scale value (eg, pressure) in an analog pressure gauge due to a change in the position of a (point of change) among the feature points. Value).
  • a scale value (pressure value) corresponding to the position of the feature points a (change point) should be stored in the database 111.
  • FIG 5 illustrates an image comparison method in the image analysis device 100 according to another example.
  • the captured image 410 may be output from the image analyzing apparatus 100.
  • the image analysis apparatus 100 may include feature points (eg, circle shapes) on the captured image 410 based on example information (not shown) output together with the captured image 410. (Indicated by the cursor of)).
  • the feature points may be predetermined as 4 (c, d, e, f).
  • e and f are characteristic points for generating the measurement pressure region 415 for displaying the measured pressure
  • c and d are characteristic points for generating the measurement highest pressure region 413 for displaying the highest pressure of the measurement object.
  • the feature points in the original image 420 (reference image of the digital pressure gauge) corresponding to the selected feature points can be extracted.
  • the original image 420 and the feature points for the original image are not output from the output unit 103 of the image analysis apparatus 100, but through communication between the database 111 and the control unit 107. Can be processed.
  • the feature points are c and d for generating the measured highest pressure region 423, and e and f for generating the measured pressure region 425.
  • the measured highest pressure region 423 and the measured pressure region 425 are regions including the measured highest pressure value and the measured pressure value, respectively, and can be identified through image processing. Since the image processing technique is a known technique, a description thereof will be omitted.
  • the initial value of the measured maximum pressure and the initial value of the measured pressure should be stored in the database 111.
  • the initial value of the measured maximum pressure is 0.00 [bar] and the initial value of the measured input is 0.00. [bar]. This is merely an example and is not limited thereto.
  • the image size between the original image and the captured image may be matched with each other via a single distance measuring sensor. More specifically, after matching the size of the original image and the photographed image using a single distance measuring sensor, the photographed image and the original image may be compared with each other. That is, by comparing at least two or more feature points of the photographed image with at least two or more feature points of the original image, the tilt information of the subject is determined through a distance measurement (on display) value between each point and an angle value between each point. Can be corrected or the original image and the captured image can be compared (when correction of tilt information is not necessary).
  • the comparison between the feature points may be performed by constructing pixel point blocks by coordinates each photographed image and the original image in pixel units, and comparing both images in the configured pixel block units. That is, differences in image patterns (image color, position, size, etc.) between the original image and the photographed image may be compared in detail in units of predetermined pixel blocks.
  • the above-described operations may be performed by the controller 107 of the image analysis apparatus 100.
  • the matching ratio between the original image and the photographed image may be calculated through the aforementioned comparison method. Further, based on the calculated matching rate, whether the photographed subject is genuine / fake, the consumption rate of the photographed subject, the period in which the photographed subject can be used, and the like can be determined.
  • the selected position when the positions of the predetermined feature points are selected in selecting the feature points of the subject, the selected position may be enlarged and displayed to allow selection or correction of more accurate feature points.
  • the selected location when the location of the predetermined feature points is selected, the selected location may be enlarged and displayed to allow correction of the more accurate location of the feature points. In one example, such correction may be automatically performed by the controller 107 of the image analysis apparatus 100 based on the positions of the predetermined feature points.
  • FIG. 6 illustrates an exemplary image processing scheme according to a further embodiment of the present invention.
  • the image analysis apparatus 100 may process an image other than the target color as achromatic color, or the subject having the target color. (E.g., tags) can be image processed to display better.
  • a subject having a target color is indicated by hatching with a reference numeral 600.
  • the hatched portion may be yellow as representing the target color, but is not limited thereto.
  • the camera (or smart camera) shown in FIG. 6 may correspond to the image analysis device 100.
  • a tag having a specific target color including a message such as a warning or a warning can be highlighted and output in a customs or customs clearance procedure, targeting of a specific product can be enabled in a quick and efficient manner.
  • an authentication procedure or the like may be performed on a subject equipped with a tag having a specific color in a manner different from that of other subjects. Therefore, deception or misrecognition can be easily excluded in authenticating or verifying a subject.
  • FIG. 7 illustrates an image comparison scheme by example image processing in accordance with a further embodiment of the present invention.
  • the original image 503 and the photographed image 501 may be compared based on the pixel point blocks. As shown in FIG. 7, after matching the size of the original image and the captured image through the (single) distance measuring sensor, a pixel point block of 25 pixels may be displayed together with the image.
  • FIG. 7 shows magnified images of the upper left portion of the images of FIG. 3.
  • the degree of correspondence between the original image and the photographed image may be numerically calculated through image comparison in units of pixel blocks.
  • the photographed image 501 and the corresponding pixelblocks 507 and 509 and 511 and 513 of the original image 503 may be compared with each other. Since certain portions 507 and 513 of the captured image 501 are compared to the corresponding portions 509 and 511 of the original image 501, because there are differences in the thickness of the line and the position of the line, Based on this, the correspondence of both images can be calculated.
  • pixel point block of 25 pixels is illustrated as an example in FIG. 6, it will be apparent that various types of pixel point blocks may be configured.
  • the present invention can be used in the technique of analyzing the captured image and the original image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 양상에 따른 이미지 분석 방법이 개시된다. 상기 이미지 분석 방법은, 피사체와 상기 이미지 분석 장치 사이의 거리를 측정하는 단계; 촬영된 피사체에 대한 이미지를 출력하는 단계; 상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 단계; 상기 측정된 거리에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하는 단계; 상기 계산된 상대크기를 기초로 하여, 상기 선택된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하는 단계; 및 상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여, 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하는 단계를 포함할 수 있다.

Description

이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치
본 발명은 이미지 분석에 관한 발명으로서, 보다 구체적으로, 촬영된 이미지와 원본 이미지를 비교하여 이를 분석하기 위한 방법, 장치 및 컴퓨터-판독가능 매체에 관한 발명이다.
본 발명은 촬영된 이미지와 원본 이미지를 비교하여 이를 분석하기 위한 방법 및 장치에 관한 것이다.
현재 전자공학 기술의 발전에 따라 다양한 방식의 이미지 프로세싱 기법들이 개발되고 있다. 또한, 디지털 촬영 장치의 발달로 인해, 사진 촬영 및 촬영한 이미지에 대한 확인 및 분석 또한 용이 해졌다. 나아가, 촬영한 이미지 데이터를 디스플레이하기 위한 디스플레이 장치가 개발되면서, 이미지를 확인 또는 분석하기 위해서 별도의 현상 절차가 필요하지 않게 되었다. 더불어, 이러한 디스플레이 장치는 동시에 많은 수의 이미지를 저장할 수 있어서, 사용자가 이미지를 교체해야하는 불편함 없이 다수의 이미지를 동시에 디스플레이할 수 있게 되었다.
또한, 이미지 프로세싱 기법들이 진보함에 따라, 두 개의 이미지들을 또는 두 개의 디지털 이미지 파일들을 서로 비교하기 위한 기법들이 개발되고 있다. 이와 관련하여, 종래 기술로는 출원번호 10-2004-7015012호인 패턴 비교 방법에 대한 출원이 존재한다. 하지만, 이러한 기존의 기술들은 둘 이상의 이미지들을 신속하게 비교하기는 어려울 수 있다는 문제점이 존재한다. 즉, 기존의 이미지 비교 기법들은, 비교하려는 이미지들을 분할하여 분할된 이미지들을 서로 비교하여 이를 수치화하기 때문에, 이미지들을 신속하고 효율적으로 비교하는 데에 있어서 한계가 존재할 수 있다.
나아가, 최근 프린터, 스캐너, 디지털 카메라, 제품 제조 장비 등의 장비들의 성능이 향상됨에 따라서, 위조 및 변조 기술도 나날이 발전하고 있다. 예를 들어 유명한 브랜드를 위조한 제품을 생산하거나 유가 증권 등을 위조하는 등과 같은 행위들은, 육안에 의해 식별이 불가능할 정도로 진품과 유사한 제품들을 복제하고 있는 상황이다.
하지만, 앞서 설명한 바와 같이, 두 개의 이미지들 또는 두 개의 디지털 이미지 파일들을 서로 비교하는 데는 일반적으로 많은 시간이 소모될 수 있다. 특히, 예를 들어, 공항의 세관 절차의 경우, 수많은 탑승자의 캐리어 내부에 있는 제품들을 촬영하고 이를 신속하게 분석하여 제품의 진위를 판정하여야 한다. 따라서 둘 이상의 이미지들을 신속하고 효율적으로 비교하는 기법에 대한 요구가 당업계에 존재한다.
추가적으로, 외국으로부터 국내로 수입되는 물품은 먼저 지정 장치장에 하역되고, 물품을 수입한 화주, 장치장 담당자 및 세관 담당자가 지정 장치에서 하역된 물품의 수량, 종류 등을 확인한다. 이때, 화주, 장치장 담당자 및 세관 담당자는 일반 카메라를 지참하여 하역된 물품의 수량, 종류 및 원산지 표시 여부를 확인하고 촬영한다. 확인결과 물품에 원산지 표시가 없는 경우, 세관 담당자는 화주에게 원산지 표시를 하도록 사전보수작업을 요청한다. 이에 응하여 화주는 원산지 표시가 없는 물품에 대해서 사전보수작업을 수행하게 된다. 그러나 외국으로부터 국내로 수입되는 물품의 종류, 수량 및 사전보수작업 여부를 확인하기 위해서 화주, 장치장 담당자 및 세관 담당자가 모두 지정 장치장으로 이동하여야 하는 불편함이 있다. 특히 세관 담당자가 물품검사를 위해서 지정 장치장으로 직접 이동하여야 하는 불편함이 있었다.
추가적으로, 공장, 선박, 비행기, 가스공급시설 등에서는 안전점검을 위해서 각종 압력게이지, 자기레벨게이지, 전기접촉압력게이지 등과 같은 아날로그 계기 또는 디지털 계기가 설치되어 있다. 하지만 점검원들이 아날로그 계기 또는 디지털 계기를 통한 점검결과를 조작 또는 허위보고하거나 아날로그 계기 또는 디지털 계기를 이용한 안전점검을 누락할 수 있다. 이 경우 안전점검이 투명하고 신속하게 이루어지지 않아서 대형사고가 발생할 우려가 있다.
본 발명의 해결하고자 하는 과제는, 전술한 당업계에서의 필요성을 충족시키기 위한 이미지 분석 방법, 장치 및 컴퓨터-판독가능 매체를 제공하기 위함이다.
또한, 본 발명의 해결하고자 하는 과제는, 신속하고 효율적으로 이미지들을 비교하기 위한 기법을 제공하기 위함이다.
나아가, 본 발명의 해결하고자 하는 과제는, 원본 이미지와 어긋나게 촬영되는 경우에도 원본 이미지 또는 촬영된 이미지를 변형시킴으로써 이미지 비교의 신뢰성을 증대시키기 위함이다.
더불어, 본 발명의 해결하고자 하는 과제는, 자동화된 이미지 일치 판단 기술로 인하여 진품/가품 판정을 수치화 및 계량화시키기 위함이다.
또한, 본 발명의 해결하고자 하는 과제는, 새로운 제품과 사용 중인 제품의 이미지 차이를 통해 사용 중인 제품의 소모율을 용이하게 계산하기 위함이다.
또한, 본 발명의 해결하고자 하는 과제는, 자동화된 이미지 점검 기술로 인하여 아날로그 계기 또는 디지털 계기를 통한 안전점검이 투명하고 신속하게 이루어지도록 함에 있다.
또한, 본 발명의 해결하고자 하는 과제는, RFID 태그, 바코드 등을 이용하여 피사체에 대한 이미지의 특징점 정보 또는 원본 이미지를 저장된 데이터베이스에 요구하여 출력하는 것을 제공함에 있다.
상술한 바와 같이, 본 발명의 목적을 달성하고, 후술되는 본 발명의 특유의 효과를 달성하기 위한, 본 발명의 기술적 특징들은 다음과 같다:
본 발명의 일 실시예에 따른 이미지 분석 장치에 의해 수행되는 이미지 분석 방법이 개시된다. 상기 방법은, 피사체와 상기 이미지 분석 장치 사이의 거리를 측정하는 단계; 촬영된 피사체에 대한 이미지를 출력하는 단계; 상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 단계; 상기 측정된 거리에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하는 단계; 상기 계산된 상대크기를 기초로 하여, 상기 선택된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하는 단계; 및 상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여, 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하는 단계를 포함할 수 있다.
상기 촬영된 피사체에 대한 이미지는, 상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보와 함께 출력될 수 있다.
또한, 본 발명의 일 실시예에 따른 이미지 분석 장치가 개시된다. 상기 이미지 분석 장치는, 피사체와 상기 이미지 분석 장치 사이의 거리를 측정하도록 구성되는 거리 센서; 촬영된 피사체에 대한 이미지를 출력하도록 구성되는 출력부; 상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 선택부; 및 상기 측정된 거리에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하고, 상기 계산된 상대크기를 기초로 하여, 상기 선택된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하고, 그리고 상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하도록 구성되는 제어부를 포함할 수 있다.
상기 출력부는, 상기 촬영된 피사체에 대한 이미지와 함께 상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보를 출력하도록 추가로 구성될 수 있다.
나아가, 본 발명의 일 실시예에 따른 이미지 분석 컴퓨터-판독가능 매체가 개시된다. 상기 컴퓨터-판독가능 매체는, 컴퓨터로 하여금 이하의 동작들을 수행하도록 하기 위한 명령들을 저장할 수 있다. 상기 동작들은: 피사체와 이미지 분석 장치 사이의 거리를 측정하는 동작; 촬영된 피사체에 대한 이미지를 출력하는 동작; 상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 동작; 상기 측정된 거리에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하는 동작; 상기 계산된 상대크기를 기초로 하여, 상기 선택된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하는 동작; 및 상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하는 동작을 포함할 수 있다.
상기 촬영된 피사체에 대한 이미지를 출력하는 동작에서, 상기 촬영된 피사체에 대한 이미지는, 상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보와 함께 출력될 수 있다.
추가적으로, 본 발명의 일 실시예에 따른, 세관 검사 시스템이 개시된다. 상기 세관 검사 시스템은, 피사체의 진품 여부를 판단하기 위한 스마트 카메라; 와 상기 스마트 카메라와 유무선 네트워크를 통해 통신하기 위한 세관 서버를 포함할 수 있다. 여기서 상기 스마트 카메라는: 피사체와 상기 스마트 카메라 사이의 거리를 측정하도록 구성되는 거리 센서; 촬영된 피사체에 대한 이미지를 출력하도록 구성되는 출력부; 상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 선택부; 및 상기 세관 서버와 통신하도록 구성되는 송수신부를 포함할 수 있으며, 상기 송수신부는 상기 측정된 거리 정보 및 상기 선택된 특징점들의 정보를 상기 세관 서버로 송신하도록 추가로 구성될 수 있다. 이때 상기 출력부는, 상기 촬영된 피사체에 대한 이미지와 함께 상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보를 출력하도록 추가로 구성될 수 있다. 또한, 상기 세관 서버는: 상기 스마트 카메라로부터 수신된 거리 정보에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하고, 상기 계산된 상대크기를 기초로 하여, 상기 스마트 카메라로부터 수신된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하고, 상기 수신된 특징점들과 상기 추출된 특징점들을 기초로 하여 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하고, 그리고 상기 비교에 의한 비교 데이터를 상기 스마트 카메라로 송신하도록 구성될 수 있다.
본 발명의 일 양상에 따른 이미지 분석 방법을 통해, 이미지들을 보다 신속한 방식으로 비교할 수 있다.
나아가, 본 발명의 일 양상에 따른 이미지 분석 방법을 통해, 원본 이미지와 어긋나게 촬영되는 경우에도 원본 이미지 또는 촬영된 이미지를 변형시킴으로써 이미지 비교의 신뢰성을 증대시킬 수 있다.
더불어, 본 발명의 일 양상에 따른 이미지 분석 방법을 통해, 자동화된 이미지 일치 판단 기술로 인하여 진품/가품 판정을 수치화 및 계량화시킬 수 있다.
또한, 본 발명의 일 양상에 따른 이미지 분석 방법을 통해, 새로운 제품과 사용중인 제품의 이미지 차이로 사용중인 제품의 소모율을 용이하게 계산할 수 있다.
또한, 본 발명의 일 양상에 따른 이미지 분석 방법을 통해, 자동화된 이미지 점검 기술로 인하여 아날로그 계기 또는 디지털 계기를 통한 안전점검이 투명하고 신속하게 이루어질 수 있다.
상기 언급된 본 개시내용의 특징들이 상세하게, 보다 구체화된 설명으로, 이하의 실시예들을 참조하여 이해될 수 있도록, 실시예들 중 일부는 첨부되는 도면에서 도시된다. 또한, 도면과의 유사한 참조번호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭하는 것으로 의도된다. 그러나 첨부된 도면들은 단지 본 개시내용의 특정한 전형적인 실시예들만을 도시하는 것일 뿐, 본 발명의 범위를 한정하는 것으로 고려되지는 않으며, 동일한 효과를 갖는 다른 실시예들이 충분히 인식될 수 있다는 점을 유의하도록 한다.
도 1은 본 발명의 일 실시예에 따른 이미지 분석 장치의 컴포넌트들을 도시한다.
도 2는 본 발명의 일 실시예에 따라 이미지 분석 장치에 의해 수행되는 이미지 분석 방법에 대한 순서도를 도시한다.
도 3은 일 예시에 따른 이미지 분석 장치에서의 이미지 비교 방식을 도시한다.
도 4는 다른 예시에 따른 이미지 분석 장치에서의 이미지 비교 방식을 도시한다.
도 5는 또 다른 예시에 따른 이미지 분석 장치에서의 이미지 비교 방식을 도시한다.
도 6은 본 발명의 추가적인 실시예에 따른 예시적인 이미지 프로세싱 방식을 도시한다.
도 7은 본 발명의 추가적인 실시예에 따라 예시적인 이미지 프로세싱에 의한 이미지 비교 방식을 도시한다.
다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 다르게 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
도 1은 본 발명의 일 실시예에 따른 이미지 분석 장치(100)의 컴포넌트들을 도시한다.
도 1에서 도시되는 바와 같이, 이미지 분석 장치(100)는, 입력부(101), 출력부(103), 선택부(105), 제어부(107), 촬영부(109), 데이터베이스(111) 및 거리 센서(113)를 포함할 수 있다. 본 발명의 일 양상에서, 도 1에서 도시되는 컴포넌트들 이외의 추가적인 컴포넌트들 또는 이들 중 일부의 컴포넌트들만이 이미지 분석 장치(100)내에 포함될 수도 있다. 다시 말하면, 도 1에서 도시된 컴포넌트들은 필수적인 것들은 아니어서, 그보다 많은 컴포넌트들을 갖거나 또는 그보다 적은 컴포넌트들을 갖는 이미지 분석 장치(100)가 구현될 수도 있다.
이하에서는, 상기 이미지 분석 장치(100)의 컴포넌트들에 대하여 차례로 살펴보기로 한다.
본 명세서에서의 이미지 분석 장치(100)는, 스마트카메라, 디지털카메라, 모바일 디바이스, 이동국, 이동 단말, 사용자 단말기, 액세스 단말기, 무선 통신 장치, PC, 랩탑, PDA 등과 같이 무선 또는 유선 접속 능력을 갖는 핸드헬드 장치 및 컴퓨팅 장치 등을 포함할 수 있다.
도 1을 참조하면, 입력부(101)는 이미지 분석 장치(100)로부터 입력되는 입력들을 수신할 수 있다. 일례로, 입력부(101)는 촬영된 피사체에 대한 식별정보를 입력받을 수 있다. 이러한 식별정보는 예를 들어, 촬영된 피사체에 대한 브랜드 정보, 제품 정보, 상표 정보, CI(Company Identity) 정보, 특징점 정보 등을 포함할 수 있지만 이들로 제한되지는 않는다. 또한, 입력부(101)는 사용자로부터의 사용자 입력들을 수신할 수 있다. 예를 들어, 입력부(101)는 촬영된 이미지에 대한 특징점들을 선택하는 사용자 입력을 수신할 수 있다.
본 발명의 일 양상에서, 입력부(101)는 키 패드, 돔 스위치, 터치 패드(정압/정전), 조그 휠, 조그 스위치 등을 포함할 수 있다. 또한, 입력부(101)는 근거리 통신 모듈(미도시)을 포함할 수도 있다. 이러한 경우, 입력부(101)는 외부 콘솔 디바이스에 의해 입력된 사용자 입력을 수신하도록 구성될 수 있다. 근거리 통신(short range communication) 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
예를 들어, 입력부(101)가 적외선 통신을 통해 근거리 통신을 하는 경우, 외부 콘솔 디바이스는 적외선 리모트 컨트롤러일 수 있다. 또는, 입력부(101)가 블로투스(Bluetooth) 기능을 통해 근거리 통신을 하는 경우, 외부 콘솔 디바이스는 블루투스 모듈을 포함하는 모바일 디바이스일 수 있다. 여기서, 블루투스 모듈을 포함하는 모바일 디바이스는 예를 들어, 블루투스 모듈을 포함하는 스마트폰일 수 있다.
입력부(101)는 사용자의 키 조작 또는 터치 입력 등을 감지하여 신호를 수신하거나, 촬영부(109) 또는 마이크로폰(미도시)을 통하여 동작 또는 음성을 수신하여 이를 입력 신호로 변환할 수 있다. 이를 위해, 공지의 음성 인식(Speech Recognition) 기술 또는 동작 인식(Motion Recognition) 기술들이 사용될 수 있다.
또한 입력부(101)는 RFID 태그 리더기 또는 바코드 리더기 등으로 구현될 수 있다. 이에 따라 RFID 태그 리더기를 통해 인식된 피사체의 RFID 태그로 피사체의 특징점 또는 원본 이미지를 후술할 데이터베이스(111)에서 파악할 수 있게 되고, 바코드 리더기를 통해 인식된 피사체의 바코드로 피사체의 특징점 또는 원본 이미지를 데이터베이스(111)에서 파악할 수 있게 되는 것이다.
본 발명의 일 양상에서, 입력부(101)가 터치 입력에 의해 동작되는 경우, 터치 입력에 대응하는 신호(들)는 제어부(107)로 보내어질 수 있다. 제어부(107)는 수신된 신호(들)를 프로세싱하여 입력부(101)의 어느 영역이 터치되었는지를 인식할 수 있게 된다.
출력부(103)는 이미지 분석 장치(100)에서의 사용자 인터페이스(UI:User Interface)를 제공할 수 있다. 본 발명의 일 양상에 따라서, 출력부(103)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키도록 구성될 수 있다. 이러한 출력부(103)는 이미지 분석 장치(100)에서 처리되는 정보를 표시(출력)할 수 있다.
예를 들어, 출력부(103)는 촬영된 피사체에 대한 이미지를 출력할 수 있다. 또한, 출력부(103)는 촬영된 피사체에 대한 사전결정된 복수의 특징점들에 대한 정보를 출력할 수 있다. 본 발명의 일 양상에서, 촬영된 피사체에 대한 이미지와 촬영된 피사체에 대한 사전결정된 복수의 특징점들에 대한 정보는 동시에 출력될 수 있다.
나아가, 출력부(103)는 촬영된 이미지와 원본 이미지 간의 비교 결과 데이터를 출력할 수 있다. 예를 들어, 비교 결과 데이터는, 촬영된 이미지와 원본 이미지 간의 일치율, 진품/가품의 여부, 제품의 소모율, 제품의 예상 사용 기간, 촬영된 이미지가 아날로그 계기인 경우 아날로그 계기의 눈금 값, 촬영된 이미지가 디지털 계기인 경우 디지털 계기에 숫자로 표시된 계기 값 등을 포함할 수 있지만, 이들로 제한되지는 않는다.
본 발명의 일 양상에서, 출력부(103)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다.
본 발명의 추가적인 양상에서, 이미지 분석 장치(100)의 구현 형태에 따라서 복수의 출력부가 존재할 수도 있다. 이러한 경우, 예를 들어, 이미지 분석 장치(100)에는 복수의 출력부들이 하나의 면에 이격되거나 일체로 배치될 수 있거나 또는 서로 다른면에 각각 배치될 수도 있다. 또한, 본 발명의 추가적인 양상에서,출력부(103)는 비디오 신호 이외에 다른 형태, 예를 들어, 오디오 신호, 진동 신호 등을 출력할 수도 있다.
선택적으로, 본 발명에서 입력부(101) 및 출력부(103)는 하나의 컴포넌트로 통합될 수도 있다.
선택부(105)는 출력부(103)에 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택할 수 있다. 이때 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들의 선택은, 선택부(105)에 의해서 자동으로 이루어지거나 또는 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 입력을 선택부(105)가 수신한 후 이루어질 수 있다. 평상시에는 상기 적어도 2개의 특징점들의 선택이 선택부(105)에 의해서 자동으로 이루어지다가, 입력부(101)로부터 상기 적어도 2개의 특징점들에 대한 입력 수신이 있는 경우에 이에 기초하여 이루어질 수 있다. 이러한 선택부(105)는 제어부(107)와 하나의 컴포넌트로 통합될 수도 있다.
제어부(107)는 통상적으로 이미지 분석 장치(100)의 전반적인 동작들을 제어할 수 있다. 예를 들어, 제어부(107)는, 선택된 특징점들과 대응되는, 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 데이터베이스(111)로부터 추출할 수 있다. 또한, 제어부(107)는, 선택된 특징점들과 추출된 특징점들을 기초로 하여, 촬영된 이미지와 원본 이미지를 비교할 수 있다. 더불어, 제어부(107)는, 촬영된 이미지와 원본 이미지의 일치율을 계산할 수 있으며, 나아가 일치율을 기초로 하여 촬영된 피사체의 진품/가품 여부를 판정하거나 또는 촬영된 피사체의 소모율 등을 계산할 수 있다. 또한 제어부(107)는 선택된 특징점들과 추출된 특징점들을 기초로 하여, 촬영된 이미지가 아날로그 계기인 경우 아날로그 계기의 눈금 값을 측정할 수 있다. 이에 대해서는 도 4를 참조하여 후술하기로 한다. 그리고 제어부(1055)는 선택된 특징점들과 추출된 특징점들을 기초로 하여, 촬영된 이미지가 디지털 계기인 경우 디지털 계기에 숫자로 표시된 계기값을 측정할 수 있다. 이에 대해서는 도 5를 참조하여 후술하기로 한다.
본 발명의 일 양상에서, 제어부(107)는 사전결정된 특징점들에 대한 예시 정보를 생성할 수 있다. 이러한 예시 정보는 입력된 피사체 식별 정보를 기초로 하여 생성될 수 있다.
또한, 제어부(107)는 입력부(101) 또는 촬영부(109)로부터 입력되는 신호들을 문자 또는 이미지로 인식할 수 있는 패턴 인식 처리를 구현할 수 있다. 또한, 제어부(107)는 음성 인식 또는 동작 인식 등의 처리들을 수행할 수도 있다.
데이터베이스(111)는 제어부(107)의 동작을 위한 프로그램, 코드 또는 명령을 저장할 수 있고, 입/출력되는 데이터들을 저장할 수도 있다. 또한, 데이터베이스(111)는 피사체의 식별 정보, 촬영된 이미지에 대한 특징점 정보, 원본 이미지 정보, 원본 이미지에 대한 특징점 정보 등을 저장할 수 있다. 또한 피사체가 아날로그 계기 또는 디지털 계기인 경우, 데이터베이스(111)에는 아날로그 계기 또는 디지털 계기에 대한 특징점 정보가 사전 저장될 수 있는데, 아날로그 계기 또는 디지털 계기에 대한 특징점 정보는 아날로그 계기 또는 디지털 계기의 기준이미지 및 기준이미지상 특징점의 위치와 특징점의 개수 등을 포함할 수 있다. 본 발명의 추가적인 양상에서, 제어부(107) 및 데이터베이스(111)의 동작들은 서버(미도시)에 의해 수행될 수도 있다. 상기 서버(미도시)는 세관 서버를 포함할 수 있으나, 이에 한정되지는 않는다. 이러한 경우, 서버 및 이미지 분석 장치(또는 스마트 카메라)는 각각 송수신부를 포함하도록 구성될 수 있어서, 유무선 네트워크를 통해 서로 통신할 수 있다. 또한, 데이터베이스(111)는 거리 센서(113)를 통해 측정된 거리 데이터 및 화각 데이터, 그리고 촬영부(109)를 통해 촬영된 촬영 데이터를 저장할 수 있다. 본 발명의 추가적인 양상에서, 이러한 데이터들은 이미지 분석 장치(100)의 송수신부(미도시)를 통해 서버(세관 서버)로 전송될 수도 있다.
데이터베이스(111)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 본 발명의 추가적인 양상에서, 이미지 분석 장치(100)는 인터넷(internet) 상에서 상기 데이터베이스(111)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
추가적으로, 이러한 데이터베이스(111)는 이미지 분석 장치(100)의 외부에 존재할 수도 있다. 이러한 경우, 데이터베이스(111)는 이미지 분석 장치(100)와 통신가능하도록 구성될 수 있다.
촬영부(109)는 선택적 구성으로서, 피사체를 직접 촬영할 수 있도록 배치될 수 있다. 촬영부(109)에서 촬영된 화상 프레임(이미지)은 데이터베이스(111)에 저장되거나 네트워크를 통해 외부로 전송될 수 있다. 이러한 촬영부(109)는 사용되는 환경에 따라 2개 이상으로 구성될 수도 있다. 필요에 따라, 촬영부(109)는 이미지 분석 장치(100)의 외부에 배치되어 이미지 분석 장치(100)와 통신가능하도록 구성될 수 있다.
본 발명의 일 양상에 따라서, 거리 센서(113)는 피사체와 이미지 분석 장치(100) 사이의 거리를 측정하도록 구성될 수 있다. 본 발명의 일 양상에서, 이미지 분석 장치(100)는 복수의 거리 센서를 포함할 수 있어서, 피사체 상의 둘 이상의 지점으로부터 이미지 분석 장치(100)까지의 거리를 각각 측정할 수 있다. 그리고나서, 제어부(107)는 측정된 다수의 거리에 기초하여, 피사체의 틸트(tilt) 정보를 계산할 수 있다. 또한, 제어부(107)는 계산된 틸트 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지 및 원본 이미지 중 하나의 이미지를 나머지 이미지에 대응되도록 변형할 수 있다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(107) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 데이터베이스(111)에 저장되고, 제어부(107)에 의해 실행될 수 있다.
도 2는 본 발명의 일 실시예에 따라 이미지 분석 장치(100)에 의해 수행되는 이미지 분석 방법에 대한 순서도를 도시한다.
도 2에서 도시되는 바와 같이, 이미지 분석 장치(100)는 촬영될 피사체에 대한 식별정보를 입력받을 수 있다(201). 이러한 식별정보는 예를 들어, 피사체에 대한 브랜드 정보, 제품 정보, 상표(로고) 정보, CI 정보, 특징점 정보 등을 포함할 수 있지만 이들로 제한되지는 않는다. 본 발명의 일 양상에서, 특정한 상표 및 특정한 제품 등과 관련된 특징점의 위치 및 특징점의 개수와 같은 특징점 정보는 데이터베이스(111)에 사전저장될 수 있다. 또한 피사체가 아날로그 계기 또는 디지털 계기인 경우, 데이터베이스(111)에는 아날로그 계기 또는 디지털 계기에 대한 특징점 정보가 사전 저장될 수 있는데, 아날로그 계기 또는 디지털 계기에 대한 특징점 정보는 아날로그 계기 또는 디지털 계기의 기준이미지 및 기준이미지상 특징점의 위치와 특징점의 개수 등을 포함할 수 있다.
그리고 나서, 도 2에서는 도시되지 않았지만, 촬영된 피사체에 대한 이미지 데이터를 이미지 분석 장치(100)가 수신할 수 있다.
이미지 분석 장치(100) 내부의 촬영부(109)가 포함되어 있는 경우, 이러한 촬영된 이미지 데이터는 데이터베이스(111)에 저장될 수 있거나 또는 제어부(107)로 전달되어 출력부(103)에서 출력될 수도 있다. 즉, 이러한 경우 이미지 분석 장치(100)는 피사체를 직접 촬영할 수 있다.
본 발명의 일 양상에 따라서, 피사체의 촬영은 촬영부(109)와 피사체 간의 거리가 변함에 따라서, 출력되는 피사체의 이미지의 크기 또한 가변적일 수 있다. 따라서, 이러한 경우, 이미지 분석 장치(100)의 거리 센서(113)에 의해 계산된 피사체와 이미지 분석 장치(100) 간 거리를 기초로 하여, 제어부(107)는 피사체의 크기(예컨대, 원본 이미지의 크기)를 조절할 수 있다. 보다 구체적으로, 상기 거리 센서를 이용하여, 촬영부(109)와 피사체 간의 거리를 측정할 수 있으며, 이렇게 측정된 거리를 기초로 하여, 촬영된 이미지의 픽셀 하나의 크기가 어느 정도인지 결정될 수 있다. 이미지 분석 장치(100)는 이렇게 결정된 픽셀 하나의 크기를 기초로 하여 촬영된 이미지의 크기를 변경시킬 수도 있다.
본 발명의 추가적인 양상에서, 이미지 분석 장치(100)는 상이한 위치에 배치된 복수개의 거리 센서들을 포함할 수도 있다. 이러한 경우, 촬영 각도가 기울어지게 되더라도, 제 1 거리 센서와 제 2 거리 센서 간의 감지 거리에 있어서의 차이를 보정함으로써, 피사체와 촬영부(109) 간의 정확한 거리를 산출할 수 있다.
도 2로 되돌아가면, 예를 들어, 입력되는 식별정보가 특정 브랜드의 상표 정보인 경우, 데이터베이스(111)에 저장된 특정 상표의 특징점들을 예시하는 특징점들에 관한 정보가 출력될 수 있다. 또한 입력되는 식별정보가 아날로그 계기 또는 디지털 계기의 특징점 정보인 경우, 데이터베이스(111)에 저장된 아날로그 계기 또는 디지털 계기의 특징점 정보가 표시되어 출력될 수 있다. 이 아날로그 계기 또는 디지털 계기의 특징점 정보에는 아날로그 계기 또는 디지털 계기의 기준이미지 및 기준이미지에서 특징점의 위치와 특징점의 개수 등이 포함될 수 있다. 이러한 특징점들에 대한 정보는 예시정보로 지칭될 수 있으며, 이러한 예시정보는 촬영된 피사체에 대한 이미지와 함께 이미지 분석 장치(100)에서 출력될 수 있다(203). 즉, 촬영된 피사체에 대한 이미지와 함께, 촬영된 피사체에 대한 사전결정된 복수의 특징점들에 대한 정보가 출력될 수 있다.
본 발명의 추가적인 양상에서, 도 6과 관련되어 후술 될 바와 같이, 촬영된 피사체에 대한 이미지를 출력하는 것은, 상기 촬영된 피사체의 특정한 색채를 부각시키도록 상기 촬영된 피사체에 대한 이미지를 추가로 프로세싱하는 것을 포함할 수 있다. 따라서, 이러한 경우, 예를 들어, 세관 또는 통관 절차에서 주의나 경고 등을 표시하기 위해 장착되는 특정한 색의 태그가 촬영된 이미지 내에 있는 경우, 이러한 특정한 색만을 강조시키고 나머지 색채들은 무채색으로 표현하도록 이미지 프로세싱될 수도 있다.
그리고 나서, 도 2로 되돌아가면, 이미지 분석 장치(100)는 출력된 특징점들에 대한 정보(즉, 예시정보)를 기초로 하여 촬영된 피사체에 대한 출력된 이미지에서 적어도 2개의 특징점들을 선택할 수 있다(205). 다시 말하면, 이미지 분석 장치(100)는 예시정보를 기초로 하여 출력된 피사체 이미지에서 적어도 2개의 특징점들을 선택할 수 있다. 이때 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들의 선택은, 이미지 분석 장치(100)에 의해서 예시정보를 기초로 자동으로 이루어지거나 또는 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 입력을 사용자로부터 이미지 분석 장치(100)가 수신한 후 이루어질 수 있다. 평상시에는 상기 적어도 2개의 특징점들의 선택이 이미지 분석 장치(100)에 의해서 자동으로 이루어지다가, 사용자로부터 상기 적어도 2개의 특징점들에 대한 입력 수신이 있는 경우에 이에 기초하여 이루어질 수 있다.
특징점들이 선택된 후, 이미지 분석 장치(100)는 선택된 특징점들 각각과 대응되는, 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출할 수 있다(207). 전술한 바와 같이, 특정한 피사체의 식별정보에 따라서, 이에 대한 특징점들의 위치, 특징점들의 개수, 원본 이미지, 원본 이미지에서의 특징점들의 개수, 원본 이미지에서의 특징점들의 위치 등이 데이터베이스(111)에 저장될 수 있다. 따라서, 촬영된 이미지에 대한 특징점들이 입력되는 경우, 이에 대응되는 원본 이미지에서의 특징점들이 데이터베이스(111)로부터 추출될 수 있다. 본 발명의 추가적인 양상에서, 원본 이미지는 반투명의 형상으로 처리된 후 상기 촬영된 피사체에 대한 이미지와 겹쳐져서 출력부(103)에 의해 출력될 수 있다. 즉 원본 이미지를 반투명하게 처리하고, 상기 반투명하게 처리된 원본 이미지상에 상기 촬영된 피사체에 대한 이미지를 겹쳐서 출력부(103)에 출력할 수 있다.
그리고 나서, 이미지 분석 장치(100)는 선택된 특징점들과 추출된 특징점들을 기초로 하여, 촬영된 이미지와 원본 이미지를 서로 비교할 수 있다(209). 본 발명의 일 양상에서, 선택된 특징점들 간의 거리와 추출된 특징점들 간의 거리를 기초로 하여, 촬영된 이미지와 원본 이미지가 비교될 수 있다.
즉, 선택된 특징점들 및 추출된 특징점들이 각각 2개인 경우, 선택된 특징점들 간의 거리와 추출된 특징점들 간의 거리를 기초로 하여 촬영된 이미지와 원본 이미지의 일치율이 계산될 수 있다. 이때 촬영된 이미지와 원본 이미지의 일치율은 상기 선택된 특징점들 간의 거리와 추출된 특징점들 간의 거리의 비율로 결정될 수 있다. 이렇게 촬영된 이미지와 원본 이미지의 일치율이 설정된 일치율 이상이 경우에 이미지 분석 장치(100)는 피사체가 진품인 것으로 판정할 수 있다.
또한 이렇게 촬영된 이미지와 원본 이미지의 일치율을 이용하여, 이미지 분석 장치(100)는 피사체의 소모율 또는 피사체의 사용기간 또는 피사체의 사용될 수 있는 가용기간을 계산할 수 있다. 이를 위해서 데이터베이스(111)에는 촬영된 이미지와 원본 이미지의 일치율(의 값)에 따라 상이한 피사체의 소모율 또는 피사체의 사용기간 또는 피사체의 사용될 수 있는 가용기간에 대한 정보가 저장되어 있어야 한다.
본 발명의 추가적인 양상에서, 이미지 분석 장치(100)는 선택된 특징점들과 추출된 특징점들을 비교하여, 촬영된 이미지의 틸트(tilt)를 계산할 수도 있다. 그리고나서, 이미지 분석 장치(100)는 계산된 틸트를 기초로 하여, 촬영된 이미지 및 원본 이미지 중 하나의 이미지를 나머지 하나의 이미지에 대응되도록 변형시킬 수 있다. 이러한 방식으로, 촬영의 왜곡으로 인한 일치도의 신뢰도 손상 가능성을 감소시킬 수 있다.
도 3은 일 예시에 따른 이미지 분석 장치(100)에서의 이미지 비교 방식을 도시한다.
촬영된 이미지(301)는 이미지 분석 장치(100)에서 출력될 수 있다. 도 3에서 도시되는 바와 같이, 이미지 분석 장치(100)는 촬영된 이미지(301)와 함께 출력된 예시정보(미도시)를 기초로 하여 촬영된 이미지(301) 상에서의 특징점들(예컨대, 손가락 모양의 커서)을 선택할 수 있다. 도 3에서 도시되는 피사체의 경우, 특징점들이 4개로 사전결정될 수 있다.
특징점들이 선택된 후, 선택된 특징점들과 대응되는 원본 이미지(303)에서의 특징점들이 추출될 수 있다. 본 발명의 일 양상에서, 원본 이미지(303) 및 원본 이미지에 대한 특징점들은 이미지 분석 장치(100)의 출력부(103)에서 출력되지는 않고, 데이터베이스(111)와 제어부(107) 간의 통신을 통해 처리될 수 있다.
도 3의 예시의 경우, 특징점들은 4개가 존재하며, 4개의 특징점들은 총 6개의 특징점 쌍들을 가질 수 있다. 따라서, 촬영된 이미지와 원본 이미지에서 이러한 6개의 특징점 쌍들 각각의 특징점들 간의 거리가 계산되어 각각의 쌍 단위로 특징점들 간의 거리가 수치화되어 비교될 수 있다.
도 4는 다른 예시에 따른 이미지 분석 장치(100)에서의 이미지 비교 방식을 도시한다.
촬영된 이미지(401)는 이미지 분석 장치(100)에서 출력될 수 있다. 도 4에서 도시되는 바와 같이, 이미지 분석 장치(100)는 촬영된 이미지(401)와 함께 출력된 예시정보(미도시)를 기초로 하여 촬영된 이미지(401) 상에서의 특징점들(예컨대, 동그라미 모양의 커서로 표시됨)을 선택할 수 있다. 도 4에서 도시되는 피사체(예컨대, 아날로그 압력 계기)의 경우, 특징점들이 2(a, b)개로 사전결정될 수 있다.
특징점들이 선택된 후, 선택된 특징점들과 대응되는 원본 이미지(403)(아날로그 계기의 기준이미지)에서의 특징점들이 추출될 수 있다. 본 발명의 일 양상에서, 원본 이미지(403) 및 원본 이미지에 대한 특징점들은 이미지 분석 장치(100)의 출력부(103)에서 출력되지는 않고, 데이터베이스(111)와 제어부(107) 간의 통신을 통해 처리될 수 있다.
도 4의 예시의 경우, 특징점들은 바늘 상에 2개의 a(변화점) 및 b(기준점)가 존재하며, 특징점들 중 a(변화점)의 위치 변화로 아날로그 압력 계기에서 눈금 값(예컨대, 압력 값)을 파악할 수 있게 된다. 이를 위해서 특징점들 a(변화점)의 위치에 상응하는 눈금 값(압력 값)이 데이터베이스(111)에 저장되어 있어야 한다.
도 5는 또 다른 예시에 따른 이미지 분석 장치(100)에서의 이미지 비교 방식을 도시한다.
촬영된 이미지(410)는 이미지 분석 장치(100)에서 출력될 수 있다. 도 5에서 도시되는 바와 같이, 이미지 분석 장치(100)는 촬영된 이미지(410)와 함께 출력된 예시정보(미도시)를 기초로 하여 촬영된 이미지(410) 상에서의 특징점들(예컨대, 동그라미 모양의 커서로 표시됨)을 선택할 수 있다. 도 5에서 도시되는 피사체(예컨대, 디지털 압력 계기)의 경우, 특징점들이 4(c, d, e, f)개로 사전결정될 수 있다. 이때 e와 f는 측정압력을 표시하기 위한 측정압력영역(415)을 생성하기 위한 특징점이며, c와 d는 측정대상의 최고압력을 표시하기 위한 측정 최고 압력영역(413)을 생성하기 위한 특징점이다. 이와 같이 2점의 좌표를 알면 측정 최고 압력영역(413) 및 측정압력영역(415)을 파악할 수 있게 된다.
특징점들이 선택된 후, 선택된 특징점들과 대응되는 원본 이미지(420)(디지털 압력 계기의 기준이미지)에서의 특징점들이 추출될 수 있다. 본 발명의 일 양상에서, 원본 이미지(420) 및 원본 이미지에 대한 특징점들은 이미지 분석 장치(100)의 출력부(103)에서 출력되지는 않고, 데이터베이스(111)와 제어부(107) 간의 통신을 통해 처리될 수 있다.
도 5의 예시의 경우, 특징점들은 측정 최고 압력영역(423)을 생성하기 위한 c와 d, 측정압력영역(425)을 생성하기 위한 e와 f가 존재한다. 측정 최고 압력영역(423) 및 측정압력영역(425)은 각각 측정 최고 압력 값 및 측정압력 값이 포함된 영역으로, 이미지 처리(image processing)를 통해서 파악될 수 있다. 이러한 이미지 처리 기술은 공지 기술이므로, 이에 대한 설명은 생략하기로 한다. 이를 위해서 측정 최고 압력의 초기값 및 측정압력의 초기값이 데이터베이스(111)에 저장되어 있어야 하며, 도 5의 예시의 경우 측정 최고 압력의 초기값이 0.00[bar], 측정입력의 초기값이 0.00[bar]로 되어 있다. 이는 예시에 불과하며 이에 한정되지 않는다.
본 발명의 추가적인 양상에서, 단일 거리 측정 센서를 통해 원본 이미지와 촬영된 이미지 간의 이미지 사이즈가 서로 매칭될 수 있다. 보다 구체적으로, 단일 거리 측정 센서를 이용하여 원본 이미지와 촬영된 이미지의 크기를 일치시킨 후, 촬영된 이미지와 원본 이미지가 서로 비교될 수 있다. 즉, 촬영된 이미지의 적어도 2개 이상의 특징점들과 원본 이미지의 적어도 2개 이상의 특징점들을 비교하여, 각 지점들 간의 거리측정(디스플레이상) 값과 각 지점들 간의 각도값을 통해, 피사체의 틸트 정보를 보정할 수 있거나 또는 (틸트 정보의 보정이 필요없는 경우) 원본 이미지와 촬영된 이미지가 비교될 수 있다. 또한, 이러한 특징점들 간의 비교는 촬영된 이미지와 원본 이미지 각각을 화소(pixel)단위로 좌표화 시켜 화소점 블럭들을 구성하고, 구성된 화소 블록 단위로 양 이미지들을 비교하는 방식으로 수행될 수 있다. 즉, 미리정해진 화소 블록 단위로 원본 이미지와 촬영된 이미지 간의 이미지 패턴(이미지의 색깔, 위치, 크기 등)의 차이점들이 상세하게 비교될 수 있다. 본 발명의 일 양상에서, 전술한 동작들은 이미지 분석 장치(100)의 제어부(107)에 의해 수행될 수 있다.
따라서, 전술한 비교 방식을 통해, 원본 이미지와 촬영된 이미지 간의 일치율이 계산될 수 있다. 나아가, 이렇게 계산된 일치율을 기초로 하여, 촬영된 피사체의 진품/가품 여부, 촬영된 피사체의 소모율, 촬영된 피사체의 사용될 수 있는 기간 등이 결정될 수 있다.
본 발명의 추가적인 양상에서, 피사체의 특징점들을 선택하는데 있어서 미리결정된 특징점들의 위치가 선택되는 경우, 선택된 위치가 확대되어 디스플레이되면서 보다 정확한 특징점들의 위치를 선택 또는 보정할 수 있도록 허용할 수 있다. 또는, 미리 결정된 특징점들의 위치가 선택되는 경우, 선택된 위치가 확대되어 디스플레이되면서 보다 정확한 특징점들의 위치를 보정할 수 있도록 허용할 수 있다. 일례로, 이러한 보정은 미리 결정된 특징점들의 위치에 기반하여 이미지 분석 장치(100)의 제어부(107)에 의해 자동으로 수행될 수도 있다.
도 6은 본 발명의 추가적인 실시예에 따른 예시적인 이미지 프로세싱 방식을 도시한다.
도 6에서 도시되는 바와 같이, 특정한 타겟(target) 색채를 띄는 피사체가 촬영되는 경우, 이미지 분석 장치(100)는 해당 타겟 색채를 제외한 다른 색채를 무채색으로 이미지 프로세싱하거나, 또는 해당 타겟 색채를 지는 피사체(예를 들어, 태그)가 보다 더 잘 표시되도록 이미지 프로세싱할 수 있다. 도 6에서는 타겟 색체를 띄는 피사체는 도면부호 600로 빗금으로 표시되어 있는데, 이 빗금 친 부분은 타겟 색체를 나타내는 것으로서 노란색일 수 있으나, 이에 한정되지 않는다. 본 발명의 추가적인 양상에서, 도 6에서 도시되는 카메라(또는 스마트 카메라)는 이미지 분석 장치(100)와 대응될 수 있다.
따라서, 세관 또는 통관 절차 등에서 주의나 경고 등의 메시지를 포함하는 특정한 타겟 색채를 갖는 태그가 강조되어 출력될 수 있기 때문에, 신속하고 효율적인 방식으로 특정한 제품에 대한 타겟팅이 가능해질 수 있다. 나아가, 특정한 색채를 갖는 태그가 장착된 피사체에 대해서는 다른 피사체와는 다른 방식으로 인증 절차 등이 수행될 수 있다. 그러므로, 피사체를 인증 또는 검증하는데 있어서 눈속임이나 오인식을 용이하게 배제할 수 있다.
도 7은 본 발명의 추가적인 실시예에 따라 예시적인 이미지 프로세싱에 의한 이미지 비교 방식을 도시한다.
본 발명의 일 양상에 따라서, 화소점 블록들에 기초하여 원본 이미지(503)와 촬영된 이미지(501)가 비교될 수 있다. 도 7에서 도시되는 바와 같이, (단일) 거리 측정 센서를 통해 원본 이미지와 촬영된 이미지의 크기를 일치시킨 후에, 25화소 단위의 화소점 블록이 이미지와 함께 디스플레이될 수 있다.
도 7은 도 3의 이미지들의 좌측 상단의 부분을 확대한 이미지들을 도시한다. 도 7에서 도시되는 바와 같이, 화소 블록 단위의 이미지 비교를 통해 원본 이미지와 촬영된 이미지 간의 일치도가 수치화되어 계산될 수 있다. 본 발명의 일 양상에서, 도 7에서 도시되는 것처럼, 촬영된 이미지(501)와 원본 이미지(503)의 대응되는 화소블록들(507 및 509, 그리고 511 및 513)이 서로 비교될 수 있다. 촬영된 이미지(501)의 특정 부분들(507 및 513)은 원본 이미지(501)의 대응되는 부분들(509 및 511)과 비교되었을 때, 선의 굵기 및 선의 위치에 있어서의 차이점이 존재하기 때문에, 이를 기초로 하여 양 이미지들의 일치도가 계산될 수 있다.
추가적으로, 도 6에서는 25화소 단위의 화소점 블록을 예로 들었지만, 다양한 형태의 화소점 블록들이 구성될 수 있다는 점 또한 자명할 것이다.
제시된 실시예들에 대한 설명은 임의의 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.
본 발명은 촬영 이미지와 원본 이미지를 분석하는 기술에 이용될 수 있다.

Claims (25)

  1. 이미지 분석 장치에 의해 수행되는 이미지 분석 방법으로서,
    피사체와 상기 이미지 분석 장치 사이의 거리를 측정하는 단계;
    촬영된 피사체에 대한 이미지를 출력하는 단계;
    상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 단계;
    상기 측정된 거리에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하는 단계;
    상기 계산된 상대크기를 기초로 하여, 상기 선택된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하는 단계; 및
    상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여, 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하는 단계를 포함하며,
    상기 촬영된 피사체에 대한 이미지는, 상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보와 함께 출력되는, 이미지 분석 방법.
  2. 제 1 항에 있어서,
    상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들의 선택은, 자동으로 이루어지거나 또는 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 입력을 수신한 후 이루어지는, 이미지 분석 방법.
  3. 제 1 항에 있어서,
    상기 비교를 기초로 하여, 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지의 일치율을 계산하는 단계를 더 포함하는, 이미지 분석 방법.
  4. 제 3 항에 있어서,
    상기 계산된 일치율을 기초로 하여 상기 피사체의 진품 여부를 판정하는 단계를 더 포함하는, 이미지 분석 방법.
  5. 제 3 항에 있어서,
    상기 계산된 일치율을 기초로 하여 상기 피사체의 소모율을 계산하는 단계를 더 포함하는, 이미지 분석 방법.
  6. 제 1 항에 있어서,
    상기 촬영된 피사체에 대한 이미지가 아날로그 계기의 이미지인 경우, 상기 비교를 기초로 하여, 상기 아날로그 계기의 눈금 값을 측정하는 단계를 더 포함하는, 이미지 분석 방법.
  7. 제 1 항에 있어서,
    상기 촬영된 피사체에 대한 이미지가 디지털 계기의 이미지인 경우, 상기 비교를 기초로 하여, 상기 디지털 계기의 이미지에 표시된 숫자를 추출하는 단계를 더 포함하는, 이미지 분석 방법.
  8. 제 1 항에 있어서,
    상기 비교하는 단계는,
    상기 선택된 특징점들 간의 거리와 상기 추출된 특징점들 간의 거리를 기초로 하여, 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하는 단계를 포함하는, 이미지 분석 방법.
  9. 제 1 항에 있어서,
    상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보는, 상기 피사체에 대한 식별 정보를 기초로 하여 생성되는, 이미지 분석 방법.
  10. 제 1 항에 있어서,
    상기 비교하는 단계는,
    상기 피사체 상의 둘 이상의 지점으로부터 상기 이미지 분석 장치까지의 거리를 각각 측정하는 단계;
    상기 측정된 다수의 거리에 기초하여, 상기 피사체의 틸트(tilt) 정보를 계산하는 단계; 및
    상기 계산된 틸트 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지 및 상기 원본 이미지 중 하나의 이미지를 나머지 하나의 이미지에 대응되도록 변형하는 단계를 포함하는, 이미지 분석 방법.
  11. 제 1 항에 있어서,
    상기 촬영된 피사체에 대한 이미지를 출력하는 단계는,
    상기 촬영된 피사체의 특정한 색채를 부각시키도록 상기 촬영된 피사체에 대한 이미지를 추가로 프로세싱하는 단계를 포함하는, 이미지 분석 방법.
  12. 제 1 항에 있어서,
    상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여, 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하는 단계는,
    상기 원본 이미지를 반투명하게 처리하는 단계; 와
    상기 반투명하게 처리된 원본 이미지상에 상기 촬영된 피사체에 대한 이미지를 겹쳐서 비교하는 단계를 포함하는, 이미지 분석 방법.
  13. 이미지 분석 장치로서,
    피사체와 상기 이미지 분석 장치 사이의 거리를 측정하도록 구성되는 거리 센서;
    촬영된 피사체에 대한 이미지를 출력하도록 구성되는 출력부;
    상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 선택부; 및
    상기 측정된 거리에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하고, 상기 계산된 상대크기를 기초로 하여, 상기 선택된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하고, 그리고 상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하도록 구성되는 제어부를 포함하며,
    상기 출력부는, 상기 촬영된 피사체에 대한 이미지와 함께 상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보를 출력하도록 추가로 구성되는, 이미지 분석 장치.
  14. 제 13 항에 있어서,
    상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들의 선택은, 자동으로 이루어지거나 또는 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 입력을 수신한 후 이루어지는, 이미지 분석 장치.
  15. 제 13 항에 있어서,
    상기 제어부는,
    상기 비교를 기초로 하여, 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지의 일치율을 생성하도록 추가로 구성되는, 이미지 분석 장치.
  16. 제 13 항에 있어서,
    상기 제어부는,
    상기 촬영된 피사체에 대한 이미지가 아날로그 계기의 이미지인 경우, 상기 비교를 기초로 하여, 상기 아날로그 계기의 눈금 값을 측정하는, 이미지 분석 장치.
  17. 제 13 항에 있어서,
    상기 제어부는,
    상기 원본 이미지를 반투명하게 처리하고, 상기 반투명하게 처리된 원본 이미지상에 상기 촬영된 피사체에 대한 이미지를 겹쳐서 비교하는, 이미지 분석 장치.
  18. 제 13 항에 있어서,
    상기 출력부는,
    상기 촬영된 피사체의 특정한 색채를 부각시켜 출력하는, 이미지 분석 장치.
  19. 컴퓨터로 하여금 이하의 동작들을 수행하도록 하기 위한 명령들이 저장된 컴퓨터-판독가능 매체로서,
    상기 동작들은:
    피사체와 이미지 분석 장치 사이의 거리를 측정하는 동작;
    촬영된 피사체에 대한 이미지를 출력하는 동작;
    상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 동작;
    상기 측정된 거리에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하는 동작;
    상기 계산된 상대크기를 기초로 하여, 상기 선택된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하는 동작; 및
    상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하는 동작을 포함하며,
    상기 촬영된 피사체에 대한 이미지는, 상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보와 함께 출력되는, 컴퓨터-판독가능 매체.
  20. 제 19 항에 있어서,
    상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들의 선택은, 자동으로 이루어지거나 또는 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 입력을 수신한 후 이루어지는, 컴퓨터-판독가능 매체.
  21. 제 19 항에 있어서,
    상기 선택된 특징점들과 상기 추출된 특징점들을 기초로 하여 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교는, 상기 원본 이미지를 반투명하게 처리하고, 상기 반투명하게 처리된 원본 이미지상에 상기 촬영된 피사체에 대한 이미지를 겹쳐서 이루어지는, 컴퓨터-판독가능 매체.
  22. 제 19 항에 있어서,
    상기 촬영된 피사체에 대한 이미지의 출력은, 상기 촬영된 피사체의 특정한 색채를 부각시켜 이루어지는, 컴퓨터-판독가능 매체.
  23. 세관 검사 시스템으로서,
    피사체의 진품 여부를 판단하기 위한 스마트 카메라; 및
    상기 스마트 카메라와 유무선 네트워크를 통해 통신하기 위한 세관 서버를 포함하며,
    상기 스마트 카메라는:
    피사체와 상기 스마트 카메라 사이의 거리를 측정하도록 구성되는 거리 센서;
    촬영된 피사체에 대한 이미지를 출력하도록 구성되는 출력부;
    상기 출력된 특징점들에 대한 정보를 기초로 하여 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 선택부; 및
    상기 세관 서버와 통신하도록 구성되는 송수신부;를 포함하며,
    상기 출력부는, 상기 촬영된 피사체에 대한 이미지와 함께 상기 촬영된 피사체에 대한 사전 결정된 적어도 2개의 특징점들에 대한 정보를 출력하도록 추가로 구성되며,
    상기 송수신부는 상기 측정된 거리 정보 및 상기 선택된 특징점들의 정보를 상기 세관 서버로 송신하도록 추가로 구성되며,
    상기 세관 서버는:
    상기 스마트 카메라로부터 수신된 거리 정보에 기초하여 상기 피사체에 대한 미리 저장된 원본 이미지의 상대크기를 계산하고, 상기 계산된 상대크기를 기초로 하여, 상기 스마트 카메라로부터 수신된 적어도 2개의 특징점들과 대응되는, 상기 피사체에 대한 미리 저장된 원본 이미지에서의 특징점들을 추출하고, 상기 수신된 특징점들과 상기 추출된 특징점들을 기초로 하여 상기 촬영된 피사체에 대한 이미지와 상기 원본 이미지를 비교하고, 그리고 상기 비교에 의한 비교 데이터를 상기 스마트 카메라로 송신하도록 구성되는, 세관 검사 시스템.
  24. 제 23 항에 있어서,
    상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들의 선택은, 자동으로 이루어지거나 또는 상기 촬영된 피사체에 대한 이미지에서 적어도 2개의 특징점들을 선택하는 입력을 수신한 후 이루어지는, 세관 검사 시스템.
  25. 제 23 항에 있어서,
    상기 출력부는, 상기 촬영된 피사체의 특정한 색채를 부각시켜 출력하는, 세관 검사 시스템.
PCT/KR2015/013585 2014-12-31 2015-12-11 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치 WO2016108472A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580052082.7A CN107004263B (zh) 2014-12-31 2015-12-11 图像分析方法、装置及计算机可读装置
EP15875566.0A EP3242269A4 (en) 2014-12-31 2015-12-11 Image analysis method and apparatus, and computer readable device
JP2017516753A JP2018508052A (ja) 2014-12-31 2015-12-11 画像分析方法、装置、及びコンピュータで読み取り可能なデバイス
US15/514,653 US11127149B2 (en) 2014-12-31 2015-12-11 Image analysis method and apparatus, and computer readable device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140194755A KR101531530B1 (ko) 2014-12-31 2014-12-31 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치
KR10-2014-0194755 2014-12-31

Publications (1)

Publication Number Publication Date
WO2016108472A1 true WO2016108472A1 (ko) 2016-07-07

Family

ID=53519814

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/013585 WO2016108472A1 (ko) 2014-12-31 2015-12-11 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치

Country Status (6)

Country Link
US (1) US11127149B2 (ko)
EP (1) EP3242269A4 (ko)
JP (1) JP2018508052A (ko)
KR (1) KR101531530B1 (ko)
CN (1) CN107004263B (ko)
WO (1) WO2016108472A1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6734538B2 (ja) * 2016-10-06 2020-08-05 富士通株式会社 評価プログラム、評価方法、および評価装置
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
KR102043357B1 (ko) * 2017-10-18 2019-11-12 오스템임플란트 주식회사 영상 확대율 변경 방법 및 장치
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
JP2019086365A (ja) * 2017-11-06 2019-06-06 株式会社日立製作所 位置推定システム
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
CN109146517A (zh) * 2018-08-02 2019-01-04 惠龙 一种基于在线字典学习数据匹配模型的假货数据识别方法
CN111259912B (zh) * 2020-01-13 2023-05-12 金陵科技学院 一种基于ae-svm变电站巡检机器人的仪表图像识别方法
JP2022526473A (ja) * 2020-03-11 2022-05-25 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 情報を取得するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
CN111419414A (zh) * 2020-03-24 2020-07-17 德阳市人民医院 一种清理创口用护理盒及控制方法
CN111869532A (zh) * 2020-07-16 2020-11-03 湖南人文科技学院 一种兰花自动化培植系统及培植方法
CN112043216A (zh) * 2020-08-28 2020-12-08 盐城工学院 一种智能机械清洁环保控制系统及控制方法
KR102289817B1 (ko) * 2021-01-05 2021-08-17 주식회사 아티팩츠 작품의 진품 검증 및 관리 제공 시스템 및 방법
KR102636291B1 (ko) * 2023-08-30 2024-02-14 제너셈(주) 기준점을 이용한 트레이 인식 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323667A (ja) * 2007-07-30 2007-12-13 Fujitsu Ltd 撮影装置
JP2010205121A (ja) * 2009-03-05 2010-09-16 Sony Ericsson Mobile Communications Ab 情報処理装置および携帯端末
KR20120013878A (ko) * 2011-03-14 2012-02-15 이정무 영상 검색엔진
JP2013222406A (ja) * 2012-04-18 2013-10-28 Setsuo Kimura 画像検索システム、画像検索装置およびコンピュータプログラム
JP2014027355A (ja) * 2012-07-24 2014-02-06 Casio Comput Co Ltd 複数画像を利用したオブジェクト検索装置、方法、およびプログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870140A (en) * 1996-09-25 1999-02-09 Harbour Management Services Limited System for remote meter viewing and reporting
EP1968012A3 (en) * 1999-11-16 2008-12-03 FUJIFILM Corporation Image processing apparatus, image processing method and recording medium
US20020172419A1 (en) * 2001-05-15 2002-11-21 Qian Lin Image enhancement using face detection
JP4977339B2 (ja) * 2005-07-11 2012-07-18 株式会社トプコン 地理データ収集装置
JP4196302B2 (ja) * 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4367475B2 (ja) * 2006-10-06 2009-11-18 アイシン精機株式会社 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP4362538B2 (ja) * 2007-06-06 2009-11-11 シャープ株式会社 画像処理装置、画像形成装置、画像送信装置、画像読取装置、画像処理システム、画像処理方法、画像処理プログラムおよびその記録媒体
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN101340551A (zh) * 2007-07-05 2009-01-07 韩庆军 一种多媒体数字签名的方法
JP5173287B2 (ja) * 2007-07-06 2013-04-03 キヤノン株式会社 番組記録装置及びその制御方法
US8594365B2 (en) * 2008-01-30 2013-11-26 Cypress Envirosystems, Inc. Gauge monitoring methods, devices and systems
US8259998B2 (en) * 2008-09-30 2012-09-04 Mazda Motor Corporation Image processing device for vehicle
JP5844160B2 (ja) * 2009-02-05 2016-01-13 ディー.アイ.アール.テクノロジーズ (ディテクション アイアール)リミテッドD.I.R.Technologies(Detection Ir) Ltd. 医薬品の品質を判断するための方法及びシステム
US20140347482A1 (en) * 2009-02-20 2014-11-27 Appareo Systems, Llc Optical image monitoring system and method for unmanned aerial vehicles
US8471889B1 (en) * 2010-03-11 2013-06-25 Sprint Communications Company L.P. Adjusting an image for video conference display
JP2012042348A (ja) * 2010-08-19 2012-03-01 Canon Inc 断層画像表示装置およびその制御方法
US8483427B2 (en) * 2010-09-28 2013-07-09 Futurewei Technologies, Inc. System and method for image authentication
WO2013019790A2 (en) * 2011-08-01 2013-02-07 Greenwave Reality, Pte Ltd. Multiple and interchangeable meter reading probes
JP2013161261A (ja) * 2012-02-06 2013-08-19 Hitachi Consumer Electronics Co Ltd 情報処理端末、その認証制御方法、及び認証制御プログラム
WO2014064870A1 (ja) * 2012-10-22 2014-05-01 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
CN102999750B (zh) * 2012-12-31 2015-08-12 清华大学 一种去除背景干扰的现场指纹增强方法
US9154773B2 (en) * 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
JP6063315B2 (ja) * 2013-03-26 2017-01-18 富士フイルム株式会社 真贋判定システム,特徴点登録装置およびその動作制御方法,ならびに照合判定装置およびその動作制御方法
US10102616B2 (en) * 2014-01-28 2018-10-16 Ent. Services Development Corporation Lp Method and system for surface wear determination
US9619706B2 (en) * 2014-03-28 2017-04-11 Enceladus Ip Holdings Llc Security scheme for authenticating object origins
CN104217221A (zh) * 2014-08-27 2014-12-17 重庆大学 基于纹理特征的书画作品检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323667A (ja) * 2007-07-30 2007-12-13 Fujitsu Ltd 撮影装置
JP2010205121A (ja) * 2009-03-05 2010-09-16 Sony Ericsson Mobile Communications Ab 情報処理装置および携帯端末
KR20120013878A (ko) * 2011-03-14 2012-02-15 이정무 영상 검색엔진
JP2013222406A (ja) * 2012-04-18 2013-10-28 Setsuo Kimura 画像検索システム、画像検索装置およびコンピュータプログラム
JP2014027355A (ja) * 2012-07-24 2014-02-06 Casio Comput Co Ltd 複数画像を利用したオブジェクト検索装置、方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3242269A4 *

Also Published As

Publication number Publication date
EP3242269A4 (en) 2019-01-02
CN107004263A (zh) 2017-08-01
KR101531530B1 (ko) 2015-06-25
JP2018508052A (ja) 2018-03-22
CN107004263B (zh) 2021-04-09
EP3242269A1 (en) 2017-11-08
US11127149B2 (en) 2021-09-21
US20170213356A1 (en) 2017-07-27

Similar Documents

Publication Publication Date Title
WO2016108472A1 (ko) 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치
CN110766033B (zh) 图像处理方法、装置、电子设备及存储介质
US20190205622A1 (en) Method and device of detecting picture type
WO2019174009A1 (zh) 一种机房管理方法及动环系统
CN111898538B (zh) 证件鉴伪方法、装置、电子设备及存储介质
WO2016060453A1 (ko) 차량 번호 입력 장치 및 그 방법
CN109982037A (zh) 智能巡检装置
CN111724496A (zh) 一种考勤方法、考勤装置及计算机可读存储介质
CN113962672B (zh) 信息查验系统、移动终端、查验机具和信息查验方法
US9613328B2 (en) Workflow monitoring and analysis system and method thereof
JPWO2018100669A1 (ja) 個体識別装置
KR20150063703A (ko) 증강현실 기반 선박의 블록 검사 방법
WO2016143976A1 (ko) 작업 현장 영상 데이터 내의 작업자 인식 방법
JP5158162B2 (ja) 拡張現実表示システム、拡張現実表示方法および拡張現実表示プログラム
JP6987469B2 (ja) 検査管理システム
JP2021056741A (ja) 検査管理システム
KR102071128B1 (ko) 영상처리를 이용한 실시간 열차 상태정보 추출 방법 및 시스템
CN209946948U (zh) 一种pc构件的智能复检设备
CN114066799A (zh) 检测系统和检测方法
JP2022112342A (ja) 機器工事確認システム、及び機器工事確認方法
US11232530B2 (en) Inspection assistance device, inspection assistance method, and recording medium
CN117058689B (zh) 用于化工生产的离线检测数据处理方法
CN116524160B (zh) 基于ar识别的产品一致性辅助核实系统及方法
WO2017003061A1 (ko) 상품 매장 진위 여부 판단 방법 및 이를 실행하는 단말 장치
JP7426181B2 (ja) 検査管理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15875566

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017516753

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015875566

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15514653

Country of ref document: US

Ref document number: 2015875566

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE