WO2021251651A1 - 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법 - Google Patents

회전 대칭성 판단이 가능한 영상 분석 장치 및 방법 Download PDF

Info

Publication number
WO2021251651A1
WO2021251651A1 PCT/KR2021/006466 KR2021006466W WO2021251651A1 WO 2021251651 A1 WO2021251651 A1 WO 2021251651A1 KR 2021006466 W KR2021006466 W KR 2021006466W WO 2021251651 A1 WO2021251651 A1 WO 2021251651A1
Authority
WO
WIPO (PCT)
Prior art keywords
rotational symmetry
image
symmetry angle
angle
binary image
Prior art date
Application number
PCT/KR2021/006466
Other languages
English (en)
French (fr)
Inventor
황진벽
최규형
윤지한
Original Assignee
주식회사 플로이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 플로이드 filed Critical 주식회사 플로이드
Publication of WO2021251651A1 publication Critical patent/WO2021251651A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators

Definitions

  • the present invention relates to an apparatus and method for analyzing an image, and more particularly, to an apparatus and method for analyzing an image for determining whether an object included in an image has rotational symmetry.
  • a conventional image analysis apparatus learns characteristic information on a source object included in a selection area selected by a user from among at least one object (hereinafter referred to as a source object) included in input source image data.
  • the image analysis apparatus provides information about a plurality of previously learned source objects. It is determined whether a source object matching the target object exists with reference to the characteristic information.
  • the image analysis apparatus provides position information (coordinate information) on the target object matching the source object and angle information indicating whether the target object is rotated based on the source object.
  • the conventional image analysis apparatus has a problem of estimating very different rotation angles for an object having rotational symmetry.
  • the image analysis apparatus estimates the rotational angle of the circular-shaped target object based on the corresponding source object.
  • the image analysis apparatus should determine whether rotational symmetry with respect to the source object is present. That is, the image analysis apparatus may determine whether rotational symmetry with respect to the source object by rotating the source object from 1 degree to 360 degrees.
  • the image analysis apparatus may determine whether rotational symmetry with respect to the source object by rotating the source object from 1 degree to 360 degrees.
  • the present invention has been devised in response to the above needs, and an object of the present invention is to determine whether rotational symmetry of at least one object included in image data is symmetric.
  • an object of the present invention is to quickly determine whether rotational symmetry with respect to at least one object included in image data is high.
  • An image analysis method for achieving the above object includes the steps of receiving a video image, receiving a user command for at least one object included in the video image, and responding to the user command. Acquiring a binary image of an object included in a corresponding selection area, and rotating the binary image at an angle corresponding to a preset condition based on a reference point for the binary image to match the rotated binary image and determining whether the object included in the selection area is rotationally symmetric by determining .
  • the acquiring of the binary image includes: detecting edge information of an object included in the selection area using an edge detection algorithm; generating an edge image of the object based on the detected edge information; Generating a morphology image using a morphology operation algorithm, generating a contour image in which edge regions of the morphology image are connected using a connection element algorithm, and the contour based on edge information of the generated contour image It may include generating a binary image filling the interior of the image.
  • the determining includes: obtaining a first current rotational symmetry angle of the binary image by using a first previous rotational symmetry angle and an nth prime among a set of predefined prime numbers, the first current rotational symmetry angle and Comparing a set minimum rotational symmetry angle, and when the first current rotational symmetry angle is smaller than the minimum rotational symmetry angle, determining the first previous rotational symmetry angle as a final rotational symmetry angle.
  • the determining step if the first current rotational symmetry angle is greater than the minimum rotational symmetry angle, rotating the binary image by the first current rotational symmetry angle around the reference point, the rotated image determining whether the binary image matches or not, and if the two images match as a result of the determination, the first current rotational symmetry angle is determined as a second previous rotational symmetry angle, and the second previous rotational symmetry angle and the nth prime number and obtaining a second current rotational symmetry angle using It can be determined by the rotational symmetry angle.
  • the second rotational symmetry angle and the n+1th prime among the set of prime numbers are used to obtain the second The current rotational symmetry angle can be obtained.
  • first and second current rotational symmetry angles may be values obtained by dividing the first or second previous rotational symmetry angles by the nth prime or n+1th prime.
  • the predefined set of prime numbers includes 2,3,5,7,11,13,17,19,23 and 29 prime numbers, wherein the minimum rotational symmetry angle is 15 degrees, and the first previous The rotational symmetry angle may be 360 degrees.
  • the determining step when the final rotational symmetry value is 360 degrees, it is determined that the object has no rotational symmetry, and when the final rotational symmetry value is 0 degrees, it can be determined that the object is circular.
  • the reference point for the binary image is an x, y coordinate value indicating the center of gravity of the binary image
  • the x value of the center of gravity is the sum of x pixel coordinate values of the binary image.
  • the number of pixels in the binary image , and the y value of the center of gravity may be a value obtained by dividing the sum of y pixel coordinate values of the binary image by the number of pixels in the binary image.
  • an image processing unit for obtaining a binary image of an object included in a selection area corresponding to a user command , and rotating the binary image at an angle corresponding to a preset condition based on a reference point for the binary image to determine whether the binary image matches the rotational symmetry of the object included in the selection area It includes a control unit for determining.
  • the image processing unit includes an edge detection unit that detects edge information of an object included in the selection area using an edge detection algorithm, and generates an edge image of the object based on the detected edge information, followed by a shape calculation algorithm
  • a first image generator that generates a morphology image using It may include a second image generator that generates a binary image filling the inside of the image.
  • control unit after obtaining the first current rotational symmetry angle of the binary image by using the first previous rotational symmetry angle and the nth prime among a set of predefined prime numbers, the obtained first current rotational symmetry angle and By comparing the set minimum rotational symmetry angle, when the first current rotational symmetry angle is smaller than the minimum rotational symmetry angle, the first previous rotational symmetry angle may be determined as the final rotational symmetry angle.
  • the control unit rotates the binary image by the first current rotational symmetry angle around the reference point, and then the rotated image is the binary It is determined whether the image is identical to the image, and if the two images match as a result of the determination, the first current rotational symmetry angle is determined as a second previous rotational symmetry angle, and the second previous rotational symmetry angle and the nth prime number are used to determine the first rotational symmetry angle. 2 A current rotational symmetry angle is obtained, and when the obtained second current rotational symmetry angle is smaller than the minimum rotational symmetry angle, the second previous rotational symmetry angle may be determined as a final rotational symmetry angle.
  • the controller may obtain the second current rotational symmetry angle using the first previous rotational symmetry angle and an n+1th prime among the set of prime numbers. have.
  • first and second current rotational symmetry angles may be values obtained by dividing the first or second previous rotational symmetry angles by the nth prime or n+1th prime.
  • the predefined set of prime numbers includes 2,3,5,7,11,13,17,19,23 and 29 prime numbers, wherein the minimum rotational symmetry angle is 15 degrees, and the first previous The rotational symmetry angle may be 360 degrees.
  • the controller may determine that the object has no rotational symmetry, and when the final rotational symmetry value is 0 degrees, it may determine that the object is circular.
  • the reference point for the binary image is an x, y coordinate value indicating the center of gravity of the binary image
  • the x value of the center of gravity is the sum of x pixel coordinate values of the binary image.
  • the number of pixels in the binary image , and the y value of the center of gravity may be a value obtained by dividing the sum of y pixel coordinate values of the binary image by the number of pixels in the binary image.
  • the computer-readable recording medium storing a program for executing the following steps in combination with an image analysis apparatus receives a video image, at least included in the received video image Receiving a user command for one object, acquiring a binary image for an object included in a selection area corresponding to the user command, and an angle corresponding to a preset condition based on a reference point for the binary image and rotating the detected object, determining whether the rotated object matches the detected object, and determining whether the detected object has rotational symmetry.
  • the present disclosure may determine whether rotational symmetry exists with respect to at least one object included in image data.
  • FIG. 1 is a block diagram of an image analysis apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of an image processing unit according to an embodiment of the present invention.
  • FIG. 3 is an exemplary diagram for determining whether rotational symmetry with respect to an object in an image analysis apparatus according to an embodiment of the present invention
  • FIG. 4 is a detailed block diagram of an image analysis apparatus according to an embodiment of the present invention.
  • FIG. 5 is a flowchart of an image analysis method of an image analysis apparatus according to an embodiment of the present invention.
  • FIG. 6 is a flowchart of a method for obtaining a binary image of an object in an image analysis apparatus according to an embodiment of the present invention
  • FIG. 7 to 9 are flowcharts of a method of determining whether an object is rotationally symmetric in an image analysis apparatus according to an embodiment of the present invention.
  • expressions such as “have,” “may have,” “includes,” or “may include” refer to the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
  • expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together.
  • “A or B,” “at least one of A and B,” or “at least one of A or B” means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
  • a component eg, a first component is "coupled with/to (operatively or communicatively)" to another component (eg, a second component);
  • another component eg, a second component
  • the certain element may be directly connected to the other element or may be connected through another element (eg, a third element).
  • a component eg, a first component
  • another component eg, a second component
  • a device configured to may mean that the device is “capable of” with other devices or parts.
  • a processor configured (or configured to perform) A, B, and C refers to a dedicated processor (eg, an embedded processor) for performing the corresponding operations, or by executing one or more software programs stored in a memory device.
  • a generic-purpose processor eg, a CPU or an application processor
  • the electronic device may include, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, and a PMP. It may include at least one of a portable multimedia player, an MP3 player, a medical device, a camera, and a wearable device.
  • a wearable device may be an accessory (e.g., watch, ring, bracelet, anklet, necklace, eyewear, contact lens, or head-mounted-device (HMD)), a textile or clothing integral (e.g.
  • the electronic device may include at least one of a body mountable (eg skin pad or tattoo) or bioimplantable circuit
  • the electronic device may include, for example, a television, a digital video disk (DVD) player; Audio, refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air purifier, set-top box, home automation control panel, security control panel, media box (eg Samsung HomeSyncTM, Apple TVTM, or Google TVTM), game console (eg, XboxTM, PlayStationTM), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.
  • DVD digital video disk
  • the electronic device may include various medical devices (eg, various portable medical measuring devices (eg, a blood glucose monitor, a heart rate monitor, a blood pressure monitor, or a body temperature monitor), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), imagers, or ultrasound machines, etc.), navigation devices, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment devices, marine electronic equipment (e.g.
  • various portable medical measuring devices eg, a blood glucose monitor, a heart rate monitor, a blood pressure monitor, or a body temperature monitor
  • MRA magnetic resonance angiography
  • MRI magnetic resonance imaging
  • CT Computed tomography
  • imagers or ultrasound machines, etc.
  • navigation devices e.g, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment devices, marine electronic equipment (e.g.
  • navigation devices for ships, gyro compasses, etc. avionics, security devices, head units for vehicles, industrial or household robots, drones, ATMs in financial institutions, point of sale (POS) in stores of sales) or IoT devices (eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.).
  • POS point of sale
  • IoT devices eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
  • a device eg, an artificial intelligence electronic device
  • FIG. 1 is a block diagram of an image analysis apparatus according to an embodiment of the present invention.
  • the image analysis apparatus 100 analyzes input image data to learn information on a plurality of objects included in the image data, and determines and detects a plurality of objects included in the image data based on the learned information.
  • Such an image analysis apparatus 100 may be an apparatus for analyzing (learning) an image image captured by a camera of a fixed object (object) in an embodiment of the present invention.
  • the present invention is not limited thereto, and may be installed in any device that analyzes and understands the surrounding environment and performs an operation based on the result of the processing.
  • the image analysis apparatus 100 includes a photographing unit 110 , an input unit 120 , an image processing unit 130 , and a control unit 140 .
  • the photographing unit 110 may receive a video image corresponding to a source image including at least one object using a camera.
  • the input unit 120 may receive a user command for at least one object included in the video image.
  • the input unit 120 may receive a video image including at least one object.
  • the image processing unit 130 acquires a binary image of an object included in a selection area corresponding to a user command. A detailed operation of the image processing unit 130 will be described in detail below.
  • the controller 140 controls the overall operation of each component constituting the image analysis apparatus 100 .
  • the controller 140 determines whether the object included in the selection area corresponding to the user command has rotational symmetry.
  • the controller 140 rotates the binary image at an angle corresponding to a preset condition based on a reference point for the binary image acquired through the image processing unit 130 . Thereafter, after determining whether the rotated binary image matches the original binary image, the controller 140 determines whether the object included in the selection region has rotational symmetry based on the determination result.
  • FIG. 2 is a block diagram of an image processing unit according to an embodiment of the present invention.
  • the image processing unit 130 includes an edge detection unit 131 , a first image generation unit 133 , and a second image generation unit 135 .
  • the edge detection unit 131 detects edge information of an object included in the selection area using an edge detection algorithm.
  • the edge detector 131 may detect edge information of an object included in the selection area using a Canny edge detection algorithm.
  • the edge detection unit 131 applies a Gaussian filter to the object in a masking method to remove noise, calculates horizontal and vertical differential values, and determines a portion having a value greater than or equal to a preset threshold as an edge region. Thereafter, the edge detector may analyze the intensity and direction of each edge region to detect a portion having a preset value or more as an edge of the object.
  • the first image generator 133 When edge information on the object is detected through the edge detector 131 , the first image generator 133 generates an edge image of the object based on the detected edge information. Thereafter, the first image generator 133 generates a morphology image by using a morphology operation algorithm.
  • the first image generator 133 generates a morphology image by using a closing operation algorithm, which is one of shape operations. That is, the first image generating unit 133 may generate a morphological image for the omject by filling the hole area generated in the bright area with the surrounding area through the closing operation.
  • a closing operation algorithm which is one of shape operations. That is, the first image generating unit 133 may generate a morphological image for the omject by filling the hole area generated in the bright area with the surrounding area through the closing operation.
  • the first image generator 133 When such a morphological image is generated, the first image generator 133 generates a contour image in which an edge region of a pre-generated morphological image is connected using a connected component algorithm.
  • the second image generating unit 135 generates a binary image filling the inside of the contour image based on edge information of the contour image generated by the first image generating unit 133 .
  • the second image generator 135 may generate a binary image of an object by filling the inside of the morphology image with a contour, which is a structure having the same shape as an edge region of the morphology image.
  • the control unit 140 When a binary image for an object included in the selection area is obtained by each of the components included in the image processing unit 130, the control unit 140, as described above, is Rotates the binary image by an angle corresponding to the set condition. Thereafter, after determining whether the rotated binary image matches the original binary image, the controller 140 determines whether the object included in the selection region has rotational symmetry based on the determination result.
  • the controller 140 acquires the first current rotational symmetry angle of the binary image by using the first previous rotational symmetry angle and the nth prime among a set of predefined prime numbers.
  • the first rotational symmetry angle may be a value obtained by dividing the first previous rotational symmetry angle by an nth prime number.
  • the first previous rotational symmetry angle is 360 degrees
  • the set of predefined prime numbers may include at least one prime among 2, 3, 5, 7, 11, 13, 17, 19, 23, and 29.
  • the controller 140 compares the obtained first current rotational symmetry angle with a preset minimum rotational symmetry angle.
  • the minimum rotational symmetry angle may be 15 degrees.
  • the controller 140 determines the first previous rotational symmetry angle as the final rotational symmetry angle.
  • the controller 140 rotates the binary image by the first current rotational symmetry angle around the reference point for the binary image.
  • the reference point for the binary image may be the center of gravity of the binary image.
  • the x value among the x and y coordinate values of the center of gravity of the binary image may be a value obtained by dividing the sum of x pixel coordinate values of the binary image by the number of pixels in the binary image.
  • the y value of the center of gravity of the binary image may be a value obtained by dividing the sum of y pixel coordinate values of the binary image by the number of pixels in the binary image.
  • the controller 140 may determine the determined weight as the center of rotation for determining whether the object has rotational symmetry. That is, the controller 140 may rotate the binary image by the first current rotational symmetry angle based on the predetermined center of gravity.
  • the controller 140 determines whether the rotated image and the binary image match, and when the two images match, the controller 140 determines the first current rotational symmetry angle as the second previous rotational symmetry angle.
  • the control unit 140 obtains the second current rotational symmetry angle using the second previous rotational symmetry angle and the n-th prime number, and then the obtained second current rotational symmetry angle and the minimum rotational symmetry angle compare
  • the controller 140 determines the second previous rotational symmetry angle as the final rotational symmetry angle.
  • the controller 140 repeatedly performs the above-described series of operations until the current rotational symmetry angle is smaller than the minimum rotational symmetry angle.
  • the controller 140 obtains a second current rotational symmetry angle by using the first previous rotational symmetry angle and the n+1th prime among a set of prime numbers.
  • the second current rotational symmetry angle may be a value obtained by dividing the first previous rotational symmetry angle by the n+1th prime number.
  • the controller 140 compares the obtained second current rotational symmetry angle with the minimum rotational symmetry angle, and selects the second current rotational symmetry angle according to the comparison result.
  • the final rotational symmetry angle may be determined, or the above-described operation may be repeatedly performed.
  • the controller 140 determines the obtained final rotational symmetry value as a rotational symmetry angle with respect to the object.
  • the controller 140 may determine whether the object included in the selection region has rotational symmetry based on the obtained final rotational symmetry value.
  • the controller 140 may determine whether the object included in the selection area has rotational symmetry according to whether the final rotational symmetry value is 360 degrees. That is, the controller 140 determines that the object included in the selection area has no rotational symmetry. Meanwhile, when the final rotational symmetry value is 0 degrees, the controller 140 may determine that the object included in the selection area is circular.
  • FIG. 3 is an exemplary diagram for determining whether an object is rotationally symmetric with respect to an image analysis apparatus according to an embodiment of the present invention.
  • the image analysis apparatus 100 includes a selection area 311 including a first object according to a user's selection command among the first to third objects included in the video image 310 . ) can be determined.
  • the image analysis apparatus 100 When the selection area 311 including the first object 311 is determined, the image analysis apparatus 100 generates an outline image 320 as shown in FIG. 3B . Since the outline image 320 generation has been described in detail above, a detailed description thereof will be omitted below.
  • the image analysis apparatus 100 When the contour image 320 is generated, the image analysis apparatus 100 generates a binary image 330 in which the inside of the contour image 320 is filled, as shown in (c) of FIG. 3 , and the generated binary image From (330), the center of gravity is obtained. Thereafter, the image analysis apparatus 100 determines a final rotational symmetry angle with respect to the first object by rotating the binary image based on the center of gravity of the binary image, as shown in FIG. 3D .
  • the image analysis apparatus 100 may obtain a final rotational symmetry angle with respect to the decagonal-shaped object through the following algorithm.
  • the minimum rotational symmetry angle is 15 degrees
  • the previous rotational symmetry angle (hereinafter referred to as the first previous rotational symmetry angle) is 360 degrees
  • the set of sorted prime numbers is 2,3,5,7,11, It can be 13,17,19,23,29.
  • the image analysis apparatus 100 obtains a current rotational symmetry angle (hereinafter referred to as a first current rotational symmetry angle) based on the above condition. Specifically, the image analysis apparatus 100 divides 360 degrees, which is the first previous rotational symmetry angle, by 2, which is the nth prime among the sorted prime numbers, and determines the resulting value of 180 degrees as the first current rotational symmetry angle.
  • the image analysis apparatus 100 determines whether the first current rotational symmetry angle of 180 degrees is smaller than the minimum rotational symmetry angle of 15 degrees.
  • the image analysis apparatus 100 rotates the binary image of the decagonal object by 180 degrees, which is the first current rotational symmetry angle, and rotates 180 degrees Determines whether the image matches the original binary image.
  • the image analysis apparatus 100 determines the first current rotational symmetry angle as the second previous rotational symmetry angle.
  • the image analysis apparatus 100 divides 180 degrees, which is the second previous rotational symmetry angle, by the n-th prime number, 2, and determines the resulting value of 90 degrees as the second current rotational symmetry angle. Thereafter, the image analysis apparatus 100 determines whether the second current rotational symmetry angle of 90 degrees is smaller than the minimum rotational symmetry angle of 15 degrees, and if the second current rotational symmetry angle is greater than the minimum rotational symmetry angle, the second current rotational symmetry angle Rotate the binary image for a decagonal object by 90 degrees of engraving. Thereafter, the image analysis apparatus 100 determines whether the image rotated by 90 degrees matches the original binary image.
  • the image analysis apparatus 100 divides the second previous rotational symmetry angle of 180 degrees by 3, which is the n+1th prime among a set of prime numbers, and divides the resulting value of 60 degrees into the third current rotational symmetry determined by angle. Since the third current rotational symmetry angle is greater than the minimum rotational symmetry angle of 15 degrees, the image analysis apparatus 100 rotates the binary image of the decagonal object by 60 degrees, the third current rotational symmetry angle. Thereafter, the image analysis apparatus 100 determines whether the image rotated by 60 degrees matches the original binary image.
  • the image analysis apparatus 100 divides 180 degrees, which is the second previous rotational symmetry angle, by 5, which is the n+2th prime among a set of prime numbers, and divides the resulting value 36 degrees into the fourth current rotational symmetry. determined by angle. Since the fourth current rotational symmetry angle is greater than the minimum rotational symmetry angle of 15 degrees, the image analysis apparatus 100 rotates the binary image of the decagonal object by 36 degrees, the fourth current rotational symmetry angle. Thereafter, the image analysis apparatus 100 determines whether the image rotated by 36 degrees matches the original binary image.
  • the image analysis apparatus 100 determines the fourth current rotational symmetry angle as the third previous rotational symmetry angle. Thereafter, the image analysis apparatus 100 divides the third pre-determined rotational symmetry angle of 36 degrees by the n-th prime number of 2, and determines the resulting value of 18 degrees as the fifth current rotational symmetry angle. Since the fifth current rotational symmetry angle is greater than the minimum rotational symmetry angle of 15 degrees, the image analysis apparatus 100 rotates the binary image of the decagonal object by 18 degrees, the fifth current rotational symmetry angle. Thereafter, the image analysis apparatus 100 determines whether the image rotated by 18 degrees matches the original binary image.
  • the image analysis apparatus 100 divides 36 degrees, which is the third previous rotational symmetry angle, by 3, which is the n+1th prime number, and determines the resultant value of 12 degrees as the sixth current rotational symmetry angle. . Thereafter, the image analysis apparatus 100 determines whether the sixth current rotational symmetry angle is smaller than the minimum rotational symmetry angle. As a result of the determination, when the sixth current rotational symmetry angle of 12 degrees is smaller than the minimum rotational symmetry angle of 15 degrees, the image analysis apparatus 100 may determine the third previous rotational symmetry angle of 36 degrees as the final rotational symmetry angle of the decagonal object. have.
  • the image analysis apparatus 100 may obtain a final rotational symmetry angle with respect to the object through five rotational symmetry checks.
  • the image analysis apparatus 100 may obtain a final rotational symmetry angle of 360 degrees through the following algorithm.
  • the minimum rotational symmetry angle is 15 degrees
  • the previous rotational symmetry angle (hereinafter referred to as the first previous rotational symmetry angle) is 360 degrees
  • the set of sorted prime numbers is 2,3,5,7,11, It can be 13,17,19,23,29.
  • the image analysis apparatus 100 obtains the first current rotational symmetry angle based on the above condition. Specifically, the image analysis apparatus 100 divides 360 degrees, which is the first previous rotational symmetry angle, by 2, which is the nth prime among the sorted prime numbers, and determines the resulting value of 180 degrees as the first current rotational symmetry angle.
  • the image analysis apparatus 100 determines whether the first current rotational symmetry angle of 180 degrees is smaller than the minimum rotational symmetry angle of 15 degrees. As a result of the determination, if the first current rotational symmetry angle is greater than the minimum rotational symmetry angle, the image analysis apparatus 100 rotates the binary image of the object by 180 degrees, which is the first current rotational symmetry angle, and rotates the image by 180 degrees and the original Determines whether binary images match.
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+1th prime number 3, and determines the resultant value of 120 degrees as the second current rotational symmetry angle. do.
  • the image analysis apparatus 100 rotates the binary image of the object by 120 degrees, which is the second current rotational symmetry angle, and rotates the rotated image and the original image. Determines whether binary images match.
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+2th prime number, 5, and the resulting value 72 degrees is used as the third current rotational symmetry angle. decide
  • the image analysis apparatus 100 rotates the binary image of the object by 72 degrees, and determines whether the rotated image matches the original binary image do.
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+3th prime number, 7, and the resulting value 51.43 degrees as the fourth current rotational symmetry angle. decide
  • the image analysis apparatus 100 rotates the binary image by 51.43 degrees and determines whether the rotated image matches the original binary image.
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+4th prime number 11, and the resultant value of 32.72 degrees is used as the fifth current rotational symmetry angle. decide
  • the image analysis apparatus 100 rotates the binary image by 32 and 72 degrees, and determines whether the rotated image matches the original binary image .
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+5th prime number, 13, and the resulting value 27.69 degrees as the sixth current rotational symmetry angle. decide
  • the image analysis apparatus 100 rotates the binary image by 27.69 degrees and determines whether the rotated image matches the original binary image.
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+6th prime number, 17, and the resulting value 21.18 degrees as the seventh current rotational symmetry angle. decide
  • the image analysis apparatus 100 rotates the binary image by 21.18 degrees and determines whether the rotated image matches the original binary image.
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+7th prime number 19, and the resulting value 18.95 degrees as the eighth current rotational symmetry angle. decide
  • the image analysis apparatus 100 rotates the binary image by 18.95 degrees and determines whether the rotated image matches the original binary image.
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+8th prime number, 23, and the resulting value 15.65 degrees as the ninth current rotational symmetry angle. decide
  • the image analysis apparatus 100 rotates the binary image by 15.65 degrees and determines whether the rotated image matches the original binary image.
  • the image analysis apparatus 100 divides the first previous rotational symmetry angle of 360 degrees by the n+9th prime number 29, and the resultant value of 12.41 degrees is used as the tenth current rotational symmetry angle.
  • the image analysis apparatus 100 determines 360 degrees, which is the first previous rotational symmetry angle, as the final rotational symmetry angle, and determines that the object has no rotational symmetry. can judge
  • the image analysis apparatus 100 may determine that the object has no rotational symmetry by checking the rotational symmetry number 9.
  • FIG. 4 is a detailed block diagram of an image analysis apparatus according to an embodiment of the present invention.
  • the image analysis apparatus 100 includes an output unit 150 and a communication unit 160 in addition to the above-described configuration of the photographing unit 110 , the input unit 120 , the image processing unit 130 and the control unit 140 . , and a storage unit 170 may be further included.
  • the photographing unit 110 may be implemented as a camera that photographs the surrounding environment including the object.
  • the photographing unit 110 may include a lens (not shown) through which an image is transmitted and an image sensor (not shown) that detects an image transmitted through the lens.
  • the image sensor (image) may be implemented as a CCD image sensor or a CMOS image sensor.
  • Image data acquired through the photographing unit 280 may be processed by an image processing unit (not shown).
  • the connector 113 is a configuration that provides an interface with various source devices such as USB 2.0, USB 3.0, HDMI, IEEE 1394.
  • the connector 113 may receive image data from an external server through a wired cable connected to the connector 113 according to a control command from the controller 140 , or transmit pre-stored image data to an external recording medium.
  • the connector 113 may receive power from a power source through a wired cable physically connected to the connector 113 .
  • the aforementioned input unit 120 is an input means for receiving various user commands and transmitting them to the control unit 140 .
  • the input unit 120 includes a microphone (not shown) that receives a user's voice command, and in an embodiment of the present invention, a means for selecting an object included in an image using a peripheral device such as a keyboard or a mouse, or remote control It may include a user input unit 124 that receives an IR signal or an RF signal for controlling the operation of the image analysis apparatus 100 from at least one peripheral device (not shown) such as a device.
  • the input unit 120 may receive and receive video image data through the (auxiliary) storage device and the communication unit 100 to be described later when the photographing unit 110 is not provided. .
  • the output unit 150 may output image and audio data of content through the display unit (not shown) and the audio output unit (not shown) as described above.
  • the above-described communication unit 160 receives image data from the outside as well as peripheral devices (not shown) such as smart TVs, smart phones, and tablet PCs, and a relay terminal for transmitting and receiving data with a content server (not shown) It is possible to perform data communication with a device (not shown) and the like.
  • peripheral devices such as smart TVs, smart phones, and tablet PCs
  • a relay terminal for transmitting and receiving data with a content server (not shown) It is possible to perform data communication with a device (not shown) and the like.
  • the communication unit 160 includes a short-range communication module 161, a wireless communication module 162, and a wired such as a High-Definition Multimedia Interface (HDMI), a Universal Serial Bus (USB), and an Institute of Electrical and Eletronics Engineers (IEEE) 1394. It may include a connector 113 including at least one of the communication modules.
  • a short-range communication module 161 such as a High-Definition Multimedia Interface (HDMI), a Universal Serial Bus (USB), and an Institute of Electrical and Eletronics Engineers (IEEE) 1394.
  • HDMI High-Definition Multimedia Interface
  • USB Universal Serial Bus
  • IEEE 1394 Institute of Electrical and Eletronics Engineers 1394
  • the short-distance communication module 161 is configured to perform wireless short-range communication with the image analysis apparatus 100 and nearby devices, artificial intelligence servers, and the like.
  • the short-distance communication module 161 includes at least one of a Bluetooth module, an infrared data association (IrDA) module, a near field communication (NFC) module, a WIFI module, and a Zigbee module. can do.
  • the wireless communication module 162 is a module for performing communication by being connected to an external network according to a wireless communication protocol such as IEEE.
  • the wireless communication module further includes a mobile communication module for performing communication by accessing a mobile communication network according to various mobile communication standards such as 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evoloution), etc. You may.
  • the communication unit 160 may be implemented by the various short-distance communication methods described above, and other communication technologies not mentioned herein may be employed as needed.
  • the storage unit 170 may store image data received through the communication unit 160 and rotational symmetry related information on at least one object included in the image data. In addition, the storage unit 170 may store various contents received externally or image data photographed through the photographing unit 110 .
  • the storage 170 may further store an operation program for controlling the operation of the image analysis apparatus 100 .
  • the operation program may be a program that is read from the storage 170 and compiled to operate each component of the image analysis apparatus 100 .
  • a storage unit 170 is a memory card (eg, SD card, memory stick), non-removable/mountable memory card (eg, SD card, memory stick), a ROM 142, a RAM 143, or an image analysis apparatus 100 to be described later. It may be implemented as at least one of a volatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • controller 140 may be a processing device that controls the overall operation of the image analysis apparatus 100 or controls the overall operation of the image analysis apparatus 100 .
  • the control unit 140 may include a CPU 141 , a ROM 142 , a RAM 143 and a GPU 144 , and the CPU 141 , a ROM 142 , a RAM 143 , and a GPU 144 . ) may be connected to each other through the bus 145 .
  • the CPU 141 accesses the storage unit 170 and performs booting using the OS stored in the storage unit 170 . In addition, the CPU 141 performs various operations using various programs, contents, data, etc. stored in the storage unit 170 .
  • the ROM 142 stores an instruction set for system booting, and the like.
  • the CPU 141 copies the OS stored in the storage unit 170 to the RAM 143 according to the command stored in the ROM 142, and executes the OS to boot the system.
  • the CPU 141 copies various programs stored in the storage unit 170 to the RAM 143 , and executes the programs copied to the RAM 143 to perform various operations.
  • the GPU 144 generates a display screen including various objects such as icons, images, texts, and the like. Specifically, the GPU 144 calculates property values such as coordinate values, shape, size, color, etc., at which each object is to be displayed according to the layout of the screen based on the received control command, and selects the object based on the associated property value. Create display screens of various layouts including
  • the control unit 140 may be implemented as a single-chip system (System-on-a-chip or System-on-chip, SOC, SoC) by being combined with each of the above-described components.
  • FIG. 5 is a flowchart of an image analysis method of an image analysis apparatus according to an embodiment of the present invention.
  • the image analysis apparatus 100 receives an image image through the photographing unit 110 ( S510 ).
  • the present invention is not limited thereto, and the image analysis apparatus 100 may receive or receive a pre-stored image image through the communication unit 160 or various storage devices at the user's request.
  • the video analysis apparatus 100 receives a user command for at least one object included in the video image (S520). Thereafter, the image analysis apparatus 100 acquires a binary image of an object included in the selection region corresponding to the user command ( S530 ).
  • the image analysis apparatus 100 rotates the binary image at an angle corresponding to a preset condition based on a reference point for the obtained binary image, determines whether the rotated binary image matches the original binary image, and determines whether the selected region It is determined whether the object included in the rotation symmetry is (S540).
  • FIG. 6 is a flowchart of a method of obtaining a binary image of an object in an image analysis apparatus according to an embodiment of the present invention.
  • the image analysis apparatus 100 detects edge information of an object included in the selection area using an edge detection algorithm ( S610 ). Thereafter, the image analysis apparatus 100 generates an edge image of an object included in the selection area based on the detected edge information ( S620 ).
  • the image analysis apparatus 100 may generate a morphology image by using a closing operation algorithm, which is one of shape operations.
  • the morphological image may be an image in which a hole region generated in a bright region is filled with the same value as the surrounding region through a closing operation.
  • the image analysis apparatus 100 When such a morphology image is generated, the image analysis apparatus 100 generates a morphology image using a shape calculation algorithm, and generates a contour image in which an edge region of a pre-generated morphology image is connected using a connection element algorithm. Do (S630, S640). Thereafter, the image analysis apparatus 100 generates a binary image filling the inside of the contour image based on the pre-generated edge information of the contour image (S650).
  • the image analysis apparatus 100 may determine whether the object included in the selection region has rotational symmetry through the aforementioned step S540.
  • FIG. 7 to 9 are flowcharts of a method of determining whether an object is rotationally symmetric in an image analysis apparatus according to an embodiment of the present invention.
  • the image analysis apparatus 100 obtains the first current rotational symmetry angle of the binary image by using the first previous rotational symmetry angle and the nth prime among a set of predefined prime numbers ( S710 ) .
  • the first current rotational symmetry angle may be a value obtained by dividing the first previous rotational symmetry angle by an n-th prime number, and the first previous rotational symmetry angle may be 360 degrees.
  • the set of predefined prime numbers may include 2,3,5,7,11,13,17,19,23 and 29 prime numbers.
  • the image analysis apparatus 100 may obtain the first current rotational symmetry angle from a value obtained by dividing the first previous rotational symmetry angle by 2, which is the nth prime number.
  • the image analysis apparatus 100 compares the previously acquired first current rotational symmetry angle with a preset minimum rotational symmetry angle ( S720 ).
  • the minimum rotational symmetry angle may be 15 degrees.
  • the image analysis apparatus 100 determines the first previous rotational symmetry angle as the final rotational symmetry angle, and uses the determined final rotational symmetry angle of the object. It is determined whether rotational symmetry is present (S740).
  • the image analysis apparatus 100 determines whether the object is rotationally symmetrical using the first current rotational symmetry angle (S750).
  • the image analysis apparatus 100 rotates the binary image of the object by the first current rotational symmetry angle (S810). ).
  • the image analysis apparatus 100 determines whether the rotated image matches the original binary image (S820). As a result of the determination, if the two images match, the image analysis apparatus 100 determines the first current rotational symmetry angle as the second previous rotational symmetry angle (S830). Thereafter, the image analysis apparatus 100 acquires a second current rotational symmetry angle using the second previous rotational symmetry angle and the nth prime ( S840 ).
  • the image analysis apparatus 100 may obtain a value obtained by dividing the second previous rotational symmetry angle by the nth prime number as the second current rotational symmetry angle.
  • the image analysis apparatus 100 obtains a second current rotational symmetry angle by using the first previous rotational symmetry angle and the n+1th prime number. (S850).
  • the image analysis apparatus 100 may obtain a value obtained by dividing the first previous rotational symmetry angle by the n+1th prime number as the second current rotational symmetry angle.
  • the image analysis apparatus 100 determines whether the obtained second current rotational symmetry angle is smaller than the minimum rotational symmetry angle ( S860 ). As a result of the determination, if the second current rotational symmetry angle is smaller than the minimum rotational symmetry angle, the image analysis apparatus 100 determines the second previous rotational symmetry angle as the final rotational symmetry angle ( S870 ).
  • the image analysis apparatus 100 repeatedly performs the above-described series of operations until the current rotational symmetry angle becomes smaller than the minimum rotational symmetry angle.
  • the image analysis apparatus 100 may determine whether the object included in the selection area has rotational symmetry through the following method.
  • the image analysis apparatus 100 determines whether the final rotational symmetry angle is 360 degrees ( S910 ). As a result of the determination, if the final rotational symmetry angle is 360 degrees, the image analysis apparatus 100 determines that there is no rotational symmetry of the object included in the selection area ( S920 ).
  • the image analysis apparatus 100 determines whether the final rotational symmetry angle is 0 degrees (S930). As a result of the determination, if the final rotational symmetry angle is 0 degrees, the image analysis apparatus 100 determines that the object included in the selection area has a circular shape ( S940 ). Meanwhile, when it is determined that the final rotational symmetry angle is not 0 degrees, the image analysis apparatus 100 determines that the object included in the selection area has rotational symmetry ( S950 ).
  • control method of the image analysis apparatus may be coded with software and stored in a non-transitory readable medium.
  • a non-transitory readable medium may be mounted on various devices and used.
  • the non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, it may be a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, or the like.

Abstract

회전 대칭성 판단이 가능한 영상 분석 장치 및 방법이 개시된다. 본 발명에 따른 영상 분석 방법은 영상 이미지를 입력받는 단계, 영상 이미지에 포함된 적어도 하나의 오브젝트에 대한 사용자 명령을 입력받는 단계, 사용자 명령에 대응하는 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득하는 단계, 및 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 바이너리 이미지를 회전시켜, 회전된 바이너리 이미지와의 일치 여부를 판단하여 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단하는 단계를 포함한다. 이에 따라, 본 발명은 영상 데이터에 포함된 적어도 하나의 오브젝트에 대한 회전 대칭성 여부를 고속으로 판단할 수 있다.

Description

회전 대칭성 판단이 가능한 영상 분석 장치 및 방법
본 발명은 영상 분석 장치 및 방법에 관한 것으로써, 보다 상세하게는 영상 내 포함된 오브젝트의 회전 대칭성 여부를 판단하기 위한 영상 분석 장치 및 방법에 관한 것이다.
종래의 영상 분석 장치는 입력된 소스 이미지 데이터에 포함된 적어도 하나의 오브젝트(이하 소스 오브젝트라 함) 중 사용자에 의해 선택된 선택 영역 내 포함된 소스 오브젝트에 대한 특징 정보를 학습한다.
이후, 카메라를 통해 영상 데이터가 입력되고, 입력된 영상 데이터에 포함된 적어도 하나의 오브젝트(이하 타겟 오브젝트라 함)에 대한 선택 명령이 입력되면, 영상 분석 장치는 기학습된 복수의 소스 오브젝트에 대한 특징 정보를 참조하여 타겟 오브젝트와 매칭되는 소스 오브젝트가 존재하는지 여부를 판단한다.
소스 오브젝트가 존재하면, 영상 분석 장치는 해당 소스 오브젝트와 매칭되는 타겟 오브젝트에 대한 위치 정보(좌표 정보) 및 소스 오브젝트를 기준으로 타겟 오브젝트가 회전되었는지를 나타내는 각도 정보를 제공한다.
한편, 종래의 영상 분석 장치는 회전 대칭성을 갖는 오브젝트에 대해서 매우 다른 회전각을 추정하는 문제가 있다.
예를 들어, 원형 모양의 타겟 오브젝트의 경우, 소스 오브젝트와의 각도 차이를 추정할 수 없음에도 불구하고, 영상 분석 장치는 해당 소스 오브젝트를 기준으로 원형 모양의 타겟 오브젝트의 회전각을 추정한다.
따라서, 이 같은 영상 분석 장치가 탑재되는 로봇에서 회전 대칭성을 갖는 타겟 오브젝트를 잡는 경우, 로봇은 영상 분석 장치를 통해 추정된 회전각에 대응하는 각도로 로봇 팔을 회전시키는 불필요한 동작을 수행하여 해당 타겟 오브젝트를 잡게 된다.
이 같은 문제를 개선하기 위해서는, 영상 분석 장치에서 소스 오브젝트에 대한 회전 대칭성 여부를 판단해야 한다. 즉, 영상 분석 장치는 1도에서 360도까지 소스 오브젝트를 회전시켜 소스 오브젝트에 대한 회전 대칭성 여부를 판단할 수 있다. 그러나, 이 같은 방법으로 회전 대칭성 여부를 판단할 경우, 회전 대칭성 여부를 판단하기 위한 많은 시간과 데이터가 필요하며, 그에 따른 로드가 발생하는 문제가 있다.
본 발명은 상술한 필요성에 따라 안출된 것으로서, 본 발명의 목적은 영상 데이터에 포함된 적어도 하나의 오브젝트에 대한 회전 대칭성 여부를 판단하기 위함을 목적으로 한다.
나아가, 본 발명은 영상 데이터에 포함된 적어도 하나의 오브젝트에 대한 회전 대칭성 여부를 고속으로 판단하기 위함을 목적으로 한다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 영상 분석 방법은 영상 이미지를 입력받는 단계, 상기 영상 이미지에 포함된 적어도 하나의 오브젝트에 대한 사용자 명령을 입력받는 단계, 상기 사용자 명령에 대응하는 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득하는 단계 및 상기 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 상기 바이너리 이미지를 회전시켜, 상기 회전된 바이너리 이미지와의 일치 여부를 판단하여 상기 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단하는 단계를 포함한다.
그리고, 상기 바이너리 이미지를 획득하는 단계는, 에지 검출 알고리즘을 이용하여 상기 선택 영역에 포함된 오브젝트의 에지 정보를 검출하는 단계, 상기 검출된 에지 정보에 기초하여 상기 오브젝트의 에지 이미지를 생성하는 단계, 형태 연산 알고리즘을 이용하여 모폴로지(Morphology) 이미지를 생성하는 단계, 연결 요소 알고리즘을 이용하여 상기 모폴로지 이미지의 에지 영역이 연결된 윤곽 이미지를 생성하는 단계 및 상기 생성된 윤곽 이미지의 에지 정보에 기초하여 상기 윤곽 이미지의 내부를 채운 바이너리 이미지를 생성하는 단계를 포함할 수 있다.
또한, 상기 판단하는 단계는, 제1 이전 회전 대칭각과 기정의된 소수의 집합 중 n 번째 소수를 이용하여 상기 바이너리 이미지의 제1 현재 회전 대칭각을 획득하는 단계, 상기 제1 현재 회전 대칭각과 기설정된 최소 회전 대칭각을 비교하는 단계 및 상기 제1 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 작으면, 상기 제1 이전 회전 대칭각을 최종 회전 대칭각으로 결정하는 단계를 포함할 수 있다.
그리고, 상기 판단하는 단계는, 상기 제1 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 크면, 상기 기준점을 중심으로 상기 제1 현재 회전 대칭각 만큼 상기 바이너리 이미지를 회전시키는 단계, 상기 회전된 이미지가 상기 바이너리 이미지와 일치하는지 여부를 판단하는 단계 및 상기 판단 결과 두 이미지가 일치하면, 상기 제1 현재 회전 대칭각을 제2 이전 회전 대칭각으로 결정하고, 상기 제2 이전 회전 대칭각과 상기 n 번째 소수를 이용하여 제2 현재 회전 대칭각을 획득하는 단계를 더 포함하며, 상기 결정하는 단계는, 상기 제2 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 작으면, 상기 제2 이전 회전 대칭각을 최종 회전 대칭각으로 결정할 수 있다.
또한, 상기 제2 현재 회전 대칭각을 획득하는 단계는 상기 회전된 이미지가 상기 바이너리 이미지가 일치하지 않으면, 상기 제1 이전 회전 대칭각과 상기 소수의 집합 중 n+1 번째 소수를 이용하여 상기 제2 현재 회전 대칭각을 획득할 수 있다.
그리고, 상기 제1 및 제2 현재 회전 대칭각은, 상기 제1 또는 제2 이전 회전 대칭각을 상기 n 번째 소수 또는 n+1 번째 소수로 나눈 값일 수 있다.
또한, 상기 기정의된 소수의 집합은, 2,3,5,7,11,13,17,19,23 및 29 소수를 포함하며, 상기 최소 회전 대칭각은, 15도이며, 상기 제1 이전 회전 대칭각은 360도 일 수 있다.
그리고, 상기 판단하는 단계는, 상기 최종 회전 대칭값이 360도이면, 상기 오브젝트가 회전 대칭성이 없는 것으로 판단하고, 상기 최종 회전 대칭값이 0도이면, 상기 오브젝트가 원형인 것으로 판단할 수 있다.
또한, 상기 바이너리 이미지에 대한 기준점은, 상기 바이너리 이미지의 무게 중심을 나타내는 x,y 좌표값이며, 상기 무게 중심의 x 값은, 상기 바이너리 이미지의 x 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값이며, 상기 무게 중심의 y 값은 상기 바이너리 이미지의 y 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값일 수 있다.
한편, 본 발명의 또다른 실시 예에 따르면, 적어도 하나의 오브젝트를 포함하는 영상이미지를 분석하는 영상 분석 장치에 있어서, 사용자 명령에 대응하는 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득하는 이미지 처리부, 및 상기 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 상기 바이너리 이미지를 회전시켜, 상기 회전된 바이너리 이미지와의 일치 여부를 판단하여 상기 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단하는 제어부를 포함한다.
그리고, 상기 이미지 처리부는, 에지 검출 알고리즘을 이용하여 상기 선택 영역에 포함된 오브젝트의 에지 정보를 검출하는 에지 검출부, 상기 검출된 에지 정보에 기초하여 상기 오브젝트의 에지 이미지를 생성한 후, 형태 연산 알고리즘을 이용하여 모폴로지(Morphology) 이미지를 생성하며, 연결 요소 알고리즘을 이용하여 상기 모폴로지 이미지의 에지 영역이 연결된 윤곽 이미지를 생성하는 제1 이미지 생성부 및 상기 생성된 윤곽 이미지의 에지 정보에 기초하여 상기 윤곽 이미지의 내부를 채운 바이너리 이미지를 생성하는 제2 이미지 생성부를 포함할 수 있다.
또한, 상기 제어부는, 제1 이전 회전 대칭각과 기정의된 소수의 집합 중 n 번째 소수를 이용하여 상기 바이너리 이미지의 제1 현재 회전 대칭각을 획득한 후, 상기 획득된 제1 현재 회전 대칭각과 기설정된 최소 회전 대칭각을 비교하여, 상기 제1 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 작으면, 상기 제1 이전 회전 대칭각을 최종 회전 대칭각으로 결정할 수 있다.
그리고, 상기 제어부는, 상기 제1 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 크면, 상기 기준점을 중심으로 상기 제1 현재 회전 대칭각 만큼 상기 바이너리 이미지를 회전시킨 후, 상기 회전된 이미지가 상기 바이너리 이미지와 일치하는지 여부를 판단하여 상기 판단 결과 두 이미지가 일치하면, 상기 제1 현재 회전 대칭각을 제2 이전 회전 대칭각으로 결정하고, 상기 제2 이전 회전 대칭각과 상기 n 번째 소수를 이용하여 제2 현재 회전 대칭각을 획득하며, 상기 획득된 제2 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 작으면, 상기 제2 이전 회전 대칭각을 최종 회전 대칭각으로 결정할 수 있다.
또한, 상기 제어부는, 상기 회전된 이미지가 상기 바이너리 이미지가 일치하지 않으면, 상기 제1 이전 회전 대칭각과 상기 소수의 집합 중 n+1 번째 소수를 이용하여 상기 제2 현재 회전 대칭각을 획득할 수 있다.
그리고, 상기 제1 및 제2 현재 회전 대칭각은, 상기 제1 또는 제2 이전 회전 대칭각을 상기 n 번째 소수 또는 n+1 번째 소수로 나눈 값일 수 있다.
또한, 상기 기정의된 소수의 집합은, 2,3,5,7,11,13,17,19,23 및 29 소수를 포함하며, 상기 최소 회전 대칭각은, 15도이며, 상기 제1 이전 회전 대칭각은 360도일 수 있다.
그리고, 상기 제어부는, 상기 최종 회전 대칭값이 360도이면, 상기 오브젝트가 회전 대칭성이 없는 것으로 판단하고, 상기 최종 회전 대칭값이 0도이면, 상기 오브젝트가 원형인 것으로 판단할 수 있다.
또한, 상기 바이너리 이미지에 대한 기준점은, 상기 바이너리 이미지의 무게 중심을 나타내는 x,y 좌표값이며, 상기 무게 중심의 x 값은, 상기 바이너리 이미지의 x 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값이며, 상기 무게 중심의 y 값은 상기 바이너리 이미지의 y 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값일 수 있다.
한편, 본 발명의 또다른 실시 예에 따르면, 영상 분석 장치와 결합되어 하기의 단계를 실행시키기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체는 영상 이미지를 수신하는 단계, 상기 수신된 영상 이미지에 포함된 적어도 하나의 오브젝트에 대한 사용자 명령을 입력받는 단계, 상기 사용자 명령에 대응하는 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득하는 단계 및 상기 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 상기 검출된 오브젝트를 회전시켜, 상기 회전된 오브젝트와 상기 검출된 오브젝트의 일치 여부를 판단하여 상기 검출된 오브젝트의 회전 대칭성 여부를 판단하는 단계를 포함한다.
이상과 같이 본 발명의 다양한 실시 예에 따르면, 본 발명은 영상 데이터에 포함된 적어도 하나의 오브젝트에 대한 회전 대칭성 여부를 판단할 수 있다.
나아가, 본 발명은 영상 데이터에 포함된 적어도 하나의 오브젝트에 대한 회전 대칭성 여부를 고속으로 판단할 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 분석 장치의 블록도,
도 2는 본 발명의 일 실시예에 따른 이미지 처리부에 대한 블록도,
도 3은 본 발명의 일 실시예에 따른 영상 분석 장치에서 오브젝트에 대한 회전 대칭성 여부를 판단하는 예시도,
도 4는 본 발명의 일 실시예에 따른 영상 분석 장치에 대한 세부 블록도,
도 5는 본 발명의 일 실시예에 따른 영상 분석 장치의 영상 분석 방법에 대한 흐름도,
도 6은 본 발명의 일 실시예에 따른 영상 분석 장치에서 오브젝트에 대한 바이너리 이미지를 획득하는 방법의 흐름도,
도 7 내지 제 9는 본 발명의 일 실시예에 따른 영상 분석 장치에서 오브젝트의 회전 대칭성 여부를 판단하는 방법의 흐름도이다.
이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 분석 장치의 블록도이다.
영상 분석 장치(100)는 입력되는 영상 데이터를 분석하여 영상 데이터 내에 포함된 복수의 오브젝트에 대한 정보를 학습하고, 학습된 정보에 기초하여 영상 데이터 내에 포함된 복수의 오브젝트를 판단 및 검출한다.
이 같은 영상 분석 장치(100)는, 본 발명의 실시예에서는, 고정되어 있는 물체(오브젝트)를 카메라로 촬영한 영상이미지를 분석(학습)하기 위한 장치일 수 있다. 그러나, 본 발명은 이에 한정되지 않으며, 주변 환경을 분석 및 파악하고, 그에 따른 처리 결과에 기초하여 동작을 수행하는 모든 기기에 탑재될 수 있다.
이 같은 영상 분석 장치(100)는, 촬영부(110), 입력부(120), 이미지 처리부(130) 및 제어부(140)를 포함한다.
촬영부(110)는 카메라를 이용해 적어도 하나의 오브젝트를 포함하여 소스이미지에 해당하는 영상이미지를 입력받을 수 있다.
입력부(120)는 영상 이미지에 포함된 적어도 하나의 오브젝트에 대한 사용자 명령을 입력받을 수 있다. 특히, 입력부(120)는, 카메라 없이 영상이미지가 입력되는 경우에 적어도 하나의 오브젝트를 포함하는 영상이미지를 입력받을 수 있다.
이미지 처리부(130)는 사용자 명령에 대응하는 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득한다. 이 같은 이미지 처리부(130)에 대한 구체적인 동작은 하기에서 상세히 설명하도록 한다.
제어부(140)는 영상 분석 장치(100)를 구성하는 각 구성에 대한 동작을 전반적으로 제어한다. 특히, 제어부(140)는 사용자 명령에 대응하는 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단한다.
구체적으로, 제어부(140)는 이미지 처리부(130)를 통해 획득한 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 바이너리 이미지를 회전시킨다. 이후, 제어부(140)는 회전된 바이너리 이미지와 원래의 바이너리 이미지 간의 일치 여부를 판단한 후, 그 판단 결과에 기초하여 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단한다.
선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단하는 구체적인 동작 설명은 하기에서 상세히 설명하도록 한다.
이하에서는, 이미지 처리부(130)에서 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득하는 동작에 대해서 상세히 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 이미지 처리부에 대한 블록도이다.
도 2에 도시된 바와 같이, 이미지 처리부(130)는 에지 검출부(131), 제1 이미지 생성부(133) 및 제2 이미지 생성부(135)를 포함한다.
에지 검출부(131)는 에지 검출 알고리즘을 이용하여 선택 영역에 포함된 오브젝트의 에지 정보를 검출한다.
실시예에 따라, 에지 검출부(131)는 케니 에지 디텍션(Canny Edge Detection) 알고리즘을 이용하여 선택 영역에 포함된 오브젝트의 에지 정보를 검출할 수 있다.
구체적으로, 에지 검출부(131)는 가우시안 필터를 오브젝트에 마스킹 방식으로 적용하여 노이즈를 제거하고, 수평 및 수직 방향의 미분값을 계산하여 기설정된 임계값 이상의 값을 가지는 부분을 에지 영역을 판단한다. 이후, 에지 검출부는 에지 영역 각각에 대한 세기 및 방향을 분석하여 기설정된 값 이상을 갖는 부분을 오브젝트에 대한 에지로 검출할 수 있다.
이 같은 오브젝트에 대한 에지 검출 방법은 공지된 기술이므로 상세한 설명은 생략하도록 한다.
에지 검출부(131)를 통해 오브젝트에 대한 에지 정보가 검출되면, 제1 이미지 생성부(133)는 검출된 에지 정보에 기초하여 오브젝트의 에지 이미지를 생성한다. 이후, 제1 이미지 생성부(133)는 형태 연산(Morphology Operation) 알고리즘을 이용하여 모폴로지(Morphology) 이미지를 생성한다.
구체적으로, 제1 이미지 생성부(133)는 형태 연산 중 중 하나인 닫힘 연산(Closing Operation) 알고리즘을 이용하여 모폴로지 이미지를 생성한다. 즉, 제1 이미지 생성부(133)는 닫힘 연산을 통해 밝은 영역에 생긴 홀 영역을 주변 영역과 같이 채워 오므젝트에 대한 모폴로지 이미지를 생성할 수 있다.
이 같은 모폴로지 이미지가 생성되면, 제1 이미지 생성부(133)는 연결 요소(Connected Component) 알고리즘을 이용하여 기생성된 모폴로지 이미지의 에지 영역이 연결된 윤곽(Contour) 이미지를 생성한다.
제2 이미지 생성부(135)는 제1 이미지 생성부(133)를 통해 생성된 윤곽 이미지의 에지 정보에 기초하여 해당 윤곽 이미지의 내부를 채운 바이너리 이미지를 생성한다.
구체적으로, 제2 이미지 생성부(135)는 모폴로지 이미지의 에지 영역과 같은 형태의 구조인 윤곽(Contour)으로 모폴로지 이미지의 내부를 채워 오브젝트에 대한 바이너리 이미지를 생성할 수 있다.
이 같은 이미지 처리부(130)에 포함된 각 구성들에 의해 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지가 획득되면, 제어부(140)는 전술한 바와 같이, 기획득한 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 바이너리 이미지를 회전시킨다. 이후, 제어부(140)는 회전된 바이너리 이미지와 원래의 바이너리 이미지 간의 일치 여부를 판단한 후, 그 판단 결과에 기초하여 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단한다.
구체적으로, 제어부(140)는 제1 이전 회전 대칭각과 기정의된 소수의 집합 중 n 번째 소수를 이용하여 바이너리 이미지의 제1 현재 회전 대칭각을 획득한다.
실시예에 따라, 제1 회전 대칭각은, 제1 이전 회전 대칭각을 n 번째 소수로 나눈 값이 될 수 있다. 그리고, 제1 이전 회전 대칭각은 360도이며, 기정의된 소수의 집합은 2,3,5,7,11,13,17,19,23, 29 중 적어도 하나의 소수를 포함할 수 있다.
제1 회전 대칭각이 획득되면, 제어부(140)는 획득된 제1 현재 회전 대칭각과 기설정된 최소 회전 대칭각을 비교한다. 여기서, 최소 회전 대칭각은 15도가 될 수 있다.
비교 결과 제1 현재 회전 대칭각이 최소 회전 대칭각 보다 작으면, 제어부(140)는 제1 이전 회전 대칭각을 최종 회전 대칭각으로 결정한다.
한편, 비교 결과 제1 현재 회전 대칭각이 최소 회전 대칭각 보다 크면, 제어부(140)는 바이너리 이미지에 대한 기준점을 중심으로 제1 현재 회전 대칭각 만큼 바이너리 이미지를 회전시키다.
여기서, 바이너리 이미지에 대한 기준점은 바이너리 이미지의 무게 중심이 될 수 있다.
바이너리 이미지의 무게 중심의 x,y 좌표값 중 x 값은 바이너리 이미지의 x 화소 좌표값의 합을 바이너리 이미지 내 화소 개수로 나눈 값이 될 수 있다. 그리고, 바이너리 이미지의 무게 중심의 y 값은 바이너리 이미지의 y 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값이 될 수 있다.
이 같은 바이너리 이미지의 무게 중심이 결정되면, 제어부(140)는 결정된 무게 중짐을 오브젝트의 회전 대칭성 여부를 판단하기 위한 회전 중심으로 결정할 수 있다. 즉, 제어부(140)는 기결정된 무게 중심을 기준으로 제1 현재 회전 대칭각 만큼 바이너리 이미지를 회전시킬 수 있다.
이후, 제어부(140)는 회전된 이미지와 바이너리 이미지가 일치하는지 여부를 판단하여 두 이미지가 일치하면, 제1 현재 회전 대칭각을 제2 이전 회전 대칭각으로 결정한다. 제2 이전 회전 대칭각이 결정되면, 제어부(140)는 제2 이전 회전 대칭각과 n 번째 소수를 이용하여 제2 현재 회전 대칭각을 획득한 후, 획득한 제2 현재 회전 대칭각과 최소 회전 대칭각을 비교한다.
비교 결과, 제2 현재 회전 대칭각이 최소 회전 대칭각 보다 작으면, 제어부(140)는 제2 이전 회전 대칭각을 최종 회전 대칭각으로 결정한다.
한편, 제2 현재 회전 대칭각이 최소 회전 대칭각 보다 크면, 제어부(140)는 현재 회전 대칭각이 최소 회전 대칭각 보다 작을 때까지 전술한 일련의 동작을 반복 수행한다.
한편, 제어부(140)는 회전된 이미지가 바이너리 이미지와 일치하지 않으면, 제1 이전 회전 대칭각과, 소수의 집합 중 n+1 번째 소수를 이용하여 제2 현재 회전 대칭각을 획득한다.
실시예에 따라, 회전된 이미지가 바이너리 이미지와 일치하지 않은 경우, 제2 현재 회전 대칭각은 제1 이전 회전 대칭각을 n+1 번째 소수로 나눈 값이 될 수 있다.
이 같은 제2 현재 회전 대칭각이 획득되면, 제어부(140)는 전술한 바와 같이, 획득한 제2 현재 회전 대칭각과 최소 회전 대칭각을 비교하고, 그 비교 결과에 따라 제2 현재 회전 대칭각을 최종 회전 대칭각으로 결정하거나, 혹은 전술한 동작을 반복 수행할 수 있다.
이 같은 일련의 동작을 통해 최종 회전 대칭값이 획득되면, 제어부(140)는 획득된 최종 회전 대칭값을 오브젝트에 대한 회전 대칭 각도로 결정한다.
이후, 제어부(140)는 획득된 최종 회전 대칭값에 기초하여 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단할 수 있다.
실시예에 따라, 제어부(140)는 최종 회전 대칭값이 360도인지 여부에 따라, 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단할 수 있다. 즉, 제어부(140)는 선택 영역에 포함된 오브젝트가 회전 대칭성이 없는 것으로 판단한다. 한편, 제어부(140)는 최종 회전 대칭값이 0도이면, 선택 영역에 포함된 오브젝트가 원형인 것으로 판단할 수 있다.
도 3은 본 발명의 일 실시예에 따른 영상 분석 장치에서 오브젝트에 대한 회전 대칭성 여부를 판단하는 예시도이다.
도 3의 (a)에 도시된 바와 같이, 영상 분석 장치(100)는 영상 이미지(310)에 포함된 제1 내지 제3 오브젝트 중 사용자의 선택 명령에 따라 제1 오브젝트를 포함하는 선택 영역(311)을 결정할 수 있다.
이 같은 제1 오브젝트(311)를 포함하는 선택 영역(311)이 결정되면, 영상 분석 장치(100)는 도 3의 (b)에 도시된 바와 같은 윤곽 이미지(320)를 생성한다. 윤곽 이미지(320) 생성에 대한 설명은 상기에서 상세히 설명하였으므로 이하에서는 상세한 설명을 생략하도록 한다.
윤곽 이미지(320)가 생성되면, 영상 분석 장치(100)는 도 3의 (c)에 도시된 바와 같이, 윤곽 이미지(320)의 내부가 채워진 바이너리 이미지(330)를 생성하고, 생성된 바이너리 이미지(330)로부터 무게 중심을 구한다. 이후, 영상 분석 장치(100)는 도 3의 (d)에 도시된 바와 같이, 바이너리 이미지에 대한 무게 중심을 기준으로 바이너리 이미지를 회전시켜 제1 오브젝트에 대한 최종 회전 대칭각을 결정한다.
예를 들어, 10각형 형태의 오브젝트(날개가 10개 달린 바람개비)의 경우, 영상 분석 장치(100)는 다음과 같은 알고리즘을 통해 10각형 형태의 오브젝트에 대한 최종 회전 대칭각을 구할 수 있다.
전술한 바와 같이, 최소 회전 대칭각은 15도이고, 이전 회전 대칭각(이하 제1 이전 회전 대칭각이라 함)은 360도이며, 정렬된 소수의 집합은 2,3,5,7,11,13,17,19,23,29가 될 수 있다.
최초, 영상 분석 장치(100)는 위 조건에 기초하여 현재 회전 대칭각(이하 제1 현재 회전 대칭각이라 함)을 구한다. 구체적으로, 영상 분석 장치(100)는 제1 이전 회전 대칭각인 360도를 정렬된 소수들 중 n 번째 소수인 2로 나누고, 그에 따른 결과값 180도를 제1 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제1 현재 회전 대칭각인 180도가 최소 회전 대칭각인 15도 보다 작은지 여부를 판단한다.
판단 결과, 제1 현재 회전 대칭각이 최소 회전 대칭각보다 크면, 영상 분석 장치(100)는 제1 현재 회전 대칭각인 180도 만큼 10각형 형태의 오브젝트에 대한 바이너리 이미지를 회전시키고, 180도 회전된 이미지와 원래의 바이너리 이미지가 일치하는지 여부를 판단한다.
판단 결과 두 이미지가 일치하면, 영상 분석 장치(100)는 제1 현재 회전 대칭각을 제2 이전 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제2 이전 회전 대칭각인 180도를 n 번째 소수인 2로 나누고, 그에 따른 결과값 90도를 제2 현재 회전 대칭각으로 결정한다. 이후, 영상 분석 장치(100)는 제2 현재 회전 대칭각인 90도가 최소 회전 대칭각인 15도 보다 작은지 여부를 판단하여, 제2 현재 회전 대칭각이 최소 회전 대칭각보다 크면, 제2 현재 회전 대칭각인 90도 만큼 10각형 형태의 오브젝트에 대한 바이너리 이미지를 회전시킨다. 이후, 영상 분석 장치(100)는 90도 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
두 이미지가 서로 일치하지 않으면, 영상 분석 장치(100)는 제2 이전 회전 대칭각인 180도를 소수의 집합 중 n+1 번째 소수인 3으로 나누고, 그에 따른 결과값 60도를 제3 현재 회전 대칭각으로 결정한다. 제3 현재 회전 대칭각은 최소 회전 대칭각인 15도 보다 크므로, 영상 분석 장치(100)는 제3 현재 회전 대칭각인 60도 만큼 10각형 형태의 오브젝트에 대한 바이너리 이미지를 회전시킨다. 이후, 영상 분석 장치(100)는 60도 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
두 이미지가 서로 일치하지 않으면, 영상 분석 장치(100)는 제2 이전 회전 대칭각인 180도를 소수의 집합 중 n+2 번째 소수인 5으로 나누고, 그에 따른 결과값 36도를 제4 현재 회전 대칭각으로 결정한다. 제4 현재 회전 대칭각은 최소 회전 대칭각인 15도 보다 크므로, 영상 분석 장치(100)는 제4 현재 회전 대칭각인 36도 만큼 10각형 형태의 오브젝트에 대한 바이너리 이미지를 회전시킨다. 이후, 영상 분석 장치(100)는 36도 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 서로 일치하면, 영상 분석 장치(100)는 제4 현재 회전 대칭각을 제3 이전 회전 대칭각으로 결정한다. 이후, 영상 분석 장치(100)는 기결정된 제3 이전 회전 대칭각인 36도를 n 번째 소수인 2로 나누고, 그에 따른 결과값 18도를 제5 현재 회전 대칭각으로 결정한다. 제5 현재 회전 대칭각은 최소 회전 대칭각인 15도 보다 크므로, 영상 분석 장치(100)는 제5 현재 회전 대칭각인 18도 만큼 10각형 형태의 오브젝트에 대한 바이너리 이미지를 회전시킨다. 이후, 영상 분석 장치(100)는 18도 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
두 이미지가 서로 일치하지 않으면, 영상 분석 장치(100)는 제3 이전 회전 대칭각인 36도를 n+1 번째 소수인 3으로 나누고, 그에 따른 결과값 12도를 제6 현재 회전 대칭각으로 결정한다. 이후, 영상 분석 장치(100)는 제6 현재 회전 대칭각이 최소 회전 대칭각 보다 작은지를 판단한다. 판단 결과, 제6 현재 회전 대칭각인 12도가 최소 회전 대칭각인 15도보다 작으면, 영상 분석 장치(100)는 제3 이전 회정 대칙각인 36도를 10각형 형태의 오브젝트의 최종 회전 대칭각으로 결정할 수 있다.
즉, 영상 분석 장치(100)는 5번의 회전 대칭성 체크를 통해 오브젝트에 대한 최종 회전 대칭각을 구할 수 있다.
한편, 회전 대칭성이 없는 일반적인 오브젝트의 경우, 영상 분석 장치(100)는 다음과 같은 알고리즘을 통해 최종 회전 대칭각인 360도를 구할 수 있다.
전술한 바와 같이, 최소 회전 대칭각은 15도이고, 이전 회전 대칭각(이하 제1 이전 회전 대칭각이라 함)은 360도이며, 정렬된 소수의 집합은 2,3,5,7,11,13,17,19,23,29가 될 수 있다.
최초, 영상 분석 장치(100)는 위 조건에 기초하여 제1 현재 회전 대칭각을 구한다. 구체적으로, 영상 분석 장치(100)는 제1 이전 회전 대칭각인 360도를 정렬된 소수들 중 n 번째 소수인 2로 나누고, 그에 따른 결과값 180도를 제1 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제1 현재 회전 대칭각인 180도가 최소 회전 대칭각인 15도 보다 작은지 여부를 판단한다. 판단 결과, 제1 현재 회전 대칭각이 최소 회전 대칭각보다 크면, 영상 분석 장치(100)는 제1 현재 회전 대칭각인 180도 만큼 오브젝트에 대한 바이너리 이미지를 회전시키고, 180도 회전된 이미지와 원래의 바이너리 이미지가 일치하는지 여부를 판단한다.
판단 결과 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회전 대칭각인 360도를 n+1 번째 소수인 3으로 나누고, 그에 따른 결과값 120도를 제2 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제2 현재 회전 대칭각이 최소 회전 대칭각보다 큰 것으로 판단되면, 제2 현재 회전 대칭각인 120도 만큼 오브젝트에 대한 바이너리 이미지를 회전시키고, 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회전 대칭각인 360도를 n+2 번째 소수인 5로 나누고, 그에 따른 결과값 72도를 제3 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제3 현재 회전 대칭각이 최소 회전 대칭각보다 큰 것으로 판단되면, 72도 만큼 오브젝트에 대한 바이너리 이미지를 회전시키고, 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회전 대칭각인 360도를 n+3 번째 소수인 7로 나누고, 그에 따른 결과값 51.43도를 제4 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제4 현재 회전 대칭각이 최소 회전 대칭각보다 큰 것으로 판단되면, 51.43도 만큼 바이너리 이미지를 회전시키고, 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회정 대칭각인 360도를 n+4 번째 소수인 11로 나누고, 그에 따른 결과값 32.72도를 제5 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제5 현재 회전 대칭각이 최소 회전 대칭각보다 큰 것으로 판단되면, 32,72도 만큼 바이너리 이미지를 회전시키고, 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회정 대칭각인 360도를 n+5 번째 소수인 13로 나누고, 그에 따른 결과값 27.69도를 제6 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제6 현재 회전 대칭각이 최소 회전 대칭각보다 큰 것으로 판단되면, 27.69도 만큼 바이너리 이미지를 회전시키고, 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회정 대칭각인 360도를 n+6 번째 소수인 17로 나누고, 그에 따른 결과값 21.18도를 제7 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제7 현재 회전 대칭각이 최소 회전 대칭각보다 큰 것으로 판단되면, 21.18도 만큼 바이너리 이미지를 회전시키고, 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회정 대칭각인 360도를 n+7 번째 소수인 19로 나누고, 그에 따른 결과값 18.95도를 제8 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제8 현재 회전 대칭각이 최소 회전 대칭각보다 큰 것으로 판단되면, 18.95도 만큼 바이너리 이미지를 회전시키고, 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회정 대칭각인 360도를 n+8 번째 소수인 23로 나누고, 그에 따른 결과값 15.65도를 제9 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제9 현재 회전 대칭각이 최소 회전 대칭각보다 큰 것으로 판단되면, 15.65도 만큼 바이너리 이미지를 회전시키고, 회전된 이미지와 원래의 바이너리 이미지가 일치하는지를 판단한다.
판단 결과, 두 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회전 대칭각인 360도를 n+9 번째 소수인 29로 나누고, 그에 따른 결과값 12.41도를 제10 현재 회전 대칭각으로 결정한다.
이후, 영상 분석 장치(100)는 제10 현재 회전 대칭각이 최소 회전 대칭각보다 작은 것으로 판단되면, 제1 이전 회전 대칭각인 360도를 최종 회전 대칭각으로 결정하고, 오브젝트가 회전 대칭성이 없는 것으로 판단할 수 있다.
이와 같이, 본 발명에 따른 영상 분석 장치(100)는 9번의 회전 대칭성을 체크하여 오브젝트의 회전 대칭성이 없는 것으로 판단할 수 있다.
이하에서는, 전술한 영상 분석 장치(100)에 대한 세부 구성에 대해서 상세히 설명하도록 한다.
도 4는 본 발명의 일 실시예에 따른 영상 분석 장치에 대한 세부 블록도이다.
영상 분석 장치(100)는 전술한 촬영부(110), 입력부(120), 이미지 처리부(130) 및 제어부(140) 구성 외에 도 4에 도시된 바와 같이, 출력부(150),통신부(160), 및 저장부(170)를 더 포함할 수 있다.
한편, 촬영부(110)는 물체를 포함하여 주변환경을 촬영하는 카메라로 구현될 수 있다. 이 경우, 촬영부(110)는 영상이 투과되는 렌즈(미도시) 및 렌즈를 통해 투과된 영상을 감지하는 이미지 센서(미도시)를 포함할 수 있다. 이미지 센서(이미지)는 CCD이미지 센서 또는 CMOS 이미지 센서로 구현될 수 있다. 촬영부(280)를 통해 획득된 영상 데이터는 영상 처리부(미도시)에서 처리될 수 있다.
한편, 커넥터(113)는 USB 2.0, USB 3.0, HDMI, IEEE 1394 등 다양한 소스 장치와의 인터페이스를 제공하는 구성이다. 이 같은 커넥터(113)는 제어부(140)의 제어 명령에 따라 커넥터(113)에 연결된 유선 케이블을 통해 외부 서버로부터 영상 데이터를 수신하거나, 기저장된 영상 데이터를 외부 기록 매체로 전송할 수 있다. 또한, 커넥터(113)는 커넥터(113)와 물리적으로 연결된 유선 케이블을 통해 전원 소스로부터 전원을 입력받을 수 있다.
한편, 전술한 입력부(120)는 다양한 사용자 명령을 입력받아 제어부(140)로 전달하기 위한 입력 수단이다. 이 같은 입력부(120)는 사용자 음성 명령을 입력받는 마이크(미도시)를 비롯해, 본 발명의 실시예에서는 키보드나 마우스와 같은 주변기기를 이용해 이미지상에 포함된 오브젝트를 선택하는 수단, 또는, 원격 제어 장치와 같은 적어도 하나의 주변 기기(미도시)로부터 영상 분석 장치(100)의 동작을 제어하기 위한 IR 신호 혹은 RF 신호를 입력받는 사용자 입력부(124) 등을 포함할 수 있다.
또한, 본 발명의 실시예에서 입력부(120)는, 상기 촬영부(110)가 구비되지 않을 경우에 (보조)저장장치 및 후술하는 통신부(100)를 통해 영상이미지 데이터를 수신하여 입력받을 수 있다.
출력부(150)는 전술한 바와 같은 디스플레이부(미도시) 및 오디오 출력부(미도시)를 통해 컨텐츠의 영상 및 오디오 데이터를 출력할 수 있다.
또한, 전술한 통신부(160)는 외부로부터 영상 데이터를 수신할 뿐만 아니라, 스마트 TV, 스마트 폰, 태블릿 PC 등의 주변 기기(미도시), 컨텐츠 서버(미도시)와 데이터를 송수신하기 위한 중계 단말 장치(미도시) 등과 데이터 통신을 수행할 수 있다.
이 같은 통신부(160)는 근거리 통신 모듈(161), 무선 통신 모듈(162) 및 HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), IEEE(Institute of Electrical and Eletronics Engineers) 1394 등의 유선 통신 모듈 중 적어도 하나를 포함하는 커넥터(113)를 포함할 수 있다.
근거리 통신 모듈(161)은 영상 분석 장치(100)와 근거리에 위치한 주변 기기, 인공지능 서버 등과 무선으로 근거리 통신을 수행하는 구성이다. 이 같은 근거리 통신 모듈(161)은 블루투스(bluetooth)모듈, 적외선 통신(IrDA, infrared data association)모듈, NFC(Near Field Communication)모듈, 와이파이(WIFI)모듈, 지그비(Zigbee) 모듈 중 적어도 하나를 포함할 수 있다.
또한, 무선 통신 모듈(162)은 IEEE 등과 같은 무선 통신 프로토콜에 따라 외부 네트워크에 연결되어 통신을 수행하는 모듈이다. 이 밖에 무선 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신을 수행하는 이동 통신 모듈을 더 포함할 수도 있다.
이처럼 통신부(160)는 상술한 다양한 근거리 통신 방식에 의해 구현될 수 있고, 필요에 따라 본 명세서에 언급되지 않은 다른 통신 기술을 채용할 수 있다.
저장부(170)는 통신부(160)를 통해 수신된 영상 데이터 및 영상 데이터에 포함된 적어도 하나의 오브젝트에 대한 회전 대칭 관련 정보를 저장할 수 있다. 뿐만 아니라, 저장부(170)는 외부로 수신된 다양한 컨텐츠 혹은 촬영부(110)를 통해 촬영된 영상 데이터를 저장할 수 있다.
추가적으로, 저장부(170)는 영상 분석 장치(100)의 동작을 제어하기 위한 운영 프로그램을 더 저장할 수 있다.
여기서, 운용 프로그램은 영상 분석 장치(100)가 턴 온(Turn On)되는 경우, 저장부(170)에서 읽혀지고, 컴파일되어 영상 분석 장치(100)의 각 구성을 동작시키는 프로그램이 될 수 있다. 이 같은 저장부(170)는 후술할 롬(ROM)(142), 램(RAM)(143) 또는 영상 분석 장치(100)에 탈착/장착 가능한 메모리 카드(예, SD 카드, 메모리 스틱), 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나로 구현될 수 있다.
한편, 전술한 제어부(140)는 영상 분석 장치(100)의 동작을 전반적으로 제어하거나, 혹은 영상 분석 장치(100)의 전반적인 동작을 제어할 수 있도록 하는 처리 장치가 될 수 있다.
이 같은 제어부(140)는 CPU(141), ROM(142), RAM(143) 및 GPU(144)를 포함할 수 있으며, CPU(141), ROM(142), RAM(143) 및 GPU(144)는 버스(145)를 통해 서로 연결될 수 있다.
CPU(141)는 저장부(170)를 액세스하여, 저장부(170)에 저장된 OS를 이용하여 부팅을 수행한다. 또한 CPU(141)는 저장부(170)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(142)은 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, CPU(141)는 ROM(142)에 저장된 명령어에 따라 저장부(170)에 저장된 OS를 RAM(143)에 복사하고, OS를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(141)는 저장부(170)에 저장된 각종 프로그램을 RAM(143)에 복사하고, RAM(143)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다.
GPU(144)는 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 디스플레이 화면을 생성한다. 구체적으로, GPU(144)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하고, 연상된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 디스플레이 화면을 생성한다.
이 같은 제어부(140)는 전술한 각 구성들과 결합되어 단일칩 시스템(System-on-a-chip 또는 System on chip, SOC, SoC)으로 구현될 수 있다.
지금까지, 본 발명에 따른 영상 분석 장치(100)에 대해서 상세히 설명하였다. 이하에서는 본 발명에 따른 영상 분석 장치(100)에서 영상을 분석하는 방법에 대해서 상세히 설명하도록 한다.
도 5는 본 발명의 일 실시예에 따른 영상 분석 장치의 영상 분석 방법에 대한 흐름도이다.
도 5에 도시된 바와 같이, 영상 분석 장치(100)는 촬영부(110)를 통해 영상 이미지를 입력받는다(S510). 그러나, 본 발명은 이에 한정되지 않으며, 영상 분석 장치(100)는 기저장된 영상 이미지를 사용자의 요청에 의해 통신부(160)나 다양한 저장장치를 통해 수신하거나 입력받을 수 있다.
영상 이미지가 입력되면, 영상 분석 장치(100)는 영상 이미지에 포함된 적어도 하나의 오브젝트에 대한 사용자 명령을 입력받는다(S520). 이후, 영상 분석 장치(100)는 사용자 명령에 대응하는 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득한다(S530).
이후, 영상 분석 장치(100)는 획득한 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 바이너리 이미지를 회전시키고, 회전된 바이너리 이미지와 원래의 바이너리 이미지의 일치 여부를 판단하여 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단한다(S540).
이하에서는 본 발명에 따른 영상 분석 장치(100)에서 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득하는 방법에 대해서 상세히 설명하도록 한다.
도 6은 본 발명의 일 실시예에 따른 영상 분석 장치에서 오브젝트에 대한 바이너리 이미지를 획득하는 방법의 흐름도이다.
도 6에 도시된 바와 같이, 영상 분석 장치(100)는 에지 검출 알고리즘을 이용하여 선택 영역에 포함된 오브젝트의 에지 정보를 검출한다(S610). 이후, 영상 분석 장치(100)는 검출된 에지 정보에 기초하여 선택 영역에 포함된 오브젝트의 에지 이미지를 생성한다(S620).
실시예에 따라, 영상 분석 장치(100)는 형태 연산 중 중 하나인 닫힘 연산(Closing Operation) 알고리즘을 이용하여 모폴로지 이미지를 생성할 수 있다.
여기서, 모폴로지 이미지는 닫힘 연산을 통해 밝은 영역에 생긴 홀 영역을 주변 영역과 같은 값으로 채워진 이미지가 될 수 있다.
이 같은 모폴로지 이미지가 생성되면, 영상 분석 장치(100)는 형태 연산 알고리즘을 이용하여 모폴로지(Morphology) 이미지를 생성하고, 연결 요소 알고리즘을 이용하여 기생성된 모폴로지 이미지의 에지 영역이 연결된 윤곽 이미지를 생성한다(S630,S640). 이후, 영상 분석 장치(100)는 기생성된 윤곽 이미지의 에지 정보에 기초하여 상기 윤곽 이미지의 내부를 채운 바이너리 이미지를 생성한다(S650).
이 같은 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지가 생성되면, 영상 분석 장치(100)는 전술한 단계 S540을 통해 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단할 수 있다.
이하에서는, 본 발명에 따른 영상 분석 장치(100)에서 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단하는 방법에 대해서 상세히 설명하도록 한다.
도 7 내지 제 9는 본 발명의 일 실시예에 따른 영상 분석 장치에서 오브젝트의 회전 대칭성 여부를 판단하는 방법의 흐름도이다.
도 7에 도시된 바와 같이, 영상 분석 장치(100)는 제1 이전 회전 대칭각과 기정의된 소수의 집합 중 n 번째 소수를 이용하여 상기 바이너리 이미지의 제1 현재 회전 대칭각을 획득한다(S710).
여기서, 제1 현재 회전 대칭각은 제1 이전 회전 대칭각을 n 번째 소수로 나눈 값이 될 수 있으며, 제1 이전 회전 대칭각은 360도가 될 수 있다. 그리고, 기정의된 소수의 집합은, 2,3,5,7,11,13,17,19,23 및 29 소수를 포함할 수 있다.
따라서, 영상 분석 장치(100)는 제1 이전 회전 대칭각을 n 번째 소수인 2로 나누 값으로부터 제1 현재 회전 대칭각을 획득할 수 있다.
제1 현재 회전 대칭각이 획득되면, 영상 분석 장치(100)는 기획득한 제1 현재 회전 대칭각과 기설정된 최소 회전 대칭각을 비교한다(S720). 여기서, 최소 회전 대칭각은 15도가 될 수 있다.
비교 결과, 제1 현재 회전 대칭각이 최소 회전 대칭각보다 작으면, 영상 분석 장치(100)는 제1 이전 회전 대칭각을 최종 회전 대칭각으로 결정하고, 결정된 최종 회전 대칭각을 이용하여 오브젝트의 회전 대칭성 여부를 판단한다(S740).
최종 회전 대칭각을 이용하여 오브젝트의 회전 대칭성 여부를 판단하는 방법은 하기에서 상세히 설명하도록 한다.
한편, 전술한 단계 S720에서 제1 현재 회전 대칭각이 최소 회전 대칭각 보다 작으면, 영상 분석 장치(100)는 제1 현재 회전 대칭각을 이용하여 오브젝트의 회전 대칭 여부를 판단한다(S750).
구체적으로, 영상 분석 장치(100)는 도 8에 도시된 바와 같이, 제1 현재 회전 대칭각이 최소 회전 대칭각 보다 작으면, 제1 현재 회전 대칭각 만큼 오브젝트에 대한 바이너리 이미지를 회전시킨다(S810).
이후, 영상 분석 장치(100)는 회전된 이미지와 원래의 바이너리 이미지가 일치하는지 여부를 판단한다(S820). 판단 결과, 두 이미지가 일치하면, 영상 분석 장치(100)는 제1 현재 회전 대칭각을 제2 이전 회전 대칭각으로 결정한다(S830). 이후, 영상 분석 장치(100)는 제2 이전 회전 대칭각과 n 번째 소수를 이용하여 제2 현재 회전 대칭각을 획득한다(S840).
구체적으로, 영상 분석 장치(100)는 제2 이전 회전 대칭각을 n 번째 소수로 나눈 값을 제2 현재 회전 대칭각으로 획득할 수 있다.
한편, 전술한 단계 S820에서 회전된 이미지와 원래의 바이너리 이미지가 일치하지 않으면, 영상 분석 장치(100)는 제1 이전 회전 대칭각과 n+1 번째 소수를 이용하여 제2 현재 회전 대칭각을 획득한다(S850).
구체적으로, 영상 분석 장치(100)는 제1 이전 회전 대칭각을 n+1 번째 소수로 나눈 값을 제2 현재 회전 대칭각으로 획득할 수 있다.
이 같은 다양한 실시예를 통해 제2 현재 회전 대칭각이 획득되면, 영상 분석 장치(100)는 획득된 제2 현재 회전 대칭각이 최소 회전 대칭각 보다 작은지 여부를 판단한다(S860). 판단 결과, 제2 현재 회전 대칭각이 최소 회전 대칭각 보다 작으면, 영상 분석 장치(100)는 제2 이전 회전 대칭각을 최종 회전 대칭각으로 결정한다(S870).
한편, 제2 현재 회전 대칭각이 최소 회전 대칭각 보다 크면, 영상 분석 장치(100)는 현재 회전 대칭각이 최소 회전 대칭각 보다 작아질 때까지 전술한 일련의 동작을 반복 수행한다.
한편, 영상 분석 장치(100)는 최종 회전 대칭각이 결정되면, 다음와 같은 방법을 통해 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단할 수 있다.
도 9에 도시된 바와 같이, 영상 분석 장치(100)는 최종 회전 대칭각이 360도 인지를 판단한다(S910). 판단 결과, 최종 회전 대칭각이 360도이면, 영상 분석 장치(100)는 선택 영역에 포함된 오브젝트의 회전 대칭성이 없는 것으로 판단한다(S920).
한편, 최종 회전 대칭각이 360도가 아니면, 영상 분석 장치(100)는 최종 회전 대칭각이 0도인지 여부를 판단한다(S930). 판단 결과, 최종 회전 대칭각이 0도이면, 영상 분석 장치(100)는 선택 영역에 포함된 오브젝트가 원형 형태인 것으로 판단한다(S940). 한편, 최종 회전 대칭각이 0도가 아닌 것으로 판단되면, 영상 분석 장치(100)는 선택 영역에 포함된 오브젝트가 회전 대칭성을 갖는 것으로 판단한다(S950).
한편, 상술한 다양한 실시 예들에 따른 영상 분석 장치의 제어 방법은 소프트웨어로 코딩되어 비일시적 판독 가능 매체(non-transitory readable medium)에 저장될 수 있다. 이러한 비일시적 판독 가능 매체는 다양한 장치에 탑재되어 사용될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.

Claims (18)

  1. 영상 분석 방법에 있어서,
    영상 이미지를 입력받는 단계;
    상기 영상 이미지에 포함된 적어도 하나의 오브젝트에 대한 사용자 명령을 입력받는 단계;
    상기 사용자 명령에 대응하는 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득하는 단계; 및
    상기 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 상기 바이너리 이미지를 회전시켜, 상기 회전된 바이너리 이미지와의 일치 여부를 판단하여 상기 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단하는 단계;
    를 포함하는 것을 특징으로 하는 영상 분석 방법.
  2. 제 1 항에 있어서,
    상기 바이너리 이미지를 획득하는 단계는,
    에지 검출 알고리즘을 이용하여 상기 선택 영역에 포함된 오브젝트의 에지 정보를 검출하는 단계;
    상기 검출된 에지 정보에 기초하여 상기 오브젝트의 에지 이미지를 생성하는 단계;
    형태 연산 알고리즘을 이용하여 모폴로지(Morphology) 이미지를 생성하는 단계;
    연결 요소 알고리즘을 이용하여 상기 모폴로지 이미지의 에지 영역이 연결된 윤곽 이미지를 생성하는 단계; 및
    상기 생성된 윤곽 이미지의 에지 정보에 기초하여 상기 윤곽 이미지의 내부를 채운 바이너리 이미지를 생성하는 단계;
    를 포함하는 것을 특징으로 하는 영상 분석 방법.
  3. 제 1 항에 있어서,
    상기 판단하는 단계는,
    제1 이전 회전 대칭각과 기정의된 소수의 집합 중 n 번째 소수를 이용하여 상기 바이너리 이미지의 제1 현재 회전 대칭각을 획득하는 단계;
    상기 제1 현재 회전 대칭각과 기설정된 최소 회전 대칭각을 비교하는 단계; 및
    상기 제1 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 작으면, 상기 제1 이전 회전 대칭각을 최종 회전 대칭각으로 결정하는 단계;
    를 포함하는 것을 특징으로 하는 영상 분석 방법.
  4. 제 3 항에 있어서,
    상기 판단하는 단계는,
    상기 제1 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 크면, 상기 기준점을 중심으로 상기 제1 현재 회전 대칭각 만큼 상기 바이너리 이미지를 회전시키는 단계;
    상기 회전된 이미지가 상기 바이너리 이미지와 일치하는지 여부를 판단하는 단계; 및
    상기 판단 결과 두 이미지가 일치하면, 상기 제1 현재 회전 대칭각을 제2 이전 회전 대칭각으로 결정하고, 상기 제2 이전 회전 대칭각과 상기 n 번째 소수를 이용하여 제2 현재 회전 대칭각을 획득하는 단계;를 더 포함하며,
    상기 결정하는 단계는,
    상기 제2 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 작으면, 상기 제2 이전 회전 대칭각을 최종 회전 대칭각으로 결정하는 것을 특징으로 하는 영상 분석 방법.
  5. 제 4 항에 있어서,
    상기 제2 현재 회전 대칭각을 획득하는 단계는,
    상기 회전된 이미지가 상기 바이너리 이미지가 일치하지 않으면, 상기 제1 이전 회전 대칭각과 상기 소수의 집합 중 n+1 번째 소수를 이용하여 상기 제2 현재 회전 대칭각을 획득하는 것을 특징으로 하는 영상 분석 방법.
  6. 제 5 항에 있어서,
    상기 제1 및 제2 현재 회전 대칭각은,
    상기 제1 또는 제2 이전 회전 대칭각을 상기 n 번째 소수 또는 n+1 번째 소수로 나눈 값인 것을 특징으로 하는 영상 분석 방법.
  7. 제 3 항에 있어서,
    상기 기정의된 소수의 집합은,
    2,3,5,7,11,13,17,19,23 및 29 소수를 포함하며,
    상기 최소 회전 대칭각은 15도이며,
    상기 제1 이전 회전 대칭각은 360도인 것을 특징으로 하는 영상 분석 방법.
  8. 제 3 항에 있어서,
    상기 판단하는 단계는,
    상기 최종 회전 대칭값이 360도이면, 상기 오브젝트가 회전 대칭성이 없는 것으로 판단하고,
    상기 최종 회전 대칭값이 0도이면, 상기 오브젝트가 원형인 것으로 판단하는 것을 특징으로 하는 영상 분석 방법.
  9. 제 3 항에 있어서,
    상기 바이너리 이미지에 대한 기준점은,
    상기 바이너리 이미지의 무게 중심을 나타내는 x,y 좌표값이며,
    상기 무게 중심의 x 값은,
    상기 바이너리 이미지의 x 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값이며,
    상기 무게 중심의 y 값은,
    상기 바이너리 이미지의 y 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값인 것을 특징으로 하는 영상 분석 방법.
  10. 적어도 하나의 오브젝트를 포함하는 영상이미지를 분석하는 영상 분석 장치에 있어서,
    사용자 명령에 대응하는 선택 영역에 포함된 오브젝트에 대한 바이너리 이미지를 획득하는 이미지 처리부; 및
    상기 바이너리 이미지에 대한 기준점을 기준으로 기설정된 조건에 대응하는 각도로 상기 바이너리 이미지를 회전시켜, 상기 회전된 바이너리 이미지와의 일치 여부를 판단하여 상기 선택 영역에 포함된 오브젝트의 회전 대칭성 여부를 판단하는 제어부;
    를 포함하는 영상 분석 장치.
  11. 제 10 항에 있어서,
    상기 이미지 처리부는,
    에지 검출 알고리즘을 이용하여 상기 선택 영역에 포함된 오브젝트의 에지 정보를 검출하는 에지 검출부;
    상기 검출된 에지 정보에 기초하여 상기 오브젝트의 에지 이미지를 생성한 후, 형태 연산 알고리즘을 이용하여 모폴로지(Morphology) 이미지를 생성하며, 연결 요소 알고리즘을 이용하여 상기 모폴로지 이미지의 에지 영역이 연결된 윤곽 이미지를 생성하는 제1 이미지 생성부; 및
    상기 생성된 윤곽 이미지의 에지 정보에 기초하여 상기 윤곽 이미지의 내부를 채운 바이너리 이미지를 생성하는 제2 이미지 생성부;
    를 포함하는 것을 특징으로 하는 영상 분석 장치.
  12. 제 10 항에 있어서,
    상기 제어부는,
    제1 이전 회전 대칭각과 기정의된 소수의 집합 중 n 번째 소수를 이용하여 상기 바이너리 이미지의 제1 현재 회전 대칭각을 획득한 후, 상기 획득된 제1 현재 회전 대칭각과 기설정된 최소 회전 대칭각을 비교하여, 상기 제1 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 작으면, 상기 제1 이전 회전 대칭각을 최종 회전 대칭각으로 결정하는 것을 특징으로 하는 영상 분석 장치.
  13. 제 12 항에 있어서,
    상기 제어부는,
    상기 제1 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 크면, 상기 기준점을 중심으로 상기 제1 현재 회전 대칭각 만큼 상기 바이너리 이미지를 회전시킨 후, 상기 회전된 이미지가 상기 바이너리 이미지와 일치하는지 여부를 판단하여 상기 판단 결과 두 이미지가 일치하면, 상기 제1 현재 회전 대칭각을 제2 이전 회전 대칭각으로 결정하고, 상기 제2 이전 회전 대칭각과 상기 n 번째 소수를 이용하여 제2 현재 회전 대칭각을 획득하며,
    상기 획득된 제2 현재 회전 대칭각이 상기 최소 회전 대칭각 보다 작으면, 상기 제2 이전 회전 대칭각을 최종 회전 대칭각으로 결정하는 것을 특징으로 하는 영상 분석 장치.
  14. 제 13 항에 있어서,
    상기 제어부는,
    상기 회전된 이미지가 상기 바이너리 이미지가 일치하지 않으면, 상기 제1 이전 회전 대칭각과 상기 소수의 집합 중 n+1 번째 소수를 이용하여 상기 제2 현재 회전 대칭각을 획득하는 것을 특징으로 하는 영상 분석 장치.
  15. 제 14 항에 있어서,
    상기 제1 및 제2 현재 회전 대칭각은,
    상기 제1 또는 제2 이전 회전 대칭각을 상기 n 번째 소수 또는 n+1 번째 소수로 나눈 값인 것을 특징으로 하는 영상 분석 장치.
  16. 제 12 항에 있어서,
    상기 기정의된 소수의 집합은,
    2,3,5,7,11,13,17,19,23 및 29 소수를 포함하며,
    상기 최소 회전 대칭각은 15도이며,
    상기 제1 이전 회전 대칭각은 360도인 것을 특징으로 하는 영상 분석 장치.
  17. 제 12 항에 있어서,
    상기 제어부는,
    상기 최종 회전 대칭값이 360도이면, 상기 오브젝트가 회전 대칭성이 없는 것으로 판단하고,
    상기 최종 회전 대칭값이 0도이면, 상기 오브젝트가 원형인 것으로 판단하는 것을 특징으로 하는 영상 분석 장치.
  18. 제 12 항에 있어서,
    상기 바이너리 이미지에 대한 기준점은,
    상기 바이너리 이미지의 무게 중심을 나타내는 x,y 좌표값이며,
    상기 무게 중심의 x 값은,
    상기 바이너리 이미지의 x 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값이며,
    상기 무게 중심의 y 값은,
    상기 바이너리 이미지의 y 화소 좌표값의 합을 상기 바이너리 이미지 내 화소 개수로 나눈 값인 것을 특징으로 하는 영상 분석 장치.
PCT/KR2021/006466 2020-06-07 2021-05-24 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법 WO2021251651A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0068715 2020-06-07
KR1020200068715A KR102185934B1 (ko) 2020-06-07 2020-06-07 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2021251651A1 true WO2021251651A1 (ko) 2021-12-16

Family

ID=73792098

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/006466 WO2021251651A1 (ko) 2020-06-07 2021-05-24 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102185934B1 (ko)
WO (1) WO2021251651A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102185934B1 (ko) * 2020-06-07 2020-12-02 주식회사 플로이드 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015714A (ja) * 2006-07-05 2008-01-24 Nikon Corp 画像処理方法および画像処理装置、並びに光学装置
JP2011081485A (ja) * 2009-10-05 2011-04-21 Hitachi High-Technologies Corp パターンマッチング方法、パターンマッチングプログラム、電子計算機、電子デバイス検査装置
JP2011086183A (ja) * 2009-10-16 2011-04-28 Canon Inc 画像処理装置、画像処理方法及びプログラム
KR20170131257A (ko) * 2016-05-19 2017-11-29 라온피플 주식회사 머신 비전을 위한 영상 분석 방법 및 영상 분석 장치
JP2019219750A (ja) * 2018-06-15 2019-12-26 セコム株式会社 対象領域検出装置、対象領域検出方法、対象領域検出プログラム及び学習プログラム
KR102185934B1 (ko) * 2020-06-07 2020-12-02 주식회사 플로이드 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100025048A (ko) 2008-08-27 2010-03-09 중앙대학교 산학협력단 모션 캡쳐를 위한 영상 분석 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015714A (ja) * 2006-07-05 2008-01-24 Nikon Corp 画像処理方法および画像処理装置、並びに光学装置
JP2011081485A (ja) * 2009-10-05 2011-04-21 Hitachi High-Technologies Corp パターンマッチング方法、パターンマッチングプログラム、電子計算機、電子デバイス検査装置
JP2011086183A (ja) * 2009-10-16 2011-04-28 Canon Inc 画像処理装置、画像処理方法及びプログラム
KR20170131257A (ko) * 2016-05-19 2017-11-29 라온피플 주식회사 머신 비전을 위한 영상 분석 방법 및 영상 분석 장치
JP2019219750A (ja) * 2018-06-15 2019-12-26 セコム株式会社 対象領域検出装置、対象領域検出方法、対象領域検出プログラム及び学習プログラム
KR102185934B1 (ko) * 2020-06-07 2020-12-02 주식회사 플로이드 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법

Also Published As

Publication number Publication date
KR102185934B1 (ko) 2020-12-02

Similar Documents

Publication Publication Date Title
WO2018012945A1 (en) Method and device for obtaining image, and recording medium thereof
WO2017078361A1 (en) Electronic device and method for recognizing speech
WO2015167160A1 (en) Command displaying method and command displaying device
WO2018008991A1 (ko) 영상 처리를 위한 디스플레이 장치 및 방법
WO2018048163A1 (en) Electronic apparatus and method of controlling the same
WO2016006734A1 (ko) 생체정보를 인식하는 방법 및 장치
WO2019172642A1 (ko) 심장 박동을 측정하기 위한 전자 장치 및 방법
WO2021251652A1 (ko) 영상 분석 장치 및 방법
WO2017150815A1 (ko) 디스플레이의 밝기를 제어하는 방법, 전자 장치 및 컴퓨터 판독가능 기록매체
EP3529748A1 (en) Operating method for function of iris recognition and electronic device supporting the same
WO2018169374A1 (ko) 전자 장치 및 그 제어 방법
WO2020226289A1 (en) Electronic apparatus, user terminal, and method of controlling the electronic apparatus and the user terminal
WO2018052242A1 (en) Method for displaying soft key and electronic device thereof
WO2021025266A1 (en) Electronic apparatus and control method thereof
WO2021251651A1 (ko) 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법
WO2019190171A1 (ko) 전자 장치 및 그 제어 방법
WO2021251615A1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2022131488A1 (ko) 전자 장치 및 그 제어 방법
WO2019160325A1 (en) Electronic device and control method thereof
WO2021221490A1 (en) System and method for robust image-query understanding based on contextual features
WO2020130299A1 (en) Electronic apparatus and control method thereof
WO2018093198A1 (en) Image processing apparatus and control method thereof
WO2022060023A1 (ko) 전자 장치 및 그 제어 방법
WO2022085914A1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2022035054A1 (ko) 로봇 및 이의 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21822825

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21822825

Country of ref document: EP

Kind code of ref document: A1