WO2018199663A1 - 원근법 대응 이미지 보정 방법 및 장치 - Google Patents

원근법 대응 이미지 보정 방법 및 장치 Download PDF

Info

Publication number
WO2018199663A1
WO2018199663A1 PCT/KR2018/004876 KR2018004876W WO2018199663A1 WO 2018199663 A1 WO2018199663 A1 WO 2018199663A1 KR 2018004876 W KR2018004876 W KR 2018004876W WO 2018199663 A1 WO2018199663 A1 WO 2018199663A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
length
viewpoint
view
divided
Prior art date
Application number
PCT/KR2018/004876
Other languages
English (en)
French (fr)
Inventor
신동윤
Original Assignee
(주)디렉션
신동윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)디렉션, 신동윤 filed Critical (주)디렉션
Priority to EP18792169.7A priority Critical patent/EP3617989A4/en
Priority to CN201880026859.6A priority patent/CN110546681B/zh
Priority to US16/608,727 priority patent/US10970826B2/en
Priority to JP2020509406A priority patent/JP7360379B2/ja
Priority to AU2018257146A priority patent/AU2018257146B2/en
Publication of WO2018199663A1 publication Critical patent/WO2018199663A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/073Transforming surfaces of revolution to planar images, e.g. cylindrical surfaces to planar images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/153Transformations for image registration, e.g. adjusting or mapping for alignment of images using elastic snapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Definitions

  • the present invention relates to an image correction method corresponding to a perspective and an apparatus for performing the method, and more particularly, to an image correction capable of converting the target image to provide improved legibility for a given target image.
  • a method and apparatus are disclosed.
  • Road marking refers to the marking on the road surface using paint, paint, etc. for the safety and smooth communication of vehicle operation. Its contents range from signs on norms of vehicle operation such as center lines and pedestrian crossings, to descriptive signs such as 'slow to school' and 'children's protected areas'.
  • These road signs can provide a variety of information, such as information on driving or caution required for traffic safety, and are currently used on roads where vehicles are driven.
  • the structure of the character image is complicated in the case of Korean road sign by using the support and the vowel sound compared to the alphabet.
  • the driver may be unable to read or misread the road marking at a long distance due to the visual distortion caused by the perspective.
  • This phenomenon can also be found on single-row road markings, but can occur more often when two or more road markings are provided.
  • This problem is not only a problem of road signs marked on roads. This is also a problem in Street View, which is widely used in portal sites. 3 is a screen shot of Google Street View. On the screen, the text "Meadowlands Pkwy" was computerized on Street View to indicate the name of the road on the road. However, as a result of applying perspective in order to provide a more realistic sense to a Street View user, as can be seen from the figure, it can be seen that the readability deteriorates as the distance goes further.
  • FIG. 2 schematically, it is as follows.
  • Figure 2a shows a state viewed from a point located at a certain height from the ground.
  • the lines marked HL in the figure represent horizontal lines arranged parallel to each other at equal intervals, and the lines marked VL are also vertical lines arranged at equal intervals parallel to each other, each line VL being a respective line. Orthogonal to the line (HL).
  • the vertical lines (VLs) appear to converge toward the vanishing point at infinity, as the distance between neighboring vertical lines becomes narrower as you move away from the viewpoint. It becomes visible.
  • the horizontal line HL also appears to be getting farther away from the viewpoint as the distance between neighboring horizontal lines becomes narrower.
  • FIG. 2B illustrates a space including four surfaces of an upper surface, a bottom surface, and left and right sides.
  • the graphic may not be applied only to the bottom surface as in the example of the road sign, but the graphic may also be applied to the left and right sides or the top surface. Even in this case, it can be seen from FIG. 2B that distortion may be caused by perspective even when letters are coated on the left side, for example.
  • Korean Patent Publication No. 10-1668802 discloses a method of operating a remote identification image generating apparatus.
  • (e) generating the second image comprises: converting the first image into a three-dimensional image; And reflecting the viewpoint information, rotating the first image converted into the 3D image by a predetermined rotational angle toward the eyeline direction about a predetermined rotational axis, and extracting a planar image to obtain the second image.
  • a method of operation comprising the step of generating.
  • the method requires converting the first image into a three-dimensional image, rotating it around a rotation axis, and then extracting a planar image and extracting reference point coordinates of the first and second images. Doing.
  • an image correction method that can provide a consistent and easy image correction method and at the same time provide improved readability And an apparatus.
  • an image correction method comprising: providing a first image; Providing viewpoint information looking at the first image; Dividing the first image into two or more divided images along a horizontal direction of the first image; And converting each of the two or more divided images based on the view length information and the longitudinal length of each of the divided images, to provide a second image converted from the first image.
  • the viewpoint information includes information that can specify the position of the viewpoint with respect to the first image.
  • the viewpoint information may include: a viewpoint height from a plane on which the first image is located to a viewpoint; A viewpoint distance from a point at which the viewpoint is projected on a plane on which the first image is located to an end of a viewpoint side of the first image; A viewing angle at the viewing side end of the first image; A viewing angle at an end opposite to the viewpoint of the first image; A gaze length from the viewpoint to an end portion of the viewpoint side of the first image; A gaze length from the viewpoint to an end opposite to the viewpoint of the first image; A viewing angle of the first image; Two or more of them.
  • the providing of the second image converted from the first image may include: obtaining a view length for each divided image based on the viewpoint information and the vertical length of each of the divided images; Obtaining a transform length for each segmented image from the field of view length.
  • the step of obtaining the transformed length for each split image from the field of view length is such that the ratio of the transformed length of the i-th divided image to the n-i + 1th portion of the total field of view is obtained. Obtaining a transform length for each segmented image so that it is equal to the proportion occupied by the field of view length of the image. Where n is the total number of split images.
  • the step of obtaining the transform length for each split image from the field of view includes: a transform equation
  • h i is the field length of the i-th split image
  • n is the total number of split images
  • T is the total length of the target image.
  • the calculating of the viewing length may include obtaining the viewing length through a viewing length calculation equation, wherein the calculating of the viewing length h i for the i th divided image is performed.
  • S is the gaze length from the viewpoint to the focal point
  • ⁇ i is the viewing angle at the opposing end of the i-th split image
  • ⁇ 0 is the viewing angle at the viewing end of the first split image
  • ⁇ f is And obtaining the field of view through the field of view calculation, which is the field of view at the focal point.
  • the calculating of the viewing length may include obtaining the viewing length through a viewing length calculation equation, wherein the calculating of the viewing length h i for the i th divided image is performed.
  • R is the gaze length from the viewpoint to the viewing side end of the target image
  • ⁇ i is the viewing angle at the viewing side end of the i-th divided image
  • ⁇ 0 is the viewing angle at the viewing side end of the first divided image
  • the providing of the second image converted from the first image may include: obtaining a viewpoint angle for each of the divided images based on the viewpoint information and the vertical length of each of the divided images; Obtaining a transform length for each segmented image from the viewpoint angle.
  • the step of obtaining a view angle for each split image comprises: dividing each segment such that the ratio between the view angles for each split image and the ratio between the vertical lengths of each split image are equal to each other. Obtaining a viewing angle for the image.
  • the step of obtaining a view angle for each of the divided images may include the following transformation formula
  • the method may include obtaining a view angle ⁇ i for the i th divided image.
  • T is the total length of the target image
  • n is the total number of split images
  • a i is the vertical length of the i-th split image
  • ⁇ 0 is the viewing angle at the viewing end of the first split image
  • ⁇ n is the nth The viewing angle at the end of the gaze opposite to the segmented image.
  • the step of obtaining the transform length for each of the divided images may include the following transformation formula
  • H is a viewpoint height from a plane on which the first image is located to a viewpoint
  • L is a viewpoint distance from a point at which the viewpoint is projected on a plane on which the first image is located to a viewpoint side end of the first image.
  • a computer readable memory including computer readable instructions, wherein the instructions, when executed on a computer, cause the computer to: provide a first image; Providing viewpoint information looking at the first image; Dividing the first image into two or more divided images along a horizontal direction of the first image; And converting each of the two or more divided images based on the view length information and the vertical length of each of the divided images to provide a second image converted from the first image.
  • Readable memory is provided.
  • the viewpoint information includes information that can specify the position of the viewpoint with respect to the first image.
  • the viewpoint information may include: a viewpoint height from a plane on which the first image is located to a viewpoint; A viewpoint distance from a point at which the viewpoint is projected on a plane on which the first image is located to an end of a viewpoint side of the first image; A viewing angle at the viewing side end of the first image; A viewing angle at an end opposite to the viewpoint of the first image; A gaze length from the viewpoint to an end portion of the viewpoint side of the first image; A gaze length from the viewpoint to an end opposite to the viewpoint of the first image; A viewing angle of the first image; Two or more of them.
  • the operation of providing a second image converted from the first image may include: obtaining a view length of each divided image based on the viewpoint information and the vertical length of each of the divided images; And calculating a transform length for each divided image from the field of view length.
  • the operation for obtaining the transformed length for each divided image from the field of view length comprises: a ratio of the transformed length of the i-th divided image among the total transformed lengths is divided by the n-i + 1st portion of the total field of view. Obtaining a transform length for each segmented image so that it is equal to the ratio occupied by the field of view length of the image. Where n is the total number of split images.
  • the operation for obtaining the transform length for each of the divided images from the field of view may be performed by the following conversion equation;
  • the operation for obtaining the viewing length is an operation for obtaining the viewing length through a viewing length calculation formula, and the calculating of the viewing length h i for the i-th divided image is performed. And calculating the visual field length through the visual field length calculation formula.
  • S is the gaze length from the viewpoint to the focal point
  • ⁇ i is the viewing angle at the opposing end of the i-th split image
  • ⁇ 0 is the viewing angle at the viewing end of the first split image
  • ⁇ f is at the focal point Is the viewing angle.
  • the operation for obtaining the viewing length is an operation for obtaining the viewing length through a viewing length calculation formula, and the calculating of the viewing length h i for the i-th divided image is performed. It includes the operation of obtaining the field of view through the, the field of view length calculation formula.
  • R is the gaze length from the viewpoint to the viewing side end of the target image
  • ⁇ i is the viewing angle at the viewing side end of the i-th divided image
  • ⁇ 0 is the viewing angle at the viewing side end of the first divided image.
  • the providing of the second image converted from the first image may include: obtaining a view angle for each divided image based on the view information and the vertical length of each of the divided images; And calculating a transform length for each divided image from the viewpoint angle.
  • the operation of obtaining the view angles for the respective divided images may be performed such that the ratio between the view angles for each divided image and the ratio between the vertical lengths of the respective divided images are equal to each other.
  • the operation includes obtaining a view angle with respect to the image.
  • the operation of obtaining a view angle for each of the divided images may be performed by the following conversion equation
  • the operation includes obtaining the view angle ⁇ i for the i-th divided image.
  • T is the total length of the target image
  • n is the total number of split images
  • a i is the vertical length of the i-th split image
  • ⁇ 0 is the viewing angle at the viewing end of the first split image
  • ⁇ n is the nth The viewing angle at the end of the gaze opposite to the segmented image.
  • the operation for obtaining the transform length for each of the divided images may be performed by the following transform equation
  • H is a viewpoint height from a plane on which the first image is located to a viewpoint
  • L is a viewpoint distance from a point at which the viewpoint is projected on a plane on which the first image is located to a viewpoint side end of the first image.
  • an image correction apparatus comprising: an input unit configured to input a first image and viewpoint information looking at the first image; The first image is divided into two or more divided images along a horizontal direction of the first image, and each of the two or more divided images is converted based on the viewpoint information and the vertical length of each of the divided images.
  • An image correction apparatus is provided, including an image converter configured to convert one image into a second image.
  • the image correction apparatus further includes an output unit configured to output the converted second image.
  • the viewpoint information includes information that can specify the position of the viewpoint with respect to the first image.
  • the viewpoint information may include: a viewpoint height from a plane on which the first image is located to a viewpoint; A viewpoint distance from a point at which the viewpoint is projected on a plane on which the first image is located to an end of a viewpoint side of the first image; A viewing angle at the viewing side end of the first image; A viewing angle at an end opposite to the viewpoint of the first image; A gaze length from the viewpoint to an end portion of the viewpoint side of the first image; A gaze length from the viewpoint to an end opposite to the viewpoint of the first image; A viewing angle of the first image; Two or more of them.
  • the image conversion unit may be configured to obtain a view length for each divided image based on the viewpoint information and the vertical length of each of the divided images; By obtaining a transform length for each segmented image from the field of view length; And convert the first image to a second image.
  • the image converter may be configured such that a ratio occupied by the transformed length of the i-th segmented image among the entire transformed lengths is equal to a ratio occupied by the field of view of the n-i + 1th segmented image among the total transformed lengths. It is configured to obtain the conversion length for the split image of. Where n is the total number of split images.
  • h i is the field length of the i-th split image
  • n is the total number of split images
  • T is the total length of the target image.
  • the image conversion unit is configured to obtain the field of view length through a field of view calculation formula.
  • the formula for calculating the length of view (h i ) for the i th divided image is Where S is the gaze length from the viewpoint to the focal point, ⁇ i is the viewing angle at the opposing end of the i-th split image, ⁇ 0 is the viewing angle at the viewing side end of the first split image, and ⁇ f is the focal point The viewing angle at.
  • the image conversion unit is configured to obtain the field of view length through a field of view calculation formula.
  • the formula for calculating the view length h i for the i-th divided image is Where R is the gaze length from the viewpoint to the viewing side end of the target image, ⁇ i is the viewing angle at the viewing side end of the i-th divided image, and ⁇ 0 is the viewing angle at the viewing side end of the first divided image .
  • the image conversion unit obtains a view angle for each divided image based on the view information and the vertical length of each of the divided images; By obtaining a transform length for each segmented image from the viewpoint angle; And convert the first image into a second image.
  • the image conversion unit may obtain a view angle for each split image such that the ratio between the view angles for each split image and the ratio between the vertical lengths of each split image are the same. It is composed.
  • ⁇ i for the i-th divided image.
  • T is the total length of the target image
  • n is the total number of split images
  • a i is the vertical length of the i-th split image
  • ⁇ 0 is the viewing angle at the viewing end of the first split image
  • ⁇ n is the nth The viewing angle at the end of the gaze opposite to the segmented image.
  • H is a viewpoint height from a plane on which the first image is located to a viewpoint
  • L is a viewpoint distance from a point at which the viewpoint is projected on a plane on which the first image is located to a viewpoint side end of the first image. to be.
  • the driver when the present invention is applied to road markings on a road, the driver can read the road markings at a greater distance than now. This means that the response time can be shortened by the difference distance, and thus it is possible for the driver to make a quick judgment even during a high speed movement. In addition, it is possible to prevent traffic accidents caused by missed exits or the like and excessive interruptions caused by late reading.
  • Figure 2a shows a state viewed from a point of view located at a certain height from the ground.
  • 2B shows a state in which the space is viewed from the viewpoint on the space.
  • 3 is a screen shot of Google Street View.
  • FIG 4 schematically illustrates an image correction method according to an embodiment of the present invention.
  • FIG. 5 schematically shows a modified embodiment of the embodiment of FIG. 4.
  • FIG 6 schematically illustrates an image correction method according to another embodiment of the present invention.
  • FIG. 7 schematically illustrates a modified embodiment of the embodiment of FIG. 6.
  • FIG 8 schematically illustrates an image correction method according to another embodiment of the present invention.
  • FIG. 9A shows a subject image and a modified image modified in accordance with the present invention.
  • FIG. 9B illustrates a state in which the target image and the modified image of FIG. 9A are viewed from a certain point in time.
  • FIG. 10A shows a subject image and a modified image modified in accordance with the present invention.
  • FIG. 10B illustrates a state in which the target image and the modified image of FIG. 10A are viewed from a certain point in time.
  • FIG. 11 illustrates a state in which a target image coated on a left side in space and a modified image modified according to the present invention are viewed from a certain point in time.
  • FIG. 12 shows the Street View capture screen of FIG. 3 (picture above) and an image (figure below) converted from it according to the present invention.
  • FIG 13 schematically shows the configuration of an image correction device according to an embodiment of the present invention.
  • the subject image refers to the original image (first image) given before the transformation according to the method of the present invention.
  • target images may include, for example, signs or characters such as road signs to be displayed on road surfaces (children's reserves, stops, slowing to school, etc.), or road signs to be inserted on a computer, such as Google Street View. Characters or symbols to be inserted in Virtual Reality (VR) or Augmented Reality (AR), etc., and any image that can be implemented in other realities or on computer graphics are included.
  • the modified image refers to an image (second image) modified by a method of presenting a given target image in the present invention.
  • the viewpoint end means a point closest to the viewpoint from the bottom side (the side closest to the viewpoint) of such a rectangle when a rectangle bounded by the top, bottom, leftmost and rightmost portions of a given image is assumed.
  • the end opposite to the viewpoint refers to the point closest to the viewpoint from the upper side of the rectangle.
  • point A is the view end of the target image (or of the first split image)
  • point E is the view opposite end of the target image (or of the fourth split image).
  • the horizontal direction and the vertical direction refer to directions seen based on the rectangle.
  • HL represents horizontal lines
  • VL represents vertical lines.
  • the ground surface refers to a surface on which an object image is to be applied or coated by computer graphics, and is not limited to a surface placed on the floor, but may be shaved to include any side or ceiling surface.
  • the left side when a graphic is coated on the left side as shown in FIG. 2B, the left side also corresponds to the ground.
  • the gaze length means the distance from the viewpoint to the point.
  • the length of the line segment OA, the length of the line segment OE, and the like correspond to this.
  • the field of view length refers to the length in which the longitudinal length from the viewpoint side end of the given image to the opposite side of the viewpoint is observed at the viewpoint. In other words, it is the longitudinal length from the viewing side end to the viewing end end of a given image that, when viewed from the viewpoint, will appear smaller than the actual length due to the application of perspective.
  • the lengths of the segments M 1 M 2 , h i , and the like correspond to the following embodiments.
  • the viewing angle refers to an angle at which a viewpoint is viewed from a point on the ground.
  • the viewing angle at point A is ⁇ 0 and the viewing angle at point C is ⁇ 2 .
  • the viewpoint angle refers to an angle formed when a specific image is viewed from the viewpoint side end to the opposite side of the viewpoint at the viewpoint.
  • the viewing angle for the split image 201 is ⁇ AOB
  • the viewing angle for the entire target image 200 is ⁇ AOE.
  • the viewpoint information refers to information sufficient to enable the position of the viewpoint to be specified with respect to the target image.
  • the viewpoint information includes a viewpoint distance L, a viewpoint height H, a viewing angle at an end of the target image viewpoint, a viewing angle at an end opposite the target image viewpoint, a gaze length to an end of the target image viewpoint, and an opposite side of the target image viewpoint. If the gaze length to the end and only two or more of the viewing angles of the target image are known, the relative position of the viewpoint with respect to the target image can be determined.
  • the order when the order is indicated as the i-th, j-th, etc., the order is determined as the first, second, third, ..., etc. from the side close to the viewpoint.
  • a target image when a target image is given to be physically directly coated on the ground such as a road or virtually so that perspective can be felt in computer graphics or the like, the readability of the target image may be deteriorated by perspective.
  • a given target image is divided into a predetermined number along the horizontal direction, and the vertical length of the divided image located close to the viewpoint from each of the divided images thus divided is relatively reduced, and is located far from the viewpoint.
  • the vertical length of the split image is relatively increased. This conversion improves the problem of poor readability due to perspective, while maintaining the overall height of the target image originally intended to be coated.
  • the field length of each divided image is obtained. Then, the ratio between these field lengths is inversely applied to each divided image to obtain a vertical length (hereinafter, referred to as a transform length) in which each divided image is to be transformed. That is, in the case where the given target image is divided into n divided images, the ratio of the transform length of the i-th divided image to the ratio of the field of view of the n-i + 1th divided image to the ratio of the total view lengths Find the conversion length so that
  • FIG. 4 is a diagram illustrating such a method according to an embodiment of the present invention.
  • FIG. 4B is a plan view of a position where the target image 200 is to be inserted, and
  • FIG. 4A schematically shows a cross section taken along the line GE of FIG. 4B.
  • reference numeral 100 denotes a ground surface
  • O denotes a view point
  • the viewpoint may correspond to, but is not limited to, the eyes of a driver in a car.
  • G represents a point on the ground 100 located vertically below the time point O.
  • the height of the viewpoint O (viewpoint height), that is, the length of the line segment OG is indicated by H.
  • the point where the viewpoint O is projected onto the ground, that is, the distance (view distance) from the point G to the viewpoint side end of the target image 200, that is, the point A, is indicated by L.
  • Reference numeral 200 denotes a rectangle bounded by the uppermost, lowermost, outermost and uppermost portions of the target image (for example, road markings) to be coated on the ground 100.
  • 201, 202, 203, and 204 which will be described later, also likewise represent rectangles for respective divided images. However, hereinafter, for convenience of description, the display will be performed in the same manner as the target image 200 and the divided image 201.
  • the target image 200 is illustrated as having a thickness below the ground 100 in the drawing, this is for convenience of description only, and the ground 100 on an extension line of the ground 100 without actually having a thickness. Assume that it is placed next to.
  • the target image 200 is divided into four divided images 201, 202, 203, and 204 in parallel in the horizontal direction (X-axis direction).
  • Points A, B, C, D, and E are points where the horizontal lines of the segmented split images pass through point G and meet a line parallel to the Y axis.
  • the longitudinal lengths (lengths in the Y-axis direction) of the divided images 201, 202, 203, and 204 were represented by a 1 , a 2 , a 3 , and a 4 , respectively.
  • the target image 200 is divided into four, but this is for convenience of explanation.
  • One of ordinary skill in the art to which the present invention pertains can expect from the contents disclosed in the specification of the present invention that the larger the number of dividing the target image 200, the better the readability will be.
  • a focal point is located on point C.
  • the focal plane passing through the focal point is indicated at 300 and is orthogonal to the line of sight OC at point C.
  • the point where the focal plane 300 and the line of sight OA, the line of sight OB, the line of sight OC, the line of sight OD, and the line of sight OE meet are indicated by M 1 , M 2 , M 3 , M 4 , and M 5 , respectively. Therefore, in this embodiment, point C and point M3 represent the same point.
  • the length of the divided image 201 observed at the viewpoint O is equal to the length of the line segment M 1 M 2 .
  • the viewing lengths of the divided image 202, the divided image 203, and the divided image 204 are equal to the length of the line segment M 2 M 3, the length of the line segment M 3 M 4, and the length of the line segment M 4 M 5 , respectively.
  • the line of sight from the viewpoint to the focal point S is equal to the length of the line segment OC, it can be obtained as follows from the right triangle OCG.
  • the viewing angles ⁇ 0 , ⁇ 1 , ⁇ 2 , ⁇ 3 , and ⁇ 4 can be obtained as follows, respectively.
  • AOB, BOC, COD, and DOE are ( ⁇ 0 - ⁇ 1 ), ( ⁇ 1 - ⁇ 2 ), ( ⁇ 2 - ⁇ 3 ), and ( ⁇ 3 - ⁇ 4 ), respectively.
  • the field of view of the divided images 201, 202, 203, and 204 that is, the length of the line segment M 1 M 2, the length of the line segment M 2 M 3, the length of the line segment M 3 M 4, and the length of the line segment M 4 M 5 , respectively.
  • Supposing h 1 , h 2 , h 3 , and h 4 these can be obtained as follows, respectively.
  • each divided image is to be converted to y 1 , y 2 , y 3 , and y 4 , respectively, it can be obtained as follows.
  • FIG. 4 has described the case in which the target image 200 is divided into four, the above equation may be applied to the case in which the target image 200 is divided into four or more.
  • the viewing angles ⁇ i seen from the opposite ends of the views of the h i and i-th divided images can be obtained as follows:
  • the length to be converted of the i-th split image can be obtained as follows:
  • the deformation length y 10 of the tenth split image is approximately 1.7 times the first split image deformation length y 1 .
  • FIGS. 9 and 10 are diagrams illustrating a modified image obtained by using a target image and y i values obtained in Table 1 above.
  • the left side shows the target image “child protection zone”, and the right side shows the modified image using the y i values obtained according to Table 1.
  • the heights of the "child” and “protected zone” were the same, but in the deformed image, the "child” is longer than the "protected zone”.
  • there is a change in each horizontal stroke For example, the bottom row of “protection zones” is thinner in the transformed image, and the top row of “children” is thicker in the transformed image.
  • the object image and the modified image viewed from a distance respectively.
  • the left side is the target image and the right side is the deformed image.
  • the target image appears to be smaller than the “child” than the “protected area”, but the transformed image shows that the “child” and the “protected area” appear almost the same size.
  • the thickness of the horizontal stroke of the target image becomes thinner as it moves away from the viewpoint, but in the deformed image, the thickness of the horizontal stroke generally appears to be substantially the same.
  • 10A and 10B show the target image “PITTS-BURGH” and the modified image thereof, respectively. Descriptions of each are the same as those of FIGS. 9A and 9B, and thus a repeated description thereof will be omitted.
  • FIG. 11 illustrates a state in which the target image and the deformed image are coated on the left side in space, rather than the image disposed on the bottom surface as in FIGS. 9 and 10.
  • Such an arrangement of the image may occur mainly in an AR or VR environment, but is not limited thereto.
  • the arrangement of the image may be applied to a signboard or a road sign standing on the side of the road.
  • FIG. 11 is a view showing a target image subjected to perspective, and a drawing shown below shows a deformation image showing the application of perspective.
  • the farther away from the viewpoint in the target image the text becomes less visible, but in the deformed image it can be seen that it is clearly visible regardless of the viewpoint.
  • the latter part of the “Pkwy” section shows that the image looks roughly doubled in the deformed image.
  • FIG. 12 together shows the Street View capture screen of FIG. 3 (picture above) and a screen (picture below) in which a road marking is converted according to the present invention.
  • the readability of the Pkwy portion before the conversion was low, but it can be seen that significantly improved after the conversion.
  • the focus is located at the center of the target image, but the present invention may be applied even when the focus is located at a different point.
  • FIG. 5B is a plan view of a position where the target image 200 is to be inserted
  • FIG. 5A schematically shows a cross section taken along the line GE of FIG. 5B.
  • the focus is located between the first split image and the second split image.
  • the focal plane 300 is orthogonal to the line of sight OB at point B.
  • the line-of-sight S from the viewpoint to the focal point is equal to the length of the line segment OB, so from the right triangle OBG we can obtain:
  • the field of view of the divided images 201, 202, 203, and 204 is h 1 , h 2 , h 3 , and h 4 , respectively, they can be obtained as follows.
  • the lengths y 1 , y 2 , y 3 and y 4 at which the respective divided images are to be converted can be obtained according to Equations (11) to (14).
  • FIG. 6B is a plan view of a position where the target image 200 is to be inserted
  • FIG. 6A schematically shows a cross section taken along the line GE of FIG. 6B.
  • Point M 1 is a point where a circle (hereinafter referred to as 'circle O') with a line length R from the viewpoint to the edge of the viewpoint side of the target image, which meets the viewpoint OA.
  • Point M 2 is the point where the tangent drawn at point M 1 meets the line of sight OB.
  • Point M 3 is a point where the tangent line meets the line of sight OC at the point where the circle O meets the line of sight OB.
  • Point M 4 is the point where the tangent line meets the line of sight OD at the point where the circle O meets the line segment OC.
  • Point M 5 is a point where the tangent line meets the line of sight OE at the point where the circle O meets the line of sight OD.
  • the viewing length when the first segmented image 201 is viewed from the viewpoint O may be the length of the line segment M 1 M 2 .
  • the field of view when looking at the second segmented image 202 at the viewpoint O is measured at the same position as the position at which the field of view was measured for the first segmented image 201, the field of view is the line segment M 2 M 3. Will be the length of
  • the field of view when looking at the third segmented image 203 and the field of view when looking at the fourth segmented image 204 at view point O are the length of line segment M 3 M 4 and the line segment M 4 M 5 , respectively. Will be the length.
  • the length R of the radius can be obtained from the right triangle OAG as follows.
  • the viewing angles ⁇ 0 , ⁇ 1 , ⁇ 2 , ⁇ 3 , ⁇ 4 are the same as in the formulas (2) to (6).
  • AOB, BOC, COD, and DOE are ( ⁇ 0 - ⁇ 1 ), ( ⁇ 1 - ⁇ 2 ), ( ⁇ 2 - ⁇ 3 ), and ( ⁇ 3 - ⁇ 4 ), respectively.
  • the field of view of the divided images 201, 202, 203, and 204 that is, the length of the line segment M 1 M 2, the length of the line segment M 2 M 3, the length of the line segment M 3 M 4, and the length of the line segment M 4 M 5 , respectively.
  • Supposing h 1 , h 2 , h 3 , and h 4 these can be obtained as follows.
  • the lengths y 1 , y 2 , y 3 , and y 4 at which the respective divided images are to be converted can be obtained according to Equations (11) to (14), respectively.
  • 6 may be applied to the case where the target image 200 is divided into four, or when the target image 200 is divided into four or more.
  • the viewing angle ⁇ i as viewed from the end of the i-th split image opposite to the view point starting from the split image closest to the viewpoint (first split image) is expressed by the above equation. It can be obtained using (15), and the field of view h i of the i-th divided image can be obtained as follows.
  • FIG. 7 shows a modified embodiment of the embodiment of FIG. 6.
  • FIG. 7B is a plan view of a position where the target image 200 is to be inserted
  • FIG. 7A schematically shows a cross section taken along the line GE of FIG. 7B.
  • Point M 1 is a point where a line extending perpendicular to the line of sight OA at point A meets line of sight OA, and thus A and M 1 represent the same point.
  • Point M 2 is a point where a line extending perpendicular to the line of sight OA at point M 1 meets line of sight OB.
  • Point M 3 is a point where a line extending perpendicular to the line of sight OB at point M 2 meets line of sight OC.
  • Point M 4 is the point where the line extending perpendicular to the line of sight OC at point M 3 meets line of sight OD.
  • Point M 5 is the point at which point M 4 extends perpendicular to the line of sight OD meets line of sight OE.
  • the viewing length when the first segmented image 201 is viewed from the viewpoint O may be the length of the line segment M 1 M 2 .
  • the distance from the viewpoint O to the point M 2 is greater than the distance from the viewpoint O to the point M 1 , but the difference is negligible.
  • the length of line segment M 2 M 3 can be approximated as the field of view for the second segmented image 202 at view point O.
  • the length of the line segment M 3 M 4 and the length of the line segment M 4 M 5 can be approximated by the field of view when looking at the third segmented image 203 and the fourth segmented image 204 at the viewpoint O.
  • FIG. 1 the length of the line segment M 3 M 4 and the length of the line segment M 4 M 5 can be approximated by the field of view when looking at the third segmented image 203 and the fourth segmented image 204 at the viewpoint O.
  • AOB, BOC, COD, and DOE are ( ⁇ 0 - ⁇ 1 ), ( ⁇ 1 - ⁇ 2 ), ( ⁇ 2 - ⁇ 3 ), and ( ⁇ 3 - ⁇ 4 ), respectively.
  • the viewing angles ⁇ 0 , ⁇ 1 , ⁇ 2 , ⁇ 3 , ⁇ 4 are the same as in the formulas (2) to (6).
  • the field of view of the divided images 201, 202, 203, and 204 that is, the length of the line segment M 1 M 2, the length of the line segment M 2 M 3, the length of the line segment M 3 M 4, and the length of the line segment M 4 M 5 , respectively.
  • Supposing h 1 , h 2 , h 3 , and h 4 these can be obtained as follows.
  • the lengths y 1 , y 2 , y 3 , and y 4 at which the respective divided images are to be converted can be obtained according to Equations (11) to (14), respectively.
  • the above equation may be applied even when the target image is divided into four or when the target image is divided into four or more.
  • the viewing angle ⁇ i which is viewed from the end of the i-th split image opposite to the viewpoint, starts from the split image closest to the viewpoint (first split image). It can be obtained using (15), and the field of view h i of the i-th divided image can be obtained as follows.
  • FIG. 8B is a plan view of a position where the target image 200 is to be inserted
  • FIG. 8A schematically shows a cross section taken along the line GE of FIG. 8B.
  • the view angle? AOE for the entire target image 200 is divided into the same number as the number of the target image 200 to be divided at the view point O, and an approach for calculating the length to be deformed using the divided angles is obtained. Use the method.
  • the target image 200 is divided into four sections, AB, BC, CD, and DE, similar to the above embodiments.
  • the longitudinal lengths of the respective divided images 201, 202, 203, and 204 are represented by a 1 , a 2 , a 3 , and a 4 , respectively (see FIG. 8B).
  • Points A, B, C, D, and E are points where the horizontal lines of the split images 201, 202, 203, and 204 thus divided meet a line passing through point G and parallel to the Y axis.
  • the angle ⁇ AOE that looks at the entire target image 200 at the viewpoint O is also divided into four angles ⁇ 1 , ⁇ 2 , ⁇ 3 , ⁇ 4 . Each angle is then divided into sizes that satisfy the following equation:
  • Points A, B ', C', D ', and E represent points at which the angle dividing lines meet the target image 200, respectively.
  • the target image is newly divided into four sections, AB 'section, B'C' section, C'D 'section, and D'E section.
  • the length of 5 may be substantially the same as the length of the AB 'section, B'C' section, C'D 'section, and D'E section observed at time point O. Therefore, the length of the line segment AB ', the length of the line segment B'C', the length of the line segment C'D ', and the length of the line segment D'E are respectively the lengths y 1 , y 2 , y 3 , y 4 Obtain as.
  • the viewing angles ⁇ 0 and ⁇ 4 are as follows:
  • the viewpoint angle ⁇ 1 for the split image 201 can be obtained as follows by considering Equation (42):
  • the viewing angles ⁇ 2 , ⁇ 3 , ⁇ 4 for the second to fourth divided images 202-204 can be obtained as follows:
  • 8 may be applied to the case where the target image 200 is divided into four, or when the target image 200 is divided into four or more.
  • the conversion length y i and the viewing angle ⁇ i of the i-th divided image start from the split image closest to the viewpoint (first split image). You can get it like this:
  • ⁇ 0 and ⁇ n can be obtained through Equations (2) and (15), respectively.
  • equation (18) and equation (54) can be modified as follows, respectively, using the correction factor f i .
  • the correction factor f i may be appropriately taken depending on the conditions or conditions under which the image is applied or coated. E.g In the case of applying, a smaller number of split images positioned closer to a viewpoint may be converted, and more divided images located farther from the viewpoint may be converted.
  • the value of f i is not limited thereto, and it will be appreciated by those skilled in the art that other appropriate values may be taken according to the user's needs or ambient conditions such as ground conditions.
  • An embodiment of the present invention provides an image correction apparatus that can implement the image correction method as described above.
  • Fig. 13 is a block diagram showing one embodiment of such an image correction device.
  • the image calibrating apparatus 1000 according to an exemplary embodiment of the present invention includes an input unit 1010, an image converter 1020, and an output unit 1030.
  • the user may input information about the target image 200 to be transformed through the input unit 1010.
  • the target image information may include an image file of the target image, a width and a length (length T in the above embodiment) on which the target image is to be coated.
  • the user may input the number of the target image 200 to be divided and the vertical lengths (a 1 , a 2 , a 3 ,...) Of each divided image.
  • the user may input viewpoint information through the input unit 1010.
  • the viewpoint information refers to information capable of specifying the position of the viewpoint with respect to the target image 200.
  • the viewpoint may be a distance from the target image, a viewpoint angle, and the like.
  • And a view angle of the target image since the viewpoint information may specify the position of the viewpoint with respect to the target image 200, not all of them are necessary. That is, for example, in the embodiment of FIG. 6, given only the viewpoint distance L and the viewpoint height H, the viewing angle ⁇ 0 and the gaze length R and the like can be obtained therefrom. If you grow up, you will understand.
  • the target image input through the input unit 1010 may be converted through the same process as described above by the image converter 1020. For example, obtain the y i value for the i-th split image according to the above equations (18) or (54), and increase or decrease the vertical length of the split image according to the obtained y i value to obtain the target image 200. Transform. As an example, in the embodiment of FIG. 4, if the vertical length of the split image 201 was 1 m, and the calculated y 1 value was 0.7 m, the vertical length was 0.7 m while maintaining the horizontal length of the split image 201. Reduce and deform so that
  • the output unit 1030 may output the image converted by the image converter 1020 in a desired format.
  • the output unit 1030 may output an image converted into a file format such as jpg, TIFF, XML, or the like, but this is only an example, and may be output in any known form or format as necessary.
  • the image correction device according to the present invention when used for the implementation of AR or VR, it may be provided according to the format required by the AR device or VR device.
  • One embodiment of the present invention may also be implemented in the form of a recording medium, that is, a computer readable medium containing instructions executable by a computer, such as a program module executed by the computer.
  • a computer-readable medium may record a program for executing the above-described method for converting an image.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CDs and DVDs, floppy disks and program commands such as magnetic-optical media, ROM, RAM, flash memory, and the like. Hardware devices configured to store and perform such operations.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.
  • Examples of computer readable instructions include not only machine code such as produced by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 일 실시예에서는 이미지 보정 방법으로서, 제1 이미지를 제공하는 단계, 상기 제1 이미지를 바라보는 시점 정보를 제공하는 단계, 상기 제1 이미지의 가로 방향을 따라 상기 제1 이미지를 2개 이상의 분할 이미지로 분할하는 단계, 상기 2개 이상의 분할 이미지 각각을 상기 시점 정보에 기초하여 변환시킴으로써, 제1 이미지로부터 변환된 제2 이미지를 제공하는 단계를 포함하는 이미지 보정 방법을 제공한다.

Description

원근법 대응 이미지 보정 방법 및 장치
본 발명은 원근법에 대응한 이미지 보정 방법 및 상기 방법을 수행하기 위한 장치에 관한 것으로서, 구체적으로는 주어진 대상 이미지에 대하여 향상된 판독성(legibility)을 제공할 수 있도록 상기 대상 이미지를 변환시킬 수 있는 이미지 보정 방법 및 장치에 관한 것이다.
도 1은 종래의 노면표지의 이용 예를 도시한다.
노면표지는 도로 위의 노면에 차량운행의 안전 및 원활한 소통을 위해 페인트, 도료 등을 사용하여 표시하는 것을 말한다. 그 내용은 중앙선, 횡단보도 등과 같이 차량 운행의 규범에 관한 표식부터 '학교 앞 서행', '어린이 보호구역' 등과 같이 서술형으로 기재된 표식까지 다양하다.
이러한 노면표지는 운전자에게 운행상의 정보나 교통안전에 필요한 주의내용 등과 같이 다양한 정보를 제공할 수 있어서 현재 차량이 운행되는 도로 상에서 많이 사용되고 있는 실정이다.
그러나, 실제로 차량의 운전자가 차량 내에서 도로 상의 노면표지를 바라볼 경우, 운전자의 시야각이나 노면표지와의 거리 등에 따라 원근법에 의한 왜곡 현상이 발생할 수 있다. 특히 관찰 시점에서 멀어질수록 이미지의 폭, 특히 세로폭이 점차 좁아지며 뭉쳐지는 시각적 왜곡현상이 발생할 수 있다. 따라서 이러한 시각적 왜곡현상으로 인해 노면표지의 판독성이 떨어진다는 문제점이 있다.
특히 한국 노면표지의 경우 영문자와 비교하여 받침과 격음 문자 등의 사용으로 문자이미지의 구조가 복잡하다. 이에 운전자는, 원근법에 의한 시각적 왜곡현상으로 인해서, 원거리에서 노면표지를 판독할 수 없거나 오판독하는 경우가 있다. 이러한 현상은 한 줄로 구성된 노면표지에서도 찾아볼 수 있지만 두 줄 혹은 두 줄 이상으로 구성된 노면표지가 제공될 경우 더 많이 발생할 수 있다.
이러한 문제를 해결하기 위해, 종래기술에서는 운전자가 바라보는 방향을 따라서 노면표지의 길이를 단순히 늘려 배치함으로써 판독성을 확보하는 것이 일반적이었다.
그러나, 노면표지 조정의 구체적인 사항이나 정도 등이 시공자의 주관적 판단기준과 시공 편의성 등에 의해 정해지는 경우가 많아, 판독성의 개선 효과가 미비하고, 일관된 개선 효과를 제공하기 어려웠다.
특히, 종래기술에서는 노면표지의 길이를 운전자가 바라보는 방향을 따라서 전체적으로 동일한 비율로 늘였을 뿐이어서, 운전자의 시야에서 볼 때 시야로부터 먼 곳에 위치하는 가로획의 두께는 얇게 보이고 시야로부터 가까운 곳에 위치하는 가로획의 두께는 두꺼워 보이게 되는 문제점은 여전히 존재하였다. 따라서 빠르게 달리는 자동차 안에서 노면표지의 의미를 순간적으로 파악하는 것이 어려울 수 있어서, 결국 안전을 위협하는 문제로 이어질 수 있었다.
이러한 문제는 비단 도로 상에 표시된 노면표지에서만 문제되는 것이 아니다. 최근 포털 사이트 등에서 많이 사용되고 있는 스트리트 뷰 등에서도 문제가 된다. 도 3은 구글 스트리트 뷰를 캡쳐한 화면이다. 화면에서는 도로상의 길 이름을 표시하기 위해 스트리트 뷰 상에 "Meadowlands Pkwy" 라는 글자를 컴퓨터 작업을 통해 입혔다. 그러나 스트리트 뷰 사용자에게 좀 더 현실적인 감각을 제공하기 위한 목적에서 원근법을 적용하여 입히다 보니, 도면에서 확인할 수 있는 바와 같이, 시점에서 멀어질수록 현저히 판독성이 악화되고 있음을 알 수 있다.
도 2를 참조하여 이를 도식적으로 설명하면 다음과 같다.
도 2a는 지면으로부터 일정 높이에 위치한 시점으로부터 바라본 상태를 보여준다. 도면에서 HL 로 표시된 선들은 서로 평행하게 등간격으로 배치되어 있는 수평한 선들을 나타내며, VL 로 표시된 선들 역시 서로 평행하게 등간격으로 배치되어 있는 수직한 선들로서, 각각의 선(VL)은 각각의 선(HL)과 직교한다.
그러나 원근법으로 인해서, 도시된 바와 같이, 이격된 거리에서 지면을 내려다보게 되면, 수직선(VL)들은 무한에 위치한 소실점을 향해 모이는 것으로 보여, 시점에서 멀어질수록 이웃하는 수직선들 간의 간격이 좁아지는 것처럼 보이게 된다. 수평선(HL) 역시도 시점에서 멀어질수록 이웃하는 수평선들 간의 간격이 점점 좁아지는 것처럼 보이게 된다. 따라서, 예를 들어, 도 2의 직사각형(10) 내에 글자나 기호를 동일한 크기로 배치한다고 가정할 경우, 시점에서 더 멀어질수록 판독성이 현저히 악화될 것임을 알 수 있다.
또한, 컴퓨터 게임(예를 들면 레이싱 게임)이나 증강현실(AR; Augmented Reality), 가상현실(VR; Virtual Reality) 등에서도 원근법을 적용하여 문자나 기호를 표현하는 경우에 판독성이 악화되는 문제점이 발생할 수 있다.
도 2b는 상면, 바닥면, 좌우측면의 4개의 면을 포함하는 공간을 나타낸다. VR 이나 AR 등에서는 앞서 노면표지 등의 예에서와 같이 바닥면에만 그래픽(표지)이 입혀지는 것이 아니라, 좌우측면이나 상면에도 그래픽이 입혀질 수 있다. 이러한 경우에도, 예를 들어 좌측면에 글자가 입혀지는 경우에도, 원근법에 의한 왜곡현상이 발생할 수 있음을 도 2b로부터 알 수 있다.
따라서, 노면표지 등과 같이, 일정한 표면에 표시되어 소정의 정보를 제공하는 다양한 이미지를 구성함에 있어서, 일관되고 용이한 이미지 보정 방법을 제공함과 동시에, 주변 환경과의 조화를 이루면서도 개선된 판독성을 제공할 수 있는 이미지 생성 장치 및 그 동작 방법이 요구된다.
한편, 상기와 같은 문제점을 해결하기 위해 대한민국 특허공보 제10-1668802호에서는 원거리 식별 이미지 생성 장치의 동작 방법에 대해 개시하고 있다.
구체적으로 상기 특허공보에서는,
(a) 적어도 하나의 문자를 포함하는 제 1 이미지를 제공하는 단계; (b)상기 제 1 이미지에 대한 시점 정보를 반영하여 역원근법을 적용함으로써, 상기 제 1 이미지의 비율이 변경된 제 2 이미지를 생성하는 단계 ― 상기 시점 정보는 상기 제 1 이미지에 대한 시선 방향 및 시야각 중 적어도 하나에 관한 정보를 포함함 ― ;
(c)상기 제 1 이미지의 제 1 참조점의 좌표 및 상기 제 1 참조점에 대응하는 상기 제 2 이미지의 제 2 참조점의 좌표를 추출하는 단계 ― 상기 제 1 참조점의 좌표는 상기 문자 중 적어도 하나를 기초로 추출됨 ― ; 및
(d) 상기 제 1 참조점의 좌표 중 적어도 하나의 값과 상기 제 1 참조점에 대응하는 상기 제 2 참조점의 좌표 중 적어도 하나의 값을 비교하여, 상기 제 1 참조점에 의해 분할되는 기준 영역 중 적어도 일부를 상기 시선 방향을 따라 확대 또는 축소시킴으로써, 상기 제 1 이미지를 변환하는 단계를 포함하고, 여기서
(e) 상기 제 2 이미지를 생성하는 단계는, 상기 제 1 이미지를 3차원 이미지로 변환하는 단계; 및 상기 시점 정보를 반영하여, 상기 3 차원 이미지로 변환된 상기 제 1 이미지를 소정의 회전축을 중심으로 상기 시선 방향을 향하여 소정의 회전각만큼 회전시키고, 평면 이미지를 추출함으로써, 상기 제 2 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 동작 방법을 개시한다.
그러나, 상기 방법에서는 제1 이미지를 3차원 이미지로 변환시키고 이를 회전축을 중심으로 회전시킨 후 다시 평면 이미지를 추출하는 과정과, 제1 이미지와 제2 이미지의 참조점 좌표를 추출하는 단계를 필요로 하고 있다.
본 발명에서는 상기와 같은 문제점들을 해결하여, 이미지를 회전시키는 과정이나 별도의 참조점을 추출하는 과정이 없이도, 일관되고 용이한 이미지 보정 방법을 제공함과 동시에 개선된 판독성을 제공할 수 있는 이미지 보정 방법 및 장치를 제공하고자 한다.
본 발명의 일 실시예에 따라, 이미지 보정 방법으로서, 제1 이미지를 제공하는 단계; 상기 제1 이미지를 바라보는 시점 정보를 제공하는 단계; 상기 제1 이미지의 가로 방향을 따라 상기 제1 이미지를 2개 이상의 분할 이미지로 분할하는 단계; 상기 2개 이상의 분할 이미지 각각을 상기 시점 정보 및 상기 분할 이미지 각각의 세로 길이에 기초하여 변환시킴으로써, 제1 이미지로부터 변환된 제2 이미지를 제공하는 단계;를 포함하는 이미지 생성 방법이 제공된다.
다른 일 실시예에서는, 상기 시점 정보가 상기 시점의 위치를 제1 이미지에 대해 특정할 수 있는 정보를 포함한다.
다른 일 실시예에서는, 상기 시점 정보가, 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이; 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리; 상기 제1 이미지의 시점측 단부에서의 시야각; 상기 제1 이미지의 시점 반대측 단부에서의 시야각; 상기 시점으로부터 상기 제1 이미지의 시점측 단부까지의 시선길이; 상기 시점으로부터 상기 제1 이미지의 시점 반대측 단부까지의 시선길이; 상기 제1 이미지의 시점각; 중 2개 이상을 포함한다.
다른 일 실시예에서는, 상기 제1 이미지로부터 변환된 제2 이미지를 제공하는 단계가, 상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시야길이를 구하는 단계; 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 단계;를 포함한다.
다른 일 실시예에서는, 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 단계가, 전체 변환길이 중에서 i번째 분할 이미지의 변환길이가 차지하는 비율이, 전체 시야길이 중에서 n-i+1 번째 분할 이미지의 시야길이가 차지하는 비율과 같도록, 각각의 분할 이미지에 대한 변환 길이를 구하는 단계를 포함한다. 여기서 n은 분할 이미지의 총 개수이다.
다른 일 실시예에서는 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 단계가, 아래 변환식;
Figure PCTKR2018004876-appb-I000001
을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하는 단계를 포함한다. 여기서 hi는 i번째 분할 이미지의 시야길이, n 은 분할 이미지의 총 개수, T는 대상 이미지의 전체 길이이다.
다른 일 실시예에서는, 상기 시야길이를 구하는 단계가, 시야길이 산출식을 통해 시야길이를 구하는 단계로서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
Figure PCTKR2018004876-appb-I000002
이고, 여기서 S는 시점으로부터 초점까지의 시선길이이고, θi는 i번째 분할 이미지의 시선 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각이고, θf 는 초점에서의 시야각인, 시야길이 산출식을 통해 시야길이 구하는 단계를 포함한다.
다른 일 실시예에서는, 상기 시야길이를 구하는 단계가, 시야길이 산출식을 통해 시야길이를 구하는 단계로서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
Figure PCTKR2018004876-appb-I000003
이고, 여기서 R는 시점으로부터 대상이미지의 시점측 단부까지의 시선길이이고, θi는 i번째 분할 이미지의 시점 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각인, 시야길이 산출식을 통한 시야길이 구하는 단계를 포함한다.
다른 일 실시예에서는, 상기 제1 이미지로부터 변환된 제2 이미지를 제공하는 단계가, 상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시점각을 구하는 단계; 상기 시점각으로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 단계;를 포함한다.
다른 일 실시예에서는, 상기 각각의 분할 이미지에 대한 시점각을 구하는 단계가, 각각의 분할 이미지에 대한 시점각들 간의 비율과 각각의 분할 이미지의 세로 길이들 간의 비율이 서로 동일하도록, 각각의 분할 이미지에 대해 시점각을 구하는 단계를 포함한다.
다른 일 실시예에서는, 상기 각각의 분할 이미지에 대한 시점각을 구하는 단계가, 아래 변환식;
Figure PCTKR2018004876-appb-I000004
을 이용하여, i번째 분할 이미지에 대한 시점각(αi)을 구하는 단계를 포함한다. 여기서, T는 대상 이미지의 전체 세로길이, n은 분할 이미지의 총 개수, ai는 i번째 분할 이미지의 세로길이, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각, θn 는 n 번째 분할 이미지의 시선 반대측 단부에서의 시야각이다.
다른 일 실시예에서는, 상기 각각의 분할 이미지에 대한 변환 길이를 구하는 단계가, 아래 변환식;
Figure PCTKR2018004876-appb-I000005
을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하는 단계;를 포함한다. 여기서 H는 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이, L은 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리이다.
본 발명의 다른 일 실시예에 따라, 컴퓨터 판독 가능한 명령어들을 포함하는 컴퓨터 판독가능한 메모리로서, 상기 명령어들은, 컴퓨터 상에서 실행될 때, 상기 컴퓨터로 하여금, 제1 이미지를 제공하는 동작; 상기 제1 이미지를 바라보는 시점 정보를 제공하는 동작; 상기 제1 이미지의 가로 방향을 따라 상기 제1 이미지를 2개 이상의 분할 이미지로 분할하는 동작; 상기 2개 이상의 분할 이미지 각각을 상기 시점 정보 및 상기 분할 이미지 각각의 세로 길이에 기초하여 변환시킴으로써, 제1 이미지로부터 변환된 제2 이미지를 제공하는 동작;을 포함하는 동작들을 수행하도록 하는 것인 컴퓨터 판독가능 메모리가 제공된다.
다른 일 실시예에서는, 상기 시점 정보가 상기 시점의 위치를 제1 이미지에 대해 특정할 수 있는 정보를 포함한다.
다른 일 실시예에서는, 상기 시점 정보가 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이; 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리; 상기 제1 이미지의 시점측 단부에서의 시야각; 상기 제1 이미지의 시점 반대측 단부에서의 시야각; 상기 시점으로부터 상기 제1 이미지의 시점측 단부까지의 시선길이; 상기 시점으로부터 상기 제1 이미지의 시점 반대측 단부까지의 시선길이; 상기 제1 이미지의 시점각; 중 2개 이상을 포함한다.
다른 일 실시예에서는 상기 제1 이미지로부터 변환된 제2 이미지를 제공하는 동작이, 상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시야길이를 구하는 동작; 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 동작;을 포함한다.
다른 일 실시예에서는, 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 동작이, 전체 변환길이 중에서 i번째 분할 이미지의 변환길이가 차지하는 비율이, 전체 시야길이 중에서 n-i+1 번째 분할 이미지의 시야길이가 차지하는 비율과 같도록, 각각의 분할 이미지에 대한 변환 길이를 구하는 동작을 포함한다. 여기서 n은 분할 이미지의 총 개수이다.
다른 일 실시예에서는, 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 동작이 아래 변환식;
Figure PCTKR2018004876-appb-I000006
을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하는 동작을 포함한다. 여기서 hi는 i번째 분할 이미지의 시야길이, n 은 분할 이미지의 총 개수, T는 대상 이미지의 전체 길이이다.
다른 일 실시예에서는, 상기 시야길이를 구하는 동작이, 시야길이 산출식을 통해 시야길이를 구하는 동작으로서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
Figure PCTKR2018004876-appb-I000007
인, 시야길이 산출식을 통해 시야길이 구하는 단계를 포함한다. 여기서 S는 시점으로부터 초점까지의 시선길이이고, θi는 i번째 분할 이미지의 시선 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각이고, θf 는 초점에서의 시야각이다.
다른 일 실시예에서는, 상기 시야길이를 구하는 동작이, 시야길이 산출식을 통해 시야길이를 구하는 동작으로서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
Figure PCTKR2018004876-appb-I000008
인, 시야길이 산출식을 통한 시야길이 구하는 동작을 포함한다. 여기서 R는 시점으로부터 대상이미지의 시점측 단부까지의 시선길이이고, θi는 i번째 분할 이미지의 시점 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각이다.
다른 일 실시예에서는, 상기 제1 이미지로부터 변환된 제2 이미지를 제공하는 동작이, 상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시점각을 구하는 동작; 상기 시점각으로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 동작;을 포함한다.
다른 일 실시예에서는, 상기 각각의 분할 이미지에 대한 시점각을 구하는 동작이, 각각의 분할 이미지에 대한 시점각들 간의 비율과 각각의 분할 이미지의 세로 길이들 간의 비율이 서로 동일하도록, 각각의 분할 이미지에 대해 시점각을 구하는 동작을 포함한다.
다른 일 실시예에서는, 상기 각각의 분할 이미지에 대한 시점각을 구하는 동작이 아래 변환식;
Figure PCTKR2018004876-appb-I000009
을 이용하여, i번째 분할 이미지에 대한 시점각(αi)을 구하는 동작을 포함한다. 여기서, T는 대상 이미지의 전체 세로길이, n은 분할 이미지의 총 개수, ai는 i번째 분할 이미지의 세로길이, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각, θn 는 n 번째 분할 이미지의 시선 반대측 단부에서의 시야각이다.
다른 일 실시예에서는, 상기 각각의 분할 이미지에 대한 변환 길이를 구하는 동작이 아래 변환식;
Figure PCTKR2018004876-appb-I000010
을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하는 동작;을 포함한다. 여기서 H는 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이, L은 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리이다.
본 발명의 또 다른 일 실시예에 따라, 이미지 보정 장치로서, 제1 이미지 및 상기 제1 이미지를 바라보는 시점 정보를 입력할 수 있도록 구성된 입력부; 상기 제1 이미지의 가로 방향을 따라 상기 제1 이미지를 2개 이상의 분할 이미지로 분할하고, 상기 2개 이상의 분할 이미지 각각을 상기 시점 정보 및 상기 분할 이미지 각각의 세로 길이에 기초하여 변환시킴으로써, 상기 제1 이미지를 제2 이미지로 변환시키도록 구성되는 이미지 변환부;를 포함하는 이미지 보정 장치가 제공된다.
다른 일 실시예에서는, 상기 이미지 보정 장치가 변환된 제2 이미지를 출력할 수 있도록 구성된 출력부를 더 포함한다.
다른 일 실시예에서는, 상기 시점 정보가 상기 시점의 위치를 제1 이미지에 대해 특정할 수 있는 정보를 포함한다.
다른 일 실시예에서는, 상기 시점 정보가 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이; 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리; 상기 제1 이미지의 시점측 단부에서의 시야각; 상기 제1 이미지의 시점 반대측 단부에서의 시야각; 상기 시점으로부터 상기 제1 이미지의 시점측 단부까지의 시선길이; 상기 시점으로부터 상기 제1 이미지의 시점 반대측 단부까지의 시선길이; 상기 제1 이미지의 시점각; 중 2개 이상을 포함한다.
다른 일 실시예에서는, 상기 이미지 변환부가, 상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시야길이를 구하고; 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구함으로써; 상기 제1 이미지를 제2 이미지로 변환시키도록 구성된다.
다른 일 실시예에서는, 상기 이미지 변환부가, 전체 변환길이 중에서 i번째 분할 이미지의 변환길이가 차지하는 비율이, 전체 시야길이 중에서 n-i+1 번째 분할 이미지의 시야길이가 차지하는 비율과 같도록, 각각의 분할 이미지에 대한 변환 길이를 구할 수 있게 구성된다. 여기서 n은 분할 이미지의 총 개수이다.
다른 일 실시예에서는, 상기 이미지 변환부가 아래 변환식;
Figure PCTKR2018004876-appb-I000011
을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구할 수 있게 구성된다. 여기서 hi는 i번째 분할 이미지의 시야길이, n 은 분할 이미지의 총 개수, T는 대상 이미지의 전체 길이이다.
다른 일 실시예에서는, 상기 이미지 변환부가 시야길이 산출식을 통해 시야길이를 구할 수 있게 구성된다. 여기서 i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
Figure PCTKR2018004876-appb-I000012
이고, S는 시점으로부터 초점까지의 시선길이이고, θi는 i번째 분할 이미지의 시선 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각이고, θf 는 초점에서의 시야각이다.
다른 일 실시예에서는, 상기 이미지 변환부가 시야길이 산출식을 통해 시야길이를 구할 수 있게 구성된다. 여기서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
Figure PCTKR2018004876-appb-I000013
이고, R는 시점으로부터 대상이미지의 시점측 단부까지의 시선길이이고, θi는 i번째 분할 이미지의 시점 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각이다.
다른 일 실시예에서는, 상기 이미지 변환부가, 상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시점각을 구하고; 상기 시점각으로부터 각각의 분할 이미지에 대한 변환 길이를 구함으로써; 상기 제1 이미지를 제2 이미지로 변환시킬 수 있게 구성된다.
다른 일 실시예에서는, 상기 이미지 변환부가, 각각의 분할 이미지에 대한 시점각들 간의 비율과 각각의 분할 이미지의 세로 길이들 간의 비율이 서로 동일하도록, 각각의 분할 이미지에 대해 시점각을 구할 수 있게 구성된다.
다른 일 실시예에서는, 상기 이미지 변환부가 아래 변환식;
Figure PCTKR2018004876-appb-I000014
을 이용하여, i번째 분할 이미지에 대한 시점각(αi)을 구할 수 있게 구성된다. 여기서, T는 대상 이미지의 전체 세로길이, n은 분할 이미지의 총 개수, ai는 i번째 분할 이미지의 세로길이, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각, θn 는 n 번째 분할 이미지의 시선 반대측 단부에서의 시야각이다.
다른 일 실시예에서는, 상기 이미지 변환부가 아래 변환식;
Figure PCTKR2018004876-appb-I000015
을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구할 수 있게 구성된다. 여기서 H는 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이, L은 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리이다.
본 발명에서 제공되는 이미지 보정 방법 및 장치에 따라서, 원거리에서 이미지를 볼 때에도 원근법의 영향에 의해 판독성이 떨어지는 현상을 개선할 수 있게 된다.
따라서, 본 발명이 도로의 노면표지에 적용되는 경우, 운전자가 지금보다 더 먼 거리에서 노면표지의 판독이 가능하다. 이는 차이나는 거리만큼 반응시간을 줄일 수 있다는 것을 의미하고, 따라서 고속이동 중에도 운전자가 신속하게 판단하는 것을 가능하게 할 수 있다. 또한, 분기점 등에서 출구 등을 놓치는 현상이나 늦은 판독으로 발생할 수 있는 무리한 끼어들기로 인한 교통사고를 예방할 수 있다.
또한, VR 이나 AR 환경에 적용하게 되면, 판독성을 향상시키면서도 원근법을 느낄 수 있도록 이미지를 구현하는 것이 가능하게 된다. 따라서, 더욱 쾌적한 환경의 VR 또는 AR 환경을 구축하는 것이 가능하게 된다.
본 발명의 다른 효과들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 명세서에 기재된 내용으로부터 용이하게 파악할 수 있을 것이다.
도 1은 종래의 노면표지의 이용 예를 도시한다.
도 2a는 지면으로부터 일정 높이에 위치한 시점으로부터 바라본 상태를 도시한다.
도 2b는 공간 상의 시점에서 공간을 바라본 상태를 도시한다.
도 3은 구글 스트리트 뷰를 캡쳐한 화면이다.
도 4는 본 발명의 일 실시예에 따른 이미지 보정 방법을 개략적으로 도시한다.
도 5는 도 4의 실시예에 대해 변형된 실시예를 개략적으로 도시한다.
도 6은 본 발명의 다른 실시예에 따른 이미지 보정 방법을 개략적으로 도시한다.
도 7은 도 6의 실시예에 대해 변형된 실시예를 개략적으로 도시한다.
도 8은 본 발명의 또 다른 실시예에 따른 이미지 보정 방법을 개략적으로 도시한다.
도 9a는 대상 이미지 및 본 발명에 따라 변형된 변형 이미지를 도시한다.
도 9b는 도 9a 의 대상 이미지 및 변형 이미지를 일정 시점에서 바라본 모습을 도시한다.
도 10a는 대상 이미지 및 본 발명에 따라 변형된 변형 이미지를 도시한다.
도 10b는 도 10a 의 대상 이미지 및 변형 이미지를 일정 시점에서 바라본 모습을 도시한다.
도 11은 공간 상의 좌측면에 입혀지는 대상 이미지 및 본 발명에 따라 변형된 변형 이미지를 일정 시점에서 바라본 모습을 도시한다.
도 12는 도 3의 스트리트 뷰 캡쳐 화면(위 그림) 및 본 발명에 따라 이를 변환시킨 이미지(아래 그림)를 도시한다.
도 13은 본 발명의 일 실시예에 따른 이미지 보정 장치의 구성을 도식적으로 보여준다.
이하, 첨부된 도면을 참조하여 본 발명의 각 실시예에 따른 이미지 생성 장치 및 방법에 대하여 설명하기로 한다.
이하의 실시예는 본 발명의 이해를 돕기 위한 상세한 설명이며, 본 발명의 권리 범위를 제한하는 것이 아님을 밝혀둔다. 따라서, 본 발명과 동일한 기능을 수행하는 균등한 발명 역시 본 발명의 권리 범위에 속할 것이다.
또한, 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
또한, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명에서 대상 이미지란, 본 발명의 방법에 따라 변형하기 전에 주어진 원래의 이미지(제1 이미지)를 말한다. 이러한 대상 이미지는, 예를 들어, 도로의 노면에 표시될 노면표지(어린이 보호구역, 일단 멈춤, 학교앞 서행 등)와 같은 기호나 문자, 또는 구글 스트리트뷰 등과 같이 컴퓨터 상에서 삽입될 노면표지, 가상현실(Virtual Reality; VR) 또는 증강현실(Augmented Reality; AR) 등에서 삽입될 문자나 기호, 기타 현실에서 또는 컴퓨터 그래픽 상에서 구현될 수 있는 모든 이미지를 포함한다.
본 발명에서 변형 이미지란, 주어진 대상 이미지를 본 발명에서 제시하는 방법에 따라 변형한 이미지(제2 이미지)를 말한다.
본 발명에서 시점측 단부란, 주어진 이미지의 최상부, 최하부, 최좌측부, 최우측부를 각각 경계로 하는 직사각형을 상정했을 경우, 이러한 직사각형의 밑변(시점에 가장 가까운 변) 중에서 시점에 가장 가까운 점을 말한다. 본 발명에서 시점 반대측 단부란, 상기 직사각형의 상변 중에서 시점에 가장 가까운 점을 말한다. 예를 들어 도 4에서 점 A는 대상 이미지의 (또는 첫 번째 분할 이미지의) 시점측 단부이며, 점 E는 대상 이미지의 (또는 네 번째 분할 이미지의) 시점 반대측 단부이다.
본 발명에서 가로방향 및 세로방향은, 상기 직사각형을 기준으로 본 방향을 나타낸다. 예를 들어 도 2a 및 2b에서 HL 은 가로방향을 VL은 세로방향의 선들을 나타낸다.
본 발명에서 지면(ground surface)은 대상 이미지가 도포되거나 컴퓨터 그래픽에 의해 입혀질 면을 말하는 것으로서, 바닥에 놓인 면에 한정되는 것이 아니라, 측면이나 천장면을 포함하여 어떠한 면도 될 수 있다. 예를 들어 도 2b에서와 같이 좌측면에 그래픽이 입혀지는 경우에는 좌측면도 지면에 해당한다.
본 발명에서 시선 길이란, 시점으로부터 해당 지점까지의 거리를 말한다. 예를 들어 아래 설명되는 실시예들에서 선분 OA의 길이, 선분 OE의 길이 등이 이에 해당한다.
본 발명에서 시야 길이란, 주어진 이미지의 시점측 단부로부터 시점 반대측 단부까지의 세로 길이가 시점에서 관측되는 길이를 말한다. 즉, 시점에서 바라볼 때 원근법의 적용으로 인해 실제 길이보다 작게 보이게 되는, 주어진 이미지의 시점측 단부로부터 시점 반대측 단부까지의 세로 길이이다. 예를 들어 아래 실시예들에서 선분 M1M2의 길이라든가 hi 등이 이에 해당한다.
본 발명에서 시야각이란, 지면 상의 일 지점에서 시점을 바라보는 각도를 말한다. 예를 들어 아래에서 설명되는 실시예들에서 점 A에서의 시야각은 θ0이고, 점 C에서의 시야각은 θ2 이다.
본 발명에서 시점각이란, 시점에서 특정 이미지를 시점측 단부로부터 시점 반대측 단부까지 바라볼 때 형성되는 각도를 말한다. 예를 들어 아래에서 설명되는 실시예들에서 분할 이미지(201) 에 대한 시점각은 ∠AOB 이고, 대상 이미지(200) 전체에 대한 시점각은 ∠AOE 이다.
본 발명에서 시점 정보란, 시점의 위치를 대상 이미지에 대해 특정할 수 있게 하기에 충분한 정보를 말한다. 예를 들어, 도 4에서 시점 정보는 시점거리 L, 시점 높이 H, 대상 이미지 시점측 단부에서의 시야각, 대상 이미지 시점 반대측 단부에서의 시야각, 대상 이미지 시점측 단부까지의 시선길이, 대상 이미지 시점 반대측 단부까지의 시선길이, 대상 이미지에 대한 시점각 중 2개 이상만 알고 있으면 대상이미지에 대한 시점의 상대 위치를 결정할 수 있게 된다.
본 발명에서 i번째, j번째 등과 같이 순서를 나타낼 때에는 시점에 가까운 쪽으로부터 첫 번째, 두 번째, 세 번째,...등과 같이 순번을 정하는 것으로 한다.
본 발명에서는 도로 등의 지면상에 물리적으로 직접 입히거나, 또는 컴퓨터 그래픽 등에서 원근법이 느껴지도록 가상으로 입힐 대상 이미지가 주어지는 경우에, 원근법에 의해 상기 대상 이미지에 대한 판독성이 악화되는 문제를 해결할 수 있도록 상기 대상 이미지를 변환시키는 방법을 제안한다.
본 발명에 따른 구체적인 일 실시예에서는 주어진 대상 이미지를 가로 방향을 따라 일정한 개수로 분할하고, 이렇게 분할된 각각의 분할 이미지 중에서 시점에 가까이 위치하는 분할 이미지의 세로 길이는 상대적으로 줄이고, 시점에서 멀리 위치하는 분할 이미지의 세로 길이는 상대적으로 늘린다. 이렇게 변환시킴으로써 원래 입히고자 했던 대상 이미지의 전체 세로 길이는 유지하면서도, 원근법으로 인해 판독성이 악화되는 문제를 개선시킬 수 있게 된다.
본 발명에 따른 다른 구체적인 일 실시예에서는, 주어진 대상 이미지를 일정한 개수로 가로로 분할한 후, 각각의 분할 이미지의 시야 길이를 구한다. 이후, 각각의 분할 이미지에 대해 이들 시야 길이들 간의 비율을 역으로 적용하여, 각각의 분할 이미지가 변환될 세로길이(이하, 변환 길이라고 함)를 구한다. 즉, 주어진 대상 이미지를 n개의 분할 이미지로 분할한 경우에, 전체 변환 길이 중에서 i번째 분할 이미지의 변환 길이가 차지하는 비율이, 전체 시야 길이 중에서 n-i+1 번째 분할 이미지의 시야길이가 차지하는 비율과 같도록 변환 길이를 구한다.
도 4는 이와 같은 본 발명의 일 실시예에 따른 방법을 설명하는 도면이다. 도 4의 (b)는 대상 이미지(200)가 들어갈 위치의 평면도이며, 도 4의 (a)는 도 4의 (b)의 선 GE를 따라 자른 단면을 개략적으로 보여준다.
도 4에서, 도면부호 100은 지면(ground surface)을 나타내며, O는 시점(view point)을 나타낸다. 시점은, 예를 들어, 자동차에 탑승한 운전자의 눈에 해당할 수 있으나 이에 한정되는 것은 아니다. G는 시점 O에서 연직 하방에 위치하는 지면(100)위의 점을 나타낸다. 시점 O의 높이(시점 높이), 즉 선분 OG의 길이는 H로 표시되어 있다. 시점 O가 지면에 투영된 지점, 즉 점 G로부터 대상 이미지(200)의 시점측 단부, 즉 점 A까지의 거리(시점 거리)는 L로 표시되어 있다.
도면부호 200은 지면(100)에 입혀지게 될 대상 이미지(예를 들면, 노면표지)의 최상부, 최하부, 최자측부, 최우측부를 각각 경계로 하는 직사각형을 나타낸다. 후술되는 201, 202, 203, 204 도 역시 마찬가지로 각각의 분할 이미지에 대한 직사각형을 나타낸다. 그러나 이하에서는 설명의 편의를 위해 간단히 대상 이미지(200), 분할 이미지(201) 등과 같은 방식으로 표시하도록 하겠다. 또한, 도면에서 대상 이미지(200)는 지면(100) 아래에 두께를 가지는 것으로 도시되어 있으나, 이는 설명의 편의를 위한 것일 뿐이고, 실제로는 실질적인 두께가 없이 지면(100)의 연장선상에서 지면(100)과 나란히 놓이는 것으로 가정한다.
본 실시예에서는 대상 이미지(200)를 가로방향(X축 방향)으로 평행하게 4개의 분할 이미지(201, 202, 203, 204)로 분할하였다. 점 A, B, C, D, E는 이렇게 분할된 분할 이미지들의 가로선들이 점 G를 지나고 Y축에 평행한 선과 만나는 점들이다. 분할 이미지(201, 202, 203, 204)의 세로 길이(Y축 방향 길이)는 각각 a1, a2, a3, a4 로 표시되었다.
본 실시예 및 이하의 실시예들에서는 대상 이미지(200)를 4개로 분할하였으나, 이는 설명의 편의를 위한 것임을 밝혀둔다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는, 본 발명의 명세서에 개시된 내용으로부터, 대상 이미지(200)를 분할하는 개수가 많으면 많을수록 더욱 판독성이 나아지는 효과를 가져올 것임을 예상할 수 있을 것이다.
한편 본 실시예에서는 초점(focal point)이 점 C 상에 위치하는 것으로 가정한다. 초점을 지나는 초점 평면은 도면부호 300으로 표시되어 있으며, 점 C에서 시선(line of sight) OC와 직교한다. 초점 평면(300)과 시선 OA, 시선 OB, 시선 OC, 시선 OD 및 시선 OE 가 만나는 점은 각각 M1, M2, M3, M4, M5 로 표시되어 있다. 따라서 본 실시예에서 점 C와 점 M3는 동일한 지점을 나타낸다.
여기서, 시점 O에서 관찰되는 분할 이미지(201)의 길이, 즉 시야길이는 선분 M1M2 의 길이와 같다. 마찬가지로, 분할 이미지(202), 분할 이미지(203), 분할 이미지(204)의 시야길이는 각각 선분 M2M3 의 길이, 선분 M3M4 의 길이, 선분 M4M5 의 길이와 같다.
시점부터 초점까지의 시선길이를 S 라 하면 이는 선분 OC의 길이와 같고, 따라서 직각 삼각형 OCG 로부터 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000016
(1)
또한, 시야각 θ0, θ1, θ2, θ3, θ4 는 각각 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000017
(2)
Figure PCTKR2018004876-appb-I000018
(3)
Figure PCTKR2018004876-appb-I000019
(4)
Figure PCTKR2018004876-appb-I000020
(5)
Figure PCTKR2018004876-appb-I000021
(6)
한편, ∠AOB, ∠BOC, ∠COD, ∠DOE 는 각각 (θ01), (θ12), (θ23), (θ34)가 된다.
따라서 분할 이미지(201, 202, 203, 204)의 시야길이, 즉 선분 M1M2 의 길이, 선분 M2M3 의 길이, 선분 M3M4 의 길이, 선분 M4M5 의 길이를 각각 h1, h2, h3, h4 라고 하면, 이들은 각각 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000022
Figure PCTKR2018004876-appb-I000023
(7)
Figure PCTKR2018004876-appb-I000024
Figure PCTKR2018004876-appb-I000025
(8)
*
Figure PCTKR2018004876-appb-I000026
Figure PCTKR2018004876-appb-I000027
(9)
Figure PCTKR2018004876-appb-I000028
Figure PCTKR2018004876-appb-I000029
(10)
또한, 각각의 분할 이미지가 변환될 길이를 각각 y1, y2, y3, y4 라고 하면 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000030
(11)
Figure PCTKR2018004876-appb-I000031
(12)
Figure PCTKR2018004876-appb-I000032
(13)
Figure PCTKR2018004876-appb-I000033
(14)
여기서 T는 지면(100)에 도포되거나 컴퓨터 그래픽 작업을 통해 입히고자 하는 대상 이미지(200)의 전체 세로 길이(예를 들어, 본 실시예에서는 T=a1+a2+a3+a4 )를 나타낸다.
도 4의 실시예는 대상 이미지(200)를 4개로 분할한 경우에 대해 설명하였으나, 4개 이상으로 분할하는 경우에도 상기 식을 적용할 수 있다.
대상 이미지(200)를 n 개의 분할 이미지로 분할한다고 할 경우에, 시점부터 초점까지의 시선길이 S, 시점에 가장 가까이 위치하는 분할 이미지(첫 번째 분할 이미지)부터 시작하여 i번째 분할 이미지의 시야길이 hi 및 i번째 분할 이미지의 시점 반대측 단부에서 본 시야각 θi 는 각각 다음과 같이 구할 수 있다:
Figure PCTKR2018004876-appb-I000034
(15)
Figure PCTKR2018004876-appb-I000035
(16)
Figure PCTKR2018004876-appb-I000036
(17)
따라서 각각의 분할 이미지가 변환될 길이를 각각 y1, y2, y3,...yn 이라고 할 때, i 번째 분할 이미지의 변환될 길이는 다음과 같이 구할 수 있다:
Figure PCTKR2018004876-appb-I000037
(18)
아래 표는 T=5m, L=15m, H=1.2m, n=10, 그리고 a1=a2=...=a10=0.5m, 인 경우에 대해 θi, hi, yi, 값을 보여주는 표이다.
i θi (단위: 도) hi (단위: m) yi (단위: m)
1 4.426971647 0.044993202 0.385100236
2 4.289153329 0.042195515 0.405281269
3 4.159642294 0.039650901 0.427091356
4 4.037710621 0.03732973 0.45071068
5 3.922712891 0.035206586 0.476345042
6 3.814074834 0.033259565 0.504230364
7 3.711283808 0.031469712 0.534638136
8 3.613880752 0.029820553 0.567882051
9 3.521453377 0.02829772 0.60432613
10 3.433630362 0.026888632 0.644394734
위 표에서 알 수 있듯이, 열 번째 분할 이미지의 변형 길이(y10)는 첫 번째 분할 이미지 변형 길이(y1)의 대략 1.7배 가까이 된다.
도 9 및 10은 대상 이미지 및 위 표 1에서 얻은 yi 값을 이용하여 얻어진 변형 이미지를 보여주는 도면이다.
도 9a에서 좌측은 대상 이미지 “어린이 보호구역”이며, 우측은 표 1에 따라 얻어진 yi 값을 이용하여 변형한 이미지이다. 대상 이미지에서 “어린이”와 “보호구역”의 세로 길이는 동일했으나, 변형된 이미지에서는 “어린이”가 “보호구역”보다 더 길어진 것을 알 수 있다. 또한, 각각의 가로획에도 변화가 있음을 확인할 수 있다. 예를 들어 “보호구역”의 맨 아래 가로획은 변형 이미지에서 더 가늘어졌고, “어린이”의 맨 위 가로획은 변형 이미지에서 더 두꺼워졌다.
도 9b는 대상이미지와 변형이미지를 각각 원거리에서 바라본 모습을 보여준다. 두 이미지 모두 전체 길이 T 는 5m 이고 시점거리 L = 15m, 시점 높이 H = 1.2m에서 바라본 것이다. 좌측이 대상 이미지이고 우측이 변형 이미지이다. 원거리에서 봤을 때 대상 이미지는 “어린이”가 “보호구역”보다 더 작게 보이나, 변형 이미지에서는 “어린이”와 “보호구역”이 거의 동일한 크기로 보이는 것을 알 수 있다. 또한, 대상 이미지에서는 시점에서 멀어질수록 대상 이미지의 가로획의 두께가 얇아지게 보이나, 변형 이미지에서는 전체적으로 가로획의 두께가 실질적으로 동일하게 보이는 것을 알 수 있다.
도 10a 및 10b는 각각 대상 이미지 “PITTS-BURGH"와 이에 대한 변형 이미지를 보여준다. 각각에 대한 설명은 도 9a 및 9b 와 동일하므로 이에 대한 반복 설명은 생략한다.
도 11은, 도 9 및 10에서와 같이 바닥면에 이미지가 배치된 것이 아니라, 공간상의 좌측면에 대상 이미지 및 변형 이미지가 입혀지는 모습을 도시한다. 이와 같은 이미지의 배치는 AR 이나 VR 환경에서 주로 발생할 수 있을 것이나, 이에 한정되는 것은 아니며, 예를 들어 도로의 측면에 세워진 간판이나 도로 표지에도 적용될 수도 있을 것이다.
도 11의 위에 도시된 도면은 대상 이미지가 원근법의 적용을 받아 보이는 모습이고, 아래에 도시된 도면은 변형 이미지가 원근법의 적용을 받아 보이는 모습이다. 도시된 바로부터 알 수 있듯이, 대상 이미지에서는 시점에서 멀어질수록 글자가 잘 보이지 않게 되나, 변형 이미지에서는 시점과 관계없이 선명하게 보임을 알 수 있다. 특히 뒤의 “Pkwy" 부분을 살펴보면 변형 이미지에서 대략 2배로 확장되어 보임을 알 수 있다.
도 12는 도 3의 스트리트 뷰 캡쳐 화면(위 그림) 및 노면 표지를 본 발명에 따라 변환시킨 화면(아래 그림)을 함께 도시한다. 도면으로부터 확인할 수 있듯이, 변환 전에는 Pkwy 부분의 판독성이 낮았으나, 변환 후에 현저하게 개선되었음을 알 수 있다.
한편, 도 4에서는 초점이 대상 이미지의 중앙에 위치한 경우였으나, 초점이 다른 지점에 위치하는 경우에도 본 발명의 적용이 가능하다.
도 5는 이에 관한 일 실시예를 보여준다.
도 4에서와 마찬가지로, 도 5의 (b)는 대상 이미지(200)가 들어갈 위치의 평면도이며, 도 5의 (a)는 도 5의 (b)의 선 GE를 따라 자른 단면을 개략적으로 보여준다.
도 5에서는 초점이 첫 번째 분할 이미지와 두 번째 분할 이미지 사이에 위치한다. 따라서 초점평면(300)은 점 B에서 시선(line of sight) OB와 직교한다.
시점부터 초점까지의 시선길이 S는 선분 OB의 길이와 같고, 따라서 직각 삼각형 OBG 으로부터 다음과 같이 구할 수 있다:
Figure PCTKR2018004876-appb-I000038
(19)
분할 이미지(201, 202, 203, 204)의 시야길이를 각각 h1, h2, h3, h4 라고 하면 이들은 각각 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000039
Figure PCTKR2018004876-appb-I000040
(20)
Figure PCTKR2018004876-appb-I000041
Figure PCTKR2018004876-appb-I000042
(21)
Figure PCTKR2018004876-appb-I000043
Figure PCTKR2018004876-appb-I000044
(22)
Figure PCTKR2018004876-appb-I000045
Figure PCTKR2018004876-appb-I000046
(23)
각각의 분할 이미지가 변환될 길이 y1, y2, y3, y4 는 위 식 (11) 내지 (14)에 따라 구할 수 있다.
마찬가지로, 대상 이미지를 n 개의 이미지로 분할한 경우에도 아래와 같이 대한 위 식 (15) 내지 (18)를 동일 내지 유사하게 적용할 수 있다.
Figure PCTKR2018004876-appb-I000047
(15)
Figure PCTKR2018004876-appb-I000048
(16')
Figure PCTKR2018004876-appb-I000049
(17')
Figure PCTKR2018004876-appb-I000050
(18)
위 도 4의 실시예 및 도 5의 실시예에서 초점과 시점이 이루는 시야각을 θf 라 놓으면, 식 (16), (16'), (17), (17') 은 각각 다음과 같이 일반화시킬 수 있다:
Figure PCTKR2018004876-appb-I000051
(24)
Figure PCTKR2018004876-appb-I000052
(25)
(단, f는 0이상 n 이하의 정수)
결국, 초점을 어느 분할 이미지에 위치시키는지와 관계없이, 시점 조건(예를 들면, θ0, H, 또는 L 등등)이 동일하면 동일한 변환 길이가 얻어지게 됨을 알 수 있다.
도 6은 본 발명의 다른 대안적인 실시예를 도시한다.
본 실시예에서는 초점 평면에서 시야길이를 구하는 대신에, 시점 O 로부터 동일한 거리에 위치하는 지점에서 각각의 분할 이미지에 대한 시야길이를 구하는 접근방식을 이용한다.
앞서와 마찬가지로, 도 6의 (b)는 대상 이미지(200)가 들어갈 위치의 평면도이며, 도 6의 (a)는 도 6의 (b)의 선 GE를 따라 자른 단면을 개략적으로 보여준다.
도 6에서, 대상 이미지는 앞서의 실시예들과 유사하게, AB, BC, CD, DE 의 4개의 구간으로 분할되었다. 점 M1은 시점 O를 중심으로 하고 반지름의 길이가 시점으로부터 대상 이미지의 시점측 단부까지의 시선길이 R인 원(이하, '원 O' 라 함)이 시선 OA와 만나는 점이다. 점 M2 는, 점 M1 에서 그은 접선이 시선 OB 와 만나는 점이다. 점 M3 는, 원 O와 시선 OB 가 만나는 점에서 그은 접선이 시선 OC 와 만나는 점이다. 점 M4 는, 원 O와 선분 OC 가 만나는 점에서 그은 접선이 시선 OD 와 만나는 점이다. 점 M5 는, 원 O와 시선 OD 가 만나는 점에서 그은 접선이 시선 OE 와 만나는 점이다.
시점 O에서 첫 번째 분할 이미지(201)를 바라봤을 때의 시야길이는 선분 M1M2 의 길이라 할 수 있다.
시점 O에서 두 번째 분할 이미지(202)를 바라봤을 때의 시야길이를, 첫 번째 분할 이미지(201)에 대해 시야길이를 측정한 위치와 동일한 위치에서 측정한다면, 그 시야길이는 선분 M2M3 의 길이가 될 것이다.
마찬가지로, 시점 O에서 세 번째 분할 이미지(203)를 바라봤을 때의 시야길이 및 네 번째 분할 이미지(204)를 바라봤을 때의 시야길이는 각각 선분 M3M4 의 길이 및 선분 M4M5의 길이가 될 것이다.
한편 반지름의 길이 R은 직각삼각형 OAG 로부터 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000053
(26)
시야각 θ0, θ1, θ2, θ3, θ4 는 식 (2) 내지 (6)과 같다. 마찬가지로, ∠AOB, ∠BOC, ∠COD, ∠DOE 는 각각 (θ01), (θ12), (θ23), (θ34)이 된다.
따라서 분할 이미지(201, 202, 203, 204)의 시야길이, 즉 선분 M1M2 의 길이, 선분 M2M3 의 길이, 선분 M3M4 의 길이, 선분 M4M5 의 길이를 각각 h1, h2, h3, h4 라고 하면, 이들은 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000054
(27)
Figure PCTKR2018004876-appb-I000055
(28)
Figure PCTKR2018004876-appb-I000056
(29)
Figure PCTKR2018004876-appb-I000057
(30)
각각의 분할 이미지가 변환될 길이 y1, y2, y3, y4 는 각각 위 식 (11) 내지 (14)에 따라 구할 수 있다.
도 6의 실시예는 대상 이미지(200)를 4개로 분할한 경우이나, 4개 이상으로 분할하는 경우에도 상기 식을 적용될 수 있다.
대상 이미지(200)를 n 개의 분할 이미지로 분할한다고 할 경우에, 시점에 가장 가까이 위치하는 분할 이미지(첫 번째 분할 이미지)부터 시작하여 i번째 분할 이미지의 시점 반대측 단부에서 본 시야각 θi 은 위 식 (15)를 이용하여 구할 수 있고, i 번째 분할 이미지의 시야길이 hi 은 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000058
(31)
앞서와 마찬가지로, 각각의 분할 이미지가 변환될 길이를 각각 y1, y2, y3,...yn 이라고 할 때, i 번째 분할 이미지의 변환될 길이는 위 식 (18)를 이용하여 구할 수 있다.
아래 표는 T=5m, L=15m, H=1.2m, n=10, 그리고 a1=a2=...=a10=0.5m, 인 경우에 대해 θi, hi, yi, 값을 보여주는 표이다.
i θi (단위: 도) hi (단위: m) yi (단위: m)
1 4.426971647 0.038594315 0.385090146
2 4.289153329 0.036196096 0.40527958
3 4.159642294 0.034014294 0.427097203
4 4.037710621 0.032023672 0.450722661
5 3.922712891 0.030202563 0.476361038
6 3.814074834 0.028532278 0.504247297
7 3.711283808 0.026996633 0.534651652
8 3.613880752 0.025581555 0.567886102
9 3.521453377 0.02427476 0.604312407
10 3.433630362 0.023065487 0.644351914
본 실시예의 경우에도, 앞서 표 1에서와 대략 유사한 변형 길이 값들이 나오는 것을 알 수 있다.
도 7은 도 6의 실시예에 대한 변형 실시예를 보여준다.
앞서와 마찬가지라, 도 7의 (b)는 대상 이미지(200)가 들어갈 위치의 평면도이며, 도 7의 (a)는 도 7의 (b)의 선 GE를 따라 자른 단면을 개략적으로 보여준다.
도 7에서, 대상 이미지는 앞서의 실시예들과 유사하게, AB, BC, CD, DE 의 4개의 구간으로 분할되었다. 점 M1은 점 A에서 시선 OA에 수직하기 연장하는 선이 시선 OA와 만나는 점이고, 따라서 A와 M1은 동일한 지점을 나타낸다. 점 M2는 점 M1에서 시선 OA에 수직하게 연장하는 선이 시선 OB와 만나는 점이다. 점 M3는 점 M2에서 시선 OB에 수직하게 연장하는 선이 시선 OC와 만나는 점이다. 점 M4는 점 M3에서 시선 OC에 수직하게 연장하는 선이 시선 OD와 만나는 점이다. 점 M5는 점 M4에서 시선 OD에 수직하게 연장하는 선이 시선 OE와 만나는 점이다.
시점 O에서 첫 번째 분할 이미지(201)를 바라봤을 때의 시야길이는 선분 M1M2 의 길이라 할 수 있다.
시점 O부터 점 M2 까지의 거리는 시점 O부터 점 M1 까지의 거리보다 크나, 그 차이 정도는 무시할 수 있는 수준이다. 따라서 선분 M2M3 의 길이를, 시점 O에서 두 번째 분할 이미지(202)에 대한 시야길이로 근사할 수 있다.
마찬가지로, 선분 M3M4 의 길이 및 선분 M4M5 의 길이를, 시점 O에서 세 번째 분할 이미지(203) 및 네 번째 분할 이미지(204)를 바라봤을 때의 시야길이로 근사할 수 있다.
또한, ∠AOB, ∠BOC, ∠COD, ∠DOE 는 각각 (θ01), (θ12), (θ23), (θ34)이 된다.
여기서, 선분 OM1, OM2, OM3, OM4, 의 길이를 각각 S1, S2, S3, S4 라고 하면 S1, S2, S3, S4 의 길이는 다음과 같이 구할 수 있다..
Figure PCTKR2018004876-appb-I000059
(32)
Figure PCTKR2018004876-appb-I000060
(33)
Figure PCTKR2018004876-appb-I000061
(34)
Figure PCTKR2018004876-appb-I000062
(35)
시야각 θ0, θ1, θ2, θ3, θ4 는 식 (2) 내지 (6)과 같다.
따라서 분할 이미지(201, 202, 203, 204)의 시야길이, 즉 선분 M1M2 의 길이, 선분 M2M3 의 길이, 선분 M3M4 의 길이, 선분 M4M5 의 길이를 각각 h1, h2, h3, h4 라고 하면, 이들은 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000063
(36)
Figure PCTKR2018004876-appb-I000064
(37)
Figure PCTKR2018004876-appb-I000065
(38)
Figure PCTKR2018004876-appb-I000066
(39)
각각의 분할 이미지가 변환될 길이 y1, y2, y3, y4 는 각각 위 식 (11) 내지 (14)에 따라 구할 수 있다.
도 7의 실시예는 대상 이미지를 4개로 분할한 경우이나, 4개 이상으로 분할하는 경우에도 상기 식을 적용될 수 있다.
대상 이미지(200)를 n 개의 분할 이미지로 분할한다고 할 경우에, 시점에 가장 가까이 위치하는 분할 이미지(첫 번째 분할 이미지)부터 시작하여 i번째 분할 이미지의 시점 반대측 단부에서 본 시야각 θi 은 위 식 (15)를 이용하여 구할 수 있고, i 번째 분할 이미지의 시야길이 hi 은 다음과 같이 구할 수 있다.
Figure PCTKR2018004876-appb-I000067
(40)
여기서 Si 는 다음과 같다.
Figure PCTKR2018004876-appb-I000068
(단,
Figure PCTKR2018004876-appb-I000069
) (41)
앞서와 마찬가지로, 각각의 분할 이미지가 변환될 길이를 각각 y1, y2, y3,...yn 이라고 할 때, i 번째 분할 이미지의 변환될 길이는 위 식 (18)를 이용하여 구할 수 있다.
아래 표는 T=5m, L=15m, H=1.2m, n=10, 그리고 a1=a2=...=a10=0.5m, 인 경우에 대해 θi, hi, yi, 값을 보여주는 표이다.
i θi (단위: 도) hi (단위: m) yi (단위: m)
1 4.426971647 0.038594315 0.385093659
2 4.289153329 0.036196215 0.405282749
3 4.159642294 0.034014504 0.427099926
4 4.037710621 0.032023952 0.45072481
5 3.922712891 0.030202895 0.476362452
6 3.814074834 0.028532649 0.504247778
7 3.711283808 0.026997033 0.534650952
8 3.613880752 0.025581975 0.567883907
9 3.521453377 0.024275193 0.604308324
10 3.433630362 0.023065929 0.644345441
본 실시예의 경우에도, 앞서 표 1 및 표 2에서와 대략 유사한 변형 길이 값들이 나오는 것을 알 수 있다.
도 8은 본 발명의 또 다른 대안적인 실시예를 보여준다.
앞서와 마찬가지로, 도 8의 (b)는 대상 이미지(200)가 들어갈 위치의 평면도이며, 도 8의 (a)는 도 8의 (b)의 선 GE를 따라 자른 단면을 개략적으로 보여준다.
도 8에서는 시점 O에서 대상 이미지(200) 전체에 대한 시점각 ∠AOE 를, 대상 이미지(200)를 분할하고자 하는 개수와 동일한 개수로 분할하고, 이렇게 분할된 각도를 이용하여 변형될 길이를 구하는 접근 방식을 이용한다.
도 8에서, 대상 이미지(200)는 앞서의 실시예들과 유사하게, AB, BC, CD, DE 의 4개의 구간으로 분할되었다. 각각의 분할 이미지(201, 202, 203, 204)의 세로 길이는 각각 a1, a2, a3, a4 으로 표시되었다(도 8의 (b) 참조). 점 A, B, C, D, E는 이렇게 분할된 분할 이미지(201, 202, 203, 204)의 가로선들이, 점 G를 지나고 Y축에 평행한 선과 만나는 점들이다.
분할 이미지의 개수에 맞춰서, 시점 O에서 대상 이미지(200) 전체를 바라보는 각도(∠AOE)도 4개의 각도(α1, α2, α3, α4)로 분할되었다. 이때 각각의 각도들은 다음 식을 만족하는 크기로 분할된다:
Figure PCTKR2018004876-appb-I000070
(42)
점 A, B', C', D', E 는 이렇게 각도를 분할하는 선들이 대상 이미지(200)와 만나는 점을 각각 나타낸다.
이렇게 하여 대상이미지는 AB' 구간, B'C' 구간, C'D' 구간, D'E 구간의 4개의 구간으로 새롭게 분할된다.
점 O를 중심으로 하고 반지름의 길이가 선분 OA 인 원 O을 가정하면, (반지름의 길이가 충분히 클 경우) 원호 M1M2, 원호 M2M3, 원호 M3M4, 원호 M4M5의 길이는 시점 O에서 관측되는 AB' 구간, B'C' 구간, C'D' 구간, D'E 구간의 길이와 실질적으로 동일할 수 있다. 따라서 선분 AB'의 길이, 선분 B'C'의 길이, 선분 C'D'의 길이, 선분 D'E의 길이를, 각각 분할된 이미지가 변환될 길이 y1, y2, y3, y4로서 구한다.
대상 이미지(200)의 전체 세로 길이를 T라 할 때(본 실시예에서는 T=a1+a2+a3+a4 ), 시야각 θ0 및 θ4 는 각각 다음과 같다:
Figure PCTKR2018004876-appb-I000071
(43)
Figure PCTKR2018004876-appb-I000072
(44)
한편, 대상 이미지(200)의 전체 세로 길이에 대한 첫 번째 분할 이미지(201)의 세로 길이의 비율은 a1/T 이다. 따라서 분할 이미지(201)에 대한 시점각 α1는 위 식 (42)를 고려하여 다음과 같이 구할 수 있다:
Figure PCTKR2018004876-appb-I000073
(45)
마찬가지로, 두 번째 내지 네 번째 분할 이미지(202 내지 204)에 대한 시점각 α2, α3, α4는 각각 다음과 같이 구할 수 있다:
Figure PCTKR2018004876-appb-I000074
(46)
Figure PCTKR2018004876-appb-I000075
(47)
Figure PCTKR2018004876-appb-I000076
(48)
이제 분할된 이미지가 변환될 길이 y1, y2, y3, y4 를 각각 구하면 다음과 같다:
Figure PCTKR2018004876-appb-I000077
Figure PCTKR2018004876-appb-I000078
(49)
Figure PCTKR2018004876-appb-I000079
Figure PCTKR2018004876-appb-I000080
(50)
Figure PCTKR2018004876-appb-I000081
Figure PCTKR2018004876-appb-I000082
(51)
Figure PCTKR2018004876-appb-I000083
Figure PCTKR2018004876-appb-I000084
(52)
도 8의 실시예는 대상 이미지(200)를 4개로 분할한 경우이나, 4개 이상으로 분할하는 경우에도 상기 식이 적용될 수 있다.
대상 이미지(200)를 n 개의 분할 이미지로 분할한다고 할 경우에, 시점에 가장 가까이 위치하는 분할 이미지(첫 번째 분할 이미지)부터 시작하여 i 번째 분할 이미지의 변환 길이 yi 및 시점각 αi 는 다음과 같이 구할 수 있다:
Figure PCTKR2018004876-appb-I000085
(53)
Figure PCTKR2018004876-appb-I000086
(54)
여기서 θ0 , θn 는 각각 위 식 (2)와 (15)를 통해 구할 수 있다.
아래 표는 T=5m, L=15m, H=1.2m, n=10, 그리고 a1=a2=a3=...=a10=0.5m 인 경우에 대해 θi, yi 값을 보여주는 표이다.
i θi (단위: 도) yi (단위: m)
1 4.45989217 0.385129017
2 4.34586308 0.405297584
3 4.231833991 0.427096516
4 4.117804901 0.450706402
5 4.003775811 0.47633355
6 3.889746721 0.504214506
7 3.775717632 0.534621535
8 3.661688542 0.567869297
9 3.547659452 0.604323018
10 3.433630362 0.644408573
역시 본 실시예의 경우에도, 앞서 표 1 내지 표 3에서와 대략 유사한 변형 길이 값들이 나오는 것을 알 수 있다.
본 발명의 추가적인 실시예로서, 보정인자 fi 를 사용하여 위 식(18) 및 식(54)를 각각 다음과 같이 변형시킬 수 있다.
Figure PCTKR2018004876-appb-I000087
(55)
Figure PCTKR2018004876-appb-I000088
(56)
보정인자 fi 는 이미지가 도포되거나 입혀지는 상황이나 조건 등에 따라 적절한 값이 취해질 수 있다. 예를 들어
Figure PCTKR2018004876-appb-I000089
를 적용하는 경우에는, 시점에 가까이 위치하는 분할 이미지일수록 적게 변환시키고, 시점에서 더 멀리 위치하는 분할 이미지일수록 더 많이 변환시킬 수 있게 된다. fi 값이 이에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 사용자의 필요나 지면 상태 등의 주변 조건에 따라 다른 적절한 값이 취해질 수 있다는 것을 알 수 있을 것이다.
본 발명의 일 실시예에서는 상기와 같은 이미지 보정 방법을 구현할 수 있는 이미지 보정 장치를 제공한다.
도 13은 이러한 이미지 보정 장치의 일 구현예를 도시하는 블록도이다. 도 13을 참조하면, 본 발명의 일 실시예에 따른 이미지 보정 장치(1000)는 입력부(1010), 이미지 변환부(1020), 및 출력부(1030)을 포함한다.
사용자는 입력부(1010)를 통해 변형시키고자 하는 대상 이미지(200)에 관한 정보를 입력할 수 있다. 대상 이미지 정보는 대상 이미지의 이미지 파일, 대상 이미지가 입혀질 폭과 길이(위 실시예에서 길이 T) 등을 포함할 수 있다.
또한 사용자는, 대상 이미지(200)를 분할하고자 하는 개수 및 각각의 분할 이미지의 세로 길이(a1, a2, a3,..)를 입력할 수 있다. 바람직하게는 각각의 분할 이미지가 동일한 세로 길이로 분할 될 수 있다 (즉, a1 = a2 = a3 = ... = an).
또한 사용자는 입력부(1010)를 통해 시점 정보를 입력할 수 있다. 시점 정보는 대상 이미지(200)에 대해 시점의 위치를 특정할 수 있는 정보를 의미한다. 예를 들면 시점이 대상 이미지로부터 이격된 거리, 시점각 등이 될 수 있을 것이다.
더욱 구체적으로는, 예를 들어 상기 대상 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이 H 및 상기 시점을 상기 대상 이미지가 위치하는 지면(100)상에 투영시킨 지점으로부터 상기 대상 이미지의 시점측 단부까지의 시점 거리 L, 상기 대상 이미지의 시점측 단부에서의 시야각, 상기 대상 이미지의 시점 반대측 단부 에서의 시야각; 상기 시점으로부터 상기 대상 이미지의 시점측 단부까지의 시선길이; 상기 시점으로부터 상기 대상 이미지의 시점 반대측 단부까지의 시선길이; 및 상기 대상 이미지의 시점각 등일 수 있다. 시점 정보는 대상 이미지(200)에 대해 시점의 위치를 특정할 수 있으면 되므로, 이들 모두가 필요한 것은 아니다. 즉, 예를 들어 도 6의 실시예에서, 시점 거리 L과 시점 높이 H 만 주어지면, 시야각 θ0 와 시선 길이 R 등은 이로부터 구할 수 있다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 것이다.
입력부(1010)를 통해 입력된 대상 이미지는 이미지 변환부(1020)에서 앞서 설명한 내용과 같은 과정을 거쳐 변환될 수 있다. 예를 들어 위 식 (18) 또는 (54)에 따라 i 번째 분할 이미지에 대한 yi 값을 구하고, 이렇게 얻어진 yi 값에 따라 해당 분할 이미지의 세로 길이를 늘이거나 줄임으로써 대상 이미지(200)를 변형시킨다. 일례로서, 도 4의 실시예에서 분할 이미지(201)의 세로길이가 1m 였고, 이에 대해 계산된 y1 값이 0.7 m 였다면, 분할 이미지(201)의 가로 길이는 유지시키면서, 세로 길이가 0.7 m 가 되도록 축소 변형시킨다.
출력부(1030)는 이미지 변환부(1020)에서 변환된 이미지를 원하는 포맷으로 출력할 수 있게 한다. 예를 들어 출력부(1030)는 jpg, TIFF, XML, 등의 파일 형식으로 변환된 이미지를 출력할 수 있으나, 이는 단지 예일 뿐이고, 필요에 따라 공지된 어떠한 형태나 포맷으로도 출력할 수 있다. 특히, 본 발명에 따른 이미지 보정 장치가 AR 이나 VR 등의 구현을 위해 사용될 경우에는 AR 장치나 VR 장치에서 필요로 하는 형식에 맞추어 제공될 수 있을 것이다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체, 즉 컴퓨터 판독 가능 매체의 형태로도 구현될 수 있다. 이러한 컴퓨터 판독 가능 매체는 앞서 설명한 이미지의 변환 방법을 실행시키기 위한 프로그램을 기록할 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다.
컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다.
통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
컴퓨터 판독가능 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
- 부호의 설명 -
10: 직사각형
100: 지면
200: 대상 이미지
201, 202, 203, 204: 분할 이미지
300, 400: 초점 평면
1000: 이미지 보정 장치
1010: 입력부
1020: 이미지 변환부
1030: 출력부

Claims (37)

  1. 이미지 보정 방법으로서,
    제1 이미지를 제공하는 단계;
    상기 제1 이미지를 바라보는 시점 정보를 제공하는 단계;
    상기 제1 이미지의 가로 방향을 따라 상기 제1 이미지를 2개 이상의 분할 이미지로 분할하는 단계;
    상기 2개 이상의 분할 이미지 각각을 상기 시점 정보 및 상기 분할 이미지 각각의 세로 길이에 기초하여 변환시킴으로써, 제1 이미지로부터 변환된 제2 이미지를 제공하는 단계;를 포함하는, 이미지 보정 방법.
  2. 제1 항에 있어서, 상기 시점 정보는, 상기 시점의 위치를 제1 이미지에 대해 특정할 수 있는 정보를 포함하는, 이미지 보정 방법.
  3. 제2 항에 있어서, 상기 시점 정보는
    상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이(H);
    상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부(A)까지의 시점 거리(L);
    상기 제1 이미지의 시점측 단부(A)에서의 시야각(θ0);
    상기 제1 이미지의 시점 반대측 단부(E)에서의 시야각(θ4);
    상기 시점으로부터 상기 제1 이미지의 시점측 단부(A)까지의 시선길이;
    상기 시점으로부터 상기 제1 이미지의 시점 반대측 단부(E)까지의 시선길이;
    상기 제1 이미지의 시점각(∠AOE);
    중 2개 이상을 포함하는, 이미지 보정 방법.
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 제1 이미지로부터 변환된 제2 이미지를 제공하는 단계가,
    상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시야길이를 구하는 단계;
    상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 단계;를 포함하는, 이미지 보정 방법.
  5. 제4 항에 있어서, 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 단계는,
    전체 변환길이 중에서 i번째 분할 이미지의 변환길이가 차지하는 비율이, 전체 시야길이 중에서 n-i+1 번째 분할 이미지의 시야길이가 차지하는 비율과 같도록, 각각의 분할 이미지에 대한 변환 길이를 구하는 단계를 포함하며, 여기서 n은 분할 이미지의 총 개수인, 이미지 보정 방법.
  6. 제4 항에 있어서, 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 단계는, 아래 변환식;
    Figure PCTKR2018004876-appb-I000090
    을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하는 단계를 포함하며,
    여기서 hi는 i번째 분할 이미지의 시야길이, n 은 분할 이미지의 총 개수, T는 대상 이미지의 전체 길이인, 이미지 보정 방법.
  7. 제4 항에 있어서, 상기 시야길이를 구하는 단계는,
    시야길이 산출식을 통해 시야길이를 구하는 단계로서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
    Figure PCTKR2018004876-appb-I000091
    이고,
    여기서 S는 시점으로부터 초점까지의 시선길이이고, θi는 i번째 분할 이미지의 시선 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각이고, θf 는 초점에서의 시야각인, 시야길이 산출식을 통해 시야길이 구하는 단계를 포함하는, 이미지 보정 방법.
  8. 제4 항에 있어서, 상기 시야길이를 구하는 단계는,
    시야길이 산출식을 통해 시야길이를 구하는 단계로서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
    Figure PCTKR2018004876-appb-I000092
    이고,
    여기서 R는 시점으로부터 대상이미지의 시점측 단부까지의 시선길이이고, θi는 i번째 분할 이미지의 시점 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각인, 시야길이 산출식을 통한 시야길이 구하는 단계를 포함하는, 이미지 보정 방법.
  9. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 제1 이미지로부터 변환된 제2 이미지를 제공하는 단계가,
    상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시점각을 구하는 단계;
    상기 시점각으로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 단계;를 포함하는, 이미지 보정 방법.
  10. 제9 항에 있어서, 상기 각각의 분할 이미지에 대한 시점각을 구하는 단계는,
    각각의 분할 이미지에 대한 시점각들 간의 비율과 각각의 분할 이미지의 세로 길이들 간의 비율이 서로 동일하도록, 각각의 분할 이미지에 대해 시점각을 구하는 단계를 포함하는, 이미지 보정 방법.
  11. 제9 항에 있어서, 상기 각각의 분할 이미지에 대한 시점각을 구하는 단계는,
    아래 변환식;
    Figure PCTKR2018004876-appb-I000093
    을 이용하여, i번째 분할 이미지에 대한 시점각(αi)을 구하는 단계를 포함하고,
    여기서, T는 대상 이미지의 전체 세로길이, n은 분할 이미지의 총 개수, ai는 i번째 분할 이미지의 세로길이, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각, θn 는 n 번째 분할 이미지의 시선 반대측 단부에서의 시야각인, 이미지 보정 방법.
  12. 제11 항에 있어서, 상기 각각의 분할 이미지에 대한 변환 길이를 구하는 단계는,
    아래 변환식;
    Figure PCTKR2018004876-appb-I000094
    을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하는 단계;를 포함하며,
    여기서 H는 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이, L은 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리인, 이미지 보정 방법.
  13. 컴퓨터 판독 가능한 명령어들을 포함하는 컴퓨터 판독가능한 메모리로서,
    상기 명령어들은, 컴퓨터 상에서 실행될 때, 상기 컴퓨터로 하여금,
    제1 이미지를 제공하는 동작;
    상기 제1 이미지를 바라보는 시점 정보를 제공하는 동작;
    상기 제1 이미지의 가로 방향을 따라 상기 제1 이미지를 2개 이상의 분할 이미지로 분할하는 동작;
    상기 2개 이상의 분할 이미지 각각을 상기 시점 정보 및 상기 분할 이미지 각각의 세로 길이에 기초하여 변환시킴으로써, 제1 이미지로부터 변환된 제2 이미지를 제공하는 동작;을 포함하는 동작들을 수행하도록 하는 것인, 컴퓨터 판독가능 메모리.
  14. 제13 항에 있어서, 상기 시점 정보는, 상기 시점의 위치를 제1 이미지에 대해 특정할 수 있는 정보를 포함하는, 컴퓨터 판독가능 메모리.
  15. 제14 항에 있어서, 상기 시점 정보는
    상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이(H);
    상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부(A)까지의 시점 거리(L);
    상기 제1 이미지의 시점측 단부(A)에서의 시야각(θ0);
    상기 제1 이미지의 시점 반대측 단부(E)에서의 시야각(θ4);
    상기 시점으로부터 상기 제1 이미지의 시점측 단부(A)까지의 시선길이;
    상기 시점으로부터 상기 제1 이미지의 시점 반대측 단부(E)까지의 시선길이;
    상기 제1 이미지의 시점각(∠AOE);
    중 2개 이상을 포함하는, 컴퓨터 판독가능 메모리.
  16. 제13 항 내지 제15항 중 어느 한 항에 있어서, 상기 제1 이미지로부터 변환된 제2 이미지를 제공하는 동작이,
    상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시야길이를 구하는 동작;
    상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 동작;을 포함하는, 컴퓨터 판독가능 메모리.
  17. 제16 항에 있어서, 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 동작은,
    전체 변환길이 중에서 i번째 분할 이미지의 변환길이가 차지하는 비율이, 전체 시야길이 중에서 n-i+1 번째 분할 이미지의 시야길이가 차지하는 비율과 같도록, 각각의 분할 이미지에 대한 변환 길이를 구하는 동작을 포함하며,
    여기서 n은 분할 이미지의 총 개수인, 컴퓨터 판독가능 메모리.
  18. 제16 항에 있어서, 상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 동작은,
    아래 변환식;
    Figure PCTKR2018004876-appb-I000095
    을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하는 동작을 포함하며,
    여기서 hi는 i번째 분할 이미지의 시야길이, n 은 분할 이미지의 총 개수, T는 대상 이미지의 전체 길이인, 컴퓨터 판독가능 메모리.
  19. 제16 항에 있어서, 상기 시야길이를 구하는 동작은,
    시야길이 산출식을 통해 시야길이를 구하는 동작으로서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
    Figure PCTKR2018004876-appb-I000096
    이고,
    여기서 S는 시점으로부터 초점까지의 시선길이이고, θi는 i번째 분할 이미지의 시선 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각이고, θf 는 초점에서의 시야각인, 시야길이 산출식을 통해 시야길이 구하는 단계를 포함하는, 컴퓨터 판독가능 메모리.
  20. 제16 항에 있어서, 상기 시야길이를 구하는 동작은,
    시야길이 산출식을 통해 시야길이를 구하는 동작으로서, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
    Figure PCTKR2018004876-appb-I000097
    이고,
    여기서 R는 시점으로부터 대상이미지의 시점측 단부까지의 시선길이이고, θi는 i번째 분할 이미지의 시점 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각인, 시야길이 산출식을 통한 시야길이 구하는 동작을 포함하는, 컴퓨터 판독가능 메모리.
  21. 제13 항 내지 제15항 중 어느 한 항에 있어서, 상기 제1 이미지로부터 변환된 제2 이미지를 제공하는 동작이,
    상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시점각을 구하는 동작;
    상기 시점각으로부터 각각의 분할 이미지에 대한 변환 길이를 구하는 동작;을 포함하는, 컴퓨터 판독가능 메모리.
  22. 제21 항에 있어서, 상기 각각의 분할 이미지에 대한 시점각을 구하는 동작은,
    각각의 분할 이미지에 대한 시점각들 간의 비율과 각각의 분할 이미지의 세로 길이들 간의 비율이 서로 동일하도록, 각각의 분할 이미지에 대해 시점각을 구하는 동작을 포함하는, 컴퓨터 판독가능 메모리.
  23. 제21 항에 있어서, 상기 각각의 분할 이미지에 대한 시점각을 구하는 동작은,
    아래 변환식;
    Figure PCTKR2018004876-appb-I000098
    을 이용하여, i번째 분할 이미지에 대한 시점각(αi)을 구하는 동작을 포함하고,
    여기서, T는 대상 이미지의 전체 세로길이, n은 분할 이미지의 총 개수, ai는 i번째 분할 이미지의 세로길이, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각, θn 는 n 번째 분할 이미지의 시선 반대측 단부에서의 시야각인, 컴퓨터 판독가능 메모리.
  24. 제23 항에 있어서, 상기 각각의 분할 이미지에 대한 변환 길이를 구하는 동작은,
    아래 변환식;
    Figure PCTKR2018004876-appb-I000099
    을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하는 동작;을 포함하며,
    여기서 H는 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이, L은 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리인, 컴퓨터 판독가능 메모리.
  25. 이미지 보정 장치로서,
    제1 이미지 및 상기 제1 이미지를 바라보는 시점 정보를 입력하는 입력부;
    상기 제1 이미지의 가로 방향을 따라 상기 제1 이미지를 2개 이상의 분할 이미지로 분할하고, 상기 2개 이상의 분할 이미지 각각을 상기 시점 정보 및 상기 분할 이미지 각각의 세로 길이에 기초하여 변환시킴으로써, 상기 제1 이미지를 제2 이미지로 변환시키는 이미지 변환부;를 포함하는, 이미지 보정 장치.
  26. 제25 항에 있어서, 변환된 제2 이미지를 출력하기 위한 출력부를 더 포함하는, 이미지 보정 장치.
  27. 제25 항에 있어서, 상기 시점 정보는, 상기 시점의 위치를 제1 이미지에 대해 특정할 수 있는 정보를 포함하는, 이미지 보정 장치.
  28. 제27 항에 있어서, 상기 시점 정보는
    상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이(H);
    상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부(A)까지의 시점 거리(L);
    상기 제1 이미지의 시점측 단부(A)에서의 시야각(θ0);
    상기 제1 이미지의 시점 반대측 단부(E)에서의 시야각(θ4);
    상기 시점으로부터 상기 제1 이미지의 시점측 단부(A)까지의 시선길이;
    상기 시점으로부터 상기 제1 이미지의 시점 반대측 단부(E)까지의 시선길이;
    상기 제1 이미지의 시점각(∠AOE);
    중 2개 이상을 포함하는, 이미지 보정 장치.
  29. 제25 항 내지 제28 항 중 어느 한 항에 있어서, 상기 이미지 변환부는,
    상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시야길이를 구하고;
    상기 시야길이로부터 각각의 분할 이미지에 대한 변환 길이를 구함으로써;
    상기 제1 이미지를 제2 이미지로 변환시키는, 이미지 보정 장치.
  30. 제29 항에 있어서, 상기 이미지 변환부가,
    전체 변환길이 중에서 i번째 분할 이미지의 변환길이가 차지하는 비율이, 전체 시야길이 중에서 n-i+1 번째 분할 이미지의 시야길이가 차지하는 비율과 같도록, 각각의 분할 이미지에 대한 변환 길이를 구하며,
    여기서 n은 분할 이미지의 총 개수인, 이미지 보정 장치.
  31. 제29 항에 있어서, 상기 이미지 변환부가,
    아래 변환식;
    Figure PCTKR2018004876-appb-I000100
    을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하고,
    여기서 hi는 i번째 분할 이미지의 시야길이, n 은 분할 이미지의 총 개수, T는 대상 이미지의 전체 길이인, 이미지 보정 장치.
  32. 제29 항에 있어서, 상기 이미지 변환부가,
    시야길이 산출식을 통해 시야길이를 구하되, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
    Figure PCTKR2018004876-appb-I000101
    이고,
    여기서 S는 시점으로부터 초점까지의 시선길이이고, θi는 i번째 분할 이미지의 시선 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각이고, θf 는 초점에서의 시야각인, 이미지 보정 장치.
  33. 제29 항에 있어서, 상기 이미지 변환부가,
    시야길이 산출식을 통해 시야길이를 구하되, i 번째 분할 이미지에 대한 시야길이(hi) 산출식은
    Figure PCTKR2018004876-appb-I000102
    이고,
    여기서 R는 시점으로부터 대상이미지의 시점측 단부까지의 시선길이이고, θi는 i번째 분할 이미지의 시점 반대측 단부에서의 시야각이되, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각인, 이미지 보정 장치.
  34. 제25 항 내지 제28 항 중 어느 한 항에 있어서, 상기 이미지 변환부가,
    상기 시점 정보 및 상기 분할 이미지 각각의 세로길이에 기초하여, 각각의 분할 이미지에 대한 시점각을 구하고;
    상기 시점각으로부터 각각의 분할 이미지에 대한 변환 길이를 구함으로써;
    상기 제1 이미지를 제2 이미지로 변환시키는, 이미지 보정 장치.
  35. 제34 항에 있어서, 상기 이미지 변환부가,
    각각의 분할 이미지에 대한 시점각들 간의 비율과 각각의 분할 이미지의 세로 길이들 간의 비율이 서로 동일하도록, 각각의 분할 이미지에 대해 시점각을 구하는, 이미지 보정 장치.
  36. 제34 항에 있어서, 상기 이미지 변환부가,
    아래 변환식;
    Figure PCTKR2018004876-appb-I000103
    을 이용하여, i번째 분할 이미지에 대한 시점각(αi)을 구하되,
    여기서, T는 대상 이미지의 전체 세로길이, n은 분할 이미지의 총 개수, ai는 i번째 분할 이미지의 세로길이, θ0는 첫 번째 분할 이미지의 시선측 단부에서의 시야각, θn 는 n 번째 분할 이미지의 시선 반대측 단부에서의 시야각인, 이미지 보정 장치.
  37. 제36 항에 있어서, 상기 이미지 변환부가,
    아래 변환식;
    Figure PCTKR2018004876-appb-I000104
    을 이용하여 i번째 분할 이미지의 변환 길이(yi)를 구하되,
    여기서 H는 상기 제1 이미지가 위치하는 평면으로부터의 시점까지의 시점 높이, L은 상기 시점을 상기 제1 이미지가 위치하는 평면상에 투영시킨 지점으로부터 상기 제1 이미지의 시점측 단부까지의 시점 거리인, 이미지 보정 장치.
PCT/KR2018/004876 2017-04-26 2018-04-26 원근법 대응 이미지 보정 방법 및 장치 WO2018199663A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18792169.7A EP3617989A4 (en) 2017-04-26 2018-04-26 PERSPECTIVE RESPONSE IMAGE CORRECTION PROCESS AND DEVICE
CN201880026859.6A CN110546681B (zh) 2017-04-26 2018-04-26 远近法对应图像校正方法及装置
US16/608,727 US10970826B2 (en) 2017-04-26 2018-04-26 Method and device for image correction in response to perspective
JP2020509406A JP7360379B2 (ja) 2017-04-26 2018-04-26 遠近法に対応したイメージ補正方法および装置
AU2018257146A AU2018257146B2 (en) 2017-04-26 2018-04-26 Method and device for image correction in response to perspective

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170053983A KR20170061640A (ko) 2017-04-26 2017-04-26 원근법 대응 이미지 보정 방법 및 장치
KR10-2017-0053983 2017-04-26

Publications (1)

Publication Number Publication Date
WO2018199663A1 true WO2018199663A1 (ko) 2018-11-01

Family

ID=59222781

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/004876 WO2018199663A1 (ko) 2017-04-26 2018-04-26 원근법 대응 이미지 보정 방법 및 장치

Country Status (7)

Country Link
US (1) US10970826B2 (ko)
EP (1) EP3617989A4 (ko)
JP (1) JP7360379B2 (ko)
KR (1) KR20170061640A (ko)
CN (1) CN110546681B (ko)
AU (1) AU2018257146B2 (ko)
WO (1) WO2018199663A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161173B (zh) * 2019-12-18 2020-11-06 北京城市网邻信息技术有限公司 图像的校正信息获取、模型构建方法和装置、介质
US20220126853A1 (en) * 2020-10-26 2022-04-28 GM Global Technology Operations LLC Methods and systems for stiching of images into a virtual image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004008744A1 (ja) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置
KR101060152B1 (ko) * 2011-01-22 2011-08-29 인하대학교 산학협력단 재구성형 하드웨어를 이용한 실시간 노면 상태 감시 방법
KR101261409B1 (ko) * 2012-04-24 2013-05-10 이엔지정보기술 주식회사 영상 내 노면표시 인식시스템
KR20160028302A (ko) * 2014-09-03 2016-03-11 신동윤 원거리 식별 이미지 생성 장치 및 그 동작 방법
KR101645717B1 (ko) * 2015-01-28 2016-08-12 (주)한양정보통신 첨단 운전자 보조 시스템의 적응적 보정 장치 및 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPS146502A0 (en) * 2002-03-28 2002-05-09 Traynor, Neil Methods and apparatus relating to improved visual recognition and safety
JP2004078121A (ja) * 2002-08-22 2004-03-11 Sharp Corp 表示補正装置、表示補正方法、表示補正プログラム、および表示補正プログラムを記録した記録媒体
US7680322B2 (en) * 2002-11-12 2010-03-16 Namco Bandai Games Inc. Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing
JP4958005B2 (ja) 2007-09-20 2012-06-20 株式会社デンソー 車載表示装置
DE102011115739A1 (de) * 2011-10-11 2013-04-11 Daimler Ag Verfahren zur Integration von virtuellen Objekten in Fahrzeuganzeigen
KR101584693B1 (ko) * 2014-05-23 2016-01-14 경북대학교 산학협력단 카메라 파라미터 측정 장치 및 그 방법
JP6775188B2 (ja) * 2016-08-05 2020-10-28 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイ装置および表示制御方法
US10318826B2 (en) * 2016-10-07 2019-06-11 Ford Global Technologies, Llc Rear obstacle detection and distance estimation
KR101727987B1 (ko) * 2016-10-17 2017-04-18 신동윤 원거리 식별 이미지 생성 장치 및 그 동작 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004008744A1 (ja) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置
KR101060152B1 (ko) * 2011-01-22 2011-08-29 인하대학교 산학협력단 재구성형 하드웨어를 이용한 실시간 노면 상태 감시 방법
KR101261409B1 (ko) * 2012-04-24 2013-05-10 이엔지정보기술 주식회사 영상 내 노면표시 인식시스템
KR20160028302A (ko) * 2014-09-03 2016-03-11 신동윤 원거리 식별 이미지 생성 장치 및 그 동작 방법
KR101668802B1 (ko) 2014-09-03 2016-11-09 신동윤 원거리 식별 이미지 생성 장치 및 그 동작 방법
KR101645717B1 (ko) * 2015-01-28 2016-08-12 (주)한양정보통신 첨단 운전자 보조 시스템의 적응적 보정 장치 및 방법

Also Published As

Publication number Publication date
AU2018257146B2 (en) 2023-02-02
CN110546681B (zh) 2023-10-20
CN110546681A (zh) 2019-12-06
JP7360379B2 (ja) 2023-10-12
US10970826B2 (en) 2021-04-06
JP2020518931A (ja) 2020-06-25
US20210012471A1 (en) 2021-01-14
EP3617989A1 (en) 2020-03-04
EP3617989A4 (en) 2021-01-06
KR20170061640A (ko) 2017-06-05
AU2018257146A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
WO2016060397A1 (en) Method and apparatus for processing screen using device
WO2014148698A1 (en) Display device and method for controlling the same
WO2014035054A1 (en) Method and apparatus for controlling zoom function in an electronic device
WO2014129864A1 (en) An apparatus for providing a cursor in electronic devices and a method thereof
EP3241093A1 (en) Electronic system with gesture calibration mechanism and method of operation thereof
WO2018199663A1 (ko) 원근법 대응 이미지 보정 방법 및 장치
WO2014058086A1 (en) Image processing device and image processing method
WO2015108341A1 (en) Display device, driver of the display device, electronic device including the display device and the driver, and display system
WO2020101420A1 (ko) 증강현실 기기의 광학 특성 측정 방법 및 장치
WO2014007425A1 (en) Display device including touchscreen and method for controlling the same
WO2018101534A1 (ko) 전자 문서 컨버팅 방법 및 이를 수행하는 시스템
WO2014035113A1 (en) Method of controlling touch function and an electronic device thereof
WO2017159931A1 (en) Electronic device including touch panel and method of controlling the electronic device
WO2010120120A2 (ko) LASeR에서의 사용자 인터랙션 제공 방법 및 장치
WO2017082607A1 (en) Electronic device and operating method of the same
EP3335155A1 (en) Electronic device and operating method of the same
WO2020149600A1 (en) Electronic device and operation method thereof
WO2022124607A1 (en) Depth estimation method, device, electronic equipment and computer readable storage medium
WO2022181899A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2021172921A1 (ko) 의료 영상 장치 및 의료 영상 처리 방법
WO2021167210A1 (ko) 서버, 전자 장치 및 그들의 제어 방법
WO2017164608A1 (en) Image display apparatus
WO2020045834A1 (en) Electronic apparatus and control method thereof
WO2021080154A1 (ko) 전자 장치 및 그 제어 방법
WO2020080701A1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18792169

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020509406

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018792169

Country of ref document: EP

Effective date: 20191126

ENP Entry into the national phase

Ref document number: 2018257146

Country of ref document: AU

Date of ref document: 20180426

Kind code of ref document: A