JP7360379B2 - Image correction method and device compatible with perspective - Google Patents
Image correction method and device compatible with perspective Download PDFInfo
- Publication number
- JP7360379B2 JP7360379B2 JP2020509406A JP2020509406A JP7360379B2 JP 7360379 B2 JP7360379 B2 JP 7360379B2 JP 2020509406 A JP2020509406 A JP 2020509406A JP 2020509406 A JP2020509406 A JP 2020509406A JP 7360379 B2 JP7360379 B2 JP 7360379B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- length
- divided
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000003702 image correction Methods 0.000 title claims description 37
- 230000000007 visual effect Effects 0.000 claims description 52
- 230000009466 transformation Effects 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 24
- 238000010586 diagram Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G06T5/80—
-
- G06T3/073—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
-
- G06T3/04—
-
- G06T3/153—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Description
本発明は、遠近法に対応したイメージ補正方法および前記方法を実行するための装置に関し、具体的には、与えられた対象イメージに対して向上した判読性(legibility)を提供することができるように前記対象イメージを変換できるイメージ補正方法および装置に関する。 The present invention relates to a perspective-aware image correction method and an apparatus for carrying out the method, and in particular to a perspective-aware image correction method capable of providing improved legibility for a given target image. The present invention relates to an image correction method and apparatus capable of converting the target image into an image.
図1は、従来の路面標示の利用例を示す。
路面標示は、道路上の路面に車両運行の安全および円滑のためにペイント、塗料などを用いて表示することをいう。その内容は、中央線、横断歩道などのように車両運行の規範に関する標識から、「徐行」、「スクールゾーン」などのように叙述型に記載された標識まで様々である。
FIG. 1 shows an example of the use of conventional road markings.
Road markings refer to markings made with paint, paint, etc. on the road surface for the purpose of safe and smooth vehicle operation. The content varies from signs regarding vehicle operation standards, such as the central line and crosswalks, to descriptive signs such as ``slow speed'' and ``school zone.''
このような路面標示は、運転者に運行上の情報や交通安全に必要な注意内容などのように様々な情報を提供することができるため、現在、車両が運行中の道路上で多く使われているのが実情である。 These road markings are now widely used on roads where vehicles are in operation, as they can provide drivers with a variety of information, such as driving information and warnings necessary for traffic safety. The reality is that
しかし、実際に車両の運転者が車両内で道路上の路面標示を眺める場合、運転者の視野角や路面標示との距離などに応じて遠近法による歪み現象が発生しうる。特に観察視点から遠くなるほどイメージの幅、特に縦幅が次第に狭くなって集まってしまう視覚的歪みが発生しうる。よって、このような視覚的歪みにより路面標示の判読性が落ちるという問題がある。 However, when a vehicle driver actually looks at road markings on a road inside the vehicle, perspective distortion may occur depending on the driver's viewing angle, the distance from the road markings, and the like. In particular, visual distortion may occur in which the width of the image, especially the vertical width, becomes narrower and more concentrated as the distance from the observation viewpoint increases. Therefore, there is a problem in that the legibility of road markings deteriorates due to such visual distortion.
特に韓国の路面標示の場合、アルファベットに比べて、終声になる子音や激音文字などの使用で文字イメージの構造が複雑である。そこで、運転者は、遠近法による視覚的歪みにより、遠距離から路面標示を判読することができないかまたは誤読する場合がある。このような現象は、1行からなる路面標示からも見られるが、2行あるいは2行以上からなる路面標示が提供される場合にさらに多く発生しうる。 In particular, in the case of road markings in South Korea, the structure of the character image is more complex than that of the alphabet due to the use of final consonants and hard-sounding characters. Therefore, a driver may be unable to read or misread road markings from a long distance due to visual distortions caused by perspective. Although such a phenomenon can be seen even with road markings consisting of one line, it may occur more frequently when road markings consisting of two or more lines are provided.
このような問題を解決するために、従来技術においては、運転者が眺める方向に沿って路面標示の長さを単純に伸ばして配置することによって判読性を確保するのが一般的であった。 In order to solve this problem, in the prior art, it has been common practice to ensure legibility by simply extending the length of road markings along the direction in which the driver views them.
しかし、路面標示の調整の具体的な事項や程度などが施工者の主観的な判断基準と施工便宜性などによって定められる場合が多いため、判読性の改善効果が不十分であり、一貫した改善効果を提供し難かった。 However, because the specific matters and extent of road marking adjustments are often determined based on the contractor's subjective judgment criteria and construction convenience, the effect of improving legibility is insufficient, and consistent improvements cannot be made. It was difficult to provide any effect.
特に、従来技術においては、路面標示の長さを運転者が眺める方向に沿って全体的に同一の比率で伸ばすだけであったため、運転者の視野で見る時、視野から遠方に位置する横画の厚さは薄く見え、視野から近方に位置する横画の厚さは厚く見えるという問題は依然として存在していた。よって、速く走る自動車内で路面標示の意味を瞬間的に把握するのが難しく、その結果、安全を脅かす問題につながることになった。 In particular, in the conventional technology, the length of road markings was simply extended at the same ratio overall along the direction in which the driver views them, so when viewed from the driver's field of view, horizontal markings located far from the driver's field of vision There still existed the problem that the thickness of the image appeared to be thin, and the thickness of the horizontal image located near the field of view appeared to be thick. Therefore, it is difficult to instantly understand the meaning of road markings in a fast-moving car, which leads to problems that threaten safety.
このような問題は、単に道路上に表示された路面標示だけの問題ではない。最近、ポータルサイトなどで多く使われているストリートビューなどでも問題になる。図3は、グーグルのストリートビューをキャプチャーした画面である。画面では、道路上のストリート名を表示するためにストリートビュー上に「Meadowlands Pkwy」という文字をコンピュータ作業により加えた。しかし、ストリートビューのユーザにさらに現実的な感じを提供するための目的で遠近法を適用して加えたため、図面で確認できるように、視点から遠くなるほど顕著に判読性が悪化していることが分かる。 These problems are not just problems with road markings displayed on roads. This is also a problem with Street View, which is often used on portal sites these days. Figure 3 is a screenshot of Google Street View. On the screen, the words ``Meadowlands Pkwy'' were added to the street view using a computer to display the street name on the road. However, as we added perspective to provide a more realistic feel to Street View users, as you can see in the drawing, the legibility deteriorates noticeably the further away you are from the viewpoint. I understand.
図2を参照し、これについて図式的に説明すれば以下のとおりである。 Referring to FIG. 2, this will be schematically explained as follows.
図2aは、地面より一定高さに位置した視点から眺めた状態を示す。図面上、HLで表示された線は互いに平行に等間隔に配置された水平な線を示し、VLで表示された線も互いに平行に等間隔に配置された垂直な線を示しており、各々の線VLは各々の線HLと直交する。 FIG. 2a shows the situation viewed from a viewpoint located at a certain height above the ground. In the drawings, lines marked HL indicate horizontal lines arranged parallel to each other at equal intervals, and lines marked VL also indicate vertical lines arranged parallel to each other at equal intervals. The line VL is orthogonal to each line HL.
しかし、遠近法により、図示されたように、離隔した距離から地面を見下ろせば、垂直線VLは無限に位置した消失点に向かって集まるように見え、視点から遠くなるほど隣接した垂直線間の間隔が狭くなるように見える。水平線HLも視点から遠くなるほど隣接した水平線間の間隔が次第に狭くなるように見える。よって、例えば、図2の長方形10内に文字や記号を同一の大きさで配置すると仮定する場合、視点からより遠くなるほど判読性が顕著に悪化していくことが分かる。 However, due to perspective, if you look down at the ground from a distance, as shown in the figure, the vertical lines VL will appear to converge toward an infinitely located vanishing point, and the farther you are from the viewpoint, the greater the distance between adjacent vertical lines. appears to be narrowing. The distance between adjacent horizon lines HL also appears to become narrower as the distance from the viewpoint increases. Therefore, for example, if it is assumed that characters and symbols are arranged in the same size within the rectangle 10 in FIG. 2, it can be seen that legibility deteriorates significantly as the distance from the viewpoint increases.
また、コンピュータ・ゲーム(例えば、レーシングゲーム)や拡張現実(AR;Augmented Reality)、仮想現実(VR;Virtual Reality)などにおいても遠近法を適用して文字や記号を表現する場合に判読性が悪化するという問題が発生しうる。 Furthermore, in computer games (e.g. racing games), augmented reality (AR), virtual reality (VR), etc., legibility deteriorates when perspective is applied to express characters and symbols. A problem may arise.
図2bは、上面、底面、左右側面の4個の面を含む空間を示す。VRやARなどでは、前述した路面標示などの例のように底面のみにグラフィック(標示)が加えられるのではなく、左右側面や上面にもグラフィックが加えられる。この場合にも、例えば、左側面に文字が加えられる場合にも、遠近法による歪み現象が発生しうることを図2bから知ることができる。 FIG. 2b shows a space including four surfaces: a top surface, a bottom surface, and left and right side surfaces. In VR, AR, etc., graphics (signs) are not only added to the bottom surface as in the example of road markings mentioned above, but also to the left and right sides and the top surface. It can be seen from FIG. 2b that perspective distortion phenomena can also occur in this case, for example if characters are added to the left side.
したがって、路面標示などのように、一定の表面に表示されて所定の情報を提供する様々なイメージを構成するにおいて、一貫し且つ容易なイメージ補正方法を提供すると共に、周辺環境との調和をなし且つ改善された判読性を提供することができるイメージ生成装置およびその動作方法が求められる。 Therefore, in composing various images displayed on a certain surface and providing predetermined information, such as road markings, it is possible to provide a consistent and easy image correction method, and to achieve harmony with the surrounding environment. What is needed is an image generation device and method of operation that can provide improved legibility.
一方、前記のような問題を解決するために、大韓民国特許公報第10-1668802号は、遠距離識別イメージ生成装置の動作方法について開示している。 Meanwhile, in order to solve the above problems, Korean Patent Publication No. 10-1668802 discloses a method of operating a long-distance identification image generation device.
具体的には、前記特許公報においては、
(a)少なくとも一つの文字を含む第1イメージを提供するステップと、
(b)前記第1イメージに対する視点情報を反映して逆遠近法を適用することによって、前記第1イメージの比率が変更された第2イメージを生成するステップと(前記視点情報は前記第1イメージに対する視線方向および視野角のうち少なくとも一つに関する情報を含む)、
(c)前記第1イメージの第1参照点の座標および前記第1参照点に対応する前記第2イメージの第2参照点の座標を抽出するステップと(前記第1参照点の座標は前記文字のうち少なくとも一つに基づいて抽出される)、
(d)前記第1参照点の座標のうち少なくとも一つの値と前記第1参照点に対応する前記第2参照点の座標のうち少なくとも一つの値とを比較して、前記第1参照点により分割される基準領域のうち少なくとも一部を前記視線方向に沿って拡大または縮小させることによって、前記第1イメージを変換するステップを含み、ここで、
(e)前記第2イメージを生成するステップは、前記第1イメージを3次元イメージに変換するステップと、および前記視点情報を反映して、前記3次元イメージに変換された前記第1イメージを所定の回転軸を中心に前記視線方向に向かって所定の回転角だけ回転させ、平面イメージを抽出することによって、前記第2イメージを生成するステップを含むことを特徴とする動作方法を開示する。
Specifically, in the patent publication,
(a) providing a first image including at least one character;
(b) generating a second image in which the ratio of the first image is changed by reflecting viewpoint information on the first image and applying reverse perspective; (including information regarding at least one of the line of sight direction and viewing angle),
(c) extracting the coordinates of a first reference point of the first image and the coordinates of a second reference point of the second image that corresponds to the first reference point; (extracted based on at least one of the following),
(d) comparing at least one value of the coordinates of the first reference point and at least one value of the coordinates of the second reference point corresponding to the first reference point; transforming the first image by enlarging or reducing at least a portion of the reference region to be divided along the viewing direction;
(e) The step of generating the second image includes the step of converting the first image into a three-dimensional image, and the step of converting the first image converted into the three-dimensional image into a predetermined image by reflecting the viewpoint information. Disclosed is an operating method characterized by comprising the step of generating the second image by rotating the second image by a predetermined rotation angle in the viewing direction around the rotation axis of the second image and extracting a planar image.
しかし、前記方法では、第1イメージを3次元イメージに変換させ、回転軸を中心にそれを回転させた後、再び平面イメージを抽出する過程と、第1イメージと第2イメージの参照点座標を抽出する過程を必要としている。 However, the method involves converting the first image into a three-dimensional image, rotating it around the rotation axis, and then extracting the plane image again, and determining the reference point coordinates of the first image and the second image. It requires a process of extraction.
本発明は、前記のような問題を解決して、イメージを回転させる過程や別途の参照点を抽出する過程がなくても、一貫し且つ容易なイメージ補正方法を提供すると共に改善された判読性を提供することができるイメージ補正方法および装置を提供する。 The present invention solves the above-mentioned problems and provides a consistent and easy image correction method without the need for rotating an image or extracting a separate reference point, and also provides improved legibility. Provided are an image correction method and apparatus capable of providing.
本発明の一つの実施形態により、イメージ補正方法であって、第1イメージを提供するステップと、前記第1イメージを眺める視点情報を提供するステップと、前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含む、イメージ生成方法が提供される。 According to an embodiment of the present invention, an image correction method includes the steps of: providing a first image; providing viewpoint information for viewing the first image; dividing the first image into two or more divided images; and converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images; An image generation method is provided that includes providing a transformed second image.
他の一つの実施形態においては、前記視点情報が、前記視点の位置を第1イメージに対して特定できる情報を含む。 In another embodiment, the viewpoint information includes information that allows the position of the viewpoint to be specified with respect to the first image.
他の一つの実施形態においては、前記視点情報が、前記第1イメージが位置する平面から視点までの視点高さ、前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離、前記第1イメージの視点側端部での視野角、前記第1イメージの視点反対側端部での視野角、前記視点から前記第1イメージの視点側端部までの視線長さ、前記視点から前記第1イメージの視点反対側端部までの視線長さ、前記第1イメージの視点角のうち2個以上を含む。 In another embodiment, the viewpoint information includes a viewpoint height from a plane on which the first image is located to the viewpoint, and a height from the point where the viewpoint is projected onto the plane on which the first image is located. A viewpoint distance from the viewpoint side end of one image, a viewing angle at the viewpoint side end of the first image, a viewing angle at the opposite end of the viewpoint of the first image, and a viewpoint from the viewpoint to the first image. It includes two or more of the following: a line-of-sight length to a side edge, a line-of-sight length from the viewpoint to an end opposite to the viewpoint of the first image, and a viewpoint angle of the first image.
他の一つの実施形態においては、前記第1イメージから変換された第2イメージを提供するステップが、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含む。 In another embodiment, the step of providing a second image transformed from the first image includes determining a field of view length for each divided image based on the viewpoint information and the vertical length of each of the divided images. and determining a transformation length for each divided image from the field of view length.
他の一つの実施形態においては、前記視野長さから各々の分割イメージに対する変換長さを求めるステップが、全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように、各々の分割イメージに対する変換長さを求めるステップを含む。ここで、nは分割イメージの総個数である。 In another embodiment, the step of calculating the transform length for each divided image from the field of view length may be such that the ratio of the transform length of the i-th divided image to the total transform length is the total field of view length. The method includes the step of determining a transformation length for each divided image so that the ratio of the field of view length of the ni+1th divided image among the divided images is the same as that of the field of view length. Here, n is the total number of divided images.
他の一つの実施形態においては、前記視野長さから各々の分割イメージに対する変換長さを求めるステップが、以下の変換式数1を用いて、i番目分割イメージの変換長さyiを求めるステップを含む In another embodiment, the step of calculating the transform length for each divided image from the field of view length is the step of calculating the transform length y i of the i-th divided image using the following conversion formula Equation 1. including
他の一つの実施形態においては、前記視野長さを求めるステップが、視野長さの算出式によって視野長さを求めるステップであって、i番目分割イメージに対する視野長さhiの算出式は以下の数2である。 In another embodiment, the step of calculating the visual field length is a step of calculating the visual field length using a visual field length calculation formula, and the visual field length h i for the i-th divided image is calculated as follows. The number is 2.
他の一つの実施形態においては、前記視野長さを求めるステップが、視野長さの算出式によって視野長さを求めるステップであって、i番目分割イメージに対する視野長さhiの算出式は以下の数3である。 In another embodiment, the step of calculating the visual field length is a step of calculating the visual field length using a visual field length calculation formula, and the visual field length h i for the i-th divided image is calculated as follows. The number is 3.
他の一つの実施形態においては、前記第1イメージから変換された第2イメージを提供するステップが、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求めるステップと、前記視点角から各々の分割イメージに対する変換長さを求めるステップを含む。 In another embodiment, the step of providing a second image transformed from the first image includes determining a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images. and determining a transformation length for each divided image from the viewpoint angle.
他の一つの実施形態においては、前記各々の分割イメージに対する視点角を求めるステップが、各々の分割イメージに対する視点角間の比率と各々の分割イメージの縦長さ間の比率が互いに同一であるように、各々の分割イメージに対して視点角を求めるステップを含む。 In another embodiment, the step of determining the viewpoint angle for each divided image includes the step of determining the viewpoint angle for each divided image such that the ratio between the viewpoint angles for each divided image and the ratio between the vertical lengths of each divided image are the same. The method includes the step of determining a viewpoint angle for each divided image.
他の一つの実施形態においては、前記各々の分割イメージに対する視点角を求めるステップが、以下の変換式数4を用いて、i番目分割イメージに対する視点角αiを求めるステップを含む。 In another embodiment, the step of determining the viewpoint angle for each divided image includes the step of determining the viewpoint angle α i for the i-th divided image using the following conversion equation (4).
他の一つの実施形態においては、前記各々の分割イメージに対する変換長さを求めるステップが、以下の変換式数5を用いて、i番目分割イメージの変換長さyiを求めるステップを含む。 In another embodiment, the step of determining the transform length for each divided image includes the step of determining the transform length y i of the i-th divided image using the following transformation equation (5).
本発明の他の一つの実施形態により、コンピュータ読み取り可能な命令語を含むコンピュータ読み取り可能なメモリであって、前記命令語は、コンピュータ上で実行される時、前記コンピュータが、第1イメージを提供する動作、前記第1イメージを眺める視点情報を提供する動作、前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割する動作、および前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供する動作を含む動作を実行するようにする、コンピュータ読み取り可能なメモリが提供される。 According to another embodiment of the invention, a computer readable memory includes computer readable instructions, the instructions, when executed on a computer, cause the computer to provide a first image. an operation of providing viewpoint information for viewing the first image; an operation of dividing the first image into two or more divided images along a lateral direction of the first image; and an operation of dividing the first image into two or more divided images, and the two or more divided images. and converting each of the divided images based on the viewpoint information and the vertical length of each of the divided images, the computer-readable method is configured to perform an act that includes providing a second image that is transformed from a first image. memory is provided.
他の一つの実施形態においては、前記視点情報が、前記視点の位置を第1イメージに対して特定できる情報を含む。 In another embodiment, the viewpoint information includes information that allows the position of the viewpoint to be specified with respect to the first image.
他の一つの実施形態においては、前記視点情報が、前記第1イメージが位置する平面から視点までの視点高さ、前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離、前記第1イメージの視点側端部での視野角、前記第1イメージの視点反対側端部での視野角、前記視点から前記第1イメージの視点側端部までの視線長さ、前記視点から前記第1イメージの視点反対側端部までの視線長さ、前記第1イメージの視点角のうち2個以上を含む。 In another embodiment, the viewpoint information includes a viewpoint height from a plane on which the first image is located to the viewpoint, and a height from the point where the viewpoint is projected onto the plane on which the first image is located. A viewpoint distance from the viewpoint side end of one image, a viewing angle at the viewpoint side end of the first image, a viewing angle at the opposite end of the viewpoint of the first image, and a viewpoint from the viewpoint to the first image. It includes two or more of the following: a line-of-sight length to a side edge, a line-of-sight length from the viewpoint to an end opposite to the viewpoint of the first image, and a viewpoint angle of the first image.
他の一つの実施形態においては、前記第1イメージから変換された第2イメージを提供する動作が、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求める動作、および前記視野長さから各々の分割イメージに対する変換長さを求める動作を含む。 In another embodiment, the act of providing a second image transformed from the first image includes determining a field of view length for each divided image based on the viewpoint information and the vertical length of each of the divided images. and an operation of determining a transformation length for each divided image from the field of view length.
他の一つの実施形態においては、全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように、前記視野長さから各々の分割イメージに対する変換長さを求める動作が各々の分割イメージに対する変換長さを求める動作を含む。ここで、nは分割イメージの総個数である。 In another embodiment, the ratio of the transform length of the i-th divided image to the total transform length is the same as the ratio of the field-of-view length of the ni+1-th divided image to the total field-of-view length. As described above, the operation of determining the transform length for each divided image from the field of view length includes the operation of determining the transform length for each divided image. Here, n is the total number of divided images.
他の一つの実施形態においては、前記視野長さから各々の分割イメージに対する変換長さを求める動作が、以下の変換式数6を用いて、i番目分割イメージの変換長さyiを求める動作を含む。 In another embodiment, the operation of calculating the transform length for each divided image from the field of view length is the operation of calculating the transform length y i of the i-th divided image using the following conversion formula Equation 6. including.
他の一つの実施形態においては、前記視野長さを求める動作が、視野長さの算出式によって視野長さを求める動作であって、i番目分割イメージに対する視野長さhiの算出式は以下の数7である、視野長さの算出式によって視野長さを求めるステップを含む。 In another embodiment, the operation of calculating the field of view length is an operation of calculating the field of view length using a calculation formula for the field of view length, and the calculation formula for the field of view length h i for the i-th divided image is as follows. The method includes the step of determining the visual field length using the visual field length calculation formula, which is Equation 7.
他の一つの実施形態においては、前記視野長さを求める動作が、視野長さの算出式によって視野長さを求める動作であって、i番目分割イメージに対する視野長さhiの算出式は以下の数8である、視野長さの算出式によって視野長さを求める動作を含む。 In another embodiment, the operation of calculating the field of view length is an operation of calculating the field of view length using a calculation formula for the field of view length, and the calculation formula for the field of view length h i for the i-th divided image is as follows. This includes the operation of calculating the field of view length using the formula for calculating the field of view length, which is number 8.
他の一つの実施形態においては、前記第1イメージから変換された第2イメージを提供する動作が、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求める動作、および前記視点角から各々の分割イメージに対する変換長さを求める動作を含む。 In another embodiment, the act of providing a second image transformed from the first image determines a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images. and an operation of determining the transformation length for each divided image from the viewpoint angle.
他の一つの実施形態においては、前記各々の分割イメージに対する視点角を求める動作が、各々の分割イメージに対する視点角間の比率と各々の分割イメージの縦長さ間の比率が互いに同一であるように、各々の分割イメージに対して視点角を求める動作を含む。 In another embodiment, the operation of determining the viewpoint angle for each divided image is performed such that the ratio between the viewpoint angles for each divided image and the ratio between the vertical lengths of each divided image are the same. This includes the operation of determining the viewpoint angle for each divided image.
他の一つの実施形態においては、前記各々の分割イメージに対する視点角を求める動作が、以下の変換式数9を用いて、i番目分割イメージに対する視点角αiを求める動作を含む。 In another embodiment, the operation of determining the viewpoint angle for each divided image includes the operation of determining the viewpoint angle α i for the i-th divided image using the following conversion equation (9).
他の一つの実施形態においては、前記各々の分割イメージに対する変換長さを求める動作が、以下の変換式数10を用いて、i番目分割イメージの変換長さyiを求める動作を含む。 In another embodiment, the operation of determining the transform length for each divided image includes the operation of determining the transform length y i of the i-th divided image using the following transformation equation (10).
本発明の更なる他の一つの実施形態により、イメージ補正装置であって、第1イメージおよび前記第1イメージを眺める視点情報を入力できるように構成された入力部、並びに前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割し、前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、前記第1イメージを第2イメージに変換させるように構成されるイメージ変換部を含む、イメージ補正装置が提供される。 According to yet another embodiment of the present invention, the image correction device includes an input unit configured to input a first image and viewpoint information for viewing the first image, and a side view of the first image. dividing the first image into two or more divided images along a direction, and converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images; An image correction apparatus is provided that includes an image converter configured to convert a first image into a second image.
他の一つの実施形態においては、前記イメージ補正装置が、変換された第2イメージを出力できるように構成された出力部をさらに含む。 In another embodiment, the image correction device further includes an output unit configured to output the transformed second image.
他の一つの実施形態においては、前記視点情報が、前記視点の位置を第1イメージに対して特定できる情報を含む。 In another embodiment, the viewpoint information includes information that allows the position of the viewpoint to be specified with respect to the first image.
他の一つの実施形態においては、前記視点情報が、前記第1イメージが位置する平面から視点までの視点高さ、前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離、前記第1イメージの視点側端部での視野角、前記第1イメージの視点反対側端部での視野角、前記視点から前記第1イメージの視点側端部までの視線長さ、前記視点から前記第1イメージの視点反対側端部までの視線長さ、前記第1イメージの視点角のうち2個以上を含む。 In another embodiment, the viewpoint information includes a viewpoint height from a plane on which the first image is located to the viewpoint, and a height from the point where the viewpoint is projected onto the plane on which the first image is located. A viewpoint distance from the viewpoint side end of one image, a viewing angle at the viewpoint side end of the first image, a viewing angle at the opposite end of the viewpoint of the first image, and a viewpoint from the viewpoint to the first image. It includes two or more of the following: a line-of-sight length to a side edge, a line-of-sight length from the viewpoint to an end opposite to the viewpoint of the first image, and a viewpoint angle of the first image.
他の一つの実施形態においては、前記イメージ変換部が、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求め、前記視野長さから各々の分割イメージに対する変換長さを求めることによって、前記第1イメージを第2イメージに変換させるように構成される。 In another embodiment, the image conversion unit calculates a visual field length for each divided image based on the viewpoint information and the vertical length of each divided image, and calculates the visual field length for each divided image from the visual field length. The first image is configured to be transformed into a second image by determining a transformation length for the image.
他の一つの実施形態においては、前記イメージ変換部が、全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように、各々の分割イメージに対する変換長さを求めるように構成される。ここで、nは分割イメージの総個数である。 In another embodiment, the image conversion unit is configured such that the ratio of the conversion length of the i-th divided image to the total conversion length is equal to the visual field length of the n−i+1st divided image of the total visual field length. The transform length for each divided image is determined such that the ratio occupied by the split image is the same as that of the split image. Here, n is the total number of divided images.
他の一つの実施形態においては、前記イメージ変換部が、以下の変換式数11を用いて、i番目分割イメージの変換長さyiを求めるように構成される。 In another embodiment, the image transformation unit is configured to obtain the transformation length y i of the i-th divided image using the following transformation equation (11).
他の一つの実施形態においては、前記イメージ変換部が、視野長さの算出式によって視野長さを求めるように構成される。ここで、i番目分割イメージに対する視野長さhiの算出式は以下の数12である。
他の一つの実施形態においては、前記イメージ変換部が、視野長さの算出式によって視野長さを求めるように構成される。ここで、i番目分割イメージに対する視野長さhiの算出式は以下の数13である。 In another embodiment, the image conversion unit is configured to calculate the visual field length using a visual field length calculation formula. Here, the formula for calculating the visual field length h i for the i-th divided image is the following equation 13.
他の一つの実施形態においては、前記イメージ変換部が、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求め、前記視点角から各々の分割イメージに対する変換長さを求めることによって、前記第1イメージを第2イメージに変換させるように構成される。 In another embodiment, the image conversion unit determines a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images, and calculates a viewpoint angle for each divided image from the viewpoint angle. The first image is configured to be transformed into a second image by determining a transform length.
他の一つの実施形態においては、前記イメージ変換部が、各々の分割イメージに対する視点角間の比率と各々の分割イメージの縦長さ間の比率が互いに同一であるように、各々の分割イメージに対して視点角を求めるように構成される。 In another embodiment, the image conversion unit converts each divided image so that a ratio between viewpoint angles and a ratio between vertical lengths of each divided image are the same. It is configured to find the viewing angle.
他の一つの実施形態においては、前記イメージ変換部が、以下の変換式数14を用いて、i番目分割イメージに対する視点角αiを求めるように構成される。 In another embodiment, the image conversion unit is configured to obtain the viewpoint angle α i for the i-th divided image using the following conversion equation (14).
他の一つの実施形態においては、前記イメージ変換部が、以下の変換式数15を用いて、i番目分割イメージの変換長さyiを求めるように構成される。 In another embodiment, the image transformation unit is configured to obtain the transformation length y i of the i-th divided image using the following transformation equation (15).
本発明が提供するイメージ補正方法および装置により、遠距離からイメージを見る時にも遠近法の影響によって判読性が落ちる現象を改善できるようになる。 With the image correction method and apparatus provided by the present invention, it is possible to improve the phenomenon in which legibility deteriorates due to the effect of perspective even when viewing an image from a long distance.
したがって、本発明が道路の路面標示に適用される場合、運転者が今よりさらに遠い距離からも路面標示の判読が可能である。これは差分の距離だけ反応時間を減らせることを意味し、よって、高速移動中にも運転者が速かに判断することを可能にする。また、分岐点などで出口などを逃す現象や遅れた判読により発生しうる無理な割り込みによる交通事故を予防することができる。 Therefore, when the present invention is applied to road markings, it is possible for a driver to read the road markings from a further distance. This means that the reaction time can be reduced by the difference in distance, thus allowing the driver to make quick decisions even when traveling at high speed. Furthermore, it is possible to prevent traffic accidents due to unreasonable interruptions that may occur due to the phenomenon of missing the exit at a junction or the like or delayed interpretation.
また、VRやAR環境に適用すれば、判読性を向上させつつ、遠近法を感じるようにイメージを実現することが可能となる。よって、より快適な環境のVRまたはAR環境を構築することができる。 Furthermore, if applied to VR or AR environments, it will be possible to realize images that give a sense of perspective while improving legibility. Therefore, a more comfortable VR or AR environment can be constructed.
本発明の他の効果は、本発明が属する技術分野における通常の知識を有した者であれば、本発明の明細書に記載された内容から容易に把握することができるであろう。 Other effects of the present invention will be easily understood by those with ordinary knowledge in the technical field to which the present invention pertains from the content described in the specification of the present invention.
以下では、添付図面を参照して本発明の各実施形態によるイメージ生成装置および方法について説明する。 DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Image generation apparatuses and methods according to embodiments of the present invention will be described below with reference to the accompanying drawings.
以下の実施形態は、本発明の理解を助けるための詳細な説明であって、本発明の権利範囲を制限するものではないことを明らかにしておく。よって、本発明と同様の機能を実行する均等な発明も本発明の権利範囲に属するものであろう。 It should be made clear that the following embodiments are detailed explanations to help understand the present invention, and are not intended to limit the scope of the present invention. Therefore, equivalent inventions that perform the same functions as the present invention would also fall within the scope of the present invention.
また、各図面の構成要素に参照符号を付する際、同一の構成要素に対しては他の図面上に表示される時にも可能な限り同一の符号を付するようにしていることに留意しなければならない。また、本発明の説明において、関連の公知の構成または機能に関する具体的な説明が本発明の要旨を不要に不明瞭なものにする恐れがあると判断される場合には、その詳細な説明は省略する。 Also, when assigning reference numerals to the constituent elements of each drawing, it should be noted that the same constituent elements are given the same reference numerals as much as possible when they appear on other drawings. There must be. In addition, in the description of the present invention, if it is determined that specific description of related publicly known configurations or functions may unnecessarily obscure the gist of the present invention, such detailed description shall not be provided. Omitted.
また、本発明の構成要素を説明するにおいて、第1、第2、A、B、(a)、(b)などの用語を用いることができる。このような用語はその構成要素を他の構成要素と区別するためのものに過ぎず、その用語によって該構成要素の本質や手続きまたは順序などが限定されるものではない。ある構成要素が他の構成要素に「連結されて」いるかまたは「接続されて」いると言及された時には、該他の構成要素に直接的に連結されているかまたは接続されていてもよいが、その間に更なる他の構成要素が存在してもよいものとして理解しなければならない。その反面、ある構成要素が他の構成要素に「直接的に連結されて」いるかまたは「直接的に接続されて」いると言及された時には、その間に更なる他の構成要素が存在しないものとして理解しなければならない。構成要素間の関係を説明する他の表現、すなわち、「~の間に」と「直ちに~の間に」または「~に隣接した」と「~に直接的に隣接した」なども同様に解釈しなければならない。 Further, in describing the constituent elements of the present invention, terms such as first, second, A, B, (a), (b), etc. can be used. These terms are used only to distinguish the component from other components, and do not limit the nature, procedure, or order of the component. When a component is referred to as being "coupled" or "connected" to another component, it may be directly coupled or connected to the other component; It is to be understood that further other components may be present in between. On the other hand, when a component is referred to as being "directly coupled" or "directly connected" to another component, it is assumed that there are no additional components in between. Must be understood. Other expressions that describe relationships between components, such as "between" and "immediately between" or "adjacent to" and "directly adjacent to," are interpreted similarly. Must.
また、本出願で用いられた用語は、単に特定の実施形態を説明するために用いられたものであって、本発明を限定しようとするものではない。単数の表現は、文脈上明らかに異なるように意味しない限り複数の表現を含む。本出願において、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとするものであって、一つまたはそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものの存在または付加可能性を予め排除するものではないことを理解しなければならない。 Additionally, the terms used in this application are merely used to describe particular embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "comprising" or "having" are intended to specify the presence of features, numbers, steps, acts, components, parts, or combinations thereof that are described in the specification. It is to be understood that this does not exclude in advance the existence or possibility of addition of one or more other features, figures, steps, operations, components, parts or combinations thereof. .
特に定義しない限り、技術的や科学的な用語を含めてここで用いられる全ての用語は、本発明が属する技術分野における通常の知識を有した者によって一般的に理解されるものと同様の意味を有する。一般的に用いられる辞典に定義されているような用語は関連技術の文脈上有する意味と一致する意味を有するものとして解釈しなければならず、本明細書で明らかに定義しない限り、理想的または過度に形式的な意味として解釈してはならない。 Unless otherwise defined, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention pertains. has. Terms as defined in commonly used dictionaries shall be construed to have meanings consistent with the meanings they have in the context of the relevant art, and unless expressly defined herein, ideal or It should not be interpreted as an overly formal meaning.
本発明において、対象イメージとは、本発明の方法により変形する前に与えられた本来のイメージ(第1イメージ)をいう。このような対象イメージは、例えば、道路の路面に表示される路面標示(スクールゾーン、止まれ、徐行など)のような記号や文字、またはグーグルのストリートビューなどのようにコンピュータ上で挿入される路面標示、仮想現実(Virtual Reality;VR)または拡張現実(Augmented Reality;AR)などで挿入される文字や記号、その他の現実でまたはコンピュータグラフィック上で実現されるイメージを含む。 In the present invention, the target image refers to the original image (first image) given before being transformed by the method of the present invention. Such target images are, for example, symbols and characters such as road markings (school zone, stop, slow down, etc.) displayed on the road surface, or road surfaces inserted on a computer such as Google Street View. This includes signs, characters and symbols inserted in virtual reality (VR) or augmented reality (AR), and other images realized in reality or on computer graphics.
本発明において、変形イメージとは、与えられた対象イメージを本発明が提示する方法により変形したイメージ(第2イメージ)をいう。 In the present invention, a modified image refers to an image (second image) obtained by transforming a given target image using the method presented by the present invention.
本発明において、視点側端部とは、与えられたイメージの最上部、最下部、最左側部、最右側部を各々境界とする長方形を想定した場合、このような長方形の下辺(視点に最も近い辺)の中で視点に最も近い点をいう。本発明において、視点反対側端部とは、前記長方形の上辺の中で視点に最も近い点をいう。例えば、図4において、点Aは対象イメージの(または1番目分割イメージの)視点側端部であり、点Eは対象イメージの(または4番目分割イメージの)視点反対側端部である。 In the present invention, the viewpoint side edge refers to a rectangle whose boundaries are the top, bottom, leftmost, and rightmost parts of a given image. The point closest to the viewpoint among the nearby sides). In the present invention, the end opposite to the viewpoint refers to the point on the upper side of the rectangle that is closest to the viewpoint. For example, in FIG. 4, point A is the end of the target image (or the first divided image) on the viewpoint side, and point E is the end of the target image (or the fourth divided image) on the opposite side of the viewpoint.
本発明において、横方向および縦方向は、前記長方形を基準に見た方向を示す。例えば、図2aおよび2bにおいて、HLは横方向の線を、VLは縦方向の線を示す。 In the present invention, the horizontal direction and the vertical direction refer to directions viewed from the rectangle. For example, in Figures 2a and 2b, HL indicates a horizontal line and VL indicates a vertical line.
本発明において、地面(ground surface)とは、対象イメージが塗布されるかまたはコンピュータグラフィックによって加えられる面をいい、底面に限定されるものではなく、側面や天井面を含めて、いかなる面であってもよい。例えば、図2bのように左側面にグラフィックが加えられる場合には左側面も地面に該当する。 In the present invention, ground surface refers to any surface on which the target image is applied or added by computer graphics, including but not limited to the bottom surface, side surfaces, and ceiling surfaces. It's okay. For example, when a graphic is added to the left side as shown in FIG. 2b, the left side also corresponds to the ground.
本発明において、視線長さとは、視点から該当地点までの距離をいう。例えば、以下に説明される実施形態において、線分OAの長さ、線分OEの長さなどがこれに該当する。 In the present invention, the line-of-sight length refers to the distance from the viewpoint to the relevant point. For example, in the embodiment described below, this applies to the length of line segment OA, the length of line segment OE, etc.
本発明において、視野長さとは、与えられたイメージの視点側端部から視点反対側端部までの縦長さが視点から観測される長さをいう。すなわち、視点から眺める時、遠近法の適用により実際長さより小さく見えるようになる、与えられたイメージの視点側端部から視点反対側端部までの縦長さである。例えば、以下の実施形態において、線分M1M2の長さまたはhiなどがこれに該当する。 In the present invention, the field of view length refers to the vertical length of a given image from the end on the viewpoint side to the end on the opposite side from the viewpoint as observed from the viewpoint. That is, it is the vertical length of a given image from the end on the viewpoint side to the end on the opposite side of the viewpoint, which appears smaller than the actual length due to the application of perspective when viewed from the viewpoint. For example, in the following embodiments, this corresponds to the length of line segment M 1 M 2 or h i .
本発明において、視野角とは、地面上の一地点から視点を眺める角度をいう。例えば、以下に説明される実施形態において、点Aでの視野角はθ0であり、点Cでの視野角はθ2である。 In the present invention, the viewing angle refers to the angle at which a viewpoint is viewed from one point on the ground. For example, in the embodiment described below, the viewing angle at point A is θ 0 and the viewing angle at point C is θ 2 .
本発明において、視点角とは、視点から特定イメージを視点側端部から視点反対側端部まで眺める時に形成される角度をいう。例えば、以下に説明される実施形態において、分割イメージ201に対する視点角は∠AOBであり、対象イメージ200全体に対する視点角は∠AOEである。 In the present invention, the viewpoint angle refers to an angle formed when viewing a specific image from a viewpoint from an end on the viewpoint side to an end on the opposite side to the viewpoint. For example, in the embodiment described below, the viewpoint angle for the divided image 201 is ∠AOB, and the viewpoint angle for the entire target image 200 is ∠AOE.
本発明において、視点情報とは、視点の位置を対象イメージに対して特定できるのに十分な情報をいう。例えば、図4において、視点情報は、視点距離L、視点高さH、対象イメージ視点側端部での視野角、対象イメージ視点反対側端部での視野角、対象イメージ視点側端部までの視線長さ、対象イメージ視点反対側端部までの視線長さ、対象イメージに対する視点角のうち2個以上だけ知っていれば、対象イメージに対する視点の相対位置を決定できるようになる。 In the present invention, viewpoint information refers to information sufficient to specify the position of a viewpoint with respect to a target image. For example, in FIG. 4, the viewpoint information includes the viewpoint distance L, the viewpoint height H, the viewing angle at the end of the target image on the viewpoint side, the viewing angle at the end of the target image opposite to the viewpoint, and the distance to the end of the target image on the viewpoint side. If at least two of the line-of-sight length, the line-of-sight length to the opposite end of the target image viewpoint, and the viewpoint angle with respect to the target image are known, the relative position of the viewpoint with respect to the target image can be determined.
本発明において、i番目、j番目などのように順序を示す時には、視点に近い側から1番目、2番目、3番目、...などのように順番を決めることにする。 In the present invention, when indicating an order such as the i-th, j-th, etc., the first, second, third, . .. .. We will decide the order as follows.
本発明においては、道路などの地面上に物理的に直接加えるか、またはコンピュータグラフィックなどで遠近法が感じられるように仮想で加えようとする対象イメージが与えられる場合に、遠近法によって前記対象イメージに対する判読性が悪化するという問題を解決できるように、前記対象イメージを変換させる方法を提案する。 In the present invention, when a target image is given that is to be added physically directly on the ground such as a road or virtually to be added using computer graphics etc. so that perspective can be felt, the target image is We propose a method for converting the target image to solve the problem of poor legibility.
本発明に係る具体的な一実施形態においては、与えられた対象イメージを横方向に沿って一定の個数に分割し、このように分割された各々の分割イメージのうち視点に近く位置する分割イメージの縦長さは相対的に減らし、視点から遠く位置する分割イメージの縦長さは相対的に伸ばす。このように変換させることによって、本来加えようとした対象イメージの全体縦長さは維持しつつ、遠近法により判読性が悪化するという問題を改善できるようになる。 In a specific embodiment of the present invention, a given target image is divided into a fixed number of images along the horizontal direction, and among each of the divided images, a divided image located near the viewpoint is selected. The vertical length of divided images located far from the viewpoint is relatively increased. By converting in this manner, it is possible to maintain the overall vertical length of the target image that was originally intended to be added, while improving the problem of poor legibility due to perspective.
本発明に係る他の具体的な一実施形態においては、与えられた対象イメージを一定の個数に横に分割した後、各々の分割イメージの視野長さを求める。その後、各々の分割イメージに対してこれらの視野長さ間の比率を逆に適用して、各々の分割イメージが変換される縦長さ(以下、変換長さという)を求める。すなわち、与えられた対象イメージをn個の分割イメージに分割した場合に、全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように変換長さを求める。 In another specific embodiment of the present invention, a given target image is horizontally divided into a fixed number of images, and then the field of view length of each divided image is determined. Thereafter, the ratio between these field of view lengths is applied inversely to each divided image to determine the vertical length (hereinafter referred to as conversion length) to which each divided image is transformed. In other words, when a given target image is divided into n divided images, the ratio of the transformation length of the i-th divided image to the total transformation length is equal to the ratio of the transformation length of the ith divided image to the entire field of view length. Find the transformation length so that it is the same as the ratio occupied by the field of view length.
図4は、このような本発明の一実施形態による方法を説明するための図である。図4(b)は、対象イメージ200が入る位置の平面図であり、図4(a)は、図4(b)の線GEに沿って切った断面を概略的に示す。 FIG. 4 is a diagram for explaining a method according to an embodiment of the present invention. FIG. 4(b) is a plan view of the position where the target image 200 is placed, and FIG. 4(a) schematically shows a cross section taken along line GE in FIG. 4(b).
図4において、図面符号100は地面(ground surface)を示し、Oは視点(view point)を示す。視点は、例えば、自動車に搭乗した運転者の目に該当することができるが、これに限定されるものではない。Gは視点Oから鉛直下方に位置する地面100上の点を示す。視点Oの高さ(視点高さ)、すなわち、線分OGの長さはHで表示されている。視点Oが地面に投影された地点、すなわち、点Gから対象イメージ200の視点側端部、すなわち、点Aまでの距離(視点距離)はLで表示されている。 In FIG. 4, reference numeral 100 indicates a ground surface, and O indicates a view point. The viewpoint may correspond to, for example, the eyes of a driver riding in a car, but is not limited thereto. G indicates a point on the ground 100 located vertically downward from the viewpoint O. The height of the viewpoint O (viewpoint height), that is, the length of the line segment OG is indicated by H. The distance (viewpoint distance) from the point where the viewpoint O is projected on the ground, ie, point G, to the end of the target image 200 on the viewpoint side, ie, point A, is indicated by L.
図面符号200は、地面100に加えられるようになる対象イメージ(例えば、路面標示)の最上部、最下部、最左側部、最右側部を各々境界とする長方形を示す。後述する201、202、203、204も同様に各々の分割イメージに対する長方形を示す。しかし、以下では、説明の便宜のために、簡単に対象イメージ200、分割イメージ201などのような方式で表示することにする。また、図面上、対象イメージ200は地面100の下に厚さを有するものとして示されているが、これは説明の便宜のためのものに過ぎず、実際には、実質的な厚さ無しに、地面100の延長線上で地面100と並んで置かれるものと仮定する。 Reference numeral 200 indicates a rectangle bounded by the top, bottom, leftmost, and rightmost parts of the target image (eg, road marking) to be added to the ground 100. 201, 202, 203, and 204, which will be described later, similarly indicate rectangles for each divided image. However, in the following, for convenience of explanation, the target image 200, divided images 201, etc. will be simply displayed. Additionally, although the target image 200 is shown as having a thickness below the ground 100 in the drawings, this is only for convenience of explanation; in reality, it may have no substantial thickness. , is assumed to be placed alongside the ground 100 on an extension of the ground 100.
本実施形態においては、対象イメージ200を横方向(X軸方向)に平行に4個の分割イメージ201、202、203、204に分割した。点A、B、C、D、Eは、このように分割された分割イメージの横線が、点Gを過ぎY軸に平行な線と交差る点である。分割イメージ201、202、203、204の縦長さ(Y軸方向長さ)は、各々、a1、a2、a3、a4で表示された。 In this embodiment, the target image 200 is divided into four divided images 201, 202, 203, and 204 in parallel in the horizontal direction (X-axis direction). Points A, B, C, D, and E are points where the horizontal line of the image divided in this manner passes through point G and intersects a line parallel to the Y axis. The vertical lengths (lengths in the Y-axis direction) of the divided images 201, 202, 203, and 204 were displayed as a 1 , a 2 , a 3 , and a 4 , respectively.
本実施形態および以下の実施形態においては対象イメージ200を4個に分割したが、これは説明の便宜のためのものであることを明らかにしておく。本発明が属する技術分野における通常の知識を有した者であれば、本発明の明細書に開示された内容から、対象イメージ200を分割する個数が多ければ多いほど、判読性がさらに良くなる効果を持ってくることを予想することができるであろう。 Although the target image 200 is divided into four parts in this embodiment and the following embodiments, it should be made clear that this is for convenience of explanation. A person having ordinary knowledge in the technical field to which the present invention pertains will understand from the content disclosed in the specification of the present invention that the more the number of parts into which the target image 200 is divided, the better the legibility becomes. can be expected to bring.
一方、本実施形態においては、焦点(focal point)が点C上に位置することと仮定する。焦点を過ぎる焦点平面は図面符号300で表示されており、点Cにおいて視線(line of sight)OCと直交する。焦点平面300と視線OA、視線OB、視線OC、視線ODおよび視線OEが交差する点は、各々、M1、M2、M3、M4、M5で表示されている。よって、本実施形態において、点Cと点M3は同一の地点を示す。 On the other hand, in this embodiment, it is assumed that the focal point is located on point C. The focal plane past the focal point is designated by the drawing numeral 300 and is orthogonal to the line of sight OC at point C. Points where the focal plane 300 intersects the line of sight OA, line of sight OB, line of sight OC, line of sight OD, and line of sight OE are indicated by M 1 , M 2 , M 3 , M 4 , and M 5 , respectively. Therefore, in this embodiment, point C and point M3 indicate the same point.
ここで、視点Oから観察される分割イメージ201の長さ、すなわち、視野長さは線分M1M2の長さと等しい。同様に、分割イメージ202、分割イメージ203、分割イメージ204の視野長さは、各々、線分M2M3の長さ、線分M3M4の長さ、線分M4M5の長さと等しい。 Here, the length of the divided image 201 observed from the viewpoint O, that is, the visual field length, is equal to the length of the line segment M 1 M 2 . Similarly, the field of view lengths of the divided image 202, the divided image 203, and the divided image 204 are the length of the line segment M 2 M 3 , the length of the line segment M 3 M 4 , and the length of the line segment M 4 M 5, respectively. is equal to
視点から焦点までの視線長さをSとすれば、これは線分OCの長さと等しく、よって、直角三角形OCGから次のように求めることができる。 If the line-of-sight length from the viewpoint to the focal point is S, it is equal to the length of the line segment OC, and therefore can be determined from the right triangle OCG as follows.
また、視野角θ0、θ1、θ2、θ3、θ4は各々次のように求めることができる。 Furthermore, the viewing angles θ 0 , θ 1 , θ 2 , θ 3 , and θ 4 can be determined as follows.
(3)
(4)
(5)
(6)
(3)
(4)
(5)
(6)
一方、∠AOB、∠BOC、∠COD、∠DOEは、各々、(θ0-θ1)、(θ1-θ2)、(θ2-θ3)、(θ3-θ4)となる。 On the other hand, ∠AOB, ∠BOC, ∠COD, and ∠DOE are (θ 0 −θ 1 ), (θ 1 −θ 2 ), (θ 2 −θ 3 ), and (θ 3 −θ 4 ), respectively. .
したがって、分割イメージ201、202、203、204の視野長さ、すなわち、線分M1M2の長さ、線分M2M3の長さ、線分M3M4の長さ、線分M4M5の長さを各々h1、h2、h3、h4とすれば、これらは各々次のように求めることができる。 Therefore, the field of view length of the divided images 201, 202, 203, 204, that is, the length of line segment M 1 M 2 , the length of line segment M 2 M 3 , the length of line segment M 3 M 4 , the line segment If the lengths of M 4 M 5 are h 1 , h 2 , h 3 , and h 4 respectively, these can be calculated as follows.
(8)
(9)
(10)
(8)
(9)
(10)
また、各々の分割イメージが変換される長さを各々y1、y2、y3、y4とすれば、次のように求めることができる。 Further, if the lengths to which each divided image is converted are respectively y 1 , y 2 , y 3 , and y 4 , then it can be determined as follows.
(12)
(13)
(14)
(12)
(13)
(14)
ここで、Tは地面100に塗布されるかまたはコンピュータグラフィック作業によって加えようとする対象イメージ200の全体縦長さ(例えば、本実施形態ではT=a1+a2+a3+a4)を示す。 Here, T represents the overall length of the target image 200 to be applied to the ground 100 or added by computer graphics work (for example, T=a 1 +a 2 +a 3 +a 4 in this embodiment).
図4の実施形態は対象イメージ200を4個に分割した場合について説明したが、4個以上に分割する場合にも前記式を適用することができる。 Although the embodiment of FIG. 4 has been described with reference to the case where the target image 200 is divided into four pieces, the above formula can also be applied to the case where the target image 200 is divided into four or more pieces.
対象イメージ200をn個の分割イメージに分割する場合、視点から焦点までの視線長さS、視点に最も近く位置する分割イメージ(1番目分割イメージ)から始めてi番目分割イメージの視野長さhiおよびi番目分割イメージの視点反対側端部から見た視野角θiは各々次のように求めることができる。 When dividing the target image 200 into n divided images, the line-of-sight length S from the viewpoint to the focal point, and the field-of-view length h i of the i-th divided image starting from the divided image located closest to the viewpoint (first divided image) The viewing angle θ i of the i-th divided image viewed from the end opposite to the viewpoint can be determined as follows.
(16)
(17)
(16)
(17)
したがって、各々の分割イメージが変換される長さを各々y1、y2、y3、...ynとする時、i番目分割イメージの変換される長さは次のように求めることができる: Therefore, the lengths to which each segmented image is transformed are y 1 , y 2 , y 3 , . .. .. When y n , the converted length of the i-th divided image can be found as follows:
下記表はT=5m、L=15m、H=1.2m、n=10、そしてa1=a2=...=a10=0.5mの場合に対してθi、hi、yi値を示す表である。
前記表から分かるように、10番目分割イメージの変形長さy10は、1番目分割イメージの変形長さy1の約1.7倍近くになる。 As can be seen from the table, the deformed length y 10 of the 10th divided image is approximately 1.7 times the deformed length y 1 of the 1st divided image.
図9および10は、対象イメージおよび前記表1から得たyi値を用いて得られた変形イメージを示す図である。 9 and 10 are diagrams showing a target image and a deformed image obtained using the y i values obtained from Table 1 above.
図9aにおいて、左側は対象イメージ「スクールゾーン」であり、右側は表1により得られたyi値を用いて変形したイメージである。対象イメージでは「スクール」と「ゾーン」の縦長さは同一であったが、変形されたイメージでは「スクール」が「ゾーン」より長くなったことが分かる。また、各々の横画にも変化があることを確認することができる。例えば、「ゾーン」の一番下の横画は変形イメージの方がより細くなり、「スクール」の一番上の横画は変形イメージの方がより厚くなっている。 In FIG. 9a, the left side is the target image "school zone", and the right side is the image transformed using the y i values obtained from Table 1. In the target image, the vertical lengths of ``school'' and ``zone'' were the same, but in the transformed image, it can be seen that ``school'' became longer than ``zone.'' It can also be confirmed that there are changes in each horizontal stroke. For example, the horizontal stroke at the bottom of "Zone" is thinner in the deformed image, and the horizontal stroke at the top of "School" is thicker in the deformed image.
図9bは、対象イメージと変形イメージを各々遠距離から眺めた様子を示す。二つのイメージの両方とも全体長さTは5mであり、視点距離L=15m、視点高さH=1.2mから眺めたものである。左側が対象イメージであり、右側が変形イメージである。遠距離から見た時、対象イメージは「スクール」が「ゾーン」より小さく見えるが、変形イメージは「スクール」と「ゾーン」がほぼ同一の大きさに見えることが分かる。また、対象イメージは視点から遠くなるほど対象イメージの横画の厚さが薄く見えるが、変形イメージは全体的に横画の厚さが実質的に同一に見えることが分かる。 FIG. 9b shows how the target image and the deformed image are viewed from a distance. Both images have an overall length T of 5 m, and are viewed from a viewing distance L = 15 m and a viewing height H = 1.2 m. The left side is the target image, and the right side is the deformed image. When viewed from a distance, the "school" appears smaller than the "zone" in the target image, but it can be seen that the "school" and "zone" appear to be approximately the same size in the deformed image. Further, it can be seen that the thickness of the horizontal stroke of the target image appears to be thinner as the distance from the viewpoint increases, but the thickness of the horizontal stroke of the deformed image appears to be substantially the same throughout.
図10aおよび10bは、各々、対象イメージ「PITTS-BURGH」とそれに対する変形イメージを示す。各々に関する説明は図9aおよび9bと同様であるため、それに関する重複した説明は省略する。 FIGS. 10a and 10b show a target image "PITTS-BURGH" and a modified image thereof, respectively. Since the explanation regarding each is the same as that of FIGS. 9a and 9b, duplicate explanation thereof will be omitted.
図11は、図9および10のように底面にイメージが配置されたものでなく、空間上の左側面に対象イメージおよび変形イメージが加えられる様子を示す。このようなイメージの配置は、ARやVR環境で主に発生しうるが、これに限定されるものではなく、例えば、道路の側面に立てられた看板や道路標示にも適用することができるであろう。 FIG. 11 shows a state in which the target image and the deformed image are added to the left side in space, instead of images being placed on the bottom surface as in FIGS. 9 and 10. This arrangement of images can mainly occur in AR or VR environments, but is not limited to this. For example, it can also be applied to billboards and road markings erected on the side of the road. Probably.
図11の上側に示された図面は対象イメージが遠近法の適用を受けて見える様子であり、下側に示された図面は変形イメージが遠近法の適用を受けて見える様子である。図示されたものから分かるように、対象イメージは視点から遠くなるほど文字がよく見えなくなるが、変形イメージは視点に関わらず鮮明に見えることが分かる。特に後ろの「Pkwy」部分を見てみると、変形イメージの方が約2倍に拡張して見えることが分かる。 The upper drawing in FIG. 11 shows how the target image appears after perspective is applied, and the lower drawing shows how the deformed image looks after perspective was applied. As can be seen from the diagram, the characters in the target image become less visible as the distance from the viewpoint increases, but it can be seen that the deformed image appears clearly regardless of the viewpoint. In particular, if you look at the "Pkwy" part at the back, you can see that the transformed image appears to be expanded about twice as much.
図12は、図3のストリートビューキャプチャー画面(上側図)および路面標示を本発明により変換させた画面(下側図)を共に示す。図面で確認できるように、変換前にはPkwy部分の判読性が低かったが、変換後には顕著に改善されたことが分かる。 FIG. 12 shows both the street view capture screen (top view) of FIG. 3 and a screen (bottom view) in which road markings are converted according to the present invention. As can be seen in the drawing, the legibility of the Pkwy portion was low before the conversion, but it was significantly improved after the conversion.
一方、図4は焦点が対象イメージの中央に位置した場合であったが、焦点が他の地点に位置する場合にも本発明の適用が可能である。 On the other hand, although FIG. 4 shows a case where the focal point is located at the center of the target image, the present invention can also be applied when the focal point is located at another point.
図5は、それに関する一実施形態を示す。 FIG. 5 shows one embodiment in this regard.
図4と同様に、図5(b)は対象イメージ200が入る位置の平面図であり、図5(a)は図5(b)の線GEに沿って切った断面を概略的に示す。 Similar to FIG. 4, FIG. 5(b) is a plan view of the position where the target image 200 is placed, and FIG. 5(a) schematically shows a cross section taken along line GE in FIG. 5(b).
図5では、焦点が1番目分割イメージと2番目分割イメージとの間に位置する。よって、焦点平面300は、点Bにおいて視線(line of sight)OBと直交する。 In FIG. 5, the focus is located between the first divided image and the second divided image. Thus, the focal plane 300 is orthogonal to the line of sight OB at point B.
視点から焦点までの視線長さSは線分OBの長さと等しく、よって、直角三角形OBGから次のように求めることができる。 The line-of-sight length S from the viewpoint to the focal point is equal to the length of the line segment OB, and can therefore be determined from the right triangle OBG as follows.
分割イメージ201、202、203、204の視野長さを各々h1、h2、h3、h4とすれば、これらは各々次のように求めることができる。 If the field of view lengths of the divided images 201, 202, 203, and 204 are respectively h 1 , h 2 , h 3 , and h 4 , these can be calculated as follows.
(21)
(22)
(23)
(21)
(22)
(23)
各々の分割イメージが変換される長さy1、y2、y3、y4は、前記式(11)~(14)により求めることができる。 The lengths y 1 , y 2 , y 3 , and y 4 to which each divided image is transformed can be determined using the above equations (11) to (14).
同様に、対象イメージをn個のイメージに分割した場合にも以下のように前記式(15)~(18)を同一乃至類似に適用することができる。 Similarly, even when the target image is divided into n images, the above equations (15) to (18) can be applied in the same or similar manner as follows.
(16’)
(17’)
(18)
(16')
(17')
(18)
図4の実施形態および図5の実施形態において、焦点と視点がなす視野角をθfとすれば、式(16)、(16’)、(17)、(17’)は各々次のように一般化させることができる。 In the embodiment shown in FIG. 4 and the embodiment shown in FIG . can be generalized to.
(25)
(但し、fは0以上n以下の整数)
(25)
(However, f is an integer from 0 to n)
結局、焦点をどの分割イメージに位置させるかに関わらず、視点条件(例えば、θ0、H、またはLなど)が同一であれば同一の変換長さが得られることが分かる。 After all, it can be seen that the same transformation length can be obtained if the viewpoint conditions (eg, θ 0 , H, or L) are the same, regardless of which divided image the focal point is located.
図6は、本発明の他の代案的な実施形態を示す。 FIG. 6 shows another alternative embodiment of the invention.
本実施形態においては、焦点平面で視野長さを求める代わりに、視点Oから同一の距離に位置する地点で各々の分割イメージに対する視野長さを求める接近方式を利用する。 In this embodiment, instead of finding the field of view length on the focal plane, an approach method is used to find the field of view length for each divided image at a point located at the same distance from the viewpoint O.
前述したものと同様に、図6(b)は対象イメージ200が入る位置の平面図であり、図6(a)は図6(b)の線GEに沿って切った断面を概略的に示す。 Similar to the above, FIG. 6(b) is a plan view of the position where the target image 200 is placed, and FIG. 6(a) schematically shows a cross section taken along line GE in FIG. 6(b). .
図6において、対象イメージは、前述した実施形態と同様に、AB、BC、CD、DEの4個の区間に分割された。点M1は視点Oを中心にし、半径の長さが視点から対象イメージの視点側端部までの視線長さRである円(以下、「円O」という)が視線OAと交差する点である。点M2は、点M1から引いた接線が視線OBと交差する点である。点M3は、円Oと視線OBが接する点から引いた接線が視線OCと交差する点である。点M4は、円Oと線分OCが接する点から引いた接線が視線ODと接する点である。点M5は、円Oと視線ODが接する点から引いた接線が視線OEと交差する点である。 In FIG. 6, the target image is divided into four sections AB, BC, CD, and DE, similar to the embodiment described above. Point M1 is the point where a circle (hereinafter referred to as "circle O") centered on the viewpoint O and whose radius is the sight line length R from the viewpoint to the end of the target image on the viewpoint side intersects the sight line OA. be. Point M2 is the point where the tangent drawn from point M1 intersects the line of sight OB. Point M3 is a point where a tangent drawn from the point where circle O and line of sight OB intersect with line of sight OC. Point M4 is a point where a tangent drawn from the point where circle O and line segment OC touch line of sight OD. Point M5 is a point where a tangent drawn from the point where circle O and line of sight OD intersect with line of sight OE.
視点Oから1番目分割イメージ201を眺めた時の視野長さは線分M1M2の長さであるといえる。 It can be said that the visual field length when viewing the first divided image 201 from the viewpoint O is the length of the line segment M 1 M 2 .
視点Oから2番目分割イメージ202を眺めた時の視野長さを、1番目分割イメージ201に対して視野長さを測定した位置と同一の位置で測定するのであれば、その視野長さは線分M2M3の長さになるであろう。 If the visual field length when viewing the second divided image 202 from the viewpoint O is measured at the same position where the visual field length was measured for the first divided image 201, then the visual field length is a line. The length will be M 2 M 3 minutes.
同様に、視点Oから3番目分割イメージ203を眺めた時の視野長さおよび四番目分割イメージ204を眺めた時の視野長さは各々線分M3M4の長さおよび線分M4M5の長さになるであろう。 Similarly, the length of the field of view when viewing the third divided image 203 and the length of the field of view when viewing the fourth divided image 204 from the viewpoint O are the length of the line segment M 3 M 4 and the length of the line segment M 4 M, respectively. It will be 5 long.
一方、半径の長さRは、直角三角形OAGから次のように求めることができる。 On the other hand, the length R of the radius can be determined from the right triangle OAG as follows.
視野角θ0、θ1、θ2、θ3、θ4は式(2)~(6)のとおりである。同様に、∠AOB、∠BOC、∠COD、∠DOEは、各々、(θ0-θ1)、(θ1-θ2)、(θ2-θ3)、(θ3-θ4)になる。 The viewing angles θ 0 , θ 1 , θ 2 , θ 3 , and θ 4 are as shown in equations (2) to (6). Similarly, ∠AOB, ∠BOC, ∠COD, and ∠DOE are (θ 0 −θ 1 ), (θ 1 −θ 2 ), (θ 2 −θ 3 ), and (θ 3 −θ 4 ), respectively. Become.
したがって、分割イメージ201、202、203、204の視野長さ、すなわち、線分M1M2の長さ、線分M2M3の長さ、線分M3M4の長さ、線分M4M5の長さを各々h1、h2、h3、h4とすれば、これらは次のように求めることができる。 Therefore, the field of view length of the divided images 201, 202, 203, 204, that is, the length of line segment M 1 M 2 , the length of line segment M 2 M 3 , the length of line segment M 3 M 4 , the line segment If the lengths of M 4 M 5 are h 1 , h 2 , h 3 , and h 4 , respectively, these can be determined as follows.
(28)
(29)
(30)
(28)
(29)
(30)
各々の分割イメージが変換される長さy1、y2、y3、y4は、各々、前記式(11)~(14)により求めることができる。 The lengths y 1 , y 2 , y 3 , and y 4 to which each divided image is transformed can be determined using the above equations (11) to (14), respectively.
図6の実施形態は対象イメージ200を4個に分割した場合であるが、4個以上に分割する場合にも前記式を適用することができる。 Although the embodiment shown in FIG. 6 is a case where the target image 200 is divided into four parts, the above formula can also be applied when the target image 200 is divided into four or more parts.
対象イメージ200をn個の分割イメージに分割するとする場合、視点に最も近く位置する分割イメージ(1番目分割イメージ)から始めてi番目分割イメージの視点反対側端部から見た視野角θiは前記式(15)を用いて求めることができ、i番目分割イメージの視野長さhiは次のように求めることができる。 When the target image 200 is divided into n divided images, starting from the divided image located closest to the viewpoint (first divided image), the viewing angle θ i as seen from the end opposite to the viewpoint of the i-th divided image is as follows. It can be determined using equation (15), and the field of view length h i of the i-th divided image can be determined as follows.
前述したものと同様に、各々の分割イメージが変換される長さを各々y1、y2、y3、...ynとする時、i番目分割イメージの変換される長さは前記式(18)を用いて求めることができる。 Similar to what was described above, the lengths to which each segmented image is transformed are y 1 , y 2 , y 3 , . .. .. When y n , the length of the i-th divided image to be converted can be obtained using the above equation (18).
下記表はT=5m、L=15m、H=1.2m、n=10、そしてa1=a2=...=a10=0.5mの場合に対してθi、hi、yi値を示す表である。
図7は、図6の実施形態に対する変形実施形態を示す。 FIG. 7 shows an alternative embodiment to the embodiment of FIG.
前述したものと同様に、図7(b)は対象イメージ200が入る位置の平面図であり、図7(a)は図7(b)の線GEに沿って切った断面を概略的に示す。 Similar to the above, FIG. 7(b) is a plan view of the position where the target image 200 is placed, and FIG. 7(a) schematically shows a cross section taken along line GE in FIG. 7(b). .
図7において、対象イメージは、前述した実施形態と同様に、AB、BC、CD、DEの4個の区間に分割された。点M1は点Aから視線OAに垂直に延びる線が視線OAと交差する点であり、よって、AとM1は同一の地点を示す。点M2は、点M1から視線OAに垂直に延びる線が視線OBと交差する点である。点M3は、点M2から視線OBに垂直に延びる線が視線OCと交差する点である。点M4は、点M3から視線OCに垂直に延びる線が視線ODと交差する点である。点M5は、点M4から視線ODに垂直に延びる線が視線OEと交差する点である。 In FIG. 7, the target image is divided into four sections AB, BC, CD, and DE, similar to the embodiment described above. Point M1 is the point where a line extending perpendicularly from point A to line of sight OA intersects line of sight OA, so A and M1 indicate the same point. Point M 2 is a point where a line extending perpendicularly from point M 1 to line of sight OA intersects line of sight OB. Point M 3 is a point where a line extending perpendicularly from point M 2 to line of sight OB intersects line of sight OC. Point M 4 is a point where a line extending perpendicularly from point M 3 to line of sight OC intersects line of sight OD. Point M5 is a point where a line extending perpendicularly to the line of sight OD from point M4 intersects the line of sight OE.
視点Oから1番目分割イメージ201を眺めた時の視野長さは線分M1M2の長さである。 The visual field length when viewing the first divided image 201 from the viewpoint O is the length of the line segment M 1 M 2 .
視点Oから点M2までの距離は視点Oから点M1までの距離より大きいが、その差の程度は無視できる水準である。よって、線分M2M3の長さを、視点Oから2番目分割イメージ202に対する視野長さに近似することができる。 Although the distance from viewpoint O to point M2 is larger than the distance from viewpoint O to point M1 , the degree of the difference is at a negligible level. Therefore, the length of the line segment M 2 M 3 can be approximated to the visual field length for the second divided image 202 from the viewpoint O.
同様に、線分M3M4の長さおよび線分M4M5の長さを、視点Oから3番目分割イメージ203および四番目分割イメージ204を眺めた時の視野長さに近似することができる。 Similarly, the length of the line segment M 3 M 4 and the length of the line segment M 4 M 5 are approximated to the visual field length when viewing the third divided image 203 and the fourth divided image 204 from the viewpoint O. I can do it.
また、∠AOB、∠BOC、∠COD、∠DOEは、各々、(θ0-θ1)、(θ1-θ2)、(θ2-θ3)、(θ3-θ4)になる。 Also, ∠AOB, ∠BOC, ∠COD, and ∠DOE become (θ 0 - θ 1 ), (θ 1 - θ 2 ), (θ 2 - θ 3 ), and (θ 3 - θ 4 ), respectively. .
ここで、線分OM1、OM2、OM3、OM4、の長さを各々S1、S2、S3、S4とすれば、S1、S2、S3、S4の長さは次のように求めることができる。 Here, if the lengths of line segments OM 1 , OM 2 , OM 3 , and OM 4 are respectively S 1 , S 2 , S 3 , and S 4 , then the lengths of S 1 , S 2 , S 3 , and S 4 are can be calculated as follows.
(33)
(34)
(35)
(33)
(34)
(35)
視野角θ0、θ1、θ2、θ3、θ4は式(2)~(6)のとおりである。 The viewing angles θ 0 , θ 1 , θ 2 , θ 3 , and θ 4 are as shown in equations (2) to (6).
したがって、分割イメージ201、202、203、204の視野長さ、すなわち、線分M1M2の長さ、線分M2M3の長さ、線分M3M4の長さ、線分M4M5の長さを各々h1、h2、h3、h4とすれば、これらは次のように求めることができる。 Therefore, the field of view length of the divided images 201, 202, 203, 204, that is, the length of line segment M 1 M 2 , the length of line segment M 2 M 3 , the length of line segment M 3 M 4 , the line segment If the lengths of M 4 M 5 are h 1 , h 2 , h 3 , and h 4 , respectively, these can be determined as follows.
(37)
(38)
(39)
(37)
(38)
(39)
各々の分割イメージが変換される長さy1、y2、y3、y4は、各々、前記式(11)~(14)により求めることができる。 The lengths y 1 , y 2 , y 3 , and y 4 to which each divided image is transformed can be determined using the above equations (11) to (14), respectively.
図7の実施形態は対象イメージを4個に分割した場合であるが、4個以上に分割する場合にも前記式を適用することができる。 Although the embodiment shown in FIG. 7 is a case where the target image is divided into four parts, the above formula can also be applied to the case where the target image is divided into four or more parts.
対象イメージ200をn個の分割イメージに分割する場合、視点に最も近く位置する分割イメージ(1番目分割イメージ)から始めてi番目分割イメージの視点反対側端部から見た視野角θiは前記式(15)を用いて求めることができ、i番目分割イメージの視野長さhiは次のように求めることができる。 When dividing the target image 200 into n divided images, starting from the divided image located closest to the viewpoint (first divided image), the viewing angle θ i as seen from the end opposite to the viewpoint of the i-th divided image is determined by the above formula. (15), and the visual field length h i of the i-th divided image can be determined as follows.
ここで、Siは以下のとおりである。 Here, S i is as follows.
前述したものと同様に、各々の分割イメージが変換される長さを各々y1、y2、y3、...ynとする時、i番目分割イメージが変換される長さは前記式(18)を用いて求めることができる。 Similar to what was described above, the lengths to which each segmented image is transformed are y 1 , y 2 , y 3 , . .. .. When y n , the length to which the i-th divided image is transformed can be found using equation (18).
下記表はT=5m、L=15m、H=1.2m、n=10、そしてa1=a2=...=a10=0.5mの場合に対してθi、hi、yi値を示す表である。
本実施形態の場合も、前記表1および表2と類似した変形長さ値が得られることが分かる。 It can be seen that deformed length values similar to those in Tables 1 and 2 can be obtained in this embodiment as well.
図8は、本発明の更なる他の代案的な実施形態を示す。 FIG. 8 shows yet another alternative embodiment of the invention.
前述したものと同様に、図8(b)は対象イメージ200が入る位置の平面図であり、図8(a)は図8(b)の線GEに沿って切った断面を概略的に示す。 Similar to the above, FIG. 8(b) is a plan view of the position where the target image 200 is placed, and FIG. 8(a) schematically shows a cross section taken along line GE in FIG. 8(b). .
図8においては、視点Oから対象イメージ200全体に対する視点角∠AOEを、対象イメージ200を分割しようとする個数と同一な個数に分割し、このように分割された角度を用いて変形される長さを求める接近方式を利用する。 In FIG. 8, the viewpoint angle ∠AOE for the entire target image 200 from the viewpoint O is divided into the same number of parts as the target image 200 is to be divided, and the length to be transformed is calculated using the divided angles. Use an approach method that seeks for clarity.
図8において、対象イメージ200は、前述した実施形態と同様に、AB、BC、CD、DEの4個の区間に分割された。各々の分割イメージ201、202、203、204の縦長さは、各々、a1、a2、a3、a4で表示された(図8(b)を参照)。点A、B、C、D、Eは、このように分割された分割イメージ201、202、203、204の横線が、点Gを通ってY軸に平行な線と交差する点である。 In FIG. 8, the target image 200 is divided into four sections AB, BC, CD, and DE, similar to the embodiment described above. The vertical lengths of each of the divided images 201, 202, 203, and 204 were expressed as a 1 , a 2 , a 3 , and a 4 , respectively (see FIG. 8(b)). Points A, B, C, D, and E are points where the horizontal lines of the thus divided images 201, 202, 203, and 204 pass through point G and intersect with a line parallel to the Y axis.
分割イメージの個数に合わせて、視点Oから対象イメージ200全体を眺める角度(∠AOE)も4個の角度α1、α2、α3、α4に分割された。この時、各々の角度は以下の式を満たす大きさに分割される。 In accordance with the number of divided images, the angle (∠AOE) at which the entire target image 200 is viewed from viewpoint O is also divided into four angles α 1 , α 2 , α 3 , and α 4 . At this time, each angle is divided into sizes that satisfy the following formula.
点A、B’、C’、D’、Eは、このように角度を分割する線が対象イメージ200と交差する点を各々示す。 Points A, B', C', D', and E indicate the points where the lines dividing the angle intersect with the target image 200, respectively.
このようにして、対象イメージは、AB’区間、B’C’区間、C’D’区間、D’E区間の4個の区間に新たに分割される。 In this way, the target image is newly divided into four sections: AB' section, B'C' section, C'D' section, and D'E section.
点Oを中心にし、半径の長さが線分OAである円Oを仮定すれば、(半径の長さが十分に大きい場合)円弧M1M2、円弧M2M3、円弧M3M4、円弧M4M5の長さは視点Oから観測されるAB’区間、B’C’区間、C’D’区間、D’E区間の長さと実質的に同一であってもよい。よって、線分AB’の長さ、線分B’C’の長さ、線分C’D’の長さ、線分D’Eの長さを、各々分割されたイメージが変換される長さy1、y2、y3、y4として求める。 Assuming a circle O whose center is point O and whose radius length is line segment OA, (if the radius length is sufficiently large) arc M 1 M 2 , arc M 2 M 3 , arc M 3 M 4. The length of the arc M 4 M 5 may be substantially the same as the length of the AB' section, B'C' section, C'D' section, and D'E section observed from the viewpoint O. Therefore, the length of line segment AB', the length of line segment B'C', the length of line segment C'D', and the length of line segment D'E are the lengths to which the divided images are converted. It is determined as y 1 , y 2 , y 3 , y 4 .
対象イメージ200の全体縦長さをTとする時(本実施形態ではT=a1+a2+a3+a4)、視野角θ0およびθ4は各々以下のとおりである。 When the overall vertical length of the target image 200 is T (T=a 1 +a 2 +a 3 +a 4 in this embodiment), the viewing angles θ 0 and θ 4 are as follows.
(44)
(44)
一方、対象イメージ200の全体縦長さに対する1番目分割イメージ201の縦長さの比率はa1/Tである。よって、分割イメージ201に対する視点角α1は、前記式(42)を考慮して次のように求めることができる。 On the other hand, the ratio of the vertical length of the first divided image 201 to the entire vertical length of the target image 200 is a 1 /T. Therefore, the viewpoint angle α 1 for the divided image 201 can be determined as follows by considering the above equation (42).
同様に、2番目~4番目分割イメージ(202~204)に対する視点角α2、α3、α4は各々次のように求めることができる。 Similarly, the viewpoint angles α 2 , α 3 , and α 4 for the second to fourth divided images (202 to 204) can be determined as follows.
(47)
(48)
(47)
(48)
さて、分割されたイメージが変換される長さy1、y2、y3、y4を各々求めれば以下のとおりである。 Now, the lengths y 1 , y 2 , y 3 , and y 4 to which the divided images are converted are calculated as follows.
(50)
(51)
(52)
(50)
(51)
(52)
図8の実施形態は対象イメージ200を4個に分割した場合であるが、4個以上に分割する場合にも前記式を適用することができる。 Although the embodiment shown in FIG. 8 is a case where the target image 200 is divided into four parts, the above formula can also be applied when the target image 200 is divided into four or more parts.
対象イメージ200をn個の分割イメージに分割する場合、視点に最も近く位置する分割イメージ(1番目分割イメージ)から始めてi番目分割イメージの変換長さyiおよび視点角αiは次のように求めることができる。 When dividing the target image 200 into n divided images, starting from the divided image located closest to the viewpoint (first divided image), the transformation length y i and viewpoint angle α i of the i-th divided image are as follows. You can ask for it.
(54)
(54)
ここで、θ0、θnは各々前記式(2)と式(15)を用いて求めることができる。 Here, θ 0 and θ n can be determined using the above formula (2) and formula (15), respectively.
下記表はT=5m、L=15m、H=1.2m、n=10、そしてa1=a2=a3=...=a10=0.5mの場合に対してθi、yi値を示す表である。
本実施形態の場合も、前記表1~表3と類似した変形長さ値が得られることが分かる。 It can be seen that deformed length values similar to those in Tables 1 to 3 can be obtained in this embodiment as well.
本発明の更なる実施形態として、補正因子fiを用いて前記式(18)および式(54)を各々次のように変形させることができる。 As a further embodiment of the present invention, the above equations (18) and (54) can be transformed using the correction factor f i as follows.
(56)
(56)
補正因子fiは、イメージが塗布されるかまたは加えられる状況や条件などに応じて適切な値を取ることができる。例えば、以下の式40を適用する場合には、視点に近く位置する分割イメージであるほど少なめに変換させ、視点から遠く位置する分割イメージであるほどさらに多めに変換させる。 The correction factor f i can take an appropriate value depending on the situation or conditions under which the image is applied or applied. For example, when applying Equation 40 below, the closer a divided image is to the viewpoint, the less it is converted, and the farther away from the viewpoint, the more it is converted.
本発明の一実施形態においては、前記のようなイメージ補正方法を実現できるイメージ補正装置を提供する。 An embodiment of the present invention provides an image correction device that can implement the image correction method as described above.
図13は、このようなイメージ補正装置の一実現例を示すブロック図である。図13を参照すれば、本発明の一実施形態によるイメージ補正装置1000は、入力部1010、イメージ変換部1020および出力部1030を含む。 FIG. 13 is a block diagram showing an implementation example of such an image correction device. Referring to FIG. 13, an image correction apparatus 1000 according to an embodiment of the present invention includes an input unit 1010, an image conversion unit 1020, and an output unit 1030.
ユーザは、入力部1010を介して、変形させようとする対象イメージ200に関する情報を入力することができる。対象イメージ情報は、対象イメージのイメージファイル、対象イメージが加えられる幅と長さ(前記実施形態における長さT)などを含むことができる。 The user can input information regarding the target image 200 to be transformed via the input unit 1010. The target image information may include an image file of the target image, a width and a length to which the target image is added (length T in the above embodiment), and the like.
また、ユーザは、対象イメージ200を分割しようとする個数および各々の分割イメージの縦長さ(a1、a2、a3、..)を入力することができる。好ましくは、各々の分割イメージが同一の縦長さに分割されることができる(すなわち、a1=a2=a3=...=an)。 Further, the user can input the number of parts into which the target image 200 is to be divided and the vertical length of each divided image (a 1 , a 2 , a 3 , . . . ). Preferably, each segmented image can be segmented into the same vertical length (ie, a 1 =a 2 =a 3 =...=a n ).
また、ユーザは、入力部1010を介して視点情報を入力することができる。視点情報は、対象イメージ200に対して視点の位置を特定できる情報を意味する。例えば、視点は、対象イメージから離隔した距離、視点角などであってもよい。 Additionally, the user can input viewpoint information via the input unit 1010. Viewpoint information means information that can specify the position of a viewpoint with respect to the target image 200. For example, the viewpoint may be a distance away from the target image, a viewpoint angle, etc.
より具体的には、例えば、前記対象イメージが位置する平面から視点までの視点高さH、前記視点を前記対象イメージが位置する地面100上に投影させた地点から前記対象イメージの視点側端部までの視点距離L、前記対象イメージの視点側端部での視野角、前記対象イメージの視点反対側端部での視野角、前記視点から前記対象イメージの視点側端部までの視線長さ、前記視点から前記対象イメージの視点反対側端部までの視線長さ、および前記対象イメージの視点角などであってもよい。視点情報は対象イメージ200に対して視点の位置を特定できれば良いため、これらの全てが必要なのではない。すなわち、例えば、図6の実施形態において、視点距離Lと視点高さHだけ与えられれば、視野角θ0と視線長さRなどはそれより求めることができるということを、本発明が属する技術分野における通常の知識を有した者であれば理解することができる。 More specifically, for example, the viewpoint height H from the plane where the target image is located to the viewpoint, and the viewpoint side end of the target image from the point where the viewpoint is projected onto the ground 100 where the target image is located. a viewing angle at the end of the target image on the viewpoint side, a viewing angle at the end of the target image opposite to the viewpoint, a line-of-sight length from the viewpoint to the end of the target image on the viewpoint side, It may be a line-of-sight length from the viewpoint to an end of the target image opposite to the viewpoint, a viewpoint angle of the target image, or the like. All of the viewpoint information is not necessary because it is enough to specify the position of the viewpoint with respect to the target image 200. That is, for example, in the embodiment shown in FIG. 6, if only the viewpoint distance L and the viewpoint height H are given, the viewing angle θ 0 and the sight line length R can be obtained from the technology to which the present invention belongs. It can be understood by anyone with ordinary knowledge in the field.
入力部1010を介して入力された対象イメージは、イメージ変換部1020を介して、前述した内容のような過程を経て変換される。例えば、前記式(18)または式(54)によりi番目分割イメージに対するyi値を求め、このように得られたyi値に応じて該分割イメージの縦長さを伸ばすかまたは減らすことによって対象イメージ200を変形させる。一例として、図4の実施形態において、分割イメージ201の縦長さが1mであり、これに対して計算されたy1値が0.7mであったのであれば、分割イメージ201の横長さは維持させつつ、縦長さが0.7mになるように縮小変形させる。 A target image input through the input unit 1010 is converted through the image conversion unit 1020 through the process described above. For example, by calculating the y i value for the i-th divided image using the above formula (18) or formula (54), and increasing or decreasing the vertical length of the divided image according to the y i value obtained in this way, the target Transform the image 200. As an example, in the embodiment of FIG. 4, if the vertical length of the divided image 201 is 1 m and the calculated y1 value for this is 0.7 m, then the horizontal length of the divided image 201 is maintained. While doing so, it is reduced and deformed so that the vertical length becomes 0.7 m.
出力部1030は、イメージ変換部1020を介して変換されたイメージを所望のフォーマットで出力することができるようにする。例えば、出力部1030は、jpg、TIFF、XMLなどのファイル形式に変換されたイメージを出力することができるが、これは単に例に過ぎず、必要により公知のいかなる形態やフォーマットで出力してもよい。特に、本発明に係るイメージ補正装置がARやVRなどの実現のために使われる場合には、AR装置やVR装置が必要とする形式に合わせて提供することができる。 The output unit 1030 can output the image converted by the image conversion unit 1020 in a desired format. For example, the output unit 1030 can output an image converted into a file format such as jpg, TIFF, or XML, but this is just an example, and it may be output in any known format or format if necessary. good. In particular, when the image correction device according to the present invention is used to realize AR, VR, etc., it can be provided in a format required by the AR device or VR device.
本発明の一実施形態は、コンピュータにより実行されるプログラムモジュールのようなコンピュータにより実行可能な命令語を含む記録媒体、すなわち、コンピュータ読み取り可能な媒体の形態に実現されることができる。このようなコンピュータ読み取り可能な媒体は、前述したイメージの変換方法を実行させるためのプログラムを記録することができる。 An embodiment of the present invention may be implemented in the form of a storage medium, ie, a computer-readable medium, containing computer-executable instructions such as program modules executed by a computer. Such a computer-readable medium can record a program for executing the image conversion method described above.
コンピュータ読み取り可能な媒体は、コンピュータによりアクセスできる任意の利用可能な媒体であってもよく、揮発性および不揮発性の媒体、分離型および非分離型の媒体を全て含む。また、コンピュータ読み取り可能な媒体は、コンピュータストレージ媒体および通信媒体を全て含むことができる。 Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, separable and non-separable media. Computer-readable media can also include both computer storage media and communication media.
コンピュータストレージ媒体は、コンピュータ読み取り可能な命令語、データ構造、プログラムモジュールまたはその他のデータのような情報のストレージのための任意の方法または技術で実現された揮発性および不揮発性、分離型および非分離型の媒体を全て含む。このような媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CDおよびDVDのような光記録媒体、フロプティカルディスク(floptical disk)と磁気-光媒体、ROM、RAM、フラッシュメモリなどのようなプログラム命令をストレージし実行するように構成されたハードウェア装置などが挙げられる。 Computer storage media can be volatile and non-volatile, separable and non-separable, implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data. Contains all types of media. Examples of such media include hard disks, magnetic media such as floppy disks and magnetic tape, optical recording media such as CDs and DVDs, floptical disks and magneto-optical media, ROM, RAM, Examples include hardware devices configured to store and execute program instructions, such as flash memory and the like.
通信媒体は、典型的にコンピュータ読み取り可能な命令語、データ構造、プログラムモジュール、または搬送波のような変調したデータ信号のその他のデータ、またはその他の転送メカニズムを含み、任意の情報伝達媒体を含む。 Communication media include any information-carrying media that typically includes computer-readable instructions, data structures, program modules or other data in a modulated data signal, such as a carrier wave, or other transfer mechanism.
コンピュータ読み取り可能な命令の例には、コンパイラにより作られるもののような機械語コードだけでなく、インタープリタなどを用いてコンピュータにより実行できる高級言語コードを含む。 Examples of computer-readable instructions include not only machine language code, such as that produced by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
以上の説明は本発明の技術思想を例示的に説明したものに過ぎず、本発明が属する技術分野における通常の知識を有した者であれば、本発明の本質的な特性から逸脱しない範囲内で様々な修正および変形が可能である。したがって、本発明に開示された実施形態は、本発明の技術思想を限定するためのものではなく説明するためのものであって、このような実施形態によって本発明の技術思想の範囲が限定されるものではない。本発明の保護範囲は以下の請求範囲によって解釈しなければならず、それと同等な範囲内にある全ての技術思想は本発明の権利範囲に含まれるものとして解釈しなければならない。 The above explanation is merely an illustrative explanation of the technical idea of the present invention, and a person having ordinary knowledge in the technical field to which the present invention pertains will understand that it does not depart from the essential characteristics of the present invention. Various modifications and variations are possible. Therefore, the embodiments disclosed in the present invention are for illustrating rather than limiting the technical idea of the present invention, and the scope of the technical idea of the present invention is not limited by such embodiments. It's not something you can do. The protection scope of the present invention shall be interpreted in accordance with the following claims, and all technical ideas within the scope equivalent thereto shall be construed as falling within the scope of rights of the present invention.
10 ・・・長方形
100 ・・・地面
200 ・・・対象イメージ
201、202、203、204 ・・・分割イメージ
300、400 ・・・焦点平面
1000 ・・・イメージ補正装置
1010 ・・・入力部
1020 ・・・イメージ変換部
1030 ・・・出力部
10...Rectangle 100...Ground 200...Target image 201, 202, 203, 204...Divided image 300, 400...Focal plane 1000...Image correction device 1010...Input section 1020 ... Image conversion section 1030 ... Output section
Claims (12)
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含み、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップは、
全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように、各々の分割イメージに対する変換長さを求めるステップを含み、ここで、nは分割イメージの総個数である、イメージ補正方法。 A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a field of view length for each divided image based on the viewpoint information and the vertical length of each divided image;
determining a transformation length for each segmented image from the field of view length ;
The step of determining a transformation length for each divided image from the field of view length includes:
For each divided image, so that the ratio of the transformed length of the i-th divided image to the total transformed length is the same as the ratio of the field of view length of the n-i+1st divided image to the total visual field length. An image correction method comprising the step of determining a transform length, where n is the total number of segmented images.
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含み、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップは、以下の変換式;
ここで、h i はi番目分割イメージの視野長さ、nは分割イメージの総個数、Tは対象イメージの全体長さである、イメージ補正方法。 A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a field of view length for each divided image based on the viewpoint information and the vertical length of each divided image;
determining a transformation length for each segmented image from the field of view length ;
The step of calculating the transformation length for each divided image from the field of view length is performed using the following transformation formula;
Here, h i is the field of view length of the i-th divided image, n is the total number of divided images, and T is the entire length of the target image.
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含み、
前記視野長さを求めるステップは、
視野長さの算出式によって視野長さを求めるステップであって、i番目分割イメージに対する視野長さh i の算出式は
ここで、Sは視点から焦点までの視線長さであり、θ i はi番目分割イメージの視線反対側端部での視野角であり、θ 0 は1番目分割イメージの視線側端部での視野角であり、θ f は焦点での視野角である、視野長さの算出式によって視野長さを求めるステップを含む、イメージ補正方法。 A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a field of view length for each divided image based on the viewpoint information and the vertical length of each of the divided images;
determining a transformation length for each segmented image from the field of view length ;
The step of determining the field of view length includes:
The step of calculating the visual field length using the visual field length calculation formula, the formula for calculating the visual field length h i for the i-th divided image is
Here, S is the line-of-sight length from the viewpoint to the focal point, θ i is the viewing angle at the end of the i-th divided image on the opposite side of the line-of-sight, and θ 0 is the viewing angle at the end of the first divided image on the side of the line-of-sight. An image correction method comprising the step of determining a field of view length using a field of view length calculation formula, where θ f is a field of view angle at a focal point .
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含み、
前記視野長さを求めるステップは、
視野長さの算出式によって視野長さを求めるステップであって、i番目分割イメージに対する視野長さhiの算出式は
ここで、Rは視点から第1イメージの視点側端部までの視線長さであり、θiはi番目分割イメージの視点反対側端部での視野角であり、θ0は1番目分割イメージの視線側端部での視野角である、視野長さの算出式による視野長さを求めるステップを含む、イメージ補正方法。 A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a field of view length for each divided image based on the viewpoint information and the vertical length of each divided image;
determining a transformation length for each segmented image from the field of view length;
The step of determining the field of view length includes:
The step of calculating the visual field length using a visual field length calculation formula, the formula for calculating the visual field length hi for the i-th divided image is
Here, R is the line-of-sight length from the viewpoint to the end of the first image on the viewpoint side, θi is the viewing angle at the end opposite to the viewpoint of the i-th divided image, and θ0 is the line-of-sight of the first divided image. An image correction method comprising the step of determining a visual field length, which is a visual angle at a side edge, using a visual field length calculation formula.
前記第1イメージが位置する平面から視点までの視点高さ(H)、
前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部(A)までの視点距離(L)、
前記第1イメージの視点側端部(A)での視野角(θ0)、
前記第1イメージの視点反対側端部(E)での視野角(θ4)、
前記視点から前記第1イメージの視点側端部(A)までの視線長さ、
前記視点から前記第1イメージの視点反対側端部(E)までの視線長さ、
前記第1イメージの視点角(∠AOE)
のうち2個以上を含む、請求項5に記載のイメージ補正方法。 The viewpoint information is
a viewpoint height (H) from the plane where the first image is located to the viewpoint;
a viewpoint distance (L) from a point where the viewpoint is projected onto a plane where the first image is located to a viewpoint side end (A) of the first image;
a viewing angle (θ 0 ) at the viewpoint side end (A) of the first image;
a viewing angle (θ 4 ) at the end (E) opposite to the viewpoint of the first image;
a line-of-sight length from the viewpoint to the viewpoint side end (A) of the first image;
a line-of-sight length from the viewpoint to an end (E) on the opposite side of the viewpoint of the first image;
Viewing angle of the first image (∠AOE)
The image correction method according to claim 5 , comprising two or more of the following.
前記命令語は、コンピュータ上で実行される時、前記コンピュータが、請求項1~4のいずれか1項に記載の方法を実行するようにする、コンピュータ読み取り可能なメモリ。 A computer-readable memory comprising computer-readable instructions, the computer-readable memory comprising:
Computer-readable memory, wherein the instructions, when executed on a computer, cause the computer to perform the method according to any one of claims 1 to 4.
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求めるステップと、
前記視点角から各々の分割イメージに対する変換長さを求めるステップを含み、
前記視点角から各々の分割イメージに対する変換長さを求めるステップは、
以下の変換式;
ここで、Hは前記第1イメージが位置する平面から視点までの視点高さ、Lは前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離である、イメージ補正方法。 A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images;
determining a transformation length for each divided image from the viewing angle ;
The step of determining a transformation length for each divided image from the viewpoint angle includes:
The following conversion formula;
Here, H is the viewpoint height from the plane where the first image is located to the viewpoint, and L is the viewpoint side end of the first image from the point where the viewpoint is projected onto the plane where the first image is located. The image correction method is the viewpoint distance up to.
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求めるステップと、
前記視点角から各々の分割イメージに対する変換長さを求めるステップを含み、
前記各々の分割イメージに対する視点角を求めるステップは、
以下の変換式;
ここで、Tは第1イメージの全体縦長さ、nは分割イメージの総個数、a i はi番目分割イメージの縦長さ、θ 0 は1番目分割イメージの視線側端部での視野角、θ n はn番目分割イメージの視線反対側端部での視野角である、イメージ補正方法。 A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images;
determining a transformation length for each divided image from the viewing angle ;
The step of determining the viewpoint angle for each divided image includes:
The following conversion formula;
Here, T is the overall vertical length of the first image, n is the total number of divided images, a i is the vertical length of the i-th divided image, θ 0 is the viewing angle at the line-of-sight side end of the first divided image, θ An image correction method in which n is the viewing angle at the end opposite to the line of sight of the n-th divided image.
前記第1イメージが位置する平面から視点までの視点高さ(H)、
前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部(A)までの視点距離(L)、
前記第1イメージの視点側端部(A)での視野角(θ0)、
前記第1イメージの視点反対側端部(E)での視野角(θ4)、
前記視点から前記第1イメージの視点側端部(A)までの視線長さ、
前記視点から前記第1イメージの視点反対側端部(E)までの視線長さ、
前記第1イメージの視点角(∠AOE)
のうち2個以上を含む、請求項10に記載のイメージ補正方法。 The viewpoint information is
a viewpoint height (H) from the plane where the first image is located to the viewpoint;
a viewpoint distance (L) from a point where the viewpoint is projected onto a plane where the first image is located to a viewpoint side end (A) of the first image;
a viewing angle (θ 0 ) at the viewpoint side end (A) of the first image;
a viewing angle (θ 4 ) at the end (E) opposite to the viewpoint of the first image;
a line-of-sight length from the viewpoint to the viewpoint side end (A) of the first image;
a line-of-sight length from the viewpoint to an end (E) on the opposite side of the viewpoint of the first image;
Viewing angle of the first image (∠AOE)
The image correction method according to claim 10 , comprising two or more of the following.
前記命令語は、コンピュータ上で実行される時、前記コンピュータが、請求項8~9のいずれか1項に記載の方法を実行するようにする、コンピュータ読み取り可能なメモリ。 A computer-readable memory comprising computer-readable instructions, the computer-readable memory comprising:
Computer-readable memory, wherein the instructions, when executed on a computer, cause the computer to perform the method according to any one of claims 8-9.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0053983 | 2017-04-26 | ||
KR1020170053983A KR20170061640A (en) | 2017-04-26 | 2017-04-26 | A method for modifying an image to compensate perspective effect and a device thereof |
PCT/KR2018/004876 WO2018199663A1 (en) | 2017-04-26 | 2018-04-26 | Method and device for image correction in response to perspective |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020518931A JP2020518931A (en) | 2020-06-25 |
JP2020518931A5 JP2020518931A5 (en) | 2021-06-10 |
JP7360379B2 true JP7360379B2 (en) | 2023-10-12 |
Family
ID=59222781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020509406A Active JP7360379B2 (en) | 2017-04-26 | 2018-04-26 | Image correction method and device compatible with perspective |
Country Status (7)
Country | Link |
---|---|
US (1) | US10970826B2 (en) |
EP (1) | EP3617989A4 (en) |
JP (1) | JP7360379B2 (en) |
KR (1) | KR20170061640A (en) |
CN (1) | CN110546681B (en) |
AU (1) | AU2018257146B2 (en) |
WO (1) | WO2018199663A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161173B (en) * | 2019-12-18 | 2020-11-06 | 北京城市网邻信息技术有限公司 | Image correction information acquisition method, image correction information acquisition device, image correction information model construction method, image correction information model construction device, and medium |
US20220126853A1 (en) * | 2020-10-26 | 2022-04-28 | GM Global Technology Operations LLC | Methods and systems for stiching of images into a virtual image |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004078121A (en) | 2002-08-22 | 2004-03-11 | Sharp Corp | Device, method, and program for display correction and recording medium with recorded display correcting program |
JP2009075842A (en) | 2007-09-20 | 2009-04-09 | Denso Corp | On-vehicle display device |
JP2017529617A (en) | 2014-09-03 | 2017-10-05 | ドン−ヤン シン | Long-distance identification image generation apparatus and operation method thereof |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPS146502A0 (en) * | 2002-03-28 | 2002-05-09 | Traynor, Neil | Methods and apparatus relating to improved visual recognition and safety |
AU2003248269A1 (en) * | 2002-07-12 | 2004-02-02 | Iwane Laboratories, Ltd. | Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device |
US7680322B2 (en) * | 2002-11-12 | 2010-03-16 | Namco Bandai Games Inc. | Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing |
KR101060152B1 (en) * | 2011-01-22 | 2011-08-29 | 인하대학교 산학협력단 | A method for observing road status using reconfigurable hardware |
DE102011115739A1 (en) * | 2011-10-11 | 2013-04-11 | Daimler Ag | Method for integrating virtual objects in vehicle displays |
KR101261409B1 (en) | 2012-04-24 | 2013-05-10 | 이엔지정보기술 주식회사 | System for recognizing road markings of image |
KR101584693B1 (en) * | 2014-05-23 | 2016-01-14 | 경북대학교 산학협력단 | Apparatus and method for generation of camera parameter |
KR101645717B1 (en) * | 2015-01-28 | 2016-08-12 | (주)한양정보통신 | Apparatus and method for adaptive calibration of advanced driver assistance system |
JP6775188B2 (en) * | 2016-08-05 | 2020-10-28 | パナソニックIpマネジメント株式会社 | Head-up display device and display control method |
US10318826B2 (en) * | 2016-10-07 | 2019-06-11 | Ford Global Technologies, Llc | Rear obstacle detection and distance estimation |
KR101727987B1 (en) * | 2016-10-17 | 2017-04-18 | 신동윤 | Apparatus for generating image identifiable in long distance and operation method thereof |
-
2017
- 2017-04-26 KR KR1020170053983A patent/KR20170061640A/en active Application Filing
-
2018
- 2018-04-26 WO PCT/KR2018/004876 patent/WO2018199663A1/en unknown
- 2018-04-26 EP EP18792169.7A patent/EP3617989A4/en active Pending
- 2018-04-26 US US16/608,727 patent/US10970826B2/en active Active
- 2018-04-26 CN CN201880026859.6A patent/CN110546681B/en active Active
- 2018-04-26 AU AU2018257146A patent/AU2018257146B2/en active Active
- 2018-04-26 JP JP2020509406A patent/JP7360379B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004078121A (en) | 2002-08-22 | 2004-03-11 | Sharp Corp | Device, method, and program for display correction and recording medium with recorded display correcting program |
JP2009075842A (en) | 2007-09-20 | 2009-04-09 | Denso Corp | On-vehicle display device |
JP2017529617A (en) | 2014-09-03 | 2017-10-05 | ドン−ヤン シン | Long-distance identification image generation apparatus and operation method thereof |
Non-Patent Citations (1)
Title |
---|
Ziqiong Liu et al,ROI perspective transform based road marking detection and recognition,2012 International Conference on Audio, Language and Image Processing,米国,IEEE,2012年07月18日,841 - 846,https://ieeexplore.ieee.org/document/6376731 |
Also Published As
Publication number | Publication date |
---|---|
AU2018257146B2 (en) | 2023-02-02 |
US10970826B2 (en) | 2021-04-06 |
CN110546681A (en) | 2019-12-06 |
CN110546681B (en) | 2023-10-20 |
WO2018199663A1 (en) | 2018-11-01 |
EP3617989A1 (en) | 2020-03-04 |
EP3617989A4 (en) | 2021-01-06 |
JP2020518931A (en) | 2020-06-25 |
KR20170061640A (en) | 2017-06-05 |
US20210012471A1 (en) | 2021-01-14 |
AU2018257146A1 (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101940971B1 (en) | Accelerated light field display | |
CN109561294B (en) | Method and apparatus for rendering image | |
US20060267803A1 (en) | Non-perspective variable-scale map displays | |
CN108133454B (en) | Space geometric model image switching method, device and system and interaction equipment | |
JP7360379B2 (en) | Image correction method and device compatible with perspective | |
KR100723422B1 (en) | Apparatus and method for rendering image data using sphere splating and computer readable media for storing computer program | |
JP5460635B2 (en) | Image processing determination device | |
CN106796719B (en) | Remote recognition image generating apparatus and operation method thereof | |
JP2012510676A (en) | Method and system for browsing visual content displayed in a virtual three-dimensional space | |
CN102074025B (en) | Image stylized drawing method and device | |
KR101978271B1 (en) | A method for modifying an image to compensate perspective effect and a device thereof | |
US9846819B2 (en) | Map image display device, navigation device, and map image display method | |
JP5111897B2 (en) | Filtering method and apparatus | |
JPWO2014020801A1 (en) | Image processing apparatus and image processing method | |
KR102317652B1 (en) | Contents information providing apparatus identifying from a distance | |
KR101086443B1 (en) | Auto generation system for 3D road pattern | |
CN111052110A (en) | Method, apparatus and computer program for overlaying a webpage on a 3D object | |
Wang et al. | Enhancing Perception of Risk Objects for Car Drivers Through Augmented Reality Glasses | |
CN116793382B (en) | Lane navigation information display method and device, electronic equipment and storage medium | |
JP6247456B2 (en) | Navigation device and map drawing method | |
WO2016024375A1 (en) | Image processing device and image processing method | |
US20240135706A1 (en) | Method, image processing apparatus, and system for generating road image by using two-dimensional map data | |
Wang et al. | Visualizing risk areas using augmented reality glasses as advanced driver-assistance system | |
JP2005151080A (en) | Stereoscopic image display | |
JP2006331062A (en) | Solid image generation method and solid image generation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220629 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220929 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230103 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7360379 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |