JP7360379B2 - Image correction method and device compatible with perspective - Google Patents

Image correction method and device compatible with perspective Download PDF

Info

Publication number
JP7360379B2
JP7360379B2 JP2020509406A JP2020509406A JP7360379B2 JP 7360379 B2 JP7360379 B2 JP 7360379B2 JP 2020509406 A JP2020509406 A JP 2020509406A JP 2020509406 A JP2020509406 A JP 2020509406A JP 7360379 B2 JP7360379 B2 JP 7360379B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
length
divided
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020509406A
Other languages
Japanese (ja)
Other versions
JP2020518931A (en
JP2020518931A5 (en
Inventor
ドン-ヤン シン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2020518931A publication Critical patent/JP2020518931A/en
Publication of JP2020518931A5 publication Critical patent/JP2020518931A5/ja
Application granted granted Critical
Publication of JP7360379B2 publication Critical patent/JP7360379B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/80
    • G06T3/073
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/04
    • G06T3/153
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Description

本発明は、遠近法に対応したイメージ補正方法および前記方法を実行するための装置に関し、具体的には、与えられた対象イメージに対して向上した判読性(legibility)を提供することができるように前記対象イメージを変換できるイメージ補正方法および装置に関する。 The present invention relates to a perspective-aware image correction method and an apparatus for carrying out the method, and in particular to a perspective-aware image correction method capable of providing improved legibility for a given target image. The present invention relates to an image correction method and apparatus capable of converting the target image into an image.

図1は、従来の路面標示の利用例を示す。
路面標示は、道路上の路面に車両運行の安全および円滑のためにペイント、塗料などを用いて表示することをいう。その内容は、中央線、横断歩道などのように車両運行の規範に関する標識から、「徐行」、「スクールゾーン」などのように叙述型に記載された標識まで様々である。
FIG. 1 shows an example of the use of conventional road markings.
Road markings refer to markings made with paint, paint, etc. on the road surface for the purpose of safe and smooth vehicle operation. The content varies from signs regarding vehicle operation standards, such as the central line and crosswalks, to descriptive signs such as ``slow speed'' and ``school zone.''

このような路面標示は、運転者に運行上の情報や交通安全に必要な注意内容などのように様々な情報を提供することができるため、現在、車両が運行中の道路上で多く使われているのが実情である。 These road markings are now widely used on roads where vehicles are in operation, as they can provide drivers with a variety of information, such as driving information and warnings necessary for traffic safety. The reality is that

しかし、実際に車両の運転者が車両内で道路上の路面標示を眺める場合、運転者の視野角や路面標示との距離などに応じて遠近法による歪み現象が発生しうる。特に観察視点から遠くなるほどイメージの幅、特に縦幅が次第に狭くなって集まってしまう視覚的歪みが発生しうる。よって、このような視覚的歪みにより路面標示の判読性が落ちるという問題がある。 However, when a vehicle driver actually looks at road markings on a road inside the vehicle, perspective distortion may occur depending on the driver's viewing angle, the distance from the road markings, and the like. In particular, visual distortion may occur in which the width of the image, especially the vertical width, becomes narrower and more concentrated as the distance from the observation viewpoint increases. Therefore, there is a problem in that the legibility of road markings deteriorates due to such visual distortion.

特に韓国の路面標示の場合、アルファベットに比べて、終声になる子音や激音文字などの使用で文字イメージの構造が複雑である。そこで、運転者は、遠近法による視覚的歪みにより、遠距離から路面標示を判読することができないかまたは誤読する場合がある。このような現象は、1行からなる路面標示からも見られるが、2行あるいは2行以上からなる路面標示が提供される場合にさらに多く発生しうる。 In particular, in the case of road markings in South Korea, the structure of the character image is more complex than that of the alphabet due to the use of final consonants and hard-sounding characters. Therefore, a driver may be unable to read or misread road markings from a long distance due to visual distortions caused by perspective. Although such a phenomenon can be seen even with road markings consisting of one line, it may occur more frequently when road markings consisting of two or more lines are provided.

このような問題を解決するために、従来技術においては、運転者が眺める方向に沿って路面標示の長さを単純に伸ばして配置することによって判読性を確保するのが一般的であった。 In order to solve this problem, in the prior art, it has been common practice to ensure legibility by simply extending the length of road markings along the direction in which the driver views them.

しかし、路面標示の調整の具体的な事項や程度などが施工者の主観的な判断基準と施工便宜性などによって定められる場合が多いため、判読性の改善効果が不十分であり、一貫した改善効果を提供し難かった。 However, because the specific matters and extent of road marking adjustments are often determined based on the contractor's subjective judgment criteria and construction convenience, the effect of improving legibility is insufficient, and consistent improvements cannot be made. It was difficult to provide any effect.

特に、従来技術においては、路面標示の長さを運転者が眺める方向に沿って全体的に同一の比率で伸ばすだけであったため、運転者の視野で見る時、視野から遠方に位置する横画の厚さは薄く見え、視野から近方に位置する横画の厚さは厚く見えるという問題は依然として存在していた。よって、速く走る自動車内で路面標示の意味を瞬間的に把握するのが難しく、その結果、安全を脅かす問題につながることになった。 In particular, in the conventional technology, the length of road markings was simply extended at the same ratio overall along the direction in which the driver views them, so when viewed from the driver's field of view, horizontal markings located far from the driver's field of vision There still existed the problem that the thickness of the image appeared to be thin, and the thickness of the horizontal image located near the field of view appeared to be thick. Therefore, it is difficult to instantly understand the meaning of road markings in a fast-moving car, which leads to problems that threaten safety.

このような問題は、単に道路上に表示された路面標示だけの問題ではない。最近、ポータルサイトなどで多く使われているストリートビューなどでも問題になる。図3は、グーグルのストリートビューをキャプチャーした画面である。画面では、道路上のストリート名を表示するためにストリートビュー上に「Meadowlands Pkwy」という文字をコンピュータ作業により加えた。しかし、ストリートビューのユーザにさらに現実的な感じを提供するための目的で遠近法を適用して加えたため、図面で確認できるように、視点から遠くなるほど顕著に判読性が悪化していることが分かる。 These problems are not just problems with road markings displayed on roads. This is also a problem with Street View, which is often used on portal sites these days. Figure 3 is a screenshot of Google Street View. On the screen, the words ``Meadowlands Pkwy'' were added to the street view using a computer to display the street name on the road. However, as we added perspective to provide a more realistic feel to Street View users, as you can see in the drawing, the legibility deteriorates noticeably the further away you are from the viewpoint. I understand.

図2を参照し、これについて図式的に説明すれば以下のとおりである。 Referring to FIG. 2, this will be schematically explained as follows.

図2aは、地面より一定高さに位置した視点から眺めた状態を示す。図面上、HLで表示された線は互いに平行に等間隔に配置された水平な線を示し、VLで表示された線も互いに平行に等間隔に配置された垂直な線を示しており、各々の線VLは各々の線HLと直交する。 FIG. 2a shows the situation viewed from a viewpoint located at a certain height above the ground. In the drawings, lines marked HL indicate horizontal lines arranged parallel to each other at equal intervals, and lines marked VL also indicate vertical lines arranged parallel to each other at equal intervals. The line VL is orthogonal to each line HL.

しかし、遠近法により、図示されたように、離隔した距離から地面を見下ろせば、垂直線VLは無限に位置した消失点に向かって集まるように見え、視点から遠くなるほど隣接した垂直線間の間隔が狭くなるように見える。水平線HLも視点から遠くなるほど隣接した水平線間の間隔が次第に狭くなるように見える。よって、例えば、図2の長方形10内に文字や記号を同一の大きさで配置すると仮定する場合、視点からより遠くなるほど判読性が顕著に悪化していくことが分かる。 However, due to perspective, if you look down at the ground from a distance, as shown in the figure, the vertical lines VL will appear to converge toward an infinitely located vanishing point, and the farther you are from the viewpoint, the greater the distance between adjacent vertical lines. appears to be narrowing. The distance between adjacent horizon lines HL also appears to become narrower as the distance from the viewpoint increases. Therefore, for example, if it is assumed that characters and symbols are arranged in the same size within the rectangle 10 in FIG. 2, it can be seen that legibility deteriorates significantly as the distance from the viewpoint increases.

また、コンピュータ・ゲーム(例えば、レーシングゲーム)や拡張現実(AR;Augmented Reality)、仮想現実(VR;Virtual Reality)などにおいても遠近法を適用して文字や記号を表現する場合に判読性が悪化するという問題が発生しうる。 Furthermore, in computer games (e.g. racing games), augmented reality (AR), virtual reality (VR), etc., legibility deteriorates when perspective is applied to express characters and symbols. A problem may arise.

図2bは、上面、底面、左右側面の4個の面を含む空間を示す。VRやARなどでは、前述した路面標示などの例のように底面のみにグラフィック(標示)が加えられるのではなく、左右側面や上面にもグラフィックが加えられる。この場合にも、例えば、左側面に文字が加えられる場合にも、遠近法による歪み現象が発生しうることを図2bから知ることができる。 FIG. 2b shows a space including four surfaces: a top surface, a bottom surface, and left and right side surfaces. In VR, AR, etc., graphics (signs) are not only added to the bottom surface as in the example of road markings mentioned above, but also to the left and right sides and the top surface. It can be seen from FIG. 2b that perspective distortion phenomena can also occur in this case, for example if characters are added to the left side.

したがって、路面標示などのように、一定の表面に表示されて所定の情報を提供する様々なイメージを構成するにおいて、一貫し且つ容易なイメージ補正方法を提供すると共に、周辺環境との調和をなし且つ改善された判読性を提供することができるイメージ生成装置およびその動作方法が求められる。 Therefore, in composing various images displayed on a certain surface and providing predetermined information, such as road markings, it is possible to provide a consistent and easy image correction method, and to achieve harmony with the surrounding environment. What is needed is an image generation device and method of operation that can provide improved legibility.

一方、前記のような問題を解決するために、大韓民国特許公報第10-1668802号は、遠距離識別イメージ生成装置の動作方法について開示している。 Meanwhile, in order to solve the above problems, Korean Patent Publication No. 10-1668802 discloses a method of operating a long-distance identification image generation device.

具体的には、前記特許公報においては、
(a)少なくとも一つの文字を含む第1イメージを提供するステップと、
(b)前記第1イメージに対する視点情報を反映して逆遠近法を適用することによって、前記第1イメージの比率が変更された第2イメージを生成するステップと(前記視点情報は前記第1イメージに対する視線方向および視野角のうち少なくとも一つに関する情報を含む)、
(c)前記第1イメージの第1参照点の座標および前記第1参照点に対応する前記第2イメージの第2参照点の座標を抽出するステップと(前記第1参照点の座標は前記文字のうち少なくとも一つに基づいて抽出される)、
(d)前記第1参照点の座標のうち少なくとも一つの値と前記第1参照点に対応する前記第2参照点の座標のうち少なくとも一つの値とを比較して、前記第1参照点により分割される基準領域のうち少なくとも一部を前記視線方向に沿って拡大または縮小させることによって、前記第1イメージを変換するステップを含み、ここで、
(e)前記第2イメージを生成するステップは、前記第1イメージを3次元イメージに変換するステップと、および前記視点情報を反映して、前記3次元イメージに変換された前記第1イメージを所定の回転軸を中心に前記視線方向に向かって所定の回転角だけ回転させ、平面イメージを抽出することによって、前記第2イメージを生成するステップを含むことを特徴とする動作方法を開示する。
Specifically, in the patent publication,
(a) providing a first image including at least one character;
(b) generating a second image in which the ratio of the first image is changed by reflecting viewpoint information on the first image and applying reverse perspective; (including information regarding at least one of the line of sight direction and viewing angle),
(c) extracting the coordinates of a first reference point of the first image and the coordinates of a second reference point of the second image that corresponds to the first reference point; (extracted based on at least one of the following),
(d) comparing at least one value of the coordinates of the first reference point and at least one value of the coordinates of the second reference point corresponding to the first reference point; transforming the first image by enlarging or reducing at least a portion of the reference region to be divided along the viewing direction;
(e) The step of generating the second image includes the step of converting the first image into a three-dimensional image, and the step of converting the first image converted into the three-dimensional image into a predetermined image by reflecting the viewpoint information. Disclosed is an operating method characterized by comprising the step of generating the second image by rotating the second image by a predetermined rotation angle in the viewing direction around the rotation axis of the second image and extracting a planar image.

しかし、前記方法では、第1イメージを3次元イメージに変換させ、回転軸を中心にそれを回転させた後、再び平面イメージを抽出する過程と、第1イメージと第2イメージの参照点座標を抽出する過程を必要としている。 However, the method involves converting the first image into a three-dimensional image, rotating it around the rotation axis, and then extracting the plane image again, and determining the reference point coordinates of the first image and the second image. It requires a process of extraction.

本発明は、前記のような問題を解決して、イメージを回転させる過程や別途の参照点を抽出する過程がなくても、一貫し且つ容易なイメージ補正方法を提供すると共に改善された判読性を提供することができるイメージ補正方法および装置を提供する。 The present invention solves the above-mentioned problems and provides a consistent and easy image correction method without the need for rotating an image or extracting a separate reference point, and also provides improved legibility. Provided are an image correction method and apparatus capable of providing.

本発明の一つの実施形態により、イメージ補正方法であって、第1イメージを提供するステップと、前記第1イメージを眺める視点情報を提供するステップと、前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含む、イメージ生成方法が提供される。 According to an embodiment of the present invention, an image correction method includes the steps of: providing a first image; providing viewpoint information for viewing the first image; dividing the first image into two or more divided images; and converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images; An image generation method is provided that includes providing a transformed second image.

他の一つの実施形態においては、前記視点情報が、前記視点の位置を第1イメージに対して特定できる情報を含む。 In another embodiment, the viewpoint information includes information that allows the position of the viewpoint to be specified with respect to the first image.

他の一つの実施形態においては、前記視点情報が、前記第1イメージが位置する平面から視点までの視点高さ、前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離、前記第1イメージの視点側端部での視野角、前記第1イメージの視点反対側端部での視野角、前記視点から前記第1イメージの視点側端部までの視線長さ、前記視点から前記第1イメージの視点反対側端部までの視線長さ、前記第1イメージの視点角のうち2個以上を含む。 In another embodiment, the viewpoint information includes a viewpoint height from a plane on which the first image is located to the viewpoint, and a height from the point where the viewpoint is projected onto the plane on which the first image is located. A viewpoint distance from the viewpoint side end of one image, a viewing angle at the viewpoint side end of the first image, a viewing angle at the opposite end of the viewpoint of the first image, and a viewpoint from the viewpoint to the first image. It includes two or more of the following: a line-of-sight length to a side edge, a line-of-sight length from the viewpoint to an end opposite to the viewpoint of the first image, and a viewpoint angle of the first image.

他の一つの実施形態においては、前記第1イメージから変換された第2イメージを提供するステップが、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含む。 In another embodiment, the step of providing a second image transformed from the first image includes determining a field of view length for each divided image based on the viewpoint information and the vertical length of each of the divided images. and determining a transformation length for each divided image from the field of view length.

他の一つの実施形態においては、前記視野長さから各々の分割イメージに対する変換長さを求めるステップが、全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように、各々の分割イメージに対する変換長さを求めるステップを含む。ここで、nは分割イメージの総個数である。 In another embodiment, the step of calculating the transform length for each divided image from the field of view length may be such that the ratio of the transform length of the i-th divided image to the total transform length is the total field of view length. The method includes the step of determining a transformation length for each divided image so that the ratio of the field of view length of the ni+1th divided image among the divided images is the same as that of the field of view length. Here, n is the total number of divided images.

他の一つの実施形態においては、前記視野長さから各々の分割イメージに対する変換長さを求めるステップが、以下の変換式数1を用いて、i番目分割イメージの変換長さyを求めるステップを含む In another embodiment, the step of calculating the transform length for each divided image from the field of view length is the step of calculating the transform length y i of the i-th divided image using the following conversion formula Equation 1. including

Figure 0007360379000001
ここで、hはi番目分割イメージの視野長さ、nは分割イメージの総個数、Tは対象イメージの全体長さである。
Figure 0007360379000001
Here, h i is the visual field length of the i-th divided image, n is the total number of divided images, and T is the total length of the target image.

他の一つの実施形態においては、前記視野長さを求めるステップが、視野長さの算出式によって視野長さを求めるステップであって、i番目分割イメージに対する視野長さhの算出式は以下の数2である。 In another embodiment, the step of calculating the visual field length is a step of calculating the visual field length using a visual field length calculation formula, and the visual field length h i for the i-th divided image is calculated as follows. The number is 2.

Figure 0007360379000002
ここで、Sは視点から焦点までの視線長さであり、θはi番目分割イメージの視線反対側端部での視野角であり、θは1番目分割イメージの視線側端部での視野角であり、θは焦点での視野角である、視野長さの算出式によって視野長さを求めるステップを含む。
Figure 0007360379000002
Here, S is the line-of-sight length from the viewpoint to the focal point, θ i is the viewing angle at the end of the i-th divided image on the opposite side of the line-of-sight, and θ 0 is the viewing angle at the end of the first divided image on the side of the line-of-sight. The method includes the step of determining the visual field length using a visual field length calculation formula, where θ f is the visual angle at the focal point.

他の一つの実施形態においては、前記視野長さを求めるステップが、視野長さの算出式によって視野長さを求めるステップであって、i番目分割イメージに対する視野長さhの算出式は以下の数3である。 In another embodiment, the step of calculating the visual field length is a step of calculating the visual field length using a visual field length calculation formula, and the visual field length h i for the i-th divided image is calculated as follows. The number is 3.

であ、ここで、Rは視点から対象イメージの視点側端部までの視線長さであり、θはi番目分割イメージの視点反対側端部での視野角であり、θは1番目分割イメージの視線側端部での視野角である、視野長さの算出式によって視野長さを求めるステップを含む。 Here, R is the line-of-sight length from the viewpoint to the end of the target image on the viewpoint side, θ i is the viewing angle at the end of the i-th divided image opposite to the viewpoint, and θ 0 is the length of the line of sight from the viewpoint to the end of the target image on the viewpoint side. The method includes the step of determining the visual field length using a visual field length calculation formula, which is the visual angle at the line-of-sight side end of the divided image.

他の一つの実施形態においては、前記第1イメージから変換された第2イメージを提供するステップが、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求めるステップと、前記視点角から各々の分割イメージに対する変換長さを求めるステップを含む。 In another embodiment, the step of providing a second image transformed from the first image includes determining a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images. and determining a transformation length for each divided image from the viewpoint angle.

他の一つの実施形態においては、前記各々の分割イメージに対する視点角を求めるステップが、各々の分割イメージに対する視点角間の比率と各々の分割イメージの縦長さ間の比率が互いに同一であるように、各々の分割イメージに対して視点角を求めるステップを含む。 In another embodiment, the step of determining the viewpoint angle for each divided image includes the step of determining the viewpoint angle for each divided image such that the ratio between the viewpoint angles for each divided image and the ratio between the vertical lengths of each divided image are the same. The method includes the step of determining a viewpoint angle for each divided image.

他の一つの実施形態においては、前記各々の分割イメージに対する視点角を求めるステップが、以下の変換式数4を用いて、i番目分割イメージに対する視点角αを求めるステップを含む。 In another embodiment, the step of determining the viewpoint angle for each divided image includes the step of determining the viewpoint angle α i for the i-th divided image using the following conversion equation (4).

Figure 0007360379000004
ここで、Tは対象イメージの全体縦長さ、nは分割イメージの総個数、aはi番目分割イメージの縦長さ、θは1番目分割イメージの視線側端部での視野角、θはn番目分割イメージの視線反対側端部での視野角である。
Figure 0007360379000004
Here, T is the overall vertical length of the target image, n is the total number of divided images, a i is the vertical length of the i-th divided image, θ 0 is the viewing angle at the line-of-sight side end of the first divided image, θ n is the viewing angle at the end of the n-th divided image on the opposite side of the line of sight.

他の一つの実施形態においては、前記各々の分割イメージに対する変換長さを求めるステップが、以下の変換式数5を用いて、i番目分割イメージの変換長さyを求めるステップを含む。 In another embodiment, the step of determining the transform length for each divided image includes the step of determining the transform length y i of the i-th divided image using the following transformation equation (5).

Figure 0007360379000005
ここで、Hは前記第1イメージが位置する平面から視点までの視点高さ、Lは前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離である。
Figure 0007360379000005
Here, H is the viewpoint height from the plane where the first image is located to the viewpoint, and L is the viewpoint side end of the first image from the point where the viewpoint is projected onto the plane where the first image is located. This is the viewing distance.

本発明の他の一つの実施形態により、コンピュータ読み取り可能な命令語を含むコンピュータ読み取り可能なメモリであって、前記命令語は、コンピュータ上で実行される時、前記コンピュータが、第1イメージを提供する動作、前記第1イメージを眺める視点情報を提供する動作、前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割する動作、および前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供する動作を含む動作を実行するようにする、コンピュータ読み取り可能なメモリが提供される。 According to another embodiment of the invention, a computer readable memory includes computer readable instructions, the instructions, when executed on a computer, cause the computer to provide a first image. an operation of providing viewpoint information for viewing the first image; an operation of dividing the first image into two or more divided images along a lateral direction of the first image; and an operation of dividing the first image into two or more divided images, and the two or more divided images. and converting each of the divided images based on the viewpoint information and the vertical length of each of the divided images, the computer-readable method is configured to perform an act that includes providing a second image that is transformed from a first image. memory is provided.

他の一つの実施形態においては、前記視点情報が、前記視点の位置を第1イメージに対して特定できる情報を含む。 In another embodiment, the viewpoint information includes information that allows the position of the viewpoint to be specified with respect to the first image.

他の一つの実施形態においては、前記視点情報が、前記第1イメージが位置する平面から視点までの視点高さ、前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離、前記第1イメージの視点側端部での視野角、前記第1イメージの視点反対側端部での視野角、前記視点から前記第1イメージの視点側端部までの視線長さ、前記視点から前記第1イメージの視点反対側端部までの視線長さ、前記第1イメージの視点角のうち2個以上を含む。 In another embodiment, the viewpoint information includes a viewpoint height from a plane on which the first image is located to the viewpoint, and a height from the point where the viewpoint is projected onto the plane on which the first image is located. A viewpoint distance from the viewpoint side end of one image, a viewing angle at the viewpoint side end of the first image, a viewing angle at the opposite end of the viewpoint of the first image, and a viewpoint from the viewpoint to the first image. It includes two or more of the following: a line-of-sight length to a side edge, a line-of-sight length from the viewpoint to an end opposite to the viewpoint of the first image, and a viewpoint angle of the first image.

他の一つの実施形態においては、前記第1イメージから変換された第2イメージを提供する動作が、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求める動作、および前記視野長さから各々の分割イメージに対する変換長さを求める動作を含む。 In another embodiment, the act of providing a second image transformed from the first image includes determining a field of view length for each divided image based on the viewpoint information and the vertical length of each of the divided images. and an operation of determining a transformation length for each divided image from the field of view length.

他の一つの実施形態においては、全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように、前記視野長さから各々の分割イメージに対する変換長さを求める動作が各々の分割イメージに対する変換長さを求める動作を含む。ここで、nは分割イメージの総個数である。 In another embodiment, the ratio of the transform length of the i-th divided image to the total transform length is the same as the ratio of the field-of-view length of the ni+1-th divided image to the total field-of-view length. As described above, the operation of determining the transform length for each divided image from the field of view length includes the operation of determining the transform length for each divided image. Here, n is the total number of divided images.

他の一つの実施形態においては、前記視野長さから各々の分割イメージに対する変換長さを求める動作が、以下の変換式数6を用いて、i番目分割イメージの変換長さyを求める動作を含む。 In another embodiment, the operation of calculating the transform length for each divided image from the field of view length is the operation of calculating the transform length y i of the i-th divided image using the following conversion formula Equation 6. including.

Figure 0007360379000006
ここで、hはi番目分割イメージの視野長さ、nは分割イメージの総個数、Tは対象イメージの全体長さである。
Figure 0007360379000006
Here, h i is the visual field length of the i-th divided image, n is the total number of divided images, and T is the total length of the target image.

他の一つの実施形態においては、前記視野長さを求める動作が、視野長さの算出式によって視野長さを求める動作であって、i番目分割イメージに対する視野長さhの算出式は以下の数7である、視野長さの算出式によって視野長さを求めるステップを含む。 In another embodiment, the operation of calculating the field of view length is an operation of calculating the field of view length using a calculation formula for the field of view length, and the calculation formula for the field of view length h i for the i-th divided image is as follows. The method includes the step of determining the visual field length using the visual field length calculation formula, which is Equation 7.

Figure 0007360379000007
ここで、Sは視点から焦点までの視線長さであり、θはi番目分割イメージの視線反対側端部での視野角であり、θは1番目分割イメージの視線側端部での視野角であり、θは焦点での視野角である。
Figure 0007360379000007
Here, S is the line-of-sight length from the viewpoint to the focal point, θ i is the viewing angle at the end of the i-th divided image on the opposite side of the line-of-sight, and θ 0 is the viewing angle at the end of the first divided image on the side of the line-of-sight. is the viewing angle, and θ f is the viewing angle at the focal point.

他の一つの実施形態においては、前記視野長さを求める動作が、視野長さの算出式によって視野長さを求める動作であって、i番目分割イメージに対する視野長さhの算出式は以下の数8である、視野長さの算出式によって視野長さを求める動作を含む。 In another embodiment, the operation of calculating the field of view length is an operation of calculating the field of view length using a calculation formula for the field of view length, and the calculation formula for the field of view length h i for the i-th divided image is as follows. This includes the operation of calculating the field of view length using the formula for calculating the field of view length, which is number 8.

Figure 0007360379000008
ここで、Rは視点から対象イメージの視点側端部までの視線長さであり、θはi番目分割イメージの視点反対側端部での視野角であり、θは1番目分割イメージの視線側端部での視野角である。
Figure 0007360379000008
Here, R is the line-of-sight length from the viewpoint to the end of the target image on the viewpoint side, θ i is the viewing angle at the end opposite to the viewpoint of the i-th divided image, and θ 0 is the viewing angle of the ith divided image at the opposite end of the viewpoint. This is the viewing angle at the line-of-sight side end.

他の一つの実施形態においては、前記第1イメージから変換された第2イメージを提供する動作が、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求める動作、および前記視点角から各々の分割イメージに対する変換長さを求める動作を含む。 In another embodiment, the act of providing a second image transformed from the first image determines a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images. and an operation of determining the transformation length for each divided image from the viewpoint angle.

他の一つの実施形態においては、前記各々の分割イメージに対する視点角を求める動作が、各々の分割イメージに対する視点角間の比率と各々の分割イメージの縦長さ間の比率が互いに同一であるように、各々の分割イメージに対して視点角を求める動作を含む。 In another embodiment, the operation of determining the viewpoint angle for each divided image is performed such that the ratio between the viewpoint angles for each divided image and the ratio between the vertical lengths of each divided image are the same. This includes the operation of determining the viewpoint angle for each divided image.

他の一つの実施形態においては、前記各々の分割イメージに対する視点角を求める動作が、以下の変換式数9を用いて、i番目分割イメージに対する視点角αを求める動作を含む。 In another embodiment, the operation of determining the viewpoint angle for each divided image includes the operation of determining the viewpoint angle α i for the i-th divided image using the following conversion equation (9).

Figure 0007360379000009
ここで、Tは対象イメージの全体縦長さ、nは分割イメージの総個数、aはi番目分割イメージの縦長さ、θは1番目分割イメージの視線側端部での視野角、θはn番目分割イメージの視線反対側端部での視野角である。
Figure 0007360379000009
Here, T is the overall vertical length of the target image, n is the total number of divided images, a i is the vertical length of the i-th divided image, θ 0 is the viewing angle at the line-of-sight side end of the first divided image, θ n is the viewing angle at the end of the n-th divided image on the opposite side of the line of sight.

他の一つの実施形態においては、前記各々の分割イメージに対する変換長さを求める動作が、以下の変換式数10を用いて、i番目分割イメージの変換長さyを求める動作を含む。 In another embodiment, the operation of determining the transform length for each divided image includes the operation of determining the transform length y i of the i-th divided image using the following transformation equation (10).

Figure 0007360379000010
ここで、Hは前記第1イメージが位置する平面から視点までの視点高さ、Lは前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離である。
Figure 0007360379000010
Here, H is the viewpoint height from the plane where the first image is located to the viewpoint, and L is the viewpoint side end of the first image from the point where the viewpoint is projected onto the plane where the first image is located. This is the viewing distance.

本発明の更なる他の一つの実施形態により、イメージ補正装置であって、第1イメージおよび前記第1イメージを眺める視点情報を入力できるように構成された入力部、並びに前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割し、前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、前記第1イメージを第2イメージに変換させるように構成されるイメージ変換部を含む、イメージ補正装置が提供される。 According to yet another embodiment of the present invention, the image correction device includes an input unit configured to input a first image and viewpoint information for viewing the first image, and a side view of the first image. dividing the first image into two or more divided images along a direction, and converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images; An image correction apparatus is provided that includes an image converter configured to convert a first image into a second image.

他の一つの実施形態においては、前記イメージ補正装置が、変換された第2イメージを出力できるように構成された出力部をさらに含む。 In another embodiment, the image correction device further includes an output unit configured to output the transformed second image.

他の一つの実施形態においては、前記視点情報が、前記視点の位置を第1イメージに対して特定できる情報を含む。 In another embodiment, the viewpoint information includes information that allows the position of the viewpoint to be specified with respect to the first image.

他の一つの実施形態においては、前記視点情報が、前記第1イメージが位置する平面から視点までの視点高さ、前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離、前記第1イメージの視点側端部での視野角、前記第1イメージの視点反対側端部での視野角、前記視点から前記第1イメージの視点側端部までの視線長さ、前記視点から前記第1イメージの視点反対側端部までの視線長さ、前記第1イメージの視点角のうち2個以上を含む。 In another embodiment, the viewpoint information includes a viewpoint height from a plane on which the first image is located to the viewpoint, and a height from the point where the viewpoint is projected onto the plane on which the first image is located. A viewpoint distance from the viewpoint side end of one image, a viewing angle at the viewpoint side end of the first image, a viewing angle at the opposite end of the viewpoint of the first image, and a viewpoint from the viewpoint to the first image. It includes two or more of the following: a line-of-sight length to a side edge, a line-of-sight length from the viewpoint to an end opposite to the viewpoint of the first image, and a viewpoint angle of the first image.

他の一つの実施形態においては、前記イメージ変換部が、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求め、前記視野長さから各々の分割イメージに対する変換長さを求めることによって、前記第1イメージを第2イメージに変換させるように構成される。 In another embodiment, the image conversion unit calculates a visual field length for each divided image based on the viewpoint information and the vertical length of each divided image, and calculates the visual field length for each divided image from the visual field length. The first image is configured to be transformed into a second image by determining a transformation length for the image.

他の一つの実施形態においては、前記イメージ変換部が、全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように、各々の分割イメージに対する変換長さを求めるように構成される。ここで、nは分割イメージの総個数である。 In another embodiment, the image conversion unit is configured such that the ratio of the conversion length of the i-th divided image to the total conversion length is equal to the visual field length of the n−i+1st divided image of the total visual field length. The transform length for each divided image is determined such that the ratio occupied by the split image is the same as that of the split image. Here, n is the total number of divided images.

他の一つの実施形態においては、前記イメージ変換部が、以下の変換式数11を用いて、i番目分割イメージの変換長さyを求めるように構成される。 In another embodiment, the image transformation unit is configured to obtain the transformation length y i of the i-th divided image using the following transformation equation (11).

Figure 0007360379000011
ここで、hはi番目分割イメージの視野長さ、nは分割イメージの総個数、Tは対象イメージの全体長さである。
Figure 0007360379000011
Here, h i is the visual field length of the i-th divided image, n is the total number of divided images, and T is the total length of the target image.

他の一つの実施形態においては、前記イメージ変換部が、視野長さの算出式によって視野長さを求めるように構成される。ここで、i番目分割イメージに対する視野長さhの算出式は以下の数12である。

Figure 0007360379000012
Sは視点から焦点までの視線長さであり、θはi番目分割イメージの視線反対側端部での視野角であり、θは1番目分割イメージの視線側端部での視野角であり、θは焦点での視野角である。 In another embodiment, the image conversion unit is configured to calculate the visual field length using a visual field length calculation formula. Here, the formula for calculating the visual field length h i for the i-th divided image is the following Equation 12.
Figure 0007360379000012
S is the line-of-sight length from the viewpoint to the focal point, θ i is the viewing angle at the end of the i-th divided image on the opposite side of the line-of-sight, and θ 0 is the viewing angle at the end of the first divided image on the side of the line-of-sight. , and θ f is the viewing angle at the focal point.

他の一つの実施形態においては、前記イメージ変換部が、視野長さの算出式によって視野長さを求めるように構成される。ここで、i番目分割イメージに対する視野長さhの算出式は以下の数13である。 In another embodiment, the image conversion unit is configured to calculate the visual field length using a visual field length calculation formula. Here, the formula for calculating the visual field length h i for the i-th divided image is the following equation 13.

Figure 0007360379000013
Rは視点から対象イメージの視点側端部までの視線長さであり、θはi番目分割イメージの視点反対側端部での視野角であり、θは1番目分割イメージの視線側端部での視野角である。
Figure 0007360379000013
R is the line-of-sight length from the viewpoint to the end of the target image on the view-side side, θ i is the viewing angle at the end opposite to the viewpoint of the i-th divided image, and θ 0 is the line-of-sight end of the first divided image This is the viewing angle in the area.

他の一つの実施形態においては、前記イメージ変換部が、前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求め、前記視点角から各々の分割イメージに対する変換長さを求めることによって、前記第1イメージを第2イメージに変換させるように構成される。 In another embodiment, the image conversion unit determines a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images, and calculates a viewpoint angle for each divided image from the viewpoint angle. The first image is configured to be transformed into a second image by determining a transform length.

他の一つの実施形態においては、前記イメージ変換部が、各々の分割イメージに対する視点角間の比率と各々の分割イメージの縦長さ間の比率が互いに同一であるように、各々の分割イメージに対して視点角を求めるように構成される。 In another embodiment, the image conversion unit converts each divided image so that a ratio between viewpoint angles and a ratio between vertical lengths of each divided image are the same. It is configured to find the viewing angle.

他の一つの実施形態においては、前記イメージ変換部が、以下の変換式数14を用いて、i番目分割イメージに対する視点角αを求めるように構成される。 In another embodiment, the image conversion unit is configured to obtain the viewpoint angle α i for the i-th divided image using the following conversion equation (14).

Figure 0007360379000014
ここで、Tは対象イメージの全体縦長さ、nは分割イメージの総個数、aはi番目分割イメージの縦長さ、θは1番目分割イメージの視線側端部での視野角、θはn番目分割イメージの視線反対側端部での視野角である。
Figure 0007360379000014
Here, T is the overall vertical length of the target image, n is the total number of divided images, a i is the vertical length of the i-th divided image, θ 0 is the viewing angle at the line-of-sight side end of the first divided image, θ n is the viewing angle at the end of the n-th divided image on the opposite side of the line of sight.

他の一つの実施形態においては、前記イメージ変換部が、以下の変換式数15を用いて、i番目分割イメージの変換長さyを求めるように構成される。 In another embodiment, the image transformation unit is configured to obtain the transformation length y i of the i-th divided image using the following transformation equation (15).

ここで、Hは前記第1イメージが位置する平面から視点までの視点高さ、Lは前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離である。 Here, H is the viewpoint height from the plane where the first image is located to the viewpoint, and L is the viewpoint side end of the first image from the point where the viewpoint is projected onto the plane where the first image is located. This is the viewing distance.

本発明が提供するイメージ補正方法および装置により、遠距離からイメージを見る時にも遠近法の影響によって判読性が落ちる現象を改善できるようになる。 With the image correction method and apparatus provided by the present invention, it is possible to improve the phenomenon in which legibility deteriorates due to the effect of perspective even when viewing an image from a long distance.

したがって、本発明が道路の路面標示に適用される場合、運転者が今よりさらに遠い距離からも路面標示の判読が可能である。これは差分の距離だけ反応時間を減らせることを意味し、よって、高速移動中にも運転者が速かに判断することを可能にする。また、分岐点などで出口などを逃す現象や遅れた判読により発生しうる無理な割り込みによる交通事故を予防することができる。 Therefore, when the present invention is applied to road markings, it is possible for a driver to read the road markings from a further distance. This means that the reaction time can be reduced by the difference in distance, thus allowing the driver to make quick decisions even when traveling at high speed. Furthermore, it is possible to prevent traffic accidents due to unreasonable interruptions that may occur due to the phenomenon of missing the exit at a junction or the like or delayed interpretation.

また、VRやAR環境に適用すれば、判読性を向上させつつ、遠近法を感じるようにイメージを実現することが可能となる。よって、より快適な環境のVRまたはAR環境を構築することができる。 Furthermore, if applied to VR or AR environments, it will be possible to realize images that give a sense of perspective while improving legibility. Therefore, a more comfortable VR or AR environment can be constructed.

本発明の他の効果は、本発明が属する技術分野における通常の知識を有した者であれば、本発明の明細書に記載された内容から容易に把握することができるであろう。 Other effects of the present invention will be easily understood by those with ordinary knowledge in the technical field to which the present invention pertains from the content described in the specification of the present invention.

従来の路面標示の利用例を示す。An example of the use of conventional road markings is shown.

地面より一定高さに位置した視点から眺めた状態を示す。Shows the state viewed from a viewpoint located at a certain height above the ground.

空間上の視点から空間を眺めた状態を示す。Shows how the space is viewed from a spatial perspective.

グーグルのストリートビューをキャプチャーした画面である。This is a screenshot of Google Street View.

本発明の一実施形態によるイメージ補正方法を概略的に示す。1 schematically illustrates an image correction method according to an embodiment of the invention.

図4の実施形態に対して変形された実施形態を概略的に示す。5 schematically shows an embodiment modified with respect to the embodiment of FIG. 4;

本発明の他の実施形態によるイメージ補正方法を概略的に示す。3 schematically illustrates an image correction method according to another embodiment of the invention.

図6の実施形態に対して変形された実施形態を概略的に示す。7 schematically shows an embodiment modified with respect to the embodiment of FIG. 6;

本発明のまた他の実施形態によるイメージ補正方法を概略的に示す。5 schematically illustrates an image correction method according to another embodiment of the present invention.

対象イメージおよび本発明により変形された変形イメージを示す。4 shows a target image and a deformed image transformed according to the present invention.

図9aの対象イメージおよび変形イメージを一定の視点から眺めた様子を示す。The target image and the deformed image in FIG. 9a are shown viewed from a fixed viewpoint.

対象イメージおよび本発明により変形された変形イメージを示す。4 shows a target image and a deformed image transformed according to the present invention.

図10aの対象イメージおよび変形イメージを一定の視点から眺めた様子を示す。The target image and the deformed image in FIG. 10a are shown viewed from a fixed viewpoint.

空間上の左側面に加えられる対象イメージおよび本発明により変形された変形イメージを一定の視点から眺めた様子を示す。A target image added to the left side in space and a deformed image deformed according to the present invention are shown as viewed from a certain viewpoint.

図3のストリートビューキャプチャー画面(上側図)および本発明によりそれを変換させたイメージ(下側図)を示す。4 shows the street view capture screen of FIG. 3 (top view) and an image converted from it according to the present invention (bottom view).

本発明の一実施形態によるイメージ補正装置の構成を図式的に示す。1 schematically shows the configuration of an image correction device according to an embodiment of the present invention.

以下では、添付図面を参照して本発明の各実施形態によるイメージ生成装置および方法について説明する。 DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Image generation apparatuses and methods according to embodiments of the present invention will be described below with reference to the accompanying drawings.

以下の実施形態は、本発明の理解を助けるための詳細な説明であって、本発明の権利範囲を制限するものではないことを明らかにしておく。よって、本発明と同様の機能を実行する均等な発明も本発明の権利範囲に属するものであろう。 It should be made clear that the following embodiments are detailed explanations to help understand the present invention, and are not intended to limit the scope of the present invention. Therefore, equivalent inventions that perform the same functions as the present invention would also fall within the scope of the present invention.

また、各図面の構成要素に参照符号を付する際、同一の構成要素に対しては他の図面上に表示される時にも可能な限り同一の符号を付するようにしていることに留意しなければならない。また、本発明の説明において、関連の公知の構成または機能に関する具体的な説明が本発明の要旨を不要に不明瞭なものにする恐れがあると判断される場合には、その詳細な説明は省略する。 Also, when assigning reference numerals to the constituent elements of each drawing, it should be noted that the same constituent elements are given the same reference numerals as much as possible when they appear on other drawings. There must be. In addition, in the description of the present invention, if it is determined that specific description of related publicly known configurations or functions may unnecessarily obscure the gist of the present invention, such detailed description shall not be provided. Omitted.

また、本発明の構成要素を説明するにおいて、第1、第2、A、B、(a)、(b)などの用語を用いることができる。このような用語はその構成要素を他の構成要素と区別するためのものに過ぎず、その用語によって該構成要素の本質や手続きまたは順序などが限定されるものではない。ある構成要素が他の構成要素に「連結されて」いるかまたは「接続されて」いると言及された時には、該他の構成要素に直接的に連結されているかまたは接続されていてもよいが、その間に更なる他の構成要素が存在してもよいものとして理解しなければならない。その反面、ある構成要素が他の構成要素に「直接的に連結されて」いるかまたは「直接的に接続されて」いると言及された時には、その間に更なる他の構成要素が存在しないものとして理解しなければならない。構成要素間の関係を説明する他の表現、すなわち、「~の間に」と「直ちに~の間に」または「~に隣接した」と「~に直接的に隣接した」なども同様に解釈しなければならない。 Further, in describing the constituent elements of the present invention, terms such as first, second, A, B, (a), (b), etc. can be used. These terms are used only to distinguish the component from other components, and do not limit the nature, procedure, or order of the component. When a component is referred to as being "coupled" or "connected" to another component, it may be directly coupled or connected to the other component; It is to be understood that further other components may be present in between. On the other hand, when a component is referred to as being "directly coupled" or "directly connected" to another component, it is assumed that there are no additional components in between. Must be understood. Other expressions that describe relationships between components, such as "between" and "immediately between" or "adjacent to" and "directly adjacent to," are interpreted similarly. Must.

また、本出願で用いられた用語は、単に特定の実施形態を説明するために用いられたものであって、本発明を限定しようとするものではない。単数の表現は、文脈上明らかに異なるように意味しない限り複数の表現を含む。本出願において、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとするものであって、一つまたはそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものの存在または付加可能性を予め排除するものではないことを理解しなければならない。 Additionally, the terms used in this application are merely used to describe particular embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "comprising" or "having" are intended to specify the presence of features, numbers, steps, acts, components, parts, or combinations thereof that are described in the specification. It is to be understood that this does not exclude in advance the existence or possibility of addition of one or more other features, figures, steps, operations, components, parts or combinations thereof. .

特に定義しない限り、技術的や科学的な用語を含めてここで用いられる全ての用語は、本発明が属する技術分野における通常の知識を有した者によって一般的に理解されるものと同様の意味を有する。一般的に用いられる辞典に定義されているような用語は関連技術の文脈上有する意味と一致する意味を有するものとして解釈しなければならず、本明細書で明らかに定義しない限り、理想的または過度に形式的な意味として解釈してはならない。 Unless otherwise defined, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention pertains. has. Terms as defined in commonly used dictionaries shall be construed to have meanings consistent with the meanings they have in the context of the relevant art, and unless expressly defined herein, ideal or It should not be interpreted as an overly formal meaning.

本発明において、対象イメージとは、本発明の方法により変形する前に与えられた本来のイメージ(第1イメージ)をいう。このような対象イメージは、例えば、道路の路面に表示される路面標示(スクールゾーン、止まれ、徐行など)のような記号や文字、またはグーグルのストリートビューなどのようにコンピュータ上で挿入される路面標示、仮想現実(Virtual Reality;VR)または拡張現実(Augmented Reality;AR)などで挿入される文字や記号、その他の現実でまたはコンピュータグラフィック上で実現されるイメージを含む。 In the present invention, the target image refers to the original image (first image) given before being transformed by the method of the present invention. Such target images are, for example, symbols and characters such as road markings (school zone, stop, slow down, etc.) displayed on the road surface, or road surfaces inserted on a computer such as Google Street View. This includes signs, characters and symbols inserted in virtual reality (VR) or augmented reality (AR), and other images realized in reality or on computer graphics.

本発明において、変形イメージとは、与えられた対象イメージを本発明が提示する方法により変形したイメージ(第2イメージ)をいう。 In the present invention, a modified image refers to an image (second image) obtained by transforming a given target image using the method presented by the present invention.

本発明において、視点側端部とは、与えられたイメージの最上部、最下部、最左側部、最右側部を各々境界とする長方形を想定した場合、このような長方形の下辺(視点に最も近い辺)の中で視点に最も近い点をいう。本発明において、視点反対側端部とは、前記長方形の上辺の中で視点に最も近い点をいう。例えば、図4において、点Aは対象イメージの(または1番目分割イメージの)視点側端部であり、点Eは対象イメージの(または4番目分割イメージの)視点反対側端部である。 In the present invention, the viewpoint side edge refers to a rectangle whose boundaries are the top, bottom, leftmost, and rightmost parts of a given image. The point closest to the viewpoint among the nearby sides). In the present invention, the end opposite to the viewpoint refers to the point on the upper side of the rectangle that is closest to the viewpoint. For example, in FIG. 4, point A is the end of the target image (or the first divided image) on the viewpoint side, and point E is the end of the target image (or the fourth divided image) on the opposite side of the viewpoint.

本発明において、横方向および縦方向は、前記長方形を基準に見た方向を示す。例えば、図2aおよび2bにおいて、HLは横方向の線を、VLは縦方向の線を示す。 In the present invention, the horizontal direction and the vertical direction refer to directions viewed from the rectangle. For example, in Figures 2a and 2b, HL indicates a horizontal line and VL indicates a vertical line.

本発明において、地面(ground surface)とは、対象イメージが塗布されるかまたはコンピュータグラフィックによって加えられる面をいい、底面に限定されるものではなく、側面や天井面を含めて、いかなる面であってもよい。例えば、図2bのように左側面にグラフィックが加えられる場合には左側面も地面に該当する。 In the present invention, ground surface refers to any surface on which the target image is applied or added by computer graphics, including but not limited to the bottom surface, side surfaces, and ceiling surfaces. It's okay. For example, when a graphic is added to the left side as shown in FIG. 2b, the left side also corresponds to the ground.

本発明において、視線長さとは、視点から該当地点までの距離をいう。例えば、以下に説明される実施形態において、線分OAの長さ、線分OEの長さなどがこれに該当する。 In the present invention, the line-of-sight length refers to the distance from the viewpoint to the relevant point. For example, in the embodiment described below, this applies to the length of line segment OA, the length of line segment OE, etc.

本発明において、視野長さとは、与えられたイメージの視点側端部から視点反対側端部までの縦長さが視点から観測される長さをいう。すなわち、視点から眺める時、遠近法の適用により実際長さより小さく見えるようになる、与えられたイメージの視点側端部から視点反対側端部までの縦長さである。例えば、以下の実施形態において、線分Mの長さまたはhなどがこれに該当する。 In the present invention, the field of view length refers to the vertical length of a given image from the end on the viewpoint side to the end on the opposite side from the viewpoint as observed from the viewpoint. That is, it is the vertical length of a given image from the end on the viewpoint side to the end on the opposite side of the viewpoint, which appears smaller than the actual length due to the application of perspective when viewed from the viewpoint. For example, in the following embodiments, this corresponds to the length of line segment M 1 M 2 or h i .

本発明において、視野角とは、地面上の一地点から視点を眺める角度をいう。例えば、以下に説明される実施形態において、点Aでの視野角はθであり、点Cでの視野角はθである。 In the present invention, the viewing angle refers to the angle at which a viewpoint is viewed from one point on the ground. For example, in the embodiment described below, the viewing angle at point A is θ 0 and the viewing angle at point C is θ 2 .

本発明において、視点角とは、視点から特定イメージを視点側端部から視点反対側端部まで眺める時に形成される角度をいう。例えば、以下に説明される実施形態において、分割イメージ201に対する視点角は∠AOBであり、対象イメージ200全体に対する視点角は∠AOEである。 In the present invention, the viewpoint angle refers to an angle formed when viewing a specific image from a viewpoint from an end on the viewpoint side to an end on the opposite side to the viewpoint. For example, in the embodiment described below, the viewpoint angle for the divided image 201 is ∠AOB, and the viewpoint angle for the entire target image 200 is ∠AOE.

本発明において、視点情報とは、視点の位置を対象イメージに対して特定できるのに十分な情報をいう。例えば、図4において、視点情報は、視点距離L、視点高さH、対象イメージ視点側端部での視野角、対象イメージ視点反対側端部での視野角、対象イメージ視点側端部までの視線長さ、対象イメージ視点反対側端部までの視線長さ、対象イメージに対する視点角のうち2個以上だけ知っていれば、対象イメージに対する視点の相対位置を決定できるようになる。 In the present invention, viewpoint information refers to information sufficient to specify the position of a viewpoint with respect to a target image. For example, in FIG. 4, the viewpoint information includes the viewpoint distance L, the viewpoint height H, the viewing angle at the end of the target image on the viewpoint side, the viewing angle at the end of the target image opposite to the viewpoint, and the distance to the end of the target image on the viewpoint side. If at least two of the line-of-sight length, the line-of-sight length to the opposite end of the target image viewpoint, and the viewpoint angle with respect to the target image are known, the relative position of the viewpoint with respect to the target image can be determined.

本発明において、i番目、j番目などのように順序を示す時には、視点に近い側から1番目、2番目、3番目、...などのように順番を決めることにする。 In the present invention, when indicating an order such as the i-th, j-th, etc., the first, second, third, . .. .. We will decide the order as follows.

本発明においては、道路などの地面上に物理的に直接加えるか、またはコンピュータグラフィックなどで遠近法が感じられるように仮想で加えようとする対象イメージが与えられる場合に、遠近法によって前記対象イメージに対する判読性が悪化するという問題を解決できるように、前記対象イメージを変換させる方法を提案する。 In the present invention, when a target image is given that is to be added physically directly on the ground such as a road or virtually to be added using computer graphics etc. so that perspective can be felt, the target image is We propose a method for converting the target image to solve the problem of poor legibility.

本発明に係る具体的な一実施形態においては、与えられた対象イメージを横方向に沿って一定の個数に分割し、このように分割された各々の分割イメージのうち視点に近く位置する分割イメージの縦長さは相対的に減らし、視点から遠く位置する分割イメージの縦長さは相対的に伸ばす。このように変換させることによって、本来加えようとした対象イメージの全体縦長さは維持しつつ、遠近法により判読性が悪化するという問題を改善できるようになる。 In a specific embodiment of the present invention, a given target image is divided into a fixed number of images along the horizontal direction, and among each of the divided images, a divided image located near the viewpoint is selected. The vertical length of divided images located far from the viewpoint is relatively increased. By converting in this manner, it is possible to maintain the overall vertical length of the target image that was originally intended to be added, while improving the problem of poor legibility due to perspective.

本発明に係る他の具体的な一実施形態においては、与えられた対象イメージを一定の個数に横に分割した後、各々の分割イメージの視野長さを求める。その後、各々の分割イメージに対してこれらの視野長さ間の比率を逆に適用して、各々の分割イメージが変換される縦長さ(以下、変換長さという)を求める。すなわち、与えられた対象イメージをn個の分割イメージに分割した場合に、全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように変換長さを求める。 In another specific embodiment of the present invention, a given target image is horizontally divided into a fixed number of images, and then the field of view length of each divided image is determined. Thereafter, the ratio between these field of view lengths is applied inversely to each divided image to determine the vertical length (hereinafter referred to as conversion length) to which each divided image is transformed. In other words, when a given target image is divided into n divided images, the ratio of the transformation length of the i-th divided image to the total transformation length is equal to the ratio of the transformation length of the ith divided image to the entire field of view length. Find the transformation length so that it is the same as the ratio occupied by the field of view length.

図4は、このような本発明の一実施形態による方法を説明するための図である。図4(b)は、対象イメージ200が入る位置の平面図であり、図4(a)は、図4(b)の線GEに沿って切った断面を概略的に示す。 FIG. 4 is a diagram for explaining a method according to an embodiment of the present invention. FIG. 4(b) is a plan view of the position where the target image 200 is placed, and FIG. 4(a) schematically shows a cross section taken along line GE in FIG. 4(b).

図4において、図面符号100は地面(ground surface)を示し、Oは視点(view point)を示す。視点は、例えば、自動車に搭乗した運転者の目に該当することができるが、これに限定されるものではない。Gは視点Oから鉛直下方に位置する地面100上の点を示す。視点Oの高さ(視点高さ)、すなわち、線分OGの長さはHで表示されている。視点Oが地面に投影された地点、すなわち、点Gから対象イメージ200の視点側端部、すなわち、点Aまでの距離(視点距離)はLで表示されている。 In FIG. 4, reference numeral 100 indicates a ground surface, and O indicates a view point. The viewpoint may correspond to, for example, the eyes of a driver riding in a car, but is not limited thereto. G indicates a point on the ground 100 located vertically downward from the viewpoint O. The height of the viewpoint O (viewpoint height), that is, the length of the line segment OG is indicated by H. The distance (viewpoint distance) from the point where the viewpoint O is projected on the ground, ie, point G, to the end of the target image 200 on the viewpoint side, ie, point A, is indicated by L.

図面符号200は、地面100に加えられるようになる対象イメージ(例えば、路面標示)の最上部、最下部、最左側部、最右側部を各々境界とする長方形を示す。後述する201、202、203、204も同様に各々の分割イメージに対する長方形を示す。しかし、以下では、説明の便宜のために、簡単に対象イメージ200、分割イメージ201などのような方式で表示することにする。また、図面上、対象イメージ200は地面100の下に厚さを有するものとして示されているが、これは説明の便宜のためのものに過ぎず、実際には、実質的な厚さ無しに、地面100の延長線上で地面100と並んで置かれるものと仮定する。 Reference numeral 200 indicates a rectangle bounded by the top, bottom, leftmost, and rightmost parts of the target image (eg, road marking) to be added to the ground 100. 201, 202, 203, and 204, which will be described later, similarly indicate rectangles for each divided image. However, in the following, for convenience of explanation, the target image 200, divided images 201, etc. will be simply displayed. Additionally, although the target image 200 is shown as having a thickness below the ground 100 in the drawings, this is only for convenience of explanation; in reality, it may have no substantial thickness. , is assumed to be placed alongside the ground 100 on an extension of the ground 100.

本実施形態においては、対象イメージ200を横方向(X軸方向)に平行に4個の分割イメージ201、202、203、204に分割した。点A、B、C、D、Eは、このように分割された分割イメージの横線が、点Gを過ぎY軸に平行な線と交差る点である。分割イメージ201、202、203、204の縦長さ(Y軸方向長さ)は、各々、a、a、a、aで表示された。 In this embodiment, the target image 200 is divided into four divided images 201, 202, 203, and 204 in parallel in the horizontal direction (X-axis direction). Points A, B, C, D, and E are points where the horizontal line of the image divided in this manner passes through point G and intersects a line parallel to the Y axis. The vertical lengths (lengths in the Y-axis direction) of the divided images 201, 202, 203, and 204 were displayed as a 1 , a 2 , a 3 , and a 4 , respectively.

本実施形態および以下の実施形態においては対象イメージ200を4個に分割したが、これは説明の便宜のためのものであることを明らかにしておく。本発明が属する技術分野における通常の知識を有した者であれば、本発明の明細書に開示された内容から、対象イメージ200を分割する個数が多ければ多いほど、判読性がさらに良くなる効果を持ってくることを予想することができるであろう。 Although the target image 200 is divided into four parts in this embodiment and the following embodiments, it should be made clear that this is for convenience of explanation. A person having ordinary knowledge in the technical field to which the present invention pertains will understand from the content disclosed in the specification of the present invention that the more the number of parts into which the target image 200 is divided, the better the legibility becomes. can be expected to bring.

一方、本実施形態においては、焦点(focal point)が点C上に位置することと仮定する。焦点を過ぎる焦点平面は図面符号300で表示されており、点Cにおいて視線(line of sight)OCと直交する。焦点平面300と視線OA、視線OB、視線OC、視線ODおよび視線OEが交差する点は、各々、M、M、M、M、Mで表示されている。よって、本実施形態において、点Cと点Mは同一の地点を示す。 On the other hand, in this embodiment, it is assumed that the focal point is located on point C. The focal plane past the focal point is designated by the drawing numeral 300 and is orthogonal to the line of sight OC at point C. Points where the focal plane 300 intersects the line of sight OA, line of sight OB, line of sight OC, line of sight OD, and line of sight OE are indicated by M 1 , M 2 , M 3 , M 4 , and M 5 , respectively. Therefore, in this embodiment, point C and point M3 indicate the same point.

ここで、視点Oから観察される分割イメージ201の長さ、すなわち、視野長さは線分Mの長さと等しい。同様に、分割イメージ202、分割イメージ203、分割イメージ204の視野長さは、各々、線分Mの長さ、線分Mの長さ、線分Mの長さと等しい。 Here, the length of the divided image 201 observed from the viewpoint O, that is, the visual field length, is equal to the length of the line segment M 1 M 2 . Similarly, the field of view lengths of the divided image 202, the divided image 203, and the divided image 204 are the length of the line segment M 2 M 3 , the length of the line segment M 3 M 4 , and the length of the line segment M 4 M 5, respectively. is equal to

視点から焦点までの視線長さをSとすれば、これは線分OCの長さと等しく、よって、直角三角形OCGから次のように求めることができる。 If the line-of-sight length from the viewpoint to the focal point is S, it is equal to the length of the line segment OC, and therefore can be determined from the right triangle OCG as follows.

(1) (1)

また、視野角θ、θ、θ、θ、θは各々次のように求めることができる。 Furthermore, the viewing angles θ 0 , θ 1 , θ 2 , θ 3 , and θ 4 can be determined as follows.

(2)

(3)


(4)

(5)

(6)
(2)

(3)


(4)

(5)

(6)

一方、∠AOB、∠BOC、∠COD、∠DOEは、各々、(θ-θ)、(θ-θ)、(θ-θ)、(θ-θ)となる。 On the other hand, ∠AOB, ∠BOC, ∠COD, and ∠DOE are (θ 0 −θ 1 ), (θ 1 −θ 2 ), (θ 2 −θ 3 ), and (θ 3 −θ 4 ), respectively. .

したがって、分割イメージ201、202、203、204の視野長さ、すなわち、線分Mの長さ、線分Mの長さ、線分Mの長さ、線分Mの長さを各々h、h、h、hとすれば、これらは各々次のように求めることができる。 Therefore, the field of view length of the divided images 201, 202, 203, 204, that is, the length of line segment M 1 M 2 , the length of line segment M 2 M 3 , the length of line segment M 3 M 4 , the line segment If the lengths of M 4 M 5 are h 1 , h 2 , h 3 , and h 4 respectively, these can be calculated as follows.

(7)
(8)
(9)
(10)
(7)
(8)
(9)
(10)

また、各々の分割イメージが変換される長さを各々y、y、y、yとすれば、次のように求めることができる。 Further, if the lengths to which each divided image is converted are respectively y 1 , y 2 , y 3 , and y 4 , then it can be determined as follows.

(11)
(12)
(13)
(14)
(11)
(12)
(13)
(14)

ここで、Tは地面100に塗布されるかまたはコンピュータグラフィック作業によって加えようとする対象イメージ200の全体縦長さ(例えば、本実施形態ではT=a+a+a+a)を示す。 Here, T represents the overall length of the target image 200 to be applied to the ground 100 or added by computer graphics work (for example, T=a 1 +a 2 +a 3 +a 4 in this embodiment).

図4の実施形態は対象イメージ200を4個に分割した場合について説明したが、4個以上に分割する場合にも前記式を適用することができる。 Although the embodiment of FIG. 4 has been described with reference to the case where the target image 200 is divided into four pieces, the above formula can also be applied to the case where the target image 200 is divided into four or more pieces.

対象イメージ200をn個の分割イメージに分割する場合、視点から焦点までの視線長さS、視点に最も近く位置する分割イメージ(1番目分割イメージ)から始めてi番目分割イメージの視野長さhおよびi番目分割イメージの視点反対側端部から見た視野角θは各々次のように求めることができる。 When dividing the target image 200 into n divided images, the line-of-sight length S from the viewpoint to the focal point, and the field-of-view length h i of the i-th divided image starting from the divided image located closest to the viewpoint (first divided image) The viewing angle θ i of the i-th divided image viewed from the end opposite to the viewpoint can be determined as follows.

(15)
(16)
(17)
(15)
(16)
(17)

したがって、各々の分割イメージが変換される長さを各々y、y、y、...yとする時、i番目分割イメージの変換される長さは次のように求めることができる: Therefore, the lengths to which each segmented image is transformed are y 1 , y 2 , y 3 , . .. .. When y n , the converted length of the i-th divided image can be found as follows:

(18) (18)

下記表はT=5m、L=15m、H=1.2m、n=10、そしてa=a=...=a10=0.5mの場合に対してθ、h、y値を示す表である。
The table below shows T=5m, L=15m, H=1.2m, n=10, and a 1 =a 2 =. .. .. It is a table showing θ i , h i , and y i values for the case of =a 10 =0.5 m.

前記表から分かるように、10番目分割イメージの変形長さy10は、1番目分割イメージの変形長さyの約1.7倍近くになる。 As can be seen from the table, the deformed length y 10 of the 10th divided image is approximately 1.7 times the deformed length y 1 of the 1st divided image.

図9および10は、対象イメージおよび前記表1から得たy値を用いて得られた変形イメージを示す図である。 9 and 10 are diagrams showing a target image and a deformed image obtained using the y i values obtained from Table 1 above.

図9aにおいて、左側は対象イメージ「スクールゾーン」であり、右側は表1により得られたy値を用いて変形したイメージである。対象イメージでは「スクール」と「ゾーン」の縦長さは同一であったが、変形されたイメージでは「スクール」が「ゾーン」より長くなったことが分かる。また、各々の横画にも変化があることを確認することができる。例えば、「ゾーン」の一番下の横画は変形イメージの方がより細くなり、「スクール」の一番上の横画は変形イメージの方がより厚くなっている。 In FIG. 9a, the left side is the target image "school zone", and the right side is the image transformed using the y i values obtained from Table 1. In the target image, the vertical lengths of ``school'' and ``zone'' were the same, but in the transformed image, it can be seen that ``school'' became longer than ``zone.'' It can also be confirmed that there are changes in each horizontal stroke. For example, the horizontal stroke at the bottom of "Zone" is thinner in the deformed image, and the horizontal stroke at the top of "School" is thicker in the deformed image.

図9bは、対象イメージと変形イメージを各々遠距離から眺めた様子を示す。二つのイメージの両方とも全体長さTは5mであり、視点距離L=15m、視点高さH=1.2mから眺めたものである。左側が対象イメージであり、右側が変形イメージである。遠距離から見た時、対象イメージは「スクール」が「ゾーン」より小さく見えるが、変形イメージは「スクール」と「ゾーン」がほぼ同一の大きさに見えることが分かる。また、対象イメージは視点から遠くなるほど対象イメージの横画の厚さが薄く見えるが、変形イメージは全体的に横画の厚さが実質的に同一に見えることが分かる。 FIG. 9b shows how the target image and the deformed image are viewed from a distance. Both images have an overall length T of 5 m, and are viewed from a viewing distance L = 15 m and a viewing height H = 1.2 m. The left side is the target image, and the right side is the deformed image. When viewed from a distance, the "school" appears smaller than the "zone" in the target image, but it can be seen that the "school" and "zone" appear to be approximately the same size in the deformed image. Further, it can be seen that the thickness of the horizontal stroke of the target image appears to be thinner as the distance from the viewpoint increases, but the thickness of the horizontal stroke of the deformed image appears to be substantially the same throughout.

図10aおよび10bは、各々、対象イメージ「PITTS-BURGH」とそれに対する変形イメージを示す。各々に関する説明は図9aおよび9bと同様であるため、それに関する重複した説明は省略する。 FIGS. 10a and 10b show a target image "PITTS-BURGH" and a modified image thereof, respectively. Since the explanation regarding each is the same as that of FIGS. 9a and 9b, duplicate explanation thereof will be omitted.

図11は、図9および10のように底面にイメージが配置されたものでなく、空間上の左側面に対象イメージおよび変形イメージが加えられる様子を示す。このようなイメージの配置は、ARやVR環境で主に発生しうるが、これに限定されるものではなく、例えば、道路の側面に立てられた看板や道路標示にも適用することができるであろう。 FIG. 11 shows a state in which the target image and the deformed image are added to the left side in space, instead of images being placed on the bottom surface as in FIGS. 9 and 10. This arrangement of images can mainly occur in AR or VR environments, but is not limited to this. For example, it can also be applied to billboards and road markings erected on the side of the road. Probably.

図11の上側に示された図面は対象イメージが遠近法の適用を受けて見える様子であり、下側に示された図面は変形イメージが遠近法の適用を受けて見える様子である。図示されたものから分かるように、対象イメージは視点から遠くなるほど文字がよく見えなくなるが、変形イメージは視点に関わらず鮮明に見えることが分かる。特に後ろの「Pkwy」部分を見てみると、変形イメージの方が約2倍に拡張して見えることが分かる。 The upper drawing in FIG. 11 shows how the target image appears after perspective is applied, and the lower drawing shows how the deformed image looks after perspective was applied. As can be seen from the diagram, the characters in the target image become less visible as the distance from the viewpoint increases, but it can be seen that the deformed image appears clearly regardless of the viewpoint. In particular, if you look at the "Pkwy" part at the back, you can see that the transformed image appears to be expanded about twice as much.

図12は、図3のストリートビューキャプチャー画面(上側図)および路面標示を本発明により変換させた画面(下側図)を共に示す。図面で確認できるように、変換前にはPkwy部分の判読性が低かったが、変換後には顕著に改善されたことが分かる。 FIG. 12 shows both the street view capture screen (top view) of FIG. 3 and a screen (bottom view) in which road markings are converted according to the present invention. As can be seen in the drawing, the legibility of the Pkwy portion was low before the conversion, but it was significantly improved after the conversion.

一方、図4は焦点が対象イメージの中央に位置した場合であったが、焦点が他の地点に位置する場合にも本発明の適用が可能である。 On the other hand, although FIG. 4 shows a case where the focal point is located at the center of the target image, the present invention can also be applied when the focal point is located at another point.

図5は、それに関する一実施形態を示す。 FIG. 5 shows one embodiment in this regard.

図4と同様に、図5(b)は対象イメージ200が入る位置の平面図であり、図5(a)は図5(b)の線GEに沿って切った断面を概略的に示す。 Similar to FIG. 4, FIG. 5(b) is a plan view of the position where the target image 200 is placed, and FIG. 5(a) schematically shows a cross section taken along line GE in FIG. 5(b).

図5では、焦点が1番目分割イメージと2番目分割イメージとの間に位置する。よって、焦点平面300は、点Bにおいて視線(line of sight)OBと直交する。 In FIG. 5, the focus is located between the first divided image and the second divided image. Thus, the focal plane 300 is orthogonal to the line of sight OB at point B.

視点から焦点までの視線長さSは線分OBの長さと等しく、よって、直角三角形OBGから次のように求めることができる。 The line-of-sight length S from the viewpoint to the focal point is equal to the length of the line segment OB, and can therefore be determined from the right triangle OBG as follows.

(19) (19)

分割イメージ201、202、203、204の視野長さを各々h、h、h、hとすれば、これらは各々次のように求めることができる。 If the field of view lengths of the divided images 201, 202, 203, and 204 are respectively h 1 , h 2 , h 3 , and h 4 , these can be calculated as follows.

(20)
(21)
(22)
(23)
(20)
(21)
(22)
(23)

各々の分割イメージが変換される長さy、y、y、yは、前記式(11)~(14)により求めることができる。 The lengths y 1 , y 2 , y 3 , and y 4 to which each divided image is transformed can be determined using the above equations (11) to (14).

同様に、対象イメージをn個のイメージに分割した場合にも以下のように前記式(15)~(18)を同一乃至類似に適用することができる。 Similarly, even when the target image is divided into n images, the above equations (15) to (18) can be applied in the same or similar manner as follows.

(15)
(16’)
(17’)
(18)
(15)
(16')
(17')
(18)

図4の実施形態および図5の実施形態において、焦点と視点がなす視野角をθとすれば、式(16)、(16’)、(17)、(17’)は各々次のように一般化させることができる。 In the embodiment shown in FIG. 4 and the embodiment shown in FIG . can be generalized to.

(24)
(25)
(但し、fは0以上n以下の整数)
(24)
(25)
(However, f is an integer from 0 to n)

結局、焦点をどの分割イメージに位置させるかに関わらず、視点条件(例えば、θ、H、またはLなど)が同一であれば同一の変換長さが得られることが分かる。 After all, it can be seen that the same transformation length can be obtained if the viewpoint conditions (eg, θ 0 , H, or L) are the same, regardless of which divided image the focal point is located.

図6は、本発明の他の代案的な実施形態を示す。 FIG. 6 shows another alternative embodiment of the invention.

本実施形態においては、焦点平面で視野長さを求める代わりに、視点Oから同一の距離に位置する地点で各々の分割イメージに対する視野長さを求める接近方式を利用する。 In this embodiment, instead of finding the field of view length on the focal plane, an approach method is used to find the field of view length for each divided image at a point located at the same distance from the viewpoint O.

前述したものと同様に、図6(b)は対象イメージ200が入る位置の平面図であり、図6(a)は図6(b)の線GEに沿って切った断面を概略的に示す。 Similar to the above, FIG. 6(b) is a plan view of the position where the target image 200 is placed, and FIG. 6(a) schematically shows a cross section taken along line GE in FIG. 6(b). .

図6において、対象イメージは、前述した実施形態と同様に、AB、BC、CD、DEの4個の区間に分割された。点Mは視点Oを中心にし、半径の長さが視点から対象イメージの視点側端部までの視線長さRである円(以下、「円O」という)が視線OAと交差する点である。点Mは、点Mから引いた接線が視線OBと交差する点である。点Mは、円Oと視線OBが接する点から引いた接線が視線OCと交差する点である。点Mは、円Oと線分OCが接する点から引いた接線が視線ODと接する点である。点Mは、円Oと視線ODが接する点から引いた接線が視線OEと交差する点である。 In FIG. 6, the target image is divided into four sections AB, BC, CD, and DE, similar to the embodiment described above. Point M1 is the point where a circle (hereinafter referred to as "circle O") centered on the viewpoint O and whose radius is the sight line length R from the viewpoint to the end of the target image on the viewpoint side intersects the sight line OA. be. Point M2 is the point where the tangent drawn from point M1 intersects the line of sight OB. Point M3 is a point where a tangent drawn from the point where circle O and line of sight OB intersect with line of sight OC. Point M4 is a point where a tangent drawn from the point where circle O and line segment OC touch line of sight OD. Point M5 is a point where a tangent drawn from the point where circle O and line of sight OD intersect with line of sight OE.

視点Oから1番目分割イメージ201を眺めた時の視野長さは線分Mの長さであるといえる。 It can be said that the visual field length when viewing the first divided image 201 from the viewpoint O is the length of the line segment M 1 M 2 .

視点Oから2番目分割イメージ202を眺めた時の視野長さを、1番目分割イメージ201に対して視野長さを測定した位置と同一の位置で測定するのであれば、その視野長さは線分Mの長さになるであろう。 If the visual field length when viewing the second divided image 202 from the viewpoint O is measured at the same position where the visual field length was measured for the first divided image 201, then the visual field length is a line. The length will be M 2 M 3 minutes.

同様に、視点Oから3番目分割イメージ203を眺めた時の視野長さおよび四番目分割イメージ204を眺めた時の視野長さは各々線分Mの長さおよび線分Mの長さになるであろう。 Similarly, the length of the field of view when viewing the third divided image 203 and the length of the field of view when viewing the fourth divided image 204 from the viewpoint O are the length of the line segment M 3 M 4 and the length of the line segment M 4 M, respectively. It will be 5 long.

一方、半径の長さRは、直角三角形OAGから次のように求めることができる。 On the other hand, the length R of the radius can be determined from the right triangle OAG as follows.

(26) (26)

視野角θ、θ、θ、θ、θは式(2)~(6)のとおりである。同様に、∠AOB、∠BOC、∠COD、∠DOEは、各々、(θ-θ)、(θ-θ)、(θ-θ)、(θ-θ)になる。 The viewing angles θ 0 , θ 1 , θ 2 , θ 3 , and θ 4 are as shown in equations (2) to (6). Similarly, ∠AOB, ∠BOC, ∠COD, and ∠DOE are (θ 0 −θ 1 ), (θ 1 −θ 2 ), (θ 2 −θ 3 ), and (θ 3 −θ 4 ), respectively. Become.

したがって、分割イメージ201、202、203、204の視野長さ、すなわち、線分Mの長さ、線分Mの長さ、線分Mの長さ、線分Mの長さを各々h、h、h、hとすれば、これらは次のように求めることができる。 Therefore, the field of view length of the divided images 201, 202, 203, 204, that is, the length of line segment M 1 M 2 , the length of line segment M 2 M 3 , the length of line segment M 3 M 4 , the line segment If the lengths of M 4 M 5 are h 1 , h 2 , h 3 , and h 4 , respectively, these can be determined as follows.

(27)
(28)
(29)
(30)
(27)
(28)
(29)
(30)

各々の分割イメージが変換される長さy、y、y、yは、各々、前記式(11)~(14)により求めることができる。 The lengths y 1 , y 2 , y 3 , and y 4 to which each divided image is transformed can be determined using the above equations (11) to (14), respectively.

図6の実施形態は対象イメージ200を4個に分割した場合であるが、4個以上に分割する場合にも前記式を適用することができる。 Although the embodiment shown in FIG. 6 is a case where the target image 200 is divided into four parts, the above formula can also be applied when the target image 200 is divided into four or more parts.

対象イメージ200をn個の分割イメージに分割するとする場合、視点に最も近く位置する分割イメージ(1番目分割イメージ)から始めてi番目分割イメージの視点反対側端部から見た視野角θは前記式(15)を用いて求めることができ、i番目分割イメージの視野長さhは次のように求めることができる。 When the target image 200 is divided into n divided images, starting from the divided image located closest to the viewpoint (first divided image), the viewing angle θ i as seen from the end opposite to the viewpoint of the i-th divided image is as follows. It can be determined using equation (15), and the field of view length h i of the i-th divided image can be determined as follows.

(31) (31)

前述したものと同様に、各々の分割イメージが変換される長さを各々y、y、y、...yとする時、i番目分割イメージの変換される長さは前記式(18)を用いて求めることができる。 Similar to what was described above, the lengths to which each segmented image is transformed are y 1 , y 2 , y 3 , . .. .. When y n , the length of the i-th divided image to be converted can be obtained using the above equation (18).

下記表はT=5m、L=15m、H=1.2m、n=10、そしてa=a=...=a10=0.5mの場合に対してθ、h、y値を示す表である。
本実施形態の場合にも、前記表1とほぼ類似した変形長さ値が出てくることが分かる。
The table below shows T=5m, L=15m, H=1.2m, n=10, and a 1 =a 2 =. .. .. It is a table showing θ i , h i , and y i values for the case of =a 10 =0.5 m.
It can be seen that in the case of this embodiment as well, deformed length values almost similar to those in Table 1 appear.

図7は、図6の実施形態に対する変形実施形態を示す。 FIG. 7 shows an alternative embodiment to the embodiment of FIG.

前述したものと同様に、図7(b)は対象イメージ200が入る位置の平面図であり、図7(a)は図7(b)の線GEに沿って切った断面を概略的に示す。 Similar to the above, FIG. 7(b) is a plan view of the position where the target image 200 is placed, and FIG. 7(a) schematically shows a cross section taken along line GE in FIG. 7(b). .

図7において、対象イメージは、前述した実施形態と同様に、AB、BC、CD、DEの4個の区間に分割された。点Mは点Aから視線OAに垂直に延びる線が視線OAと交差する点であり、よって、AとMは同一の地点を示す。点Mは、点Mから視線OAに垂直に延びる線が視線OBと交差する点である。点Mは、点Mから視線OBに垂直に延びる線が視線OCと交差する点である。点Mは、点Mから視線OCに垂直に延びる線が視線ODと交差する点である。点Mは、点Mから視線ODに垂直に延びる線が視線OEと交差する点である。 In FIG. 7, the target image is divided into four sections AB, BC, CD, and DE, similar to the embodiment described above. Point M1 is the point where a line extending perpendicularly from point A to line of sight OA intersects line of sight OA, so A and M1 indicate the same point. Point M 2 is a point where a line extending perpendicularly from point M 1 to line of sight OA intersects line of sight OB. Point M 3 is a point where a line extending perpendicularly from point M 2 to line of sight OB intersects line of sight OC. Point M 4 is a point where a line extending perpendicularly from point M 3 to line of sight OC intersects line of sight OD. Point M5 is a point where a line extending perpendicularly to the line of sight OD from point M4 intersects the line of sight OE.

視点Oから1番目分割イメージ201を眺めた時の視野長さは線分Mの長さである。 The visual field length when viewing the first divided image 201 from the viewpoint O is the length of the line segment M 1 M 2 .

視点Oから点Mまでの距離は視点Oから点Mまでの距離より大きいが、その差の程度は無視できる水準である。よって、線分Mの長さを、視点Oから2番目分割イメージ202に対する視野長さに近似することができる。 Although the distance from viewpoint O to point M2 is larger than the distance from viewpoint O to point M1 , the degree of the difference is at a negligible level. Therefore, the length of the line segment M 2 M 3 can be approximated to the visual field length for the second divided image 202 from the viewpoint O.

同様に、線分Mの長さおよび線分Mの長さを、視点Oから3番目分割イメージ203および四番目分割イメージ204を眺めた時の視野長さに近似することができる。 Similarly, the length of the line segment M 3 M 4 and the length of the line segment M 4 M 5 are approximated to the visual field length when viewing the third divided image 203 and the fourth divided image 204 from the viewpoint O. I can do it.

また、∠AOB、∠BOC、∠COD、∠DOEは、各々、(θ-θ)、(θ-θ)、(θ-θ)、(θ-θ)になる。 Also, ∠AOB, ∠BOC, ∠COD, and ∠DOE become (θ 0 - θ 1 ), (θ 1 - θ 2 ), (θ 2 - θ 3 ), and (θ 3 - θ 4 ), respectively. .

ここで、線分OM、OM、OM、OM、の長さを各々S、S、S、Sとすれば、S、S、S、Sの長さは次のように求めることができる。 Here, if the lengths of line segments OM 1 , OM 2 , OM 3 , and OM 4 are respectively S 1 , S 2 , S 3 , and S 4 , then the lengths of S 1 , S 2 , S 3 , and S 4 are can be calculated as follows.

(32)
(33)
(34)
(35)
(32)
(33)
(34)
(35)

視野角θ、θ、θ、θ、θは式(2)~(6)のとおりである。 The viewing angles θ 0 , θ 1 , θ 2 , θ 3 , and θ 4 are as shown in equations (2) to (6).

したがって、分割イメージ201、202、203、204の視野長さ、すなわち、線分Mの長さ、線分Mの長さ、線分Mの長さ、線分Mの長さを各々h、h、h、hとすれば、これらは次のように求めることができる。 Therefore, the field of view length of the divided images 201, 202, 203, 204, that is, the length of line segment M 1 M 2 , the length of line segment M 2 M 3 , the length of line segment M 3 M 4 , the line segment If the lengths of M 4 M 5 are h 1 , h 2 , h 3 , and h 4 , respectively, these can be determined as follows.

(36)
(37)
(38)
(39)
(36)
(37)
(38)
(39)

各々の分割イメージが変換される長さy、y、y、yは、各々、前記式(11)~(14)により求めることができる。 The lengths y 1 , y 2 , y 3 , and y 4 to which each divided image is transformed can be determined using the above equations (11) to (14), respectively.

図7の実施形態は対象イメージを4個に分割した場合であるが、4個以上に分割する場合にも前記式を適用することができる。 Although the embodiment shown in FIG. 7 is a case where the target image is divided into four parts, the above formula can also be applied to the case where the target image is divided into four or more parts.

対象イメージ200をn個の分割イメージに分割する場合、視点に最も近く位置する分割イメージ(1番目分割イメージ)から始めてi番目分割イメージの視点反対側端部から見た視野角θは前記式(15)を用いて求めることができ、i番目分割イメージの視野長さhは次のように求めることができる。 When dividing the target image 200 into n divided images, starting from the divided image located closest to the viewpoint (first divided image), the viewing angle θ i as seen from the end opposite to the viewpoint of the i-th divided image is determined by the above formula. (15), and the visual field length h i of the i-th divided image can be determined as follows.

(40) (40)

ここで、Sは以下のとおりである。 Here, S i is as follows.

但し、 however,

) (41) ) (41)

前述したものと同様に、各々の分割イメージが変換される長さを各々y、y、y、...yとする時、i番目分割イメージが変換される長さは前記式(18)を用いて求めることができる。 Similar to what was described above, the lengths to which each segmented image is transformed are y 1 , y 2 , y 3 , . .. .. When y n , the length to which the i-th divided image is transformed can be found using equation (18).

下記表はT=5m、L=15m、H=1.2m、n=10、そしてa=a=...=a10=0.5mの場合に対してθ、h、y値を示す表である。
The table below shows T=5m, L=15m, H=1.2m, n=10, and a 1 =a 2 =. .. .. It is a table showing θ i , h i , and y i values for the case of =a 10 =0.5 m.

本実施形態の場合も、前記表1および表2と類似した変形長さ値が得られることが分かる。 It can be seen that deformed length values similar to those in Tables 1 and 2 can be obtained in this embodiment as well.

図8は、本発明の更なる他の代案的な実施形態を示す。 FIG. 8 shows yet another alternative embodiment of the invention.

前述したものと同様に、図8(b)は対象イメージ200が入る位置の平面図であり、図8(a)は図8(b)の線GEに沿って切った断面を概略的に示す。 Similar to the above, FIG. 8(b) is a plan view of the position where the target image 200 is placed, and FIG. 8(a) schematically shows a cross section taken along line GE in FIG. 8(b). .

図8においては、視点Oから対象イメージ200全体に対する視点角∠AOEを、対象イメージ200を分割しようとする個数と同一な個数に分割し、このように分割された角度を用いて変形される長さを求める接近方式を利用する。 In FIG. 8, the viewpoint angle ∠AOE for the entire target image 200 from the viewpoint O is divided into the same number of parts as the target image 200 is to be divided, and the length to be transformed is calculated using the divided angles. Use an approach method that seeks for clarity.

図8において、対象イメージ200は、前述した実施形態と同様に、AB、BC、CD、DEの4個の区間に分割された。各々の分割イメージ201、202、203、204の縦長さは、各々、a、a、a、aで表示された(図8(b)を参照)。点A、B、C、D、Eは、このように分割された分割イメージ201、202、203、204の横線が、点Gを通ってY軸に平行な線と交差する点である。 In FIG. 8, the target image 200 is divided into four sections AB, BC, CD, and DE, similar to the embodiment described above. The vertical lengths of each of the divided images 201, 202, 203, and 204 were expressed as a 1 , a 2 , a 3 , and a 4 , respectively (see FIG. 8(b)). Points A, B, C, D, and E are points where the horizontal lines of the thus divided images 201, 202, 203, and 204 pass through point G and intersect with a line parallel to the Y axis.

分割イメージの個数に合わせて、視点Oから対象イメージ200全体を眺める角度(∠AOE)も4個の角度α、α、α、αに分割された。この時、各々の角度は以下の式を満たす大きさに分割される。 In accordance with the number of divided images, the angle (∠AOE) at which the entire target image 200 is viewed from viewpoint O is also divided into four angles α 1 , α 2 , α 3 , and α 4 . At this time, each angle is divided into sizes that satisfy the following formula.

(42) (42)

点A、B’、C’、D’、Eは、このように角度を分割する線が対象イメージ200と交差する点を各々示す。 Points A, B', C', D', and E indicate the points where the lines dividing the angle intersect with the target image 200, respectively.

このようにして、対象イメージは、AB’区間、B’C’区間、C’D’区間、D’E区間の4個の区間に新たに分割される。 In this way, the target image is newly divided into four sections: AB' section, B'C' section, C'D' section, and D'E section.

点Oを中心にし、半径の長さが線分OAである円Oを仮定すれば、(半径の長さが十分に大きい場合)円弧M、円弧M、円弧M、円弧Mの長さは視点Oから観測されるAB’区間、B’C’区間、C’D’区間、D’E区間の長さと実質的に同一であってもよい。よって、線分AB’の長さ、線分B’C’の長さ、線分C’D’の長さ、線分D’Eの長さを、各々分割されたイメージが変換される長さy、y、y、yとして求める。 Assuming a circle O whose center is point O and whose radius length is line segment OA, (if the radius length is sufficiently large) arc M 1 M 2 , arc M 2 M 3 , arc M 3 M 4. The length of the arc M 4 M 5 may be substantially the same as the length of the AB' section, B'C' section, C'D' section, and D'E section observed from the viewpoint O. Therefore, the length of line segment AB', the length of line segment B'C', the length of line segment C'D', and the length of line segment D'E are the lengths to which the divided images are converted. It is determined as y 1 , y 2 , y 3 , y 4 .

対象イメージ200の全体縦長さをTとする時(本実施形態ではT=a+a+a+a)、視野角θおよびθは各々以下のとおりである。 When the overall vertical length of the target image 200 is T (T=a 1 +a 2 +a 3 +a 4 in this embodiment), the viewing angles θ 0 and θ 4 are as follows.

(43)
(44)
(43)
(44)

一方、対象イメージ200の全体縦長さに対する1番目分割イメージ201の縦長さの比率はa/Tである。よって、分割イメージ201に対する視点角αは、前記式(42)を考慮して次のように求めることができる。 On the other hand, the ratio of the vertical length of the first divided image 201 to the entire vertical length of the target image 200 is a 1 /T. Therefore, the viewpoint angle α 1 for the divided image 201 can be determined as follows by considering the above equation (42).

(45) (45)

同様に、2番目~4番目分割イメージ(202~204)に対する視点角α、α、αは各々次のように求めることができる。 Similarly, the viewpoint angles α 2 , α 3 , and α 4 for the second to fourth divided images (202 to 204) can be determined as follows.

(46)
(47)
(48)
(46)
(47)
(48)

さて、分割されたイメージが変換される長さy、y、y、yを各々求めれば以下のとおりである。 Now, the lengths y 1 , y 2 , y 3 , and y 4 to which the divided images are converted are calculated as follows.

(49)
(50)
(51)
(52)
(49)
(50)
(51)
(52)

図8の実施形態は対象イメージ200を4個に分割した場合であるが、4個以上に分割する場合にも前記式を適用することができる。 Although the embodiment shown in FIG. 8 is a case where the target image 200 is divided into four parts, the above formula can also be applied when the target image 200 is divided into four or more parts.

対象イメージ200をn個の分割イメージに分割する場合、視点に最も近く位置する分割イメージ(1番目分割イメージ)から始めてi番目分割イメージの変換長さyおよび視点角αは次のように求めることができる。 When dividing the target image 200 into n divided images, starting from the divided image located closest to the viewpoint (first divided image), the transformation length y i and viewpoint angle α i of the i-th divided image are as follows. You can ask for it.

(53)
(54)
(53)
(54)

ここで、θ、θは各々前記式(2)と式(15)を用いて求めることができる。 Here, θ 0 and θ n can be determined using the above formula (2) and formula (15), respectively.

下記表はT=5m、L=15m、H=1.2m、n=10、そしてa=a=a=...=a10=0.5mの場合に対してθ、y値を示す表である。
The table below shows T=5m, L=15m, H=1.2m, n=10, and a 1 =a 2 =a 3 =. .. .. It is a table showing θ i and y i values for the case where = a 10 =0.5 m.

本実施形態の場合も、前記表1~表3と類似した変形長さ値が得られることが分かる。 It can be seen that deformed length values similar to those in Tables 1 to 3 can be obtained in this embodiment as well.

本発明の更なる実施形態として、補正因子fを用いて前記式(18)および式(54)を各々次のように変形させることができる。 As a further embodiment of the present invention, the above equations (18) and (54) can be transformed using the correction factor f i as follows.

(55)
(56)
(55)
(56)

補正因子fは、イメージが塗布されるかまたは加えられる状況や条件などに応じて適切な値を取ることができる。例えば、以下の式40を適用する場合には、視点に近く位置する分割イメージであるほど少なめに変換させ、視点から遠く位置する分割イメージであるほどさらに多めに変換させる。 The correction factor f i can take an appropriate value depending on the situation or conditions under which the image is applied or applied. For example, when applying Equation 40 below, the closer a divided image is to the viewpoint, the less it is converted, and the farther away from the viewpoint, the more it is converted.

値はこれに限定されるものではなく、本発明が属する技術分野における通常の知識を有した者であれば、ユーザの必要や地面状態などの周辺条件に応じて異なる適切な値が取られることを知ることができるであろう。 The f i value is not limited to this, and a person with ordinary knowledge in the technical field to which the present invention pertains will be able to take different appropriate values depending on the user's needs and surrounding conditions such as ground conditions. You will be able to know what will happen.

本発明の一実施形態においては、前記のようなイメージ補正方法を実現できるイメージ補正装置を提供する。 An embodiment of the present invention provides an image correction device that can implement the image correction method as described above.

図13は、このようなイメージ補正装置の一実現例を示すブロック図である。図13を参照すれば、本発明の一実施形態によるイメージ補正装置1000は、入力部1010、イメージ変換部1020および出力部1030を含む。 FIG. 13 is a block diagram showing an implementation example of such an image correction device. Referring to FIG. 13, an image correction apparatus 1000 according to an embodiment of the present invention includes an input unit 1010, an image conversion unit 1020, and an output unit 1030.

ユーザは、入力部1010を介して、変形させようとする対象イメージ200に関する情報を入力することができる。対象イメージ情報は、対象イメージのイメージファイル、対象イメージが加えられる幅と長さ(前記実施形態における長さT)などを含むことができる。 The user can input information regarding the target image 200 to be transformed via the input unit 1010. The target image information may include an image file of the target image, a width and a length to which the target image is added (length T in the above embodiment), and the like.

また、ユーザは、対象イメージ200を分割しようとする個数および各々の分割イメージの縦長さ(a、a、a、..)を入力することができる。好ましくは、各々の分割イメージが同一の縦長さに分割されることができる(すなわち、a=a=a=...=a)。 Further, the user can input the number of parts into which the target image 200 is to be divided and the vertical length of each divided image (a 1 , a 2 , a 3 , . . . ). Preferably, each segmented image can be segmented into the same vertical length (ie, a 1 =a 2 =a 3 =...=a n ).

また、ユーザは、入力部1010を介して視点情報を入力することができる。視点情報は、対象イメージ200に対して視点の位置を特定できる情報を意味する。例えば、視点は、対象イメージから離隔した距離、視点角などであってもよい。 Additionally, the user can input viewpoint information via the input unit 1010. Viewpoint information means information that can specify the position of a viewpoint with respect to the target image 200. For example, the viewpoint may be a distance away from the target image, a viewpoint angle, etc.

より具体的には、例えば、前記対象イメージが位置する平面から視点までの視点高さH、前記視点を前記対象イメージが位置する地面100上に投影させた地点から前記対象イメージの視点側端部までの視点距離L、前記対象イメージの視点側端部での視野角、前記対象イメージの視点反対側端部での視野角、前記視点から前記対象イメージの視点側端部までの視線長さ、前記視点から前記対象イメージの視点反対側端部までの視線長さ、および前記対象イメージの視点角などであってもよい。視点情報は対象イメージ200に対して視点の位置を特定できれば良いため、これらの全てが必要なのではない。すなわち、例えば、図6の実施形態において、視点距離Lと視点高さHだけ与えられれば、視野角θと視線長さRなどはそれより求めることができるということを、本発明が属する技術分野における通常の知識を有した者であれば理解することができる。 More specifically, for example, the viewpoint height H from the plane where the target image is located to the viewpoint, and the viewpoint side end of the target image from the point where the viewpoint is projected onto the ground 100 where the target image is located. a viewing angle at the end of the target image on the viewpoint side, a viewing angle at the end of the target image opposite to the viewpoint, a line-of-sight length from the viewpoint to the end of the target image on the viewpoint side, It may be a line-of-sight length from the viewpoint to an end of the target image opposite to the viewpoint, a viewpoint angle of the target image, or the like. All of the viewpoint information is not necessary because it is enough to specify the position of the viewpoint with respect to the target image 200. That is, for example, in the embodiment shown in FIG. 6, if only the viewpoint distance L and the viewpoint height H are given, the viewing angle θ 0 and the sight line length R can be obtained from the technology to which the present invention belongs. It can be understood by anyone with ordinary knowledge in the field.

入力部1010を介して入力された対象イメージは、イメージ変換部1020を介して、前述した内容のような過程を経て変換される。例えば、前記式(18)または式(54)によりi番目分割イメージに対するy値を求め、このように得られたy値に応じて該分割イメージの縦長さを伸ばすかまたは減らすことによって対象イメージ200を変形させる。一例として、図4の実施形態において、分割イメージ201の縦長さが1mであり、これに対して計算されたy値が0.7mであったのであれば、分割イメージ201の横長さは維持させつつ、縦長さが0.7mになるように縮小変形させる。 A target image input through the input unit 1010 is converted through the image conversion unit 1020 through the process described above. For example, by calculating the y i value for the i-th divided image using the above formula (18) or formula (54), and increasing or decreasing the vertical length of the divided image according to the y i value obtained in this way, the target Transform the image 200. As an example, in the embodiment of FIG. 4, if the vertical length of the divided image 201 is 1 m and the calculated y1 value for this is 0.7 m, then the horizontal length of the divided image 201 is maintained. While doing so, it is reduced and deformed so that the vertical length becomes 0.7 m.

出力部1030は、イメージ変換部1020を介して変換されたイメージを所望のフォーマットで出力することができるようにする。例えば、出力部1030は、jpg、TIFF、XMLなどのファイル形式に変換されたイメージを出力することができるが、これは単に例に過ぎず、必要により公知のいかなる形態やフォーマットで出力してもよい。特に、本発明に係るイメージ補正装置がARやVRなどの実現のために使われる場合には、AR装置やVR装置が必要とする形式に合わせて提供することができる。 The output unit 1030 can output the image converted by the image conversion unit 1020 in a desired format. For example, the output unit 1030 can output an image converted into a file format such as jpg, TIFF, or XML, but this is just an example, and it may be output in any known format or format if necessary. good. In particular, when the image correction device according to the present invention is used to realize AR, VR, etc., it can be provided in a format required by the AR device or VR device.

本発明の一実施形態は、コンピュータにより実行されるプログラムモジュールのようなコンピュータにより実行可能な命令語を含む記録媒体、すなわち、コンピュータ読み取り可能な媒体の形態に実現されることができる。このようなコンピュータ読み取り可能な媒体は、前述したイメージの変換方法を実行させるためのプログラムを記録することができる。 An embodiment of the present invention may be implemented in the form of a storage medium, ie, a computer-readable medium, containing computer-executable instructions such as program modules executed by a computer. Such a computer-readable medium can record a program for executing the image conversion method described above.

コンピュータ読み取り可能な媒体は、コンピュータによりアクセスできる任意の利用可能な媒体であってもよく、揮発性および不揮発性の媒体、分離型および非分離型の媒体を全て含む。また、コンピュータ読み取り可能な媒体は、コンピュータストレージ媒体および通信媒体を全て含むことができる。 Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, separable and non-separable media. Computer-readable media can also include both computer storage media and communication media.

コンピュータストレージ媒体は、コンピュータ読み取り可能な命令語、データ構造、プログラムモジュールまたはその他のデータのような情報のストレージのための任意の方法または技術で実現された揮発性および不揮発性、分離型および非分離型の媒体を全て含む。このような媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CDおよびDVDのような光記録媒体、フロプティカルディスク(floptical disk)と磁気-光媒体、ROM、RAM、フラッシュメモリなどのようなプログラム命令をストレージし実行するように構成されたハードウェア装置などが挙げられる。 Computer storage media can be volatile and non-volatile, separable and non-separable, implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data. Contains all types of media. Examples of such media include hard disks, magnetic media such as floppy disks and magnetic tape, optical recording media such as CDs and DVDs, floptical disks and magneto-optical media, ROM, RAM, Examples include hardware devices configured to store and execute program instructions, such as flash memory and the like.

通信媒体は、典型的にコンピュータ読み取り可能な命令語、データ構造、プログラムモジュール、または搬送波のような変調したデータ信号のその他のデータ、またはその他の転送メカニズムを含み、任意の情報伝達媒体を含む。 Communication media include any information-carrying media that typically includes computer-readable instructions, data structures, program modules or other data in a modulated data signal, such as a carrier wave, or other transfer mechanism.

コンピュータ読み取り可能な命令の例には、コンパイラにより作られるもののような機械語コードだけでなく、インタープリタなどを用いてコンピュータにより実行できる高級言語コードを含む。 Examples of computer-readable instructions include not only machine language code, such as that produced by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

以上の説明は本発明の技術思想を例示的に説明したものに過ぎず、本発明が属する技術分野における通常の知識を有した者であれば、本発明の本質的な特性から逸脱しない範囲内で様々な修正および変形が可能である。したがって、本発明に開示された実施形態は、本発明の技術思想を限定するためのものではなく説明するためのものであって、このような実施形態によって本発明の技術思想の範囲が限定されるものではない。本発明の保護範囲は以下の請求範囲によって解釈しなければならず、それと同等な範囲内にある全ての技術思想は本発明の権利範囲に含まれるものとして解釈しなければならない。 The above explanation is merely an illustrative explanation of the technical idea of the present invention, and a person having ordinary knowledge in the technical field to which the present invention pertains will understand that it does not depart from the essential characteristics of the present invention. Various modifications and variations are possible. Therefore, the embodiments disclosed in the present invention are for illustrating rather than limiting the technical idea of the present invention, and the scope of the technical idea of the present invention is not limited by such embodiments. It's not something you can do. The protection scope of the present invention shall be interpreted in accordance with the following claims, and all technical ideas within the scope equivalent thereto shall be construed as falling within the scope of rights of the present invention.

10 ・・・長方形
100 ・・・地面
200 ・・・対象イメージ
201、202、203、204 ・・・分割イメージ
300、400 ・・・焦点平面
1000 ・・・イメージ補正装置
1010 ・・・入力部
1020 ・・・イメージ変換部
1030 ・・・出力部
10...Rectangle 100...Ground 200...Target image 201, 202, 203, 204...Divided image 300, 400...Focal plane 1000...Image correction device 1010...Input section 1020 ... Image conversion section 1030 ... Output section

Claims (12)

コンピュータにより実行されるイメージ補正方法であって、
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含み、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップは、
全体変換長さのうちi番目分割イメージの変換長さが占める比率が、全体視野長さのうちn-i+1番目分割イメージの視野長さが占める比率と同一であるように、各々の分割イメージに対する変換長さを求めるステップを含み、ここで、nは分割イメージの総個数である、イメージ補正方法。
A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a field of view length for each divided image based on the viewpoint information and the vertical length of each divided image;
determining a transformation length for each segmented image from the field of view length ;
The step of determining a transformation length for each divided image from the field of view length includes:
For each divided image, so that the ratio of the transformed length of the i-th divided image to the total transformed length is the same as the ratio of the field of view length of the n-i+1st divided image to the total visual field length. An image correction method comprising the step of determining a transform length, where n is the total number of segmented images.
コンピュータにより実行されるイメージ補正方法であって、
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含み、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップは、以下の変換式;
を用いて、i番目分割イメージの変換長さy を求めるステップを含み、
ここで、h はi番目分割イメージの視野長さ、nは分割イメージの総個数、Tは対象イメージの全体長さである、イメージ補正方法。
A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a field of view length for each divided image based on the viewpoint information and the vertical length of each divided image;
determining a transformation length for each segmented image from the field of view length ;
The step of calculating the transformation length for each divided image from the field of view length is performed using the following transformation formula;
the step of determining the transform length y i of the i-th divided image using
Here, h i is the field of view length of the i-th divided image, n is the total number of divided images, and T is the entire length of the target image.
コンピュータにより実行されるイメージ補正方法であって、
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含み、
前記視野長さを求めるステップは、
視野長さの算出式によって視野長さを求めるステップであって、i番目分割イメージに対する視野長さh の算出式は
であり
ここで、Sは視点から焦点までの視線長さであり、θ はi番目分割イメージの視線反対側端部での視野角であり、θ は1番目分割イメージの視線側端部での視野角であり、θ は焦点での視野角である、視野長さの算出式によって視野長さを求めるステップを含む、イメージ補正方法。
A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a field of view length for each divided image based on the viewpoint information and the vertical length of each of the divided images;
determining a transformation length for each segmented image from the field of view length ;
The step of determining the field of view length includes:
The step of calculating the visual field length using the visual field length calculation formula, the formula for calculating the visual field length h i for the i-th divided image is
It is
Here, S is the line-of-sight length from the viewpoint to the focal point, θ i is the viewing angle at the end of the i-th divided image on the opposite side of the line-of-sight, and θ 0 is the viewing angle at the end of the first divided image on the side of the line-of-sight. An image correction method comprising the step of determining a field of view length using a field of view length calculation formula, where θ f is a field of view angle at a focal point .
コンピュータにより実行されるイメージ補正方法であって、
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視野長さを求めるステップと、
前記視野長さから各々の分割イメージに対する変換長さを求めるステップを含み、
前記視野長さを求めるステップは、
視野長さの算出式によって視野長さを求めるステップであって、i番目分割イメージに対する視野長さhiの算出式は
であり、
ここで、Rは視点から第1イメージの視点側端部までの視線長さであり、θiはi番目分割イメージの視点反対側端部での視野角であり、θ0は1番目分割イメージの視線側端部での視野角である、視野長さの算出式による視野長さを求めるステップを含む、イメージ補正方法。
A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a field of view length for each divided image based on the viewpoint information and the vertical length of each divided image;
determining a transformation length for each segmented image from the field of view length;
The step of determining the field of view length includes:
The step of calculating the visual field length using a visual field length calculation formula, the formula for calculating the visual field length hi for the i-th divided image is
and
Here, R is the line-of-sight length from the viewpoint to the end of the first image on the viewpoint side, θi is the viewing angle at the end opposite to the viewpoint of the i-th divided image, and θ0 is the line-of-sight of the first divided image. An image correction method comprising the step of determining a visual field length, which is a visual angle at a side edge, using a visual field length calculation formula.
前記視点情報は、視点の位置を第1イメージに対して特定できる情報を含む、請求項1~4のいずれか1項に記載のイメージ補正方法。 The image correction method according to claim 1, wherein the viewpoint information includes information that allows the position of the viewpoint to be specified with respect to the first image. 前記視点情報は、
前記第1イメージが位置する平面から視点までの視点高さ(H)、
前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部(A)までの視点距離(L)、
前記第1イメージの視点側端部(A)での視野角(θ)、
前記第1イメージの視点反対側端部(E)での視野角(θ)、
前記視点から前記第1イメージの視点側端部(A)までの視線長さ、
前記視点から前記第1イメージの視点反対側端部(E)までの視線長さ、
前記第1イメージの視点角(∠AOE)
のうち2個以上を含む、請求項に記載のイメージ補正方法。
The viewpoint information is
a viewpoint height (H) from the plane where the first image is located to the viewpoint;
a viewpoint distance (L) from a point where the viewpoint is projected onto a plane where the first image is located to a viewpoint side end (A) of the first image;
a viewing angle (θ 0 ) at the viewpoint side end (A) of the first image;
a viewing angle (θ 4 ) at the end (E) opposite to the viewpoint of the first image;
a line-of-sight length from the viewpoint to the viewpoint side end (A) of the first image;
a line-of-sight length from the viewpoint to an end (E) on the opposite side of the viewpoint of the first image;
Viewing angle of the first image (∠AOE)
The image correction method according to claim 5 , comprising two or more of the following.
コンピュータ読み取り可能な命令語を含むコンピュータ読み取り可能なメモリであって、
前記命令語は、コンピュータ上で実行される時、前記コンピュータが、請求項1~4のいずれか1項に記載の方法を実行するようにする、コンピュータ読み取り可能なメモリ。
A computer-readable memory comprising computer-readable instructions, the computer-readable memory comprising:
Computer-readable memory, wherein the instructions, when executed on a computer, cause the computer to perform the method according to any one of claims 1 to 4.
コンピュータにより実行されるイメージ補正方法であって、
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求めるステップと、
前記視点角から各々の分割イメージに対する変換長さを求めるステップを含み、
前記視点角から各々の分割イメージに対する変換長さを求めるステップは、
以下の変換式;
を用いて、i番目分割イメージの変換長さy を求めるステップを含み、
ここで、Hは前記第1イメージが位置する平面から視点までの視点高さ、Lは前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部までの視点距離である、イメージ補正方法。
A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images;
determining a transformation length for each divided image from the viewing angle ;
The step of determining a transformation length for each divided image from the viewpoint angle includes:
The following conversion formula;
the step of determining the transform length y i of the i-th divided image using
Here, H is the viewpoint height from the plane where the first image is located to the viewpoint, and L is the viewpoint side end of the first image from the point where the viewpoint is projected onto the plane where the first image is located. The image correction method is the viewpoint distance up to.
コンピュータにより実行されるイメージ補正方法であって、
第1イメージを提供するステップと、
前記第1イメージを眺める視点情報を提供するステップと、
前記第1イメージの横方向に沿って前記第1イメージを2個以上の分割イメージに分割するステップと、
前記2個以上の分割イメージの各々を前記視点情報および前記分割イメージの各々の縦長さに基づいて変換させることによって、第1イメージから変換された第2イメージを提供するステップを含み、
前記第1イメージから変換された第2イメージを提供するステップは、
前記視点情報および前記分割イメージの各々の縦長さに基づいて、各々の分割イメージに対する視点角を求めるステップと、
前記視点角から各々の分割イメージに対する変換長さを求めるステップを含み、
前記各々の分割イメージに対する視点角を求めるステップは、
以下の変換式;
を用いて、i番目分割イメージに対する視点角α を求めるステップを含み、
ここで、Tは第1イメージの全体縦長さ、nは分割イメージの総個数、a はi番目分割イメージの縦長さ、θ は1番目分割イメージの視線側端部での視野角、θ はn番目分割イメージの視線反対側端部での視野角である、イメージ補正方法。
A computer-implemented image correction method, comprising:
providing a first image;
providing viewpoint information for viewing the first image;
dividing the first image into two or more divided images along the lateral direction of the first image;
providing a second image converted from the first image by converting each of the two or more divided images based on the viewpoint information and the vertical length of each of the divided images;
Providing a second image transformed from the first image comprises:
determining a viewpoint angle for each divided image based on the viewpoint information and the vertical length of each of the divided images;
determining a transformation length for each divided image from the viewing angle ;
The step of determining the viewpoint angle for each divided image includes:
The following conversion formula;
the step of determining the viewpoint angle α i for the i-th divided image using
Here, T is the overall vertical length of the first image, n is the total number of divided images, a i is the vertical length of the i-th divided image, θ 0 is the viewing angle at the line-of-sight side end of the first divided image, θ An image correction method in which n is the viewing angle at the end opposite to the line of sight of the n-th divided image.
前記視点情報は、視点の位置を第1イメージに対して特定できる情報を含む、請求項8~9のいずれか1項に記載のイメージ補正方法。 The image correction method according to claim 8, wherein the viewpoint information includes information that allows the position of the viewpoint to be specified with respect to the first image. 前記視点情報は、
前記第1イメージが位置する平面から視点までの視点高さ(H)、
前記視点を前記第1イメージが位置する平面上に投影させた地点から前記第1イメージの視点側端部(A)までの視点距離(L)、
前記第1イメージの視点側端部(A)での視野角(θ)、
前記第1イメージの視点反対側端部(E)での視野角(θ)、
前記視点から前記第1イメージの視点側端部(A)までの視線長さ、
前記視点から前記第1イメージの視点反対側端部(E)までの視線長さ、
前記第1イメージの視点角(∠AOE)
のうち2個以上を含む、請求項10に記載のイメージ補正方法。
The viewpoint information is
a viewpoint height (H) from the plane where the first image is located to the viewpoint;
a viewpoint distance (L) from a point where the viewpoint is projected onto a plane where the first image is located to a viewpoint side end (A) of the first image;
a viewing angle (θ 0 ) at the viewpoint side end (A) of the first image;
a viewing angle (θ 4 ) at the end (E) opposite to the viewpoint of the first image;
a line-of-sight length from the viewpoint to the viewpoint side end (A) of the first image;
a line-of-sight length from the viewpoint to an end (E) on the opposite side of the viewpoint of the first image;
Viewing angle of the first image (∠AOE)
The image correction method according to claim 10 , comprising two or more of the following.
コンピュータ読み取り可能な命令語を含むコンピュータ読み取り可能なメモリであって、
前記命令語は、コンピュータ上で実行される時、前記コンピュータが、請求項8~9のいずれか1項に記載の方法を実行するようにする、コンピュータ読み取り可能なメモリ。
A computer-readable memory comprising computer-readable instructions, the computer-readable memory comprising:
Computer-readable memory, wherein the instructions, when executed on a computer, cause the computer to perform the method according to any one of claims 8-9.
JP2020509406A 2017-04-26 2018-04-26 Image correction method and device compatible with perspective Active JP7360379B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2017-0053983 2017-04-26
KR1020170053983A KR20170061640A (en) 2017-04-26 2017-04-26 A method for modifying an image to compensate perspective effect and a device thereof
PCT/KR2018/004876 WO2018199663A1 (en) 2017-04-26 2018-04-26 Method and device for image correction in response to perspective

Publications (3)

Publication Number Publication Date
JP2020518931A JP2020518931A (en) 2020-06-25
JP2020518931A5 JP2020518931A5 (en) 2021-06-10
JP7360379B2 true JP7360379B2 (en) 2023-10-12

Family

ID=59222781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020509406A Active JP7360379B2 (en) 2017-04-26 2018-04-26 Image correction method and device compatible with perspective

Country Status (7)

Country Link
US (1) US10970826B2 (en)
EP (1) EP3617989A4 (en)
JP (1) JP7360379B2 (en)
KR (1) KR20170061640A (en)
CN (1) CN110546681B (en)
AU (1) AU2018257146B2 (en)
WO (1) WO2018199663A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161173B (en) * 2019-12-18 2020-11-06 北京城市网邻信息技术有限公司 Image correction information acquisition method, image correction information acquisition device, image correction information model construction method, image correction information model construction device, and medium
US20220126853A1 (en) * 2020-10-26 2022-04-28 GM Global Technology Operations LLC Methods and systems for stiching of images into a virtual image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078121A (en) 2002-08-22 2004-03-11 Sharp Corp Device, method, and program for display correction and recording medium with recorded display correcting program
JP2009075842A (en) 2007-09-20 2009-04-09 Denso Corp On-vehicle display device
JP2017529617A (en) 2014-09-03 2017-10-05 ドン−ヤン シン Long-distance identification image generation apparatus and operation method thereof

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPS146502A0 (en) * 2002-03-28 2002-05-09 Traynor, Neil Methods and apparatus relating to improved visual recognition and safety
AU2003248269A1 (en) * 2002-07-12 2004-02-02 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
US7680322B2 (en) * 2002-11-12 2010-03-16 Namco Bandai Games Inc. Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing
KR101060152B1 (en) * 2011-01-22 2011-08-29 인하대학교 산학협력단 A method for observing road status using reconfigurable hardware
DE102011115739A1 (en) * 2011-10-11 2013-04-11 Daimler Ag Method for integrating virtual objects in vehicle displays
KR101261409B1 (en) 2012-04-24 2013-05-10 이엔지정보기술 주식회사 System for recognizing road markings of image
KR101584693B1 (en) * 2014-05-23 2016-01-14 경북대학교 산학협력단 Apparatus and method for generation of camera parameter
KR101645717B1 (en) * 2015-01-28 2016-08-12 (주)한양정보통신 Apparatus and method for adaptive calibration of advanced driver assistance system
JP6775188B2 (en) * 2016-08-05 2020-10-28 パナソニックIpマネジメント株式会社 Head-up display device and display control method
US10318826B2 (en) * 2016-10-07 2019-06-11 Ford Global Technologies, Llc Rear obstacle detection and distance estimation
KR101727987B1 (en) * 2016-10-17 2017-04-18 신동윤 Apparatus for generating image identifiable in long distance and operation method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078121A (en) 2002-08-22 2004-03-11 Sharp Corp Device, method, and program for display correction and recording medium with recorded display correcting program
JP2009075842A (en) 2007-09-20 2009-04-09 Denso Corp On-vehicle display device
JP2017529617A (en) 2014-09-03 2017-10-05 ドン−ヤン シン Long-distance identification image generation apparatus and operation method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ziqiong Liu et al,ROI perspective transform based road marking detection and recognition,2012 International Conference on Audio, Language and Image Processing,米国,IEEE,2012年07月18日,841 - 846,https://ieeexplore.ieee.org/document/6376731

Also Published As

Publication number Publication date
AU2018257146B2 (en) 2023-02-02
US10970826B2 (en) 2021-04-06
CN110546681A (en) 2019-12-06
CN110546681B (en) 2023-10-20
WO2018199663A1 (en) 2018-11-01
EP3617989A1 (en) 2020-03-04
EP3617989A4 (en) 2021-01-06
JP2020518931A (en) 2020-06-25
KR20170061640A (en) 2017-06-05
US20210012471A1 (en) 2021-01-14
AU2018257146A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
KR101940971B1 (en) Accelerated light field display
CN109561294B (en) Method and apparatus for rendering image
US20060267803A1 (en) Non-perspective variable-scale map displays
CN108133454B (en) Space geometric model image switching method, device and system and interaction equipment
JP7360379B2 (en) Image correction method and device compatible with perspective
KR100723422B1 (en) Apparatus and method for rendering image data using sphere splating and computer readable media for storing computer program
JP5460635B2 (en) Image processing determination device
CN106796719B (en) Remote recognition image generating apparatus and operation method thereof
JP2012510676A (en) Method and system for browsing visual content displayed in a virtual three-dimensional space
CN102074025B (en) Image stylized drawing method and device
KR101978271B1 (en) A method for modifying an image to compensate perspective effect and a device thereof
US9846819B2 (en) Map image display device, navigation device, and map image display method
JP5111897B2 (en) Filtering method and apparatus
JPWO2014020801A1 (en) Image processing apparatus and image processing method
KR102317652B1 (en) Contents information providing apparatus identifying from a distance
KR101086443B1 (en) Auto generation system for 3D road pattern
CN111052110A (en) Method, apparatus and computer program for overlaying a webpage on a 3D object
Wang et al. Enhancing Perception of Risk Objects for Car Drivers Through Augmented Reality Glasses
CN116793382B (en) Lane navigation information display method and device, electronic equipment and storage medium
JP6247456B2 (en) Navigation device and map drawing method
WO2016024375A1 (en) Image processing device and image processing method
US20240135706A1 (en) Method, image processing apparatus, and system for generating road image by using two-dimensional map data
Wang et al. Visualizing risk areas using augmented reality glasses as advanced driver-assistance system
JP2005151080A (en) Stereoscopic image display
JP2006331062A (en) Solid image generation method and solid image generation device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230103

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230929

R150 Certificate of patent or registration of utility model

Ref document number: 7360379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150