JP5001400B2 - Shield removal display device - Google Patents

Shield removal display device Download PDF

Info

Publication number
JP5001400B2
JP5001400B2 JP2010103289A JP2010103289A JP5001400B2 JP 5001400 B2 JP5001400 B2 JP 5001400B2 JP 2010103289 A JP2010103289 A JP 2010103289A JP 2010103289 A JP2010103289 A JP 2010103289A JP 5001400 B2 JP5001400 B2 JP 5001400B2
Authority
JP
Japan
Prior art keywords
section
background image
image
unit
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010103289A
Other languages
Japanese (ja)
Other versions
JP2011232983A (en
Inventor
伸明 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010103289A priority Critical patent/JP5001400B2/en
Publication of JP2011232983A publication Critical patent/JP2011232983A/en
Application granted granted Critical
Publication of JP5001400B2 publication Critical patent/JP5001400B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は遮蔽物を除去した状態での画像を推測して背景画像と合成し表示する表示装置に関するものである。   The present invention relates to a display device that estimates an image in a state where a shielding object is removed, and combines and displays the image with a background image.

従来の撮影画像中の物体を遮蔽物として指定し、その遮蔽物がない状態で撮影した画像を推測して生成する技術では、遮蔽物までの距離の範囲を指定し、その範囲内の物体を遮蔽物として指定している(例えば、特許文献1参照)。また、撮影した画像中の物体の位置を求め、除去する遮蔽物をユーザが指定するとしているものもある。(例えば、特許文献2参照)。また、表示する物体までの距離を指定し、その距離にある物体の画像のみを表示するとしているものもある。(例えば、非特許文献1参照)。   In the conventional technology to specify an object in a captured image as a shielding object, and to estimate and generate an image captured without the shielding object, a range of distance to the shielding object is specified, and an object in the range is selected. Designated as a shield (see, for example, Patent Document 1). In some cases, the user determines the position of an object in a photographed image and designates a shielding object to be removed. (For example, refer to Patent Document 2). In addition, there are some that specify a distance to an object to be displayed and display only an image of the object at the distance. (For example, refer nonpatent literature 1).

特開2008−117305号公報JP 2008-117305 A 特開平11−120352号公報JP-A-11-120352

Flaneur : digital see-through telescope(慶応大学 加藤浩他), International Conference on Computer Graphics and Interactive Techniques, ACM SIGGRAPH ASIA 2008, SESSION: Emerging technologies, Pages 43-43Flaneur: digital see-through telescope (Keio University Hiroshi Kato et al.), International Conference on Computer Graphics and Interactive Techniques, ACM SIGGRAPH ASIA 2008, SESSION: Emerging technologies, Pages 43-43 Analysis and Machine Intelligence, 22(11):1330-1334, 2000., "A flexible new technique for camera calibration". IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000.Analysis and Machine Intelligence, 22 (11): 1330-1334, 2000., "A flexible new technique for camera calibration". IEEE Transactions on Pattern Analysis and Machine Intelligence, 22 (11): 1330-1334, 2000. CAD・CGのための基礎数学、島田静雄 、インターネット時代の数学シリーズ 7、共立出版、2000年.Basic mathematics for CAD / CG, Shizuo Shimada, Mathematics series 7 in the Internet age, Kyoritsu Shuppan, 2000.

しかしながら、前記従来の構成では、観察する対象と除去する対象が単純な形状で数も少ない場合には有効ではあるが、多くのビルが建った複雑な形状の街路を歩いている際に直接視認できない行き先を見やすく表示する場合や、周辺の風景を直接視認できない街路上の目的とする種類の店舗、たとえば飲食店などを探すために用いる場合には、
距離だけの単純な指定では、ユーザの意図通りの遮蔽物除去を行えないため、意図通りの画像が得られない場合が多く、また、除去する対象をすべて指定する場合には操作が煩雑になり操作性に問題を生じるという課題を有していた。
However, the conventional configuration is effective when the objects to be observed and the objects to be removed are simple shapes and the number is small, but it is directly visible when walking on a complex street with many buildings. If you ’re looking for a destination you ca n’t see easily, or if you ’re looking to find a type of store on the street where you ca n’t see the surrounding scenery directly, such as a restaurant,
Simple specification of distance alone does not remove the obstructions as intended by the user, so images as intended are often not obtained, and the operation becomes complicated when all the objects to be removed are designated. There was a problem of causing problems in operability.

また、撮影箇所から背景画像や目的物の画像を撮影することがまったく不可能な場合にそれらの画像を目的方向に向けた画面に表示する技術として、非特許文献1のような技術が開示されているものの、この場合も方向と距離によって指示された位置の画像をサーバから取得して表示する技術のみが開示されており、複雑な形状の街路での連続的な操作に用いる場合には操作性、視認性が不十分である。また、非特許文献1では、直接視認不可能な風景を表示するのみであり、ユーザが直接視認できる風景との関係を把握しづらく、目的物までの距離や方角をユーザが認識しにくいという課題を有していた。   In addition, as a technique for displaying those images on a screen directed in the target direction when it is impossible to capture a background image or an object image from the shooting location, a technique such as Non-Patent Document 1 is disclosed. However, in this case as well, only a technique for acquiring and displaying an image of a position designated by a direction and a distance from a server is disclosed, and when used for continuous operation on a street having a complicated shape, the operation is disclosed. And visibility are insufficient. Further, in Non-Patent Document 1, only a landscape that cannot be directly visually recognized is displayed, and it is difficult to grasp the relationship with the landscape that can be directly visually recognized by the user, and it is difficult for the user to recognize the distance and direction to the target object. Had.

本発明は、前記従来の課題を解決するもので、単純な操作でユーザの意図する遮蔽物の除去を指定することが可能で、かつ目的物までの距離、方角を認識することが容易な遮蔽物除去表示装置を提供することを目的とする。   The present invention solves the above-described conventional problems, and can be used to specify the removal of the shielding object intended by the user with a simple operation, and to easily recognize the distance and direction to the object. An object of the present invention is to provide an object removal display device.

前記従来の課題を解決するために、本発明の遮蔽物除去表示装置は、装置の位置、方角の検出部、および周囲の地図情報の取得部を有し、それらの情報から撮影画像の方角の遮蔽物を除去することにより背景画像を表示可能な道の区間の候補を検出し、ユーザが選択した区間の背景画像を取得して撮影画像に嵌め込み表示し、ユーザが装置の方向を変更した際に、直前に背景画像を表示した区間と連続する区間を地図情報より判断して選択し、背景画像を表示する次の区間として設定し、その区間の背景画像を表示するために除去すべき遮蔽物の判定を行い、再度遮蔽物の除去表示を行う。本構成によって、装置の方向を変更するに従って連続した区間の背景画像が表示される。   In order to solve the above-described conventional problems, the obstruction removal display device of the present invention has a device position, a direction detection unit, and a surrounding map information acquisition unit. When a candidate for a road section that can display a background image is detected by removing the shielding object, the background image of the section selected by the user is acquired and displayed in a captured image, and the user changes the direction of the device Next, a section that is continuous with the section in which the background image was displayed immediately before is selected based on the map information, set as the next section to display the background image, and should be removed to display the background image in that section. The object is determined, and the removal of the shielding object is displayed again. With this configuration, a background image of a continuous section is displayed as the direction of the apparatus is changed.

本発明の遮蔽物除去表示装置によれば、複雑な形状の道路や建物がある地域において、遮蔽物の除去を行いつつ風景画像表示を行う際に、ユーザが装置の方向を変える操作のみでユーザの意図にあった道の区間の選択を連続的に行え、かつ、距離や方角を容易に認識できる。   According to the obstruction removal display device of the present invention, when a landscape image is displayed while removing obstructions in an area where there are roads or buildings with complicated shapes, the user only needs to change the direction of the device. It is possible to continuously select a road section that meets the intention of the vehicle, and to easily recognize the distance and direction.

本発明の実施の形態における遮蔽物除去表示装置の構成図Configuration diagram of a shield removal display device according to an embodiment of the present invention 本発明の実施の形態における建物と視点の配置を示す図The figure which shows arrangement | positioning of the building and viewpoint in embodiment of this invention 本発明の実施の形態における画面例を示す図The figure which shows the example of a screen in embodiment of this invention 本発明の実施の形態における画面例を示す図The figure which shows the example of a screen in embodiment of this invention 本発明の実施の形態における画面例を示す図The figure which shows the example of a screen in embodiment of this invention 本発明の実施の形態における画面例を示す図The figure which shows the example of a screen in embodiment of this invention 本発明の実施の形態における建物、視点と背景画像の配置を示す図The figure which shows arrangement | positioning of the building in the embodiment of this invention, a viewpoint, and a background image

以下本発明を実施するための形態について、図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態における遮蔽物除去表示装置の構成図である。図1において、位置検出部101は装置の位置を検出する。地図情報取得部102は位置検出部101から得られた位置周辺の地図情報を取得する。方角検出部103、仰角検出部104、傾き角検出部105はそれぞれ、撮像部107の方角、仰角、水平からの傾きを検出する。焦点距離検出部106は撮影部107のレンズの焦点距離を検出する。撮影部107は画像を撮影する。区間選択部108は、装置の動作開始時に、位置検出部101の検出した位置、地図情報取得部102が検出した地図情報、および方角検出部103が検出した方角をもとに、撮影部107が撮影している方向にある道の区間を地図から選択し、区間設定部112に設定する。この選択方法については後述する。表示区間切替え判定部109は位置検出部101の検出した位置、地図情報取得部102が検出した地図情報、および方角検出部103が検出した方角をもとに、区間設定部112に設定されている区間の中を撮影部107の方角が指しているか否かを判定する。連続区間判定部110は表示区間切替え判定部109が、撮影方向の中心が区間設定部112に設定された区間の範囲外になったと判定した際に、次に背景画像を表示すべき区間を判定する。この判定方法については後述する。区間変更部111は表示部116に表示されている背景画面をもとに、ユーザが他の道の区間の背景画像の表示を指示する際の操作を受付け、区間設定部に設定されている区間の情報を取り出し、変更後の道の区間を求めて区間設定部112に設定する。この区間の変更方法の詳細については後述する。除去対象判定部113は区間設定部112に設定された道の区間を取り出し、その道の背景画像を表示する際に撮影画像から除去すべき遮蔽物を、位置検出部101の検出した位置、地図情報取得部102が検出した地図情報、および方角検出部103が検出した方角を用いて判定する。この判定方法については後述する。背景画像取得部114は、除去対象判定部113が除去すべきと判定した遮蔽物の背景の画像を取得する。この取得方法については後述する。嵌め込み合成部115は、方角検出部103が検出した方角、仰角検出部104が検出した仰角、傾き角105検出部が検出した傾き角、焦点距離検出部106が検出した焦点距離を用いて、背景画像取得部114が取得した背景画像を、その画像が存在した位置とサイズを一致させて、撮影部107が撮影した画像に嵌め込んで合成し、画像を生成する。この嵌め込み、合成の方法については後述する。表示部116は嵌め込み合成部115が生成した画像を表示する。   FIG. 1 is a configuration diagram of a shield removal display device according to an embodiment of the present invention. In FIG. 1, a position detection unit 101 detects the position of the apparatus. The map information acquisition unit 102 acquires map information around the position obtained from the position detection unit 101. The direction detection unit 103, the elevation angle detection unit 104, and the tilt angle detection unit 105 detect the direction, the elevation angle, and the horizontal tilt of the imaging unit 107, respectively. The focal length detection unit 106 detects the focal length of the lens of the photographing unit 107. The imaging unit 107 captures an image. The section selection unit 108 is configured so that when the operation of the apparatus is started, the photographing unit 107 determines the position detected by the position detection unit 101, the map information detected by the map information acquisition unit 102, and the direction detected by the direction detection unit 103. A section of the road in the direction of shooting is selected from the map and set in the section setting unit 112. This selection method will be described later. The display section switching determination unit 109 is set in the section setting unit 112 based on the position detected by the position detection unit 101, the map information detected by the map information acquisition unit 102, and the direction detected by the direction detection unit 103. It is determined whether or not the direction of the photographing unit 107 points within the section. When the display interval switching determination unit 109 determines that the center of the shooting direction is outside the range of the interval set in the interval setting unit 112, the continuous interval determination unit 110 determines the next interval for displaying the background image. To do. This determination method will be described later. The section change unit 111 accepts an operation when the user instructs display of a background image of a section of another road based on the background screen displayed on the display unit 116, and the section set in the section setting unit And the changed road section is obtained and set in the section setting unit 112. Details of the method of changing this section will be described later. The removal target determination unit 113 takes out the road section set in the section setting unit 112, and displays the position and map information detected by the position detection unit 101 for the shielding object to be removed from the captured image when displaying the background image of the road. The determination is made using the map information detected by the acquisition unit 102 and the direction detected by the direction detection unit 103. This determination method will be described later. The background image acquisition unit 114 acquires an image of the background of the shielding object determined to be removed by the removal target determination unit 113. This acquisition method will be described later. The fitting composition unit 115 uses the direction detected by the direction detection unit 103, the elevation angle detected by the elevation angle detection unit 104, the tilt angle detected by the tilt angle 105 detection unit, and the focal length detected by the focal length detection unit 106. The background image acquired by the image acquisition unit 114 is combined with the image captured by the image capturing unit 107 by matching the position and size of the image and the image is generated. This fitting and synthesizing method will be described later. The display unit 116 displays the image generated by the fitting composition unit 115.

図2は、後述する画面例を説明する際に仮定した建物と視点の配置を示す図である。図2において、ビルA201AからビルE201E、ビルA’202AからビルE’202Eは、画面表示に関わる建物、区間AからH、区間UからZは、画面表示に関わる道の区間、および撮影部107の方角の変更に伴う、次に背景画像を表示する区間の選択方法を説明する際に関連する道の区間である。方角AからGは、背景画像を表示する道の区間の切替え判断方法を説明する際に用いる方角を示したものである。端点A、およびBは区間Cの端点を示したものである。視点203は、ビル群を撮影する際の位置である。   FIG. 2 is a diagram illustrating an arrangement of buildings and viewpoints assumed when an example of a screen to be described later is described. In FIG. 2, buildings A 201 A to E 201 E, buildings A ′ 202 A to E E 202 E are buildings related to screen display, sections A to H, sections U to Z are road sections related to screen display, and photographing unit 107. This is a section of a road that is relevant when a method for selecting a section for displaying a background image next is described. Directions A to G indicate directions to be used when explaining the method for determining the switching of the road section displaying the background image. The end points A and B indicate the end points of the section C. The viewpoint 203 is a position when photographing the building group.

図3は、本発明の実施の形態における画面例である。本画面例は遮蔽物の除去を行わず、図2の視点203からビルA201AからビルE201Eを撮影した際の画面例である。   FIG. 3 is an example of a screen in the embodiment of the present invention. This screen example is a screen example when the building A 201A to the building E 201E are photographed from the viewpoint 203 of FIG.

図4(A)から(C)は、本発明の実施の形態における画面例である。前述の構成を用い、後述の処理を行うことにより、撮影部107の方向を図2の方向Aから方向Eの方向へ移動するに従って、表示部116には、撮影部107の方角が方角Aから方角Bの間にある場合には図4(A)の画面が、方角Bから方角Cの間にある場合には図4(B)の画面が、方角Cから方角Dの間にある場合には図4(C)の画面が表示される。   4A to 4C are screen examples in the embodiment of the present invention. By performing the processing described later using the above-described configuration, the direction of the photographing unit 107 is changed from the direction A to the display unit 116 as the direction of the photographing unit 107 is moved from the direction A to the direction E in FIG. When the screen in FIG. 4A is between the direction B and when the screen in FIG. 4B is between the direction C and the direction D when the screen in FIG. 4C is displayed.

次に区間選択部108の動作について説明する。装置の動作開始時に撮影部107が方角Fの方向を向いていたとして説明する。この場合、区間選択部108は位置検出部101から得た位置、および方角検出部103から得た方角より、図2の視点203より方角Fの方向に伸びる直線Fを得る。さらに、区間選択部108は、地図情報取得部102より得た地図情報より、周辺の地図上の道の区間を抽出する。この際、地図情報には、街区単位で区切られた道の区間の情報が両端の座標として格納されており、区間選択部108はその両端の座標をもとに道の区間を線分として抽出することができるものとする。また、単純化のために、ここでは街区と建物は1対1対応するものとして説明する。街区ではなく建物単位での制御を行う際には、道の区間の単位を建物に面した区間に細分化することで対応する。   Next, the operation of the section selection unit 108 will be described. A description will be given assuming that the photographing unit 107 faces the direction F at the start of the operation of the apparatus. In this case, the section selection unit 108 obtains a straight line F extending in the direction F from the viewpoint 203 in FIG. 2 based on the position obtained from the position detection unit 101 and the direction obtained from the direction detection unit 103. Furthermore, the section selection unit 108 extracts a section of a road on the surrounding map from the map information obtained from the map information acquisition unit 102. At this time, in the map information, information on road sections divided in block units is stored as coordinates at both ends, and the section selection unit 108 extracts road sections as line segments based on the coordinates at both ends. Shall be able to. Further, for the sake of simplicity, the description here assumes that the block and the building have a one-to-one correspondence. When performing control in units of buildings rather than blocks, it is possible to subdivide the road unit into sections facing the building.

区間選択部108は、地図上の道の区間のうち、直線Fと交わるものを抽出する。図2の例では、区間B、区間E、区間Fが抽出される。区間選択部108は、それぞれの区間との交点と、それぞれの交点と視点203の間の距離を求める。次に視点203と交点の距離が2番目に短い区間を選択する。この選択基準は設定可能としてもよい。実用上、最前面にある建物を遮蔽物として除去する使用形態が一般的と考えられるため、本実施の形態では最前面の遮蔽物を除去するために、2番目に近い区間を、背景画像を表示するための区間として選択するものとして説明する。   The section selection unit 108 extracts the section of the road on the map that intersects with the straight line F. In the example of FIG. 2, section B, section E, and section F are extracted. The section selection unit 108 obtains intersections with the respective sections and distances between the respective intersections and the viewpoint 203. Next, a section with the second shortest distance between the viewpoint 203 and the intersection is selected. This selection criterion may be settable. In practice, it is considered that the usage form in which the building at the forefront is removed as a shielding object is common, so in this embodiment, the background image is used as the second closest section in order to remove the foreground shielding object. It demonstrates as what is selected as an area for displaying.

次に、除去対象判定部113の動作について説明する。除去対象判定部113は、区間設定部112より、区間選択部108、連続区間判定部110、あるいは区間変更部111により設定された区間を取りだす。次に除去対象判定部113は、地図情報取得部102より地図情報を取り出す。次に、除去対象判定部113は地図情報より、位置を1つの頂点とし、取り出した区間を1辺とする三角形の中に一部、または全部が含まれる建物を抽出し、それらの建物を除去すべき遮蔽物として判定する。図2において、区間Bが区間として設定されている場合は、区間Bと視点203を結ぶ三角形に一部が含まれるビルC201Cを除去対象の遮蔽物として判定する。区間Cが区間として設定されている場合は、区間Cと視点203を結ぶ三角形に一部が含まれるビルC201C、およびビルD201Dを除去対象の遮蔽物として判定する。   Next, the operation of the removal target determination unit 113 will be described. The removal target determination unit 113 extracts the section set by the section selection unit 108, the continuous section determination unit 110, or the section change unit 111 from the section setting unit 112. Next, the removal target determination unit 113 extracts map information from the map information acquisition unit 102. Next, the removal target determination unit 113 extracts a building including a part or all of the triangle with the position as one vertex and the extracted section as one side from the map information, and removes those buildings. Judge as a shield to be. In FIG. 2, when the section B is set as the section, the building C 201 </ b> C including a part in the triangle connecting the section B and the viewpoint 203 is determined as the shielding object to be removed. When the section C is set as the section, the building C201C and the building D201D that partially include the triangle connecting the section C and the viewpoint 203 are determined as the shielding objects to be removed.

次に、背景画像取得部114の動作について、図2、および図5を参照しながら説明する。ここでは、区間設定部112に区間Cが設定され、除去対象判定部113によって、除去すべき遮蔽物としてビルC201C、ビルD201Dが指定されているものとして説明する。また、各ビルの周辺の道の区間は、地図情報より得られるものとする。   Next, the operation of the background image acquisition unit 114 will be described with reference to FIG. 2 and FIG. Here, it is assumed that the section C is set in the section setting unit 112 and the building C201C and the building D201D are designated by the removal target determination unit 113 as shielding objects to be removed. In addition, the road section around each building is obtained from the map information.

背景画像取得部114は、まず、複数の遮蔽物が指定されている場合に、それらの遮蔽物の周辺の区間を求め、遮蔽物間に挟まれている区間、つまり複数の遮蔽物が共通で持っている周辺の区間を除外する。ビルC201C、ビルD201Dの場合、区間Vを周辺の区間として共有しているため、区間Vを除外する。   First, when a plurality of shielding objects are designated, the background image acquisition unit 114 obtains a section around the shielding objects, and a section sandwiched between the shielding objects, that is, a plurality of shielding objects is common. Exclude surrounding sections you have. In the case of the building C201C and the building D201D, since the section V is shared as a surrounding section, the section V is excluded.

次に、背景画像取得部114は、残った区間、つまり除去すべき遮蔽物の周辺のすべての区間の中から、遮蔽物の手前側の区間、つまり、視点203から見た時の最前面の区間を除外する。具体的には、各区間の中の1点を選び、視点203と選んだ点を結ぶ直線を求め、その直線と交点を持つ、すべての他の区間との交点が、先に選んだ区間内の点より遠い場合、つまり、先に選んだ区間内の点が一番手前にある場合は、その区間は最前面の区間として除外する。図2において、区間Cが設定されており、除去すべき遮蔽物としてビルC201C、ビルD201Dが選ばれている場合、区間Eと区間Gが最前面の区間として除外され、結果として区間B、区間C、区間T、区間Xが背景画像を取得すべき区間として指定される。   Next, the background image acquisition unit 114, among all the remaining sections, that is, all the sections around the shielding object to be removed, the section on the near side of the shielding object, that is, the foreground when viewed from the viewpoint 203. Exclude sections. Specifically, one point in each section is selected, a straight line connecting the viewpoint 203 and the selected point is obtained, and the intersections with all the other sections having the intersection with the straight line are within the previously selected section. If it is farther than the point, that is, if the point in the previously selected section is in the foreground, that section is excluded as the forefront section. In FIG. 2, when the section C is set and the building C201C and the building D201D are selected as the shields to be removed, the section E and the section G are excluded as the forefront section, and as a result, the section B and the section C, section T, and section X are designated as the sections from which the background image should be acquired.

次に背景画像取得部114は、区間B、区間C、区間T、区間Xに対応する背景画像を取得する。背景画像の取得のために、背景画像取得部114は撮影点を区間の中央に設定し、区間と直交する方向を撮影方向とした風景撮影画像を、サーバから取得する。現在の一般的な風景画像提供サービスでは、緯度、経度と方角を指定することにより、風景画像を取得することができるため、このサービスを用いることにより、背景画像を取得するために必要な風景画像を取得できる。ここでは、図5における撮影点B、撮影点C、撮影点T、撮影点Xを撮影点として設定し、区間と直交し、視点203から遠ざかる方の方向を方角と指定して風景画像を取得する。   Next, the background image acquisition unit 114 acquires background images corresponding to the sections B, C, T, and X. In order to acquire the background image, the background image acquisition unit 114 sets a shooting point at the center of the section, and acquires a landscape shot image having a shooting direction in a direction orthogonal to the section from the server. In the current general landscape image providing service, a landscape image can be acquired by specifying latitude, longitude, and direction. Therefore, a landscape image necessary for acquiring a background image by using this service is available. Can be obtained. Here, the shooting point B, the shooting point C, the shooting point T, and the shooting point X in FIG. 5 are set as shooting points, and a landscape image is acquired by designating the direction that is orthogonal to the section and away from the viewpoint 203 as the direction. To do.

次に背景画像取得部114は、取得した風景画像の歪みを補正する。Google社のStreet Viewサービスは広角レンズにより風景を撮影し蓄積しているため、得られる画像がレンズの歪みを含む。そのため、本実施の形態においては、歪み除去を行い、平面画像を生成し利用することによって処理の簡略化と画像精度の向上を図る。代表的なレンズの歪み除去技術には非特許文献2がある。   Next, the background image acquisition unit 114 corrects the distortion of the acquired landscape image. Google's Street View service captures and stores landscapes with wide-angle lenses, so the resulting image contains lens distortion. For this reason, in the present embodiment, distortion is removed, and a planar image is generated and used to simplify processing and improve image accuracy. Non-Patent Document 2 is a representative lens distortion removal technique.

次に背景画像取得部114は、歪み除去の結果得られた風景画像の中から、区間の背景画像として利用する画像を切り出す。地図上では、区間の背後の建物、および、建物のない道の空間を背景画像として設定する。また、上下方向では、地表から一定の高さまでの画像を切り出す。一定の高さは、ビルの高さとして一般的に考えられる高さを設定する。この高さは地域によって設定可能としてもよいし、地図情報に建物の高さ情報が含まれている場合はその地図情報をもとに各区間に対応する建物のもっとも高い高さに設定してもよい。この時、画像には画像の各頂点の座標をともに記録しておく。   Next, the background image acquisition unit 114 cuts out an image to be used as the background image of the section from the landscape image obtained as a result of distortion removal. On the map, a building behind the section and a space of a road without a building are set as a background image. In the vertical direction, an image from the ground surface to a certain height is cut out. The constant height sets a height generally considered as the height of the building. This height may be set according to the region, and if the map information includes building height information, the highest height of the building corresponding to each section is set based on the map information. Also good. At this time, the coordinates of each vertex of the image are recorded in the image.

次に、嵌め込み合成部115の動作について説明する。3次元空間内の平面上の画像のカメラ座標系への変換については、非特許文献3が詳しい。   Next, the operation of the fitting composition unit 115 will be described. Non-Patent Document 3 is detailed for converting an image on a plane in a three-dimensional space into a camera coordinate system.

非特許文献3において、カメラ座標系への変換(5.4.2項)、透視変換と射影変換(5.4.3項)の技術が示されており、これらを組み合わせることにより、3次元空間上の平面画像とその位置と範囲が得られ、かつ、カメラの位置と方向と焦点距離が得られる場合のカメラ座標系への射影変換は可能となる。具体的には非特許文献3の下記の計算方法を用いて、背景画像中の各座標を、撮影部107の撮像素子上の位置に変換する。   Non-Patent Document 3 discloses techniques of transformation into a camera coordinate system (section 5.4.2), perspective transformation and projective transformation (section 5.4.3). By combining these, three-dimensional A planar image in space, its position and range can be obtained, and projective transformation to the camera coordinate system is possible when the position, direction and focal length of the camera are obtained. Specifically, each coordinate in the background image is converted into a position on the image sensor of the imaging unit 107 using the following calculation method of Non-Patent Document 3.

まず、カメラの向きを示す単位ベクトルは、方角、仰角、傾き角から求められる。また、方角、仰角、傾き角を3軸の加速度センサーと3軸の地磁気センサーを用いて求める方式については既知である。   First, a unit vector indicating the direction of the camera is obtained from the direction, the elevation angle, and the tilt angle. A method for obtaining a direction, an elevation angle, and an inclination angle using a triaxial acceleration sensor and a triaxial geomagnetic sensor is known.

次に、(数1)を用いて、カメラのx, y, z軸の向きを表す単位ベクトル(a,b,c)と、カメラの位置ベクトルdとを縦ベクトル成分とする変換行列Tを求める。   Next, using (Equation 1), a transformation matrix T having a vertical vector component of a unit vector (a, b, c) representing the x, y, and z axis directions of the camera and a camera position vector d is obtained. Ask.

Figure 0005001400
Figure 0005001400

次に、(数2)および(数3)を用いて、上記の行列Tに対して、逆変換を表す3×4変換行列、つまり対象物の世界座標をカメラ座標系に直す変換行列Twを求める。   Next, by using (Equation 2) and (Equation 3), a 3 × 4 transformation matrix representing an inverse transformation with respect to the matrix T, that is, a transformation matrix Tw for converting the world coordinates of the object into the camera coordinate system is obtained. Ask.

Figure 0005001400
Figure 0005001400

Figure 0005001400
Figure 0005001400

次に、上記の変換行列を用いて、(数4)によって、対象物の世界座標x, y, zをカメラ座標系の座標値x’, y’, z’に変換する。   Next, using the above transformation matrix, the world coordinates x, y, z of the object are transformed into coordinate values x ′, y ′, z ′ of the camera coordinate system by (Equation 4).

Figure 0005001400
Figure 0005001400

次に、(数5)を用いて、x’, y’, z’を、視点203からfの距離に置いた投影面(撮像素子)上の位置x’’, y’’, z’’に変換する。   Next, using (Equation 5), x ′, y ′, z ′ are positions x ″, y ″, z ″ on the projection plane (imaging device) placed at a distance f from the viewpoint 203. Convert to

Figure 0005001400
Figure 0005001400

上記計算式では座標変換の方法を示したが、背景画像中の各画素について上記の座標変換を行い、撮影部107の撮像素子上の位置に変換し、変換後の位置における補間、平均などによる画像処理を行い、撮像素子上の画像を生成する。この画像処理については一般的な処理であるためここでは細部については述べない。   Although the above equation shows the method of coordinate conversion, the above-described coordinate conversion is performed on each pixel in the background image to convert it to a position on the image sensor of the imaging unit 107, and interpolation, averaging, etc. at the converted position are performed. Image processing is performed to generate an image on the image sensor. Since this image processing is general processing, details are not described here.

次に、連続区間判定部110の動作について図2を参照しながら説明する。ここでは、具体的に撮影部107の方向が方角Aから方角Eに向かって移動しており、背景画像を表示する区間として区間Cが区間設定部112に設定されているものとして説明する。   Next, the operation of the continuous section determination unit 110 will be described with reference to FIG. Here, the direction of the photographing unit 107 is specifically moved from the direction A toward the direction E, and the section C is set in the section setting unit 112 as a section for displaying the background image.

撮影部107の方角がさらに右方向に変化し、方角Dの方角になった時点で、表示区間切替え判定部109は撮影している方角への直線が、区間設定部112に設定されている区間の1端点である端点A上を通ることを検出し、連続区間判定部110に通知する。   When the direction of the photographing unit 107 further changes to the right and becomes the direction of the direction D, the display section switching determination unit 109 sets the straight line to the direction of photographing as the section set in the section setting unit 112 It is detected that the vehicle passes over the end point A, which is one of the end points, and notifies the continuous section determination unit 110.

次に連続区間判定部110は、地図情報から端点Aを端点として持つ他の区間を抽出する。図2においては、区間D、区間X、区間Yが抽出される。次に連続区間判定部110は、抽出された区間から、現在設定されている区間Cと交差する角度のもっとも少ないものを選択する。図2の端点Aにおいては、区間Dは区間Cと平行であり、区間X、区間Yは区間Cと直角であるため、区間Dが選ばれ、次に背景画像を表示する区間として区間設定部112に設定される。この時の判定ルールはさらに詳細な設定が可能であり、効果的である。例えば、交差する角度の差が一定の範囲内の場合には視点203からの距離が近い方の区間、あるいは逆に遠い方の区間を設定するルールを設けてもよい。また、交差する角度と関係なく、視点203からの距離の近い区間を区間設定部112に設定することによって、撮影部107を左右に振るに従ってより近い側の区間が選択されていくようにもできるし、また、逆に距離の遠い区間を区間設定部112に設定することによって、左右に振るに従ってより遠い側の区間が選択されていくようにもできる。また、これらのルールをソフトウェア、ハードウェアとして実装してユーザに設定可能な機能として提供してもよいし、単純なルールの組合せによってユーザ自身が新たなルールを作成し設定することを可能としてもよい。   Next, the continuous section determination unit 110 extracts another section having the end point A as an end point from the map information. In FIG. 2, section D, section X, and section Y are extracted. Next, the continuous section determination unit 110 selects the one having the smallest angle that intersects the currently set section C from the extracted sections. 2, the section D is parallel to the section C, and the sections X and Y are perpendicular to the section C. Therefore, the section D is selected, and the section setting unit is set as a section for displaying the background image next. 112. The determination rule at this time can be set in more detail and is effective. For example, when the difference between the intersecting angles is within a certain range, a rule for setting a section having a shorter distance from the viewpoint 203 or a section having a far distance may be provided. In addition, by setting a section having a short distance from the viewpoint 203 in the section setting unit 112 regardless of the intersecting angle, a section on a closer side can be selected as the photographing unit 107 is swung left and right. On the contrary, by setting a section with a long distance in the section setting unit 112, the section on the far side can be selected as it is swung left and right. Also, these rules may be implemented as software and hardware and provided as a function that can be set by the user, or the user himself / herself can create and set a new rule by a combination of simple rules. Good.

次に区間変更部111の動作について図2を参照しながら説明する。区間変更部は第1変更操作部111Aと第2変更操作部111Bを持ち、それぞれが異なった操作を受け付けるため、それぞれの動作について別個に説明する。また、ここでは、具体的に撮影部107の方角が方角Gであり、背景画像を表示する区間として区間Cが区間設定部112に設定されているものとして説明する。   Next, the operation of the section changing unit 111 will be described with reference to FIG. Since the section change unit has the first change operation unit 111A and the second change operation unit 111B and each receives a different operation, each operation will be described separately. Here, the direction of the photographing unit 107 is specifically the direction G, and the section C is set in the section setting unit 112 as a section for displaying the background image.

まず、第1変更操作部111Aの動作について説明する。第1変更操作部111Aは、ユーザからの距離の変更の指示を受け付ける。ユーザからの距離の変更の指示は、より遠くの道の区間の背景画像を表示するように区間を変更するか、より近くの道の区間の背景画像を表示するように区間を変更するかの指示の2種類がある。これらの指示を受けた第1変更操作部111Aは、地図情報取得部102より地図情報を取り出し、その中のすべての道の区間の情報を抽出する。次に第1変更操作部111Aは、そのすべての区間の中から、方角G上の直線と交点を持つ区間のみを選択する。図2の方角Gのケースでは、視点203に近い方から順に、区間E、区間V、区間C、区間Hが選択される。次に第1変更操作部111Aは、それらの区間の中から、区間Cと交差する角度が一定値以上のものを除外する。第1変更操作部111Aへのユーザの指示は、区間の距離の変更であって、方角の変更は意図していないため、方角が極端に変更されることを防ぐためにこの動作を行う。ここで角度の差が45度以上の場合に除外するものとすると区間Vが除外され、区間E、区間C、区間Hが残る。次に第1変更操作部111Aは、残った各区間と、撮影部107の方角上の直線との交点を求め、その交点と視点203との間の距離に従って各区間をソートする。この場合、距離が近い順に並べると、区間E、区間C、区間Hの順に並ぶ。次に第1変更操作部111Aは、ユーザからの指示が距離を遠くするものである場合は、ソートされた区間の中から、現在、区間設定部112に設定されている区間の次に遠い区間を選択し、区間設定部112に設定する。この場合では、区間Hが設定される。ユーザからの指示が距離を近くするものである場合は、ソートされた区間の中から、現在、区間設定部112に設定されている区間の次に近い区間を選択し、区間設定部112に設定する。この場合では、区間Eが設定される。   First, the operation of the first change operation unit 111A will be described. 111 A of 1st change operation parts receive the instruction | indication of the change of the distance from a user. The instruction to change the distance from the user is whether to change the section so that the background image of the section of the farther road is displayed or to change the section to display the background image of the section of the closer road. There are two types of instructions. Upon receiving these instructions, the first change operation unit 111A extracts map information from the map information acquisition unit 102, and extracts information of all road sections therein. Next, 111 A of 1st change operation parts select only the area which has the straight line and the intersection on the direction G among all the areas. In the case of the direction G in FIG. 2, the section E, the section V, the section C, and the section H are selected in order from the side closer to the viewpoint 203. Next, 111 A of 1st change operation parts exclude the thing which the angle which cross | intersects the section C is more than a fixed value from those sections. The user's instruction to the first change operation unit 111A is to change the distance of the section, and is not intended to change the direction, so this operation is performed to prevent the direction from being changed extremely. Here, if it is excluded when the difference in angle is 45 degrees or more, the section V is excluded, and the section E, the section C, and the section H remain. Next, 111 A of 1st change operation parts obtain | require the intersection of each remaining area and the straight line on the direction of the imaging | photography part 107, and sort each area according to the distance between the intersection and the viewpoint 203. FIG. In this case, when the distances are arranged in order of increasing distance, the sections E, C, and H are arranged in this order. Next, in the case where the instruction from the user increases the distance, the first change operation unit 111 </ b> A is a section that is next to the section that is currently set in the section setting section 112 from the sorted sections. Is set in the section setting unit 112. In this case, section H is set. If the instruction from the user is to reduce the distance, a section next to the section currently set in the section setting unit 112 is selected from the sorted sections and set in the section setting unit 112. To do. In this case, section E is set.

次に、第2変更操作部111Bの動作について説明する。第2変更操作部111Bは、ユーザからの方向の変更の指示を受け付ける。ユーザからの方向の変更の指示は、時計回りの方向に区間を変更するか、反時計回りの方向に区間を変更するかの指示の2種類がある。これらの指示を受けた第2変更操作部111Bは、区間設定部112から取り出した区間と、方角Gとの交点を求める。次に第2変更操作部111Bは、区間の二つの端点である端点Aと端点Bのうちから、交点に近い端点を選択する。この場合、端点Bが選択される。次に第2変更操作部111Bは、地図情報取得部102より地図情報を取り出し、その中から端点Bを共有する他の区間を抽出する。この場合、区間B、区間V、区間Wが抽出される。次に第2変更操作部111Bは、抽出された各区間と区間設定部112に設定されている区間である区間Cとがなす角度を求め、それを時計回りに小さい順にソートする。この場合では、区間V、区間B、区間Wの順で並べられる。なお、ここでは角度は端点Bから遠方に向かう方向を角度として計算する。   Next, the operation of the second change operation unit 111B will be described. The second change operation unit 111B receives a direction change instruction from the user. There are two types of instructions for changing the direction from the user: instructions to change the section in the clockwise direction or to change the section in the counterclockwise direction. Receiving these instructions, the second change operation unit 111B obtains an intersection between the section extracted from the section setting unit 112 and the direction G. Next, the second change operation unit 111B selects an end point close to the intersection from the end point A and the end point B which are the two end points of the section. In this case, the end point B is selected. Next, the 2nd change operation part 111B takes out map information from the map information acquisition part 102, and extracts the other area which shares the end point B out of it. In this case, section B, section V, and section W are extracted. Next, the second change operation unit 111B obtains angles formed by the extracted sections and the section C that is a section set in the section setting unit 112, and sorts them in the clockwise order. In this case, the sections V, B, and W are arranged in this order. Here, the angle is calculated by taking the direction from the end point B toward the far side.

次に第2変更操作部111Bは、ユーザからの指示が角度を時計回りに変更させるものである場合は、ソートされた区間の中から、先頭の区間を選択し、区間設定部112に設定する。この場合では、区間Vが設定される。ユーザからの指示が反時計回りに変更させるものである場合は、ソートされた区間の中から、最後の区間を選択し、区間設定部112に設定する。この場合では、区間Wが設定される。   Next, when the instruction from the user changes the angle clockwise, the second change operation unit 111B selects the first section from the sorted sections and sets it in the section setting section 112. . In this case, section V is set. When the instruction from the user is to be changed counterclockwise, the last section is selected from the sorted sections and set in the section setting unit 112. In this case, the section W is set.

かかる構成によれば撮影部107の方角を方角検出部で検出し、その方角が背景画像を表示するものとして設定した道の区間の範囲外に移動する際に、その区間と接し、その区間と近い方向の区間を自動的に選択し、次に背景画像を表示する区間として設定し、背景画像表示を取得し、撮影部が撮影した背景画像以外の画像と嵌め込み合成を行って表示することにより、撮影部の方向を左右に変化させた際に撮影部が向いている方向の遮蔽物のみを画像から除去して街路の背景画像の表示を行う際に、連続した街路中の区間をユーザの指定なしに選択し表示することができる。   According to such a configuration, when the direction of the photographing unit 107 is detected by the direction detection unit, and the direction moves outside the range of the road section set to display the background image, the section is in contact with the section. By automatically selecting the section in the near direction, setting it as the section to display the background image next, acquiring the background image display, and displaying it by fitting and synthesizing with the image other than the background image captured by the shooting unit When displaying the background image of the street by removing only the shielding object in the direction in which the photographing unit is facing when the direction of the photographing unit is changed to the left and right, when the background image of the street is displayed, the section in the continuous street is displayed by the user. Can be selected and displayed without specification.

本発明にかかる遮蔽物除去表示装置は、ユーザが装置の方向を変える操作のみでユーザの意図にあった道の区間の選択を連続的に行えるので、建物を除去した状態での風景画像を推測し合成して表示する表示装置等として有用である。   The shielding removal display device according to the present invention can continuously select a road section according to the user's intention only by the user's operation of changing the direction of the device. It is useful as a display device for combining and displaying.

101 位置検出部
102 地図情報取得部
103 方角検出部
104 仰角検出部
105 傾き角検出部
106 焦点距離検出部
107 撮影部
108 区間選択部
109 表示区間切替え判定部
110 連続区間判定部
111 区間変更部
112 区間設定部
113 除去対象判定部
114 背景画像取得部
115 嵌め込み合成部
116 表示部
201A〜201E ビル
202A〜202E ビル
203 視点
DESCRIPTION OF SYMBOLS 101 Position detection part 102 Map information acquisition part 103 Direction detection part 104 Elevation angle detection part 105 Inclination angle detection part 106 Focal length detection part 107 Imaging | photography part 108 Section selection part 109 Display area switching determination part 110 Continuous area determination part 111 Section change part 112 Section setting unit 113 Removal target determination unit 114 Background image acquisition unit 115 Insertion synthesis unit 116 Display unit 201A to 201E Building 202A to 202E Building 203 View point

Claims (7)

撮影手段と、
前記撮影手段の方角を検出する方角検出手段と、
前記撮影手段の仰角を検出する仰角検出手段と、
前記撮影手段の傾き角を検出する傾き角検出手段と、
前記撮影手段の焦点距離を検出する焦点距離検出手段と、
位置を検出する位置検出手段と、
前記位置より地図情報を取得する地図情報取得手段と、
前記方角、前記位置、および前記地図情報より得られた1つあるいは複数の道の区間から、当該する道の区間より遠方の風景画像である背景画像を表示する区間を選択する区間選択手段と、
前記方角、前記位置、および前記地図情報から前記背景画像を表示する区間の切替え要否を判定する、表示区間切替え判定手段と、
区間の切替え時に、切替え前に前記背景画像を表示していた区間と連続する区間を判定し設定する連続区間判定手段と、
前記背景画像を表示する区間を元に、除去すべき遮蔽物を判定する除去対象判定手段と、
除去対象と判定された遮蔽物の背景画像を取得する背景画像取得手段と、
前記方角、前記仰角、前記傾き角、および前記焦点距離をもとに、遮蔽物の背景画像と、前記撮影手段で撮影された画像の遮蔽物以外の部分の画像とを嵌め込み合成する、嵌め込み合成手段と、
表示手段と、を備えた遮蔽物除去表示装置。
Photographing means;
Direction detecting means for detecting the direction of the photographing means;
An elevation angle detection means for detecting an elevation angle of the imaging means;
An inclination angle detecting means for detecting an inclination angle of the photographing means;
A focal length detecting means for detecting a focal length of the photographing means;
Position detecting means for detecting the position;
Map information acquisition means for acquiring map information from the position;
Section selection means for selecting a section for displaying a background image that is a landscape image far from the section of the road from one or a plurality of sections of the road obtained from the direction, the position, and the map information;
A display section switching determination means for determining whether or not to switch a section for displaying the background image from the direction, the position, and the map information;
At the time of switching the section, continuous section determination means for determining and setting a section that is continuous with the section displaying the background image before switching,
Based on the section displaying the background image, removal target determination means for determining a shield to be removed;
Background image acquisition means for acquiring a background image of the shielding object determined to be removed;
A fitting composition that fits and synthesizes the background image of the shielding object and the image of the portion other than the shielding object of the image photographed by the photographing means based on the direction, the elevation angle, the tilt angle, and the focal length. Means,
A shielding object removal display device comprising: a display unit;
前記嵌め込み手段は、前記背景画像と、前記撮影手段で撮影された画像の遮蔽物以外の部分の画像とを、位置とサイズを一致させて嵌め込むことを特徴とする、請求項1に記載の遮蔽物除去表示装置。 The said fitting means fits the said background image and the image of parts other than the obstruction | occlusion object of the image image | photographed with the said imaging | photography means by making a position and size correspond. Shield removal display device. 前記背景画像取得手段は、撮影時の撮影位置と撮影方角とを関連付けして格納された風景画像をサーバから取得することを特徴とする、請求項1または請求項2に記載の遮蔽物除去表示装置。 The obstruction removal display according to claim 1, wherein the background image acquisition unit acquires a landscape image stored by associating a shooting position and a shooting direction at the time of shooting from a server. apparatus. 前記背景画像を表示する区間を変更するための区間変更手段を備えることを特徴とする請求項1から請求項3のいずれかに記載の遮蔽物除去表示装置。 The shielding object removal display device according to any one of claims 1 to 3, further comprising section changing means for changing a section in which the background image is displayed. 前記区間変更手段は、第1変更操作手段と第2変更操作手段を持ち、第1変更操作手段を操作することによって、前記背景画像を表示する区間までの距離を変化させ、第2変更操作手段を操作することによって、前記背景画像を表示する区間の方向を変化させることを特徴とする請求項4に記載の遮蔽物除去表示装置。 The section change means has first change operation means and second change operation means, and operates the first change operation means to change the distance to the section displaying the background image. The shielding object removal display device according to claim 4, wherein the direction of the section in which the background image is displayed is changed by operating the button. 前記区間変更手段は、画面に地図を表示し、その上でユーザが背景画像を表示する区間を指示することによって行うことを特徴とする請求項4または請求項5に記載の遮蔽物除去表示装置。 6. The obstruction removal display device according to claim 4, wherein the section changing means displays a map on a screen, and the user instructs a section in which a background image is displayed on the map. . 前記背景画像取得手段は、取得した画像の歪みを補正し、背景画像として利用することを特徴とする請求項1から請求項6のいずれかに記載の遮蔽物除去表示装置。 The said background image acquisition means correct | amends distortion of the acquired image, and uses it as a background image, The obstruction removal display apparatus in any one of Claims 1-6 characterized by the above-mentioned.
JP2010103289A 2010-04-28 2010-04-28 Shield removal display device Expired - Fee Related JP5001400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010103289A JP5001400B2 (en) 2010-04-28 2010-04-28 Shield removal display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010103289A JP5001400B2 (en) 2010-04-28 2010-04-28 Shield removal display device

Publications (2)

Publication Number Publication Date
JP2011232983A JP2011232983A (en) 2011-11-17
JP5001400B2 true JP5001400B2 (en) 2012-08-15

Family

ID=45322236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010103289A Expired - Fee Related JP5001400B2 (en) 2010-04-28 2010-04-28 Shield removal display device

Country Status (1)

Country Link
JP (1) JP5001400B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10284789B2 (en) * 2017-09-15 2019-05-07 Sony Corporation Dynamic generation of image of a scene based on removal of undesired object present in the scene
CN114005514B (en) * 2021-11-26 2022-07-29 杭州涿溪脑与智能研究所 Medical image diagnosis method, system and device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259858A (en) * 1999-03-09 2000-09-22 Sharp Corp Data display method and data display device using the same
JP4983757B2 (en) * 2008-09-18 2012-07-25 Kddi株式会社 Image generating apparatus, method and program

Also Published As

Publication number Publication date
JP2011232983A (en) 2011-11-17

Similar Documents

Publication Publication Date Title
JP7371924B2 (en) Video monitoring system, video monitoring method, and program
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
JP5178553B2 (en) Imaging device
JP5020398B1 (en) Image conversion apparatus, camera, image conversion method and program
JP2008217243A (en) Image creation device
JP5733088B2 (en) Movie presentation device
JP6789899B2 (en) Measuring device and operating method of measuring device
KR100957590B1 (en) Aparratus for display omni-directional image with object image
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
JP2006329684A (en) Image measuring instrument and method
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
JP6388532B2 (en) Image providing system and image providing method
JP5001400B2 (en) Shield removal display device
WO2020090420A1 (en) Information processing device, control method therefor, program, and storage medium
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
JP2006017632A (en) Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
JP6768400B2 (en) Information processing equipment, information processing methods and programs
JP5168313B2 (en) Image display device
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP6292785B2 (en) Image processing apparatus, image processing method, and program
US11935182B2 (en) Information processing apparatus, information processing method, and storage medium
WO2023026686A1 (en) Information processing device, information processing method, and information processing program
JP2004085555A (en) Surveying system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120517

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees