JP5001400B2 - Shield removal display device - Google Patents
Shield removal display device Download PDFInfo
- Publication number
- JP5001400B2 JP5001400B2 JP2010103289A JP2010103289A JP5001400B2 JP 5001400 B2 JP5001400 B2 JP 5001400B2 JP 2010103289 A JP2010103289 A JP 2010103289A JP 2010103289 A JP2010103289 A JP 2010103289A JP 5001400 B2 JP5001400 B2 JP 5001400B2
- Authority
- JP
- Japan
- Prior art keywords
- section
- background image
- image
- unit
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は遮蔽物を除去した状態での画像を推測して背景画像と合成し表示する表示装置に関するものである。 The present invention relates to a display device that estimates an image in a state where a shielding object is removed, and combines and displays the image with a background image.
従来の撮影画像中の物体を遮蔽物として指定し、その遮蔽物がない状態で撮影した画像を推測して生成する技術では、遮蔽物までの距離の範囲を指定し、その範囲内の物体を遮蔽物として指定している(例えば、特許文献1参照)。また、撮影した画像中の物体の位置を求め、除去する遮蔽物をユーザが指定するとしているものもある。(例えば、特許文献2参照)。また、表示する物体までの距離を指定し、その距離にある物体の画像のみを表示するとしているものもある。(例えば、非特許文献1参照)。 In the conventional technology to specify an object in a captured image as a shielding object, and to estimate and generate an image captured without the shielding object, a range of distance to the shielding object is specified, and an object in the range is selected. Designated as a shield (see, for example, Patent Document 1). In some cases, the user determines the position of an object in a photographed image and designates a shielding object to be removed. (For example, refer to Patent Document 2). In addition, there are some that specify a distance to an object to be displayed and display only an image of the object at the distance. (For example, refer nonpatent literature 1).
しかしながら、前記従来の構成では、観察する対象と除去する対象が単純な形状で数も少ない場合には有効ではあるが、多くのビルが建った複雑な形状の街路を歩いている際に直接視認できない行き先を見やすく表示する場合や、周辺の風景を直接視認できない街路上の目的とする種類の店舗、たとえば飲食店などを探すために用いる場合には、
距離だけの単純な指定では、ユーザの意図通りの遮蔽物除去を行えないため、意図通りの画像が得られない場合が多く、また、除去する対象をすべて指定する場合には操作が煩雑になり操作性に問題を生じるという課題を有していた。
However, the conventional configuration is effective when the objects to be observed and the objects to be removed are simple shapes and the number is small, but it is directly visible when walking on a complex street with many buildings. If you ’re looking for a destination you ca n’t see easily, or if you ’re looking to find a type of store on the street where you ca n’t see the surrounding scenery directly, such as a restaurant,
Simple specification of distance alone does not remove the obstructions as intended by the user, so images as intended are often not obtained, and the operation becomes complicated when all the objects to be removed are designated. There was a problem of causing problems in operability.
また、撮影箇所から背景画像や目的物の画像を撮影することがまったく不可能な場合にそれらの画像を目的方向に向けた画面に表示する技術として、非特許文献1のような技術が開示されているものの、この場合も方向と距離によって指示された位置の画像をサーバから取得して表示する技術のみが開示されており、複雑な形状の街路での連続的な操作に用いる場合には操作性、視認性が不十分である。また、非特許文献1では、直接視認不可能な風景を表示するのみであり、ユーザが直接視認できる風景との関係を把握しづらく、目的物までの距離や方角をユーザが認識しにくいという課題を有していた。 In addition, as a technique for displaying those images on a screen directed in the target direction when it is impossible to capture a background image or an object image from the shooting location, a technique such as Non-Patent Document 1 is disclosed. However, in this case as well, only a technique for acquiring and displaying an image of a position designated by a direction and a distance from a server is disclosed, and when used for continuous operation on a street having a complicated shape, the operation is disclosed. And visibility are insufficient. Further, in Non-Patent Document 1, only a landscape that cannot be directly visually recognized is displayed, and it is difficult to grasp the relationship with the landscape that can be directly visually recognized by the user, and it is difficult for the user to recognize the distance and direction to the target object. Had.
本発明は、前記従来の課題を解決するもので、単純な操作でユーザの意図する遮蔽物の除去を指定することが可能で、かつ目的物までの距離、方角を認識することが容易な遮蔽物除去表示装置を提供することを目的とする。 The present invention solves the above-described conventional problems, and can be used to specify the removal of the shielding object intended by the user with a simple operation, and to easily recognize the distance and direction to the object. An object of the present invention is to provide an object removal display device.
前記従来の課題を解決するために、本発明の遮蔽物除去表示装置は、装置の位置、方角の検出部、および周囲の地図情報の取得部を有し、それらの情報から撮影画像の方角の遮蔽物を除去することにより背景画像を表示可能な道の区間の候補を検出し、ユーザが選択した区間の背景画像を取得して撮影画像に嵌め込み表示し、ユーザが装置の方向を変更した際に、直前に背景画像を表示した区間と連続する区間を地図情報より判断して選択し、背景画像を表示する次の区間として設定し、その区間の背景画像を表示するために除去すべき遮蔽物の判定を行い、再度遮蔽物の除去表示を行う。本構成によって、装置の方向を変更するに従って連続した区間の背景画像が表示される。 In order to solve the above-described conventional problems, the obstruction removal display device of the present invention has a device position, a direction detection unit, and a surrounding map information acquisition unit. When a candidate for a road section that can display a background image is detected by removing the shielding object, the background image of the section selected by the user is acquired and displayed in a captured image, and the user changes the direction of the device Next, a section that is continuous with the section in which the background image was displayed immediately before is selected based on the map information, set as the next section to display the background image, and should be removed to display the background image in that section. The object is determined, and the removal of the shielding object is displayed again. With this configuration, a background image of a continuous section is displayed as the direction of the apparatus is changed.
本発明の遮蔽物除去表示装置によれば、複雑な形状の道路や建物がある地域において、遮蔽物の除去を行いつつ風景画像表示を行う際に、ユーザが装置の方向を変える操作のみでユーザの意図にあった道の区間の選択を連続的に行え、かつ、距離や方角を容易に認識できる。 According to the obstruction removal display device of the present invention, when a landscape image is displayed while removing obstructions in an area where there are roads or buildings with complicated shapes, the user only needs to change the direction of the device. It is possible to continuously select a road section that meets the intention of the vehicle, and to easily recognize the distance and direction.
以下本発明を実施するための形態について、図面を参照しながら説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
図1は、本発明の実施の形態における遮蔽物除去表示装置の構成図である。図1において、位置検出部101は装置の位置を検出する。地図情報取得部102は位置検出部101から得られた位置周辺の地図情報を取得する。方角検出部103、仰角検出部104、傾き角検出部105はそれぞれ、撮像部107の方角、仰角、水平からの傾きを検出する。焦点距離検出部106は撮影部107のレンズの焦点距離を検出する。撮影部107は画像を撮影する。区間選択部108は、装置の動作開始時に、位置検出部101の検出した位置、地図情報取得部102が検出した地図情報、および方角検出部103が検出した方角をもとに、撮影部107が撮影している方向にある道の区間を地図から選択し、区間設定部112に設定する。この選択方法については後述する。表示区間切替え判定部109は位置検出部101の検出した位置、地図情報取得部102が検出した地図情報、および方角検出部103が検出した方角をもとに、区間設定部112に設定されている区間の中を撮影部107の方角が指しているか否かを判定する。連続区間判定部110は表示区間切替え判定部109が、撮影方向の中心が区間設定部112に設定された区間の範囲外になったと判定した際に、次に背景画像を表示すべき区間を判定する。この判定方法については後述する。区間変更部111は表示部116に表示されている背景画面をもとに、ユーザが他の道の区間の背景画像の表示を指示する際の操作を受付け、区間設定部に設定されている区間の情報を取り出し、変更後の道の区間を求めて区間設定部112に設定する。この区間の変更方法の詳細については後述する。除去対象判定部113は区間設定部112に設定された道の区間を取り出し、その道の背景画像を表示する際に撮影画像から除去すべき遮蔽物を、位置検出部101の検出した位置、地図情報取得部102が検出した地図情報、および方角検出部103が検出した方角を用いて判定する。この判定方法については後述する。背景画像取得部114は、除去対象判定部113が除去すべきと判定した遮蔽物の背景の画像を取得する。この取得方法については後述する。嵌め込み合成部115は、方角検出部103が検出した方角、仰角検出部104が検出した仰角、傾き角105検出部が検出した傾き角、焦点距離検出部106が検出した焦点距離を用いて、背景画像取得部114が取得した背景画像を、その画像が存在した位置とサイズを一致させて、撮影部107が撮影した画像に嵌め込んで合成し、画像を生成する。この嵌め込み、合成の方法については後述する。表示部116は嵌め込み合成部115が生成した画像を表示する。
FIG. 1 is a configuration diagram of a shield removal display device according to an embodiment of the present invention. In FIG. 1, a
図2は、後述する画面例を説明する際に仮定した建物と視点の配置を示す図である。図2において、ビルA201AからビルE201E、ビルA’202AからビルE’202Eは、画面表示に関わる建物、区間AからH、区間UからZは、画面表示に関わる道の区間、および撮影部107の方角の変更に伴う、次に背景画像を表示する区間の選択方法を説明する際に関連する道の区間である。方角AからGは、背景画像を表示する道の区間の切替え判断方法を説明する際に用いる方角を示したものである。端点A、およびBは区間Cの端点を示したものである。視点203は、ビル群を撮影する際の位置である。
FIG. 2 is a diagram illustrating an arrangement of buildings and viewpoints assumed when an example of a screen to be described later is described. In FIG. 2,
図3は、本発明の実施の形態における画面例である。本画面例は遮蔽物の除去を行わず、図2の視点203からビルA201AからビルE201Eを撮影した際の画面例である。
FIG. 3 is an example of a screen in the embodiment of the present invention. This screen example is a screen example when the building A 201A to the
図4(A)から(C)は、本発明の実施の形態における画面例である。前述の構成を用い、後述の処理を行うことにより、撮影部107の方向を図2の方向Aから方向Eの方向へ移動するに従って、表示部116には、撮影部107の方角が方角Aから方角Bの間にある場合には図4(A)の画面が、方角Bから方角Cの間にある場合には図4(B)の画面が、方角Cから方角Dの間にある場合には図4(C)の画面が表示される。
4A to 4C are screen examples in the embodiment of the present invention. By performing the processing described later using the above-described configuration, the direction of the photographing
次に区間選択部108の動作について説明する。装置の動作開始時に撮影部107が方角Fの方向を向いていたとして説明する。この場合、区間選択部108は位置検出部101から得た位置、および方角検出部103から得た方角より、図2の視点203より方角Fの方向に伸びる直線Fを得る。さらに、区間選択部108は、地図情報取得部102より得た地図情報より、周辺の地図上の道の区間を抽出する。この際、地図情報には、街区単位で区切られた道の区間の情報が両端の座標として格納されており、区間選択部108はその両端の座標をもとに道の区間を線分として抽出することができるものとする。また、単純化のために、ここでは街区と建物は1対1対応するものとして説明する。街区ではなく建物単位での制御を行う際には、道の区間の単位を建物に面した区間に細分化することで対応する。
Next, the operation of the
区間選択部108は、地図上の道の区間のうち、直線Fと交わるものを抽出する。図2の例では、区間B、区間E、区間Fが抽出される。区間選択部108は、それぞれの区間との交点と、それぞれの交点と視点203の間の距離を求める。次に視点203と交点の距離が2番目に短い区間を選択する。この選択基準は設定可能としてもよい。実用上、最前面にある建物を遮蔽物として除去する使用形態が一般的と考えられるため、本実施の形態では最前面の遮蔽物を除去するために、2番目に近い区間を、背景画像を表示するための区間として選択するものとして説明する。
The
次に、除去対象判定部113の動作について説明する。除去対象判定部113は、区間設定部112より、区間選択部108、連続区間判定部110、あるいは区間変更部111により設定された区間を取りだす。次に除去対象判定部113は、地図情報取得部102より地図情報を取り出す。次に、除去対象判定部113は地図情報より、位置を1つの頂点とし、取り出した区間を1辺とする三角形の中に一部、または全部が含まれる建物を抽出し、それらの建物を除去すべき遮蔽物として判定する。図2において、区間Bが区間として設定されている場合は、区間Bと視点203を結ぶ三角形に一部が含まれるビルC201Cを除去対象の遮蔽物として判定する。区間Cが区間として設定されている場合は、区間Cと視点203を結ぶ三角形に一部が含まれるビルC201C、およびビルD201Dを除去対象の遮蔽物として判定する。
Next, the operation of the removal
次に、背景画像取得部114の動作について、図2、および図5を参照しながら説明する。ここでは、区間設定部112に区間Cが設定され、除去対象判定部113によって、除去すべき遮蔽物としてビルC201C、ビルD201Dが指定されているものとして説明する。また、各ビルの周辺の道の区間は、地図情報より得られるものとする。
Next, the operation of the background image acquisition unit 114 will be described with reference to FIG. 2 and FIG. Here, it is assumed that the section C is set in the
背景画像取得部114は、まず、複数の遮蔽物が指定されている場合に、それらの遮蔽物の周辺の区間を求め、遮蔽物間に挟まれている区間、つまり複数の遮蔽物が共通で持っている周辺の区間を除外する。ビルC201C、ビルD201Dの場合、区間Vを周辺の区間として共有しているため、区間Vを除外する。 First, when a plurality of shielding objects are designated, the background image acquisition unit 114 obtains a section around the shielding objects, and a section sandwiched between the shielding objects, that is, a plurality of shielding objects is common. Exclude surrounding sections you have. In the case of the building C201C and the building D201D, since the section V is shared as a surrounding section, the section V is excluded.
次に、背景画像取得部114は、残った区間、つまり除去すべき遮蔽物の周辺のすべての区間の中から、遮蔽物の手前側の区間、つまり、視点203から見た時の最前面の区間を除外する。具体的には、各区間の中の1点を選び、視点203と選んだ点を結ぶ直線を求め、その直線と交点を持つ、すべての他の区間との交点が、先に選んだ区間内の点より遠い場合、つまり、先に選んだ区間内の点が一番手前にある場合は、その区間は最前面の区間として除外する。図2において、区間Cが設定されており、除去すべき遮蔽物としてビルC201C、ビルD201Dが選ばれている場合、区間Eと区間Gが最前面の区間として除外され、結果として区間B、区間C、区間T、区間Xが背景画像を取得すべき区間として指定される。
Next, the background image acquisition unit 114, among all the remaining sections, that is, all the sections around the shielding object to be removed, the section on the near side of the shielding object, that is, the foreground when viewed from the
次に背景画像取得部114は、区間B、区間C、区間T、区間Xに対応する背景画像を取得する。背景画像の取得のために、背景画像取得部114は撮影点を区間の中央に設定し、区間と直交する方向を撮影方向とした風景撮影画像を、サーバから取得する。現在の一般的な風景画像提供サービスでは、緯度、経度と方角を指定することにより、風景画像を取得することができるため、このサービスを用いることにより、背景画像を取得するために必要な風景画像を取得できる。ここでは、図5における撮影点B、撮影点C、撮影点T、撮影点Xを撮影点として設定し、区間と直交し、視点203から遠ざかる方の方向を方角と指定して風景画像を取得する。
Next, the background image acquisition unit 114 acquires background images corresponding to the sections B, C, T, and X. In order to acquire the background image, the background image acquisition unit 114 sets a shooting point at the center of the section, and acquires a landscape shot image having a shooting direction in a direction orthogonal to the section from the server. In the current general landscape image providing service, a landscape image can be acquired by specifying latitude, longitude, and direction. Therefore, a landscape image necessary for acquiring a background image by using this service is available. Can be obtained. Here, the shooting point B, the shooting point C, the shooting point T, and the shooting point X in FIG. 5 are set as shooting points, and a landscape image is acquired by designating the direction that is orthogonal to the section and away from the
次に背景画像取得部114は、取得した風景画像の歪みを補正する。Google社のStreet Viewサービスは広角レンズにより風景を撮影し蓄積しているため、得られる画像がレンズの歪みを含む。そのため、本実施の形態においては、歪み除去を行い、平面画像を生成し利用することによって処理の簡略化と画像精度の向上を図る。代表的なレンズの歪み除去技術には非特許文献2がある。 Next, the background image acquisition unit 114 corrects the distortion of the acquired landscape image. Google's Street View service captures and stores landscapes with wide-angle lenses, so the resulting image contains lens distortion. For this reason, in the present embodiment, distortion is removed, and a planar image is generated and used to simplify processing and improve image accuracy. Non-Patent Document 2 is a representative lens distortion removal technique.
次に背景画像取得部114は、歪み除去の結果得られた風景画像の中から、区間の背景画像として利用する画像を切り出す。地図上では、区間の背後の建物、および、建物のない道の空間を背景画像として設定する。また、上下方向では、地表から一定の高さまでの画像を切り出す。一定の高さは、ビルの高さとして一般的に考えられる高さを設定する。この高さは地域によって設定可能としてもよいし、地図情報に建物の高さ情報が含まれている場合はその地図情報をもとに各区間に対応する建物のもっとも高い高さに設定してもよい。この時、画像には画像の各頂点の座標をともに記録しておく。 Next, the background image acquisition unit 114 cuts out an image to be used as the background image of the section from the landscape image obtained as a result of distortion removal. On the map, a building behind the section and a space of a road without a building are set as a background image. In the vertical direction, an image from the ground surface to a certain height is cut out. The constant height sets a height generally considered as the height of the building. This height may be set according to the region, and if the map information includes building height information, the highest height of the building corresponding to each section is set based on the map information. Also good. At this time, the coordinates of each vertex of the image are recorded in the image.
次に、嵌め込み合成部115の動作について説明する。3次元空間内の平面上の画像のカメラ座標系への変換については、非特許文献3が詳しい。
Next, the operation of the
非特許文献3において、カメラ座標系への変換(5.4.2項)、透視変換と射影変換(5.4.3項)の技術が示されており、これらを組み合わせることにより、3次元空間上の平面画像とその位置と範囲が得られ、かつ、カメラの位置と方向と焦点距離が得られる場合のカメラ座標系への射影変換は可能となる。具体的には非特許文献3の下記の計算方法を用いて、背景画像中の各座標を、撮影部107の撮像素子上の位置に変換する。
Non-Patent Document 3 discloses techniques of transformation into a camera coordinate system (section 5.4.2), perspective transformation and projective transformation (section 5.4.3). By combining these, three-dimensional A planar image in space, its position and range can be obtained, and projective transformation to the camera coordinate system is possible when the position, direction and focal length of the camera are obtained. Specifically, each coordinate in the background image is converted into a position on the image sensor of the
まず、カメラの向きを示す単位ベクトルは、方角、仰角、傾き角から求められる。また、方角、仰角、傾き角を3軸の加速度センサーと3軸の地磁気センサーを用いて求める方式については既知である。 First, a unit vector indicating the direction of the camera is obtained from the direction, the elevation angle, and the tilt angle. A method for obtaining a direction, an elevation angle, and an inclination angle using a triaxial acceleration sensor and a triaxial geomagnetic sensor is known.
次に、(数1)を用いて、カメラのx, y, z軸の向きを表す単位ベクトル(a,b,c)と、カメラの位置ベクトルdとを縦ベクトル成分とする変換行列Tを求める。 Next, using (Equation 1), a transformation matrix T having a vertical vector component of a unit vector (a, b, c) representing the x, y, and z axis directions of the camera and a camera position vector d is obtained. Ask.
次に、(数2)および(数3)を用いて、上記の行列Tに対して、逆変換を表す3×4変換行列、つまり対象物の世界座標をカメラ座標系に直す変換行列Twを求める。 Next, by using (Equation 2) and (Equation 3), a 3 × 4 transformation matrix representing an inverse transformation with respect to the matrix T, that is, a transformation matrix Tw for converting the world coordinates of the object into the camera coordinate system is obtained. Ask.
次に、上記の変換行列を用いて、(数4)によって、対象物の世界座標x, y, zをカメラ座標系の座標値x’, y’, z’に変換する。 Next, using the above transformation matrix, the world coordinates x, y, z of the object are transformed into coordinate values x ′, y ′, z ′ of the camera coordinate system by (Equation 4).
次に、(数5)を用いて、x’, y’, z’を、視点203からfの距離に置いた投影面(撮像素子)上の位置x’’, y’’, z’’に変換する。
Next, using (Equation 5), x ′, y ′, z ′ are positions x ″, y ″, z ″ on the projection plane (imaging device) placed at a distance f from the
上記計算式では座標変換の方法を示したが、背景画像中の各画素について上記の座標変換を行い、撮影部107の撮像素子上の位置に変換し、変換後の位置における補間、平均などによる画像処理を行い、撮像素子上の画像を生成する。この画像処理については一般的な処理であるためここでは細部については述べない。
Although the above equation shows the method of coordinate conversion, the above-described coordinate conversion is performed on each pixel in the background image to convert it to a position on the image sensor of the
次に、連続区間判定部110の動作について図2を参照しながら説明する。ここでは、具体的に撮影部107の方向が方角Aから方角Eに向かって移動しており、背景画像を表示する区間として区間Cが区間設定部112に設定されているものとして説明する。
Next, the operation of the continuous
撮影部107の方角がさらに右方向に変化し、方角Dの方角になった時点で、表示区間切替え判定部109は撮影している方角への直線が、区間設定部112に設定されている区間の1端点である端点A上を通ることを検出し、連続区間判定部110に通知する。
When the direction of the photographing
次に連続区間判定部110は、地図情報から端点Aを端点として持つ他の区間を抽出する。図2においては、区間D、区間X、区間Yが抽出される。次に連続区間判定部110は、抽出された区間から、現在設定されている区間Cと交差する角度のもっとも少ないものを選択する。図2の端点Aにおいては、区間Dは区間Cと平行であり、区間X、区間Yは区間Cと直角であるため、区間Dが選ばれ、次に背景画像を表示する区間として区間設定部112に設定される。この時の判定ルールはさらに詳細な設定が可能であり、効果的である。例えば、交差する角度の差が一定の範囲内の場合には視点203からの距離が近い方の区間、あるいは逆に遠い方の区間を設定するルールを設けてもよい。また、交差する角度と関係なく、視点203からの距離の近い区間を区間設定部112に設定することによって、撮影部107を左右に振るに従ってより近い側の区間が選択されていくようにもできるし、また、逆に距離の遠い区間を区間設定部112に設定することによって、左右に振るに従ってより遠い側の区間が選択されていくようにもできる。また、これらのルールをソフトウェア、ハードウェアとして実装してユーザに設定可能な機能として提供してもよいし、単純なルールの組合せによってユーザ自身が新たなルールを作成し設定することを可能としてもよい。
Next, the continuous
次に区間変更部111の動作について図2を参照しながら説明する。区間変更部は第1変更操作部111Aと第2変更操作部111Bを持ち、それぞれが異なった操作を受け付けるため、それぞれの動作について別個に説明する。また、ここでは、具体的に撮影部107の方角が方角Gであり、背景画像を表示する区間として区間Cが区間設定部112に設定されているものとして説明する。
Next, the operation of the
まず、第1変更操作部111Aの動作について説明する。第1変更操作部111Aは、ユーザからの距離の変更の指示を受け付ける。ユーザからの距離の変更の指示は、より遠くの道の区間の背景画像を表示するように区間を変更するか、より近くの道の区間の背景画像を表示するように区間を変更するかの指示の2種類がある。これらの指示を受けた第1変更操作部111Aは、地図情報取得部102より地図情報を取り出し、その中のすべての道の区間の情報を抽出する。次に第1変更操作部111Aは、そのすべての区間の中から、方角G上の直線と交点を持つ区間のみを選択する。図2の方角Gのケースでは、視点203に近い方から順に、区間E、区間V、区間C、区間Hが選択される。次に第1変更操作部111Aは、それらの区間の中から、区間Cと交差する角度が一定値以上のものを除外する。第1変更操作部111Aへのユーザの指示は、区間の距離の変更であって、方角の変更は意図していないため、方角が極端に変更されることを防ぐためにこの動作を行う。ここで角度の差が45度以上の場合に除外するものとすると区間Vが除外され、区間E、区間C、区間Hが残る。次に第1変更操作部111Aは、残った各区間と、撮影部107の方角上の直線との交点を求め、その交点と視点203との間の距離に従って各区間をソートする。この場合、距離が近い順に並べると、区間E、区間C、区間Hの順に並ぶ。次に第1変更操作部111Aは、ユーザからの指示が距離を遠くするものである場合は、ソートされた区間の中から、現在、区間設定部112に設定されている区間の次に遠い区間を選択し、区間設定部112に設定する。この場合では、区間Hが設定される。ユーザからの指示が距離を近くするものである場合は、ソートされた区間の中から、現在、区間設定部112に設定されている区間の次に近い区間を選択し、区間設定部112に設定する。この場合では、区間Eが設定される。
First, the operation of the first
次に、第2変更操作部111Bの動作について説明する。第2変更操作部111Bは、ユーザからの方向の変更の指示を受け付ける。ユーザからの方向の変更の指示は、時計回りの方向に区間を変更するか、反時計回りの方向に区間を変更するかの指示の2種類がある。これらの指示を受けた第2変更操作部111Bは、区間設定部112から取り出した区間と、方角Gとの交点を求める。次に第2変更操作部111Bは、区間の二つの端点である端点Aと端点Bのうちから、交点に近い端点を選択する。この場合、端点Bが選択される。次に第2変更操作部111Bは、地図情報取得部102より地図情報を取り出し、その中から端点Bを共有する他の区間を抽出する。この場合、区間B、区間V、区間Wが抽出される。次に第2変更操作部111Bは、抽出された各区間と区間設定部112に設定されている区間である区間Cとがなす角度を求め、それを時計回りに小さい順にソートする。この場合では、区間V、区間B、区間Wの順で並べられる。なお、ここでは角度は端点Bから遠方に向かう方向を角度として計算する。
Next, the operation of the second
次に第2変更操作部111Bは、ユーザからの指示が角度を時計回りに変更させるものである場合は、ソートされた区間の中から、先頭の区間を選択し、区間設定部112に設定する。この場合では、区間Vが設定される。ユーザからの指示が反時計回りに変更させるものである場合は、ソートされた区間の中から、最後の区間を選択し、区間設定部112に設定する。この場合では、区間Wが設定される。
Next, when the instruction from the user changes the angle clockwise, the second
かかる構成によれば撮影部107の方角を方角検出部で検出し、その方角が背景画像を表示するものとして設定した道の区間の範囲外に移動する際に、その区間と接し、その区間と近い方向の区間を自動的に選択し、次に背景画像を表示する区間として設定し、背景画像表示を取得し、撮影部が撮影した背景画像以外の画像と嵌め込み合成を行って表示することにより、撮影部の方向を左右に変化させた際に撮影部が向いている方向の遮蔽物のみを画像から除去して街路の背景画像の表示を行う際に、連続した街路中の区間をユーザの指定なしに選択し表示することができる。
According to such a configuration, when the direction of the photographing
本発明にかかる遮蔽物除去表示装置は、ユーザが装置の方向を変える操作のみでユーザの意図にあった道の区間の選択を連続的に行えるので、建物を除去した状態での風景画像を推測し合成して表示する表示装置等として有用である。 The shielding removal display device according to the present invention can continuously select a road section according to the user's intention only by the user's operation of changing the direction of the device. It is useful as a display device for combining and displaying.
101 位置検出部
102 地図情報取得部
103 方角検出部
104 仰角検出部
105 傾き角検出部
106 焦点距離検出部
107 撮影部
108 区間選択部
109 表示区間切替え判定部
110 連続区間判定部
111 区間変更部
112 区間設定部
113 除去対象判定部
114 背景画像取得部
115 嵌め込み合成部
116 表示部
201A〜201E ビル
202A〜202E ビル
203 視点
DESCRIPTION OF
Claims (7)
前記撮影手段の方角を検出する方角検出手段と、
前記撮影手段の仰角を検出する仰角検出手段と、
前記撮影手段の傾き角を検出する傾き角検出手段と、
前記撮影手段の焦点距離を検出する焦点距離検出手段と、
位置を検出する位置検出手段と、
前記位置より地図情報を取得する地図情報取得手段と、
前記方角、前記位置、および前記地図情報より得られた1つあるいは複数の道の区間から、当該する道の区間より遠方の風景画像である背景画像を表示する区間を選択する区間選択手段と、
前記方角、前記位置、および前記地図情報から前記背景画像を表示する区間の切替え要否を判定する、表示区間切替え判定手段と、
区間の切替え時に、切替え前に前記背景画像を表示していた区間と連続する区間を判定し設定する連続区間判定手段と、
前記背景画像を表示する区間を元に、除去すべき遮蔽物を判定する除去対象判定手段と、
除去対象と判定された遮蔽物の背景画像を取得する背景画像取得手段と、
前記方角、前記仰角、前記傾き角、および前記焦点距離をもとに、遮蔽物の背景画像と、前記撮影手段で撮影された画像の遮蔽物以外の部分の画像とを嵌め込み合成する、嵌め込み合成手段と、
表示手段と、を備えた遮蔽物除去表示装置。 Photographing means;
Direction detecting means for detecting the direction of the photographing means;
An elevation angle detection means for detecting an elevation angle of the imaging means;
An inclination angle detecting means for detecting an inclination angle of the photographing means;
A focal length detecting means for detecting a focal length of the photographing means;
Position detecting means for detecting the position;
Map information acquisition means for acquiring map information from the position;
Section selection means for selecting a section for displaying a background image that is a landscape image far from the section of the road from one or a plurality of sections of the road obtained from the direction, the position, and the map information;
A display section switching determination means for determining whether or not to switch a section for displaying the background image from the direction, the position, and the map information;
At the time of switching the section, continuous section determination means for determining and setting a section that is continuous with the section displaying the background image before switching,
Based on the section displaying the background image, removal target determination means for determining a shield to be removed;
Background image acquisition means for acquiring a background image of the shielding object determined to be removed;
A fitting composition that fits and synthesizes the background image of the shielding object and the image of the portion other than the shielding object of the image photographed by the photographing means based on the direction, the elevation angle, the tilt angle, and the focal length. Means,
A shielding object removal display device comprising: a display unit;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010103289A JP5001400B2 (en) | 2010-04-28 | 2010-04-28 | Shield removal display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010103289A JP5001400B2 (en) | 2010-04-28 | 2010-04-28 | Shield removal display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011232983A JP2011232983A (en) | 2011-11-17 |
JP5001400B2 true JP5001400B2 (en) | 2012-08-15 |
Family
ID=45322236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010103289A Expired - Fee Related JP5001400B2 (en) | 2010-04-28 | 2010-04-28 | Shield removal display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5001400B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10284789B2 (en) * | 2017-09-15 | 2019-05-07 | Sony Corporation | Dynamic generation of image of a scene based on removal of undesired object present in the scene |
CN114005514B (en) * | 2021-11-26 | 2022-07-29 | 杭州涿溪脑与智能研究所 | Medical image diagnosis method, system and device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000259858A (en) * | 1999-03-09 | 2000-09-22 | Sharp Corp | Data display method and data display device using the same |
JP4983757B2 (en) * | 2008-09-18 | 2012-07-25 | Kddi株式会社 | Image generating apparatus, method and program |
-
2010
- 2010-04-28 JP JP2010103289A patent/JP5001400B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011232983A (en) | 2011-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7371924B2 (en) | Video monitoring system, video monitoring method, and program | |
JP6687204B2 (en) | Projection image generation method and apparatus, and mapping method between image pixels and depth values | |
JP5740884B2 (en) | AR navigation for repeated shooting and system, method and program for difference extraction | |
JP5178553B2 (en) | Imaging device | |
JP5020398B1 (en) | Image conversion apparatus, camera, image conversion method and program | |
JP2008217243A (en) | Image creation device | |
JP5733088B2 (en) | Movie presentation device | |
JP6789899B2 (en) | Measuring device and operating method of measuring device | |
KR100957590B1 (en) | Aparratus for display omni-directional image with object image | |
US11055865B2 (en) | Image acquisition device and method of operating image acquisition device | |
JP2006329684A (en) | Image measuring instrument and method | |
JP4198536B2 (en) | Object photographing apparatus, object photographing method and object photographing program | |
JP6388532B2 (en) | Image providing system and image providing method | |
JP5001400B2 (en) | Shield removal display device | |
WO2020090420A1 (en) | Information processing device, control method therefor, program, and storage medium | |
JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
JP2006017632A (en) | Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method | |
JP2005141655A (en) | Three-dimensional modeling apparatus and three-dimensional modeling method | |
JP6768400B2 (en) | Information processing equipment, information processing methods and programs | |
JP5168313B2 (en) | Image display device | |
JP6320165B2 (en) | Image processing apparatus, control method therefor, and program | |
JP6292785B2 (en) | Image processing apparatus, image processing method, and program | |
US11935182B2 (en) | Information processing apparatus, information processing method, and storage medium | |
WO2023026686A1 (en) | Information processing device, information processing method, and information processing program | |
JP2004085555A (en) | Surveying system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120221 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20120314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120417 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120517 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150525 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |