JP2015031922A - Information terminal equipment and program - Google Patents

Information terminal equipment and program Download PDF

Info

Publication number
JP2015031922A
JP2015031922A JP2013163445A JP2013163445A JP2015031922A JP 2015031922 A JP2015031922 A JP 2015031922A JP 2013163445 A JP2013163445 A JP 2013163445A JP 2013163445 A JP2013163445 A JP 2013163445A JP 2015031922 A JP2015031922 A JP 2015031922A
Authority
JP
Japan
Prior art keywords
imaging
unit
information terminal
imaging target
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013163445A
Other languages
Japanese (ja)
Inventor
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013163445A priority Critical patent/JP2015031922A/en
Publication of JP2015031922A publication Critical patent/JP2015031922A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide information terminal equipment capable of generating a peripheral map from a plurality of images by using the prior knowledge of an imaging object.SOLUTION: An extraction part 3 extracts an imaging object whose shape and whose arrangement on a plane are already known from a pickup image continuously imaged by an imaging part 2 on the basis of the shape. An estimation part 4 estimates a positional relation between the extracted imaging object and the imaging part 2 on the basis of the already known shape of the imaging object. A storage part 6 stores map information. A creation part 5 converts the pickup image into a correction image viewed from a predetermined direction with respect to the imaging object on the basis of the estimated positional relation, and synthesizes the converted correction image at a current point of time with the stored map information at the current point of time, to update the stored map information.

Description

本発明は、情報端末装置に関し、特に、映像の変化を認識して周辺地図を作成することができ、当該作成の際に自身の位置を測定することも可能な情報端末装置と、そのプログラムとに関する。   The present invention relates to an information terminal device, and in particular, an information terminal device capable of recognizing a change in video and creating a surrounding map and measuring its own position at the time of the creation, and a program thereof About.

測位や当該測位に関連する地図作製を実現する方法としては、以下のような方法が公開されている。   The following methods are disclosed as methods for realizing positioning and map creation related to the positioning.

特許文献1では、自律移動型ロボットにおいて、距離センサにより認識された物体情報に基づいて部屋の状況を表す環境マップを生成し、部屋を自律的に移動することを可能とする手法を開示している。   Patent Document 1 discloses a technique that enables an autonomous mobile robot to autonomously move a room by generating an environment map that represents a room situation based on object information recognized by a distance sensor. Yes.

非特許文献1では、カメラを移動させながら画像を撮像し、複数の撮像画像に含まれる特徴点の軌跡を解析することで、周囲の地図を作成するとともに、カメラの位置姿勢を推定する手法を開示している。   In Non-Patent Document 1, a method of capturing an image while moving a camera and analyzing a trajectory of a feature point included in a plurality of captured images to create a surrounding map and estimating a position and orientation of the camera is proposed. Disclosure.

特開2011-209203号公報JP 2011-209203 A

Video-rate Localization in Multiple Maps for Wearable Augmented Reality (ISWC 2008)Video-rate Localization in Multiple Maps for Wearable Augmented Reality (ISWC 2008)

特許文献1では、移動機構の駆動量と取得した測距値とを用いて自己位置を推定することで環境マップを生成するため、回転駆動するアクチュエータや回転を検出するエンコーダ、レーザレンジファインダ等の特殊なハードウェアが必要となるという問題がある。   In Patent Document 1, an environment map is generated by estimating a self-position using a driving amount of a moving mechanism and an acquired distance measurement value. Therefore, an actuator that rotates, an encoder that detects rotation, a laser range finder, and the like There is a problem that special hardware is required.

非特許文献1では、地図作成と位置姿勢推定の処理負荷が大きいため、計算資源の乏しい端末では十分な速度で動作できないという問題がある。   Non-Patent Document 1 has a problem that it cannot operate at a sufficient speed on a terminal with scarce computing resources because the processing load of map creation and position / orientation estimation is large.

本発明は上記課題に鑑みて提案されたもので、撮像対象の事前知識を利用することにより、特殊ハードウェアを必要とせず且つ小さな処理負荷によって、複数の画像から周辺地図を生成できる情報端末装置及びプログラムを提供することを目的とする。   The present invention has been proposed in view of the above problems, and an information terminal device that can generate a peripheral map from a plurality of images without requiring special hardware and using a small processing load by using prior knowledge of an imaging target. And to provide a program.

上記目的を達成するため、本発明は、継続的に撮像を行う撮像部を有する情報端末装置であって、前記撮像部で撮像された撮像画像より、形状及び平面上に配置されていることが既知の撮像対象を、当該形状に基づいて抽出する抽出部と、前記抽出された撮像対象と前記撮像部との位置関係を前記既知の形状に基づいて推定する推定部と、地図情報を保持する記憶部と、前記推定された位置関係に基づき、前記撮像画像を、撮像対象に対する所定方向から見た補正画像へと変換すると共に、現時点で当該変換された補正画像を、当該現時点で前記保持された地図情報と合成して、前記保持される地図情報を更新する作成部と、を備えることを特徴とする。   In order to achieve the above object, the present invention is an information terminal device having an imaging unit that continuously performs imaging, and is arranged on a shape and a plane from a captured image captured by the imaging unit. An extraction unit that extracts a known imaging target based on the shape, an estimation unit that estimates a positional relationship between the extracted imaging target and the imaging unit based on the known shape, and map information are held. Based on the storage unit and the estimated positional relationship, the captured image is converted into a corrected image viewed from a predetermined direction with respect to the imaging target, and the converted corrected image is currently held at the current time. And a creating unit that updates the held map information by combining with the map information.

また、本発明は、コンピュータを前記情報端末装置として機能させるプログラムであることを特徴とする。   Further, the present invention is a program for causing a computer to function as the information terminal device.

本発明によれば、継続的に得られる撮像画像に対して、撮像対象につきその形状及び平面状に配置されていることを既知情報として利用することで、簡素な画像処理によって地図情報を作成することが可能となる。   According to the present invention, map information is created by simple image processing by using, as known information, continuously-captured captured images that are arranged in a shape and a plane for each imaging target. It becomes possible.

本発明の一実施形態に係る情報端末装置の機能ブロック図である。It is a functional block diagram of the information terminal device which concerns on one Embodiment of this invention. 撮像される画像又は撮像対象となる景色の例を示す図である。It is a figure which shows the example of the scenery used as the image imaged or imaging object. 撮像される画像又は撮像対象となる景色の例を示す図である。It is a figure which shows the example of the scenery used as the image imaged or imaging object. 図3の例から作成される地図情報の例を示す図である。It is a figure which shows the example of the map information produced from the example of FIG. 領域分割範囲及び領域分割開始座標を、直近の過去の抽出結果に対応させる第一手法を説明するための図である。It is a figure for demonstrating the 1st method of making an area division range and an area division start coordinate correspond to the latest past extraction result. 撮像部の傾きに応じて領域分割範囲及び領域分割開始座標を決定する第二手法を説明するための図である。It is a figure for demonstrating the 2nd method of determining an area division range and an area division start coordinate according to the inclination of an imaging part. 同一の撮像対象について2つの抽出結果があるときに、変換精度の精度を向上させる処理における一連の数式を説明するための図である。It is a figure for demonstrating a series of numerical formulas in the process which improves the precision of conversion precision, when there exist two extraction results about the same imaging target. 補正画像を得る処理を説明するための図である。It is a figure for demonstrating the process which obtains a correction image. 地図情報が補正画像によって更新される概念的な例を示す図である。It is a figure which shows the conceptual example by which map information is updated by the correction | amendment image.

図1は、本発明の一実施形態に係る情報端末装置の機能ブロック図である。情報端末装置1は、撮像部2、抽出部3、推定部4、作成部5、記憶部6及び測位部7を備える。情報端末装置1は、スマートフォンなどの携帯情報端末として構成されてもよい。   FIG. 1 is a functional block diagram of an information terminal device according to an embodiment of the present invention. The information terminal device 1 includes an imaging unit 2, an extraction unit 3, an estimation unit 4, a creation unit 5, a storage unit 6, and a positioning unit 7. The information terminal device 1 may be configured as a portable information terminal such as a smartphone.

情報端末装置1では、撮像部2が連続的に撮像した画像を取り込んで、各部の処理を経ることにより、作成部5にて撮像部2で撮像された「景色」の画像を加工し、つなぎ合わせたものとして地図情報を作成する。測位部7では、当該作成された地図情報において、各時点における撮像部2の位置、すなわち、当該情報端末装置1の位置を推定する。   The information terminal device 1 captures images continuously captured by the image capturing unit 2, processes each unit, processes the image of the “landscape” captured by the image capturing unit 2 in the creation unit 5, and connects them. Map information is created as a combination. The positioning unit 7 estimates the position of the imaging unit 2 at each time point, that is, the position of the information terminal device 1 in the generated map information.

なお、情報端末装置1は、当該地図情報を表示する機能を備えていてもよい。当該表示する際に、地図情報上において当該推定された位置も表示されるようにしてもよい。当該表示機能を利用すれば、ユーザは自身の位置をリアルタイムで把握可能となる。   Note that the information terminal device 1 may have a function of displaying the map information. When the display is performed, the estimated position may be displayed on the map information. If the display function is used, the user can grasp his / her position in real time.

図2及び図3は、撮像部2にて撮像される画像又は撮像対象となる景色の例である。なお、撮像の態様により、当該図示される景色がそのまま、当該図示されている画像として得られる場合もあれば、当該景色内の部分ごとの画像が得られる場合もあるため、ここでは「撮像される画像」又は「対象となる景色」と区別して表現した。   2 and 3 are examples of images captured by the imaging unit 2 or scenery to be captured. Depending on the imaging mode, the illustrated scene may be obtained as the illustrated image as it is, or an image of each part in the scene may be obtained. "Image" or "target landscape".

図2では、地面に敷き詰められたレンガ(あるいはタイル等)が例として示されている。図3では、駅構内などにおいてブロックが敷き詰められた地面が例として示されている。本発明ではこのように、レンガやブロックといったように、同一の平面上にある程度の頻度で配置されていること及び形状が既知であるものを、撮像対象として想定する。   In FIG. 2, a brick (or tile or the like) laid on the ground is shown as an example. FIG. 3 shows an example of the ground where blocks are spread in a station premises or the like. In the present invention, an object to be imaged is assumed to be arranged on the same plane with a certain frequency and whose shape is known, such as a brick or a block.

図4は、図3の例から作成部5にて作成される地図情報の例であり、図3及び図4では共通のブロックB1,B2,B3が示されている。当該「景色」としての図3及び図4を参照して、本発明の動作概要を説明する。なお、図4にて領域R100の境界矩形における下の辺及び左の辺にはそれぞれ、数字「0〜7」及び「0〜9」が付されている。当該数字は碁盤の目状に配置されたブロックの座標を示すために描かれたものであり、後述の詳細説明の際に参照する。   FIG. 4 is an example of map information created by the creation unit 5 from the example of FIG. 3, and FIGS. 3 and 4 show common blocks B1, B2, and B3. The outline of the operation of the present invention will be described with reference to FIGS. 3 and 4 as the “scenery”. In FIG. 4, numbers “0 to 7” and “0 to 9” are attached to the lower side and the left side in the boundary rectangle of the region R100, respectively. The numbers are drawn to indicate the coordinates of blocks arranged in a grid pattern, and will be referred to in the following detailed description.

撮像部2では、ユーザ操作により、ブロックが配置された地面を画像内に常に捉えながら、撮像を実施し、情報端末装置1のユーザの移動と共に撮像される場所が移動する。作成部5では、当該撮像された場所に対応する情報を、逐次的に地図情報内へと更新して取り込み、ユーザの移動と共に、地図情報の範囲が拡大されてゆく。   The imaging unit 2 performs imaging while always capturing the ground on which the block is arranged in the image by the user operation, and the location where the image is captured moves with the movement of the user of the information terminal device 1. The creation unit 5 sequentially updates and captures information corresponding to the captured location into the map information, and the range of the map information is expanded as the user moves.

例えば、図3の景色(以下、「駅構内」として説明する)において、ブロックB1を含むその近辺が撮像されているときは、図4に示すように、当該ブロックB1を含む近辺である領域R1が地図情報に取り込まれる。なお、当該領域R1等は、図4にて矩形で描かれているが、概念的な例であり、必ずしも矩形として取り込まれるわけではない。   For example, in the landscape of FIG. 3 (hereinafter described as “station premises”), when the vicinity including the block B1 is imaged, as shown in FIG. 4, the region R1 that is the vicinity including the block B1 Is captured in the map information. The region R1 and the like are drawn in a rectangle in FIG. 4, but are conceptual examples and are not necessarily captured as a rectangle.

続いて同じく、ユーザが移動して、図3の駅構内においてブロックB2を含むその近辺が撮像されているときは、図4に示すように当該ブロックB2を含む近辺の領域R2が地図情報に取り込まれる。さらに同じく、ユーザが移動して、図3の駅構内においてブロックB3を含む近辺が撮像されているときは、図4に示すように当該ブロックB3を含む近辺の領域R3が地図情報に取り込まれる。こうして、地図情報には、撮像された箇所が逐次的に取り込まれていき、ユーザが図3の駅構内を移動して撮像し尽くすと、図4の領域R100を含む駅構内全域の地図情報が得られることとなる。   Subsequently, when the user moves and the vicinity including the block B2 is imaged in the station yard of FIG. 3, the area R2 including the block B2 is captured in the map information as shown in FIG. It is. Similarly, when the user moves and the vicinity including the block B3 is imaged in the station yard shown in FIG. 3, an area R3 including the block B3 is captured in the map information as shown in FIG. In this way, the imaged locations are sequentially captured in the map information, and when the user moves through the station premises in FIG. 3 and completes the image, the map information of the entire station premises including the region R100 in FIG. 4 is obtained. Will be obtained.

また、当該取り込まれる際には、地図情報が通常の地図として意味をなすように、上空側から撮像した形式に予め修正されたうえで、取り込みが実施される。こうして、撮像部2では図3の駅構内の例のように、ユーザによる通常のマニュアル式のカメラ撮影動作のもとで、地面に対して時間変化する傾きを持って撮像が行われたとしても、地図情報は図4の例のように、天井側を逐次移動しながら地面側を平行にスキャンする形で撮影したような形式で得られることとなる。   In addition, when the image is captured, the map information is preliminarily corrected to a format captured from the sky so that the map information is meaningful as a normal map, and then captured. Thus, even if the imaging unit 2 performs imaging with a time-varying inclination with respect to the ground under a normal manual camera shooting operation by the user, as in the example of the station premises of FIG. As shown in the example of FIG. 4, the map information is obtained in such a form that the ground side is scanned in parallel while sequentially moving on the ceiling side.

また、撮像された箇所を逐次的に地図情報に取り込んでゆくに際して、過去に取り込んだ地図情報に、当該現時点で取り込む箇所を重ねる際に、座標(向きを含む)を合わせる必要が生ずる。当該座標合わせは、ブロックB1,B2,B3等の形状が予め既知の撮像対象を利用することで可能となる。   In addition, when sequentially capturing captured locations in map information, it is necessary to match coordinates (including direction) when overlaying the location captured at the present time on map information captured in the past. The coordinate alignment can be performed by using an imaging target whose blocks B1, B2, B3 and the like are known in advance.

以上、本発明の動作概要を説明した。以下、当該動作を実現する、図1の各部の詳細を説明する。   The operation outline of the present invention has been described above. In the following, details of each part in FIG. 1 for realizing the operation will be described.

撮像部2は、所定のサンプリング周期で撮像対象を連続的に撮影して、その撮影画像を抽出部3および作成部5へ出力する。撮像部2としては携帯端末に標準装備されるデジタルカメラを用いることができる。あるいは、ステレオカメラや赤外線カメラ等を利用しても良い。   The imaging unit 2 continuously captures an imaging target at a predetermined sampling period, and outputs the captured image to the extraction unit 3 and the creation unit 5. As the imaging unit 2, a digital camera provided as a standard in a portable terminal can be used. Alternatively, a stereo camera or an infrared camera may be used.

撮像対象には、同一平面上に配置された複数の同一形状物体又は模様を用いる。当該形状は予め既知のものとして、情報端末装置1にその形状の情報を設定しておく。また、同一平面上に配置されていることも前提として既知とし、当該前提のもとに本発明の処理が行われる。   A plurality of identically shaped objects or patterns arranged on the same plane are used as the imaging target. The shape is known in advance, and information on the shape is set in the information terminal device 1. Also, it is assumed that they are arranged on the same plane, and the processing of the present invention is performed based on the assumption.

具体例として、撮像対象には、床に敷かれたタイルやマット、道路のレンガ(前述の図3)や駅構内のブロック(前述の図4)、天井や壁のパネルや窓枠等、日常的に見られるものその他が利用できる。当該ブロックやパネル等は、内部に蛍光灯などの光源を有することで発光するもの(例えば広告用のパネル等)であってもよい。光源は内部でなく表面に配置されていてもよい。こうした実際の物体の他にも、印刷物や、床にレーザ等で描かれた同様の模様や、ディスプレイに表示された同様の模様等を撮像対象としてもよい。撮像対象が配置される平面は、地面、壁、天井その他のいずれかを利用することができる。   As specific examples, imaging objects include tiles and mats laid on the floor, road bricks (see Fig. 3 above), station blocks (see Fig. 4 above), ceiling and wall panels, window frames, etc. Others that can be seen in the public are available. The block, panel, or the like may be one that emits light by having a light source such as a fluorescent lamp inside (for example, an advertising panel). The light source may be arranged on the surface instead of inside. In addition to the actual object, a printed matter, a similar pattern drawn with a laser or the like on the floor, a similar pattern displayed on the display, or the like may be used as an imaging target. As the plane on which the imaging target is arranged, any one of the ground, the wall, the ceiling, and the like can be used.

なお、撮像対象の形状は一般には、矩形、多角形、円若しくは楕円又はこれらの組み合わせといったような、幾何モデルで表現できる任意のものを採用できるが、後述の推定部4の処理を可能とするために、4点以上の所定の特徴点を検出可能なように構成されている必要がある。矩形であれば例えば、その4頂点を特徴点として設定してよい。組み合わせる際、直線の一部分を曲線に置き換えてもよいし、その逆を実施してもよい。例えば、ジグソーパズルのような形状を撮像対象に採用してもよい。   In general, any shape that can be represented by a geometric model, such as a rectangle, a polygon, a circle, an ellipse, or a combination thereof can be adopted as the shape of the imaging target, but the processing of the estimation unit 4 described later is possible. Therefore, it is necessary to be configured so that four or more predetermined feature points can be detected. For example, if it is a rectangle, its four vertices may be set as feature points. When combining, a part of the straight line may be replaced with a curve, or vice versa. For example, a shape such as a jigsaw puzzle may be adopted as an imaging target.

抽出部3は、前記撮像部2から撮像画像を入力し、撮像画像から撮像対象を、その境界を特定することによって抽出する。当該抽出の際に、上記矩形の場合における4頂点のような特徴点も、境界上において特定される。抽出された撮像対象の境界情報(特定された特徴点の情報を含む)は撮像対象情報として推定部4へ出力される。   The extraction unit 3 inputs a captured image from the imaging unit 2, and extracts an imaging target from the captured image by specifying its boundary. During the extraction, feature points such as the four vertices in the case of the rectangle are also specified on the boundary. The extracted boundary information of the imaging target (including information on the identified feature points) is output to the estimation unit 4 as imaging target information.

ここで、撮像対象内部が単色で構成されている場合は、色情報による領域分割(「第一処理」と称する)により、1つ以上の撮像対象の境界を抽出し、既知の形状に基づいて境界上における特徴点を特定する。また、複数の線分で構成されている場合は、線分検出による領域分割(「第二処理」と称する)により、1つ以上の撮像対象の境界を抽出し、既知の形状に基づいて境界上における特徴点を特定する。   Here, when the inside of the imaging target is composed of a single color, one or more boundaries of the imaging target are extracted by area division based on color information (referred to as “first processing”), and based on a known shape Identify feature points on the boundary. In the case of a plurality of line segments, one or more imaging target boundaries are extracted by segmentation (referred to as “second processing”) by line segment detection, and the boundary is based on a known shape. Identify the feature points above.

撮像対象が予めどのように設定されているかに応じて、適用可能な第一処理又は第二処理のいずれかを適用してもよいし、両者を併用して抽出精度を高めることも可能である。なお、第一処理を適用する際は、撮像対象に関してその形状の情報に加えてさらに、その色特徴の情報も既知として情報端末装置1に予め設定しておき、分割開始座標としては画像内における当該色特徴に近い点を利用する。   Depending on whether the imaging target is set how advance, may be applied to any of the applicable first processing or second processing, it is possible to improve the extraction accuracy in combination of both . In addition, when applying the first process, in addition to the shape information regarding the imaging target, the color feature information is also set in advance in the information terminal device 1 as known, and the division start coordinates are set in the image. A point close to the color feature is used.

さらに、第一処理及び/又は第二処理で境界を抽出した後に追加処理として、近似形状を適用することで、抽出処理の頑健性を高めるようにしてもよい。例えば、当該適用により、該境界を包含する外接多角形その他の所定の幾何モデルとして境界を求めてもよい。 所定の幾何モデルは、既知の撮像対象に合致するものを予め設定しておけばよいが、撮像対象が傾いて見えることを考慮したモデルを設定する。例えば、撮像対象が正方形であれば、一般の四角形を近似形状として適用する。   Furthermore, you may make it improve the robustness of an extraction process by applying an approximate shape as an additional process after extracting a boundary by a 1st process and / or a 2nd process. For example, by the application, the boundary may be obtained as a circumscribed polygon or other predetermined geometric model including the boundary. As the predetermined geometric model, a model that matches a known imaging target may be set in advance, but a model that takes into account that the imaging target appears to tilt is set. For example, if the imaging target is a square, a general square is applied as an approximate shape.

また、第一処理及び/又は第二処理における領域分割の際、入力画像内部における当該分割の適用範囲を限定してもよい。例えば、画像中央近辺の所定範囲に限定してもよい。また、境界を特定して抽出された撮像対象の画像内におけるサイズが、閾値判定で小さいと判定される場合は、抽出結果を利用しない(推定部4へと当該結果を出力しない)ようにしてもよい。   In addition, when the region is divided in the first process and / or the second process, the application range of the division in the input image may be limited. For example, it may be limited to a predetermined range near the center of the image. In addition, when the size in the image of the imaging target extracted by specifying the boundary is determined to be small by the threshold determination, the extraction result is not used (the result is not output to the estimation unit 4). Also good.

また、第一処理では、色特徴による分割の際の分割開始座標を、撮像対象において想定される見え方に対応させることで、処理負荷を軽減することができる。想定される見え方に対応させる手法としては、以下の第一手法及び第二手法がある。   Further, in the first process, the processing load can be reduced by making the division start coordinates at the time of division based on the color features correspond to the appearance that is assumed in the imaging target. There are the following first method and second method as a method corresponding to the assumed appearance.

第一手法では、領域分割範囲及び領域分割開始座標を、直近の過去の抽出結果に対応させることにより、画像全体ではなくその一部分に処理範囲を限定することができる。   In the first method, the processing range can be limited to a part of the image instead of the entire image by associating the region division range and the region division start coordinates with the latest past extraction results.

例えば、図5に概念的に示すように、当該抽出対象である現時刻tの画像G(t)について、直近の過去t-1の画像G(t-1)における抽出結果における撮像対象O1, O2, ...,Onの領域(抽出された境界で囲まれる領域)を利用して、当該各領域の所定点、例えば重心g1, g2, ..., gnを、現時刻tにおける分割開始座標としてよい。また、領域分割範囲は、それぞれ、過去に検出された領域O1, O2, ...,Onの所定の近辺範囲としてよい。   For example, as conceptually shown in FIG. 5, with respect to the image G (t) at the current time t, which is the extraction target, the imaging targets O1, O1 in the extraction result of the most recent past image G (t-1). Using the O2, ..., On area (area surrounded by the extracted boundary), start dividing the predetermined points of each area, for example, the centroids g1, g2, ..., gn at the current time t It is good as a coordinate. Further, the area division range may be a predetermined vicinity range of the areas O1, O2,.

なお、現時刻tの画像G(t)において、以上の過去の画像G(t-1)における抽出結果を利用した領域分割を行った後、撮像対象が未検出の領域を対象として領域分割を実施することにより、過去抽出結果を利用して計算量を削減するのと同時に、現時刻tにて新たに現れた撮像対象の境界も抽出可能である。当該未検出の領域を対象とする場合は、過去の検出結果が存在しない撮像開始時刻t=0の画像G(0)の全体を対象とする処理と同様に、公知の色特徴に基づく領域分割の手法を適用すればよい。   In addition, in the image G (t) at the current time t, after performing the region division using the extraction result in the past image G (t-1), the region to be imaged is divided into regions that are not detected. By performing the past extraction result, it is possible to reduce the amount of calculation and simultaneously extract the boundary of the imaging target that newly appears at the current time t. When the undetected region is targeted, region segmentation based on known color features is performed in the same manner as the processing for the entire image G (0) at the imaging start time t = 0 for which no past detection result exists. This method may be applied.

第二手法では、情報端末装置1に傾きセンサが具備されている場合は、撮像部2の傾きに応じて領域分割範囲及び領域分割開始座標を決定してもよい。図6は第二手法を説明するための図である。図6では、撮像対象が水平に配置され、面P(例えば地面)上にある例を示すが、撮像対象が壁などに垂直に配置される場合や、斜面に配置される場合も、角θの設定を変えて同様にすればよい。   In the second method, when the information terminal device 1 includes an inclination sensor, the area division range and the area division start coordinates may be determined according to the inclination of the imaging unit 2. FIG. 6 is a diagram for explaining the second method. FIG. 6 shows an example in which the imaging target is arranged horizontally and is on the plane P (for example, the ground), but the angle θ is also applied when the imaging target is arranged perpendicular to a wall or the like, or arranged on a slope. You can do the same by changing the setting.

図6にて場合(1)として示すように、撮像部2が撮像対象と正対している(傾きセンサが角度θ=0°を示す)場合、領域分割範囲は画像全体、開始座標は画像中央に設定する。一方、場合(2)として図示するように、撮像部2が撮像対象に対し平行に向いている(傾きセンサが角度θ=90°を示す)場合、領域分割範囲は撮像対象方向の画像の一部(例えば下方側所定割合)、開始座標は撮像対象方向の画像端(例えば下端)に設定する。さらに、場合(3)に示す、撮像部2と撮像対象との位置関係が前記2 つの状態の中間(0°<θ<90°)にある場合、傾きセンサが示す角度θに領域分割範囲及び領域分割開始座標を比例させることで、場合(1)と場合(2)との中間としての設定を行う。   As shown in the case (1) in FIG. 6, when the imaging unit 2 is directly facing the imaging target (the tilt sensor indicates an angle θ = 0 °), the area division range is the entire image, and the start coordinate is the center of the image. Set to. On the other hand, as illustrated in the case (2), when the imaging unit 2 is oriented parallel to the imaging target (the tilt sensor indicates an angle θ = 90 °), the region division range is one of the images in the imaging target direction. The part (for example, a predetermined ratio on the lower side) and the start coordinate are set at the image end (for example, the lower end) in the imaging target direction. Further, in the case (3), when the positional relationship between the imaging unit 2 and the imaging target is in the middle of the two states (0 ° <θ <90 °), the region division range and the angle θ indicated by the tilt sensor are set. By setting the area division start coordinates in proportion, setting is made as an intermediate between case (1) and case (2).

以上、第一処理(色特徴による領域分割)の際に領域分割範囲及び領域分割開始座標を限定する手法として、第一手法及び第二手法を説明したが、これらにおいて領域分割範囲を限定する方法は、第二処理(線分による領域分割)についても同様に利用可能である。   As described above, the first method and the second method have been described as the method for limiting the region division range and the region division start coordinates at the time of the first processing (region division based on color features), but the region division range is limited in these methods. The method can be used in the same way for the second processing (region division by line segment).

なお、撮像対象は予め、複数種類のものを設定しておいてもよい。この場合、互いに異なる色特徴及び/又は形状に基づき、各種類の撮像対象の抽出処理を、抽出部3が実行する。例えば、図2や図3の例でブロック等に濃淡の区別を設けたように、同一形状で色特徴のみが異なる複数の撮像対象を設けておいてもよい。   Note that a plurality of types of imaging targets may be set in advance. In this case, the extraction unit 3 executes each type of imaging target extraction process based on different color features and / or shapes. For example, a plurality of imaging targets having the same shape and different only in color characteristics may be provided, as in the example of FIGS.

推定部4は、抽出部3で抽出された撮像対象情報と、撮像対象の既知の形状情報と、を対比することによって、撮像部2の撮像対象に対する相対的な位置関係を推定する。   The estimation unit 4 estimates the relative positional relationship of the imaging unit 2 with respect to the imaging target by comparing the imaging target information extracted by the extraction unit 3 with the known shape information of the imaging target.

なお、抽出部3で抽出する際にも撮像対象の既知の形状情報を利用したが、この場合は、傾いて見えることにより形状が歪むことを考慮して、既知の形状情報(及び色特徴)を、色特徴及び又は線分という形で、利用していた。例えば、撮像対象が正方形であれば、歪みを許容した矩形(四角形)一般を抽出対象とした。一方、推定部4においては、当該本来の形状である正方形を、既知の形状情報として利用すると共に、傾いて歪んだ形で抽出された撮像対象情報と比較することで、撮像部2の撮像対象に対する相対的な位置関係を推定する。   Note that the known shape information of the imaging target is also used when the extraction unit 3 performs the extraction, but in this case, the known shape information (and color characteristics) is taken into consideration that the shape is distorted by appearing to be tilted. Were used in the form of color features and / or line segments. For example, if the object to be imaged is a square, a general rectangle (rectangle) that allows distortion is selected as an extraction object. On the other hand, the estimation unit 4 uses the square, which is the original shape, as known shape information and compares it with the imaging target information extracted in a tilted and distorted form, thereby obtaining the imaging target of the imaging unit 2. The relative positional relationship with respect to is estimated.

具体的には、推定部4は、予め設定された変換式(平面射影変換の変換式)に基づいて、両者が一致するような変換行列を推定する。すなわち、当該一致するような平面射影変換の変換行列の具体的な係数を推定する。抽出された撮像対象情報におけるm個の特徴点座標(例えば歪んだ四角形の4頂点座標)をX、撮像対象の既知の形状情報における基準特徴点座標(例えば正方形の4頂点座標)をXTとし、両者が一致するような平面射影変換行列H を予め設定した変換式として利用するとき、特徴点座標は次式(1)で表される。 Specifically, the estimation unit 4 estimates a conversion matrix that matches both based on a preset conversion formula (a conversion formula for plane projection conversion). That is, the specific coefficient of the transformation matrix of the planar projection transformation that matches is estimated. M feature point coordinates (e.g. distorted coordinates of four vertexes of the rectangle) X, the reference feature point coordinates in the known shape information of the imaging target (e.g. square four vertexes coordinates) and X T of the extracted object's information When the planar projection transformation matrix H 2 that matches the two is used as a preset transformation equation, the feature point coordinates are expressed by the following equation (1).

時間的または空間的に複数の撮像対象情報が抽出されている場合、あるいは撮像対象が図2や図3のように規則的に配置されていることが既知である場合、当該情報を組み合わせて変換行列の算出精度を向上させることができる。   When a plurality of pieces of imaging target information are extracted temporally or spatially, or when it is known that imaging targets are regularly arranged as shown in FIGS. 2 and 3, the information is combined and converted. Matrix calculation accuracy can be improved.

例えば、図7に示すように、同一の撮像対象Oに対して2つの撮像対象情報A,Bが抽出されたとする。ここで、撮像対象情報Aと撮像対象情報Bの特徴点座標(すなわち、撮像画像上での座標)がそれぞれXA、XBで与えられ、当該撮像対象Oにつき予め既知の基準特徴点座標XTへの変換行列がそれぞれHA、HBで算出されたとき、次式(2), (3)が成り立つはずであるが、誤差等により概して等号が成立しない。なお、図7は以下の式(2)〜(6)を説明するための図である。 For example, as shown in FIG. 7, it is assumed that two pieces of imaging target information A and B are extracted for the same imaging target O. Here, the feature point coordinates of the imaging target information A and the imaging target information B (that is, the coordinates on the captured image) are given by X A and X B , respectively, and the known reference feature point coordinates X for the imaging target O in advance. When the transformation matrix to T is calculated by H A and H B , the following equations (2) and (3) should hold, but generally no equal sign is established due to errors or the like. FIG. 7 is a diagram for explaining the following equations (2) to (6).

ここで、以下の式(4)のように、同一形状Oに対する個別の抽出結果である撮像対象情報Aと撮像対象情報Bの特徴点座標のうち、一方を基準特徴点座標と仮置きして、両者の変換行列HABを求める。 Here, as shown in the following equation (4), one of the feature point coordinates of the imaging target information A and the imaging target information B, which are individual extraction results for the same shape O, is temporarily placed as a reference feature point coordinate. Then, a conversion matrix H AB of both is obtained.

このとき、下記の式(5), (6)が得られる。   At this time, the following equations (5) and (6) are obtained.

推定部4では式(1)のような変換行列Hを求める際に周知の最小二乗法を利用する。ここで、以上の関係式(2)〜(6)を前提に、同一撮像対象に対する撮像対象情報が複数存在しそれぞれにつき変換行列が算出可能な場合に、当該最小二乗法のコスト関数eに他の変換行列との関係を含めることで、精度向上が可能となる。一般に空間的に離れた特徴点座標ほど高精度な変換行列を算出できるため、より高精度な変換行列を組み込むことで全体の精度向上が期待できる。   The estimation unit 4 uses a well-known least square method when obtaining the transformation matrix H as shown in Equation (1). Here, based on the above relational expressions (2) to (6), when there are multiple pieces of imaging target information for the same imaging target and a conversion matrix can be calculated for each, the cost function e of the least square method is By including the relationship with the transformation matrix, it is possible to improve accuracy. In general, since feature point coordinates that are spatially separated can be calculated with higher accuracy, a higher accuracy can be expected by incorporating a higher accuracy conversion matrix.

例えば、変換行列HAを式(2)から求め、変換行列HABを式(4)から求めたのち、式(7)のコスト関数を最小化するように変換行列HBを求める。なお、αは任意の重み変数、‖・‖は行列ノルムを表す。 For example, after obtaining the transformation matrix H A from Equation (2) and obtaining the transformation matrix H AB from Equation (4), the transformation matrix H B is obtained so as to minimize the cost function of Equation (7). Α represents an arbitrary weight variable, and ‖ and ‖ represent matrix norms.

さらに、上記式(7)から求めた変換行列HBを使って、以下の式(8)により変換行列HAを求め直してもよい。なお、式(8)は式(7)でHAとHBとを入れ替えたものに相当する。さらに同様にして、式(7)によるHAの算出と、式(8)によるHBの算出とを反復的に繰り返してもよい。ここで、重み変数αを反復の回数iに応じて変化させてもよい。反復回数は所定回数としてもよいし、誤差eに対する閾値判定で反復の終了判断を下すようにしてもよい。 Further, the transformation matrix H A may be obtained again by the following equation (8) using the transformation matrix H B obtained from the equation (7). Note that equation (8) corresponds to that interchanging the H A and H B in the formula (7). Further in the same manner, the calculation of H A according to equation (7) may be repeated and the calculation of H B according to equation (8) iteratively. Here, the weight variable α may be changed according to the number of iterations i. The number of iterations may be a predetermined number, or the end of iteration may be determined by threshold determination for error e.

なお、図6及び式(2)〜(8)で説明した撮像対象情報A及び撮像対象情報Bに関しては、Aが過去、Bが現在といったように、時間が異なる撮像画像から同一の撮像対象Oが抽出されたものであっても、また、同一時間の撮像画像から同一の撮像対象OがA,Bとして複数抽出されたものであってもよく、いずれの場合でも精度を向上させることができる。また、A,Bにつき「同一の」撮像対象Oとは、種類が同一、すなわち、基準特徴点座標XTが同一であればよく、必ずしも実際の物体等としてA,Bが同一である必要はない。 Note that with respect to the imaging target information A and the imaging target information B described in FIG. 6 and the equations (2) to (8), the same imaging target O from the captured images with different times such as A being the past and B being the present. Or a plurality of the same imaging object O extracted as A and B from captured images of the same time, and in either case, the accuracy can be improved. . Also, A, is the "same" imaging target O per B, type the same, i.e., may be a reference feature point coordinates X T is the same, always A as an actual object such as the B must have the same Absent.

例えば、図2や図3のようなそれぞれが既知形状のブロックなどが敷き詰められた地面等を撮像する場合であれば、同一時間の撮像画像から複数のブロックを撮像対象として利用できる。説明の便宜上、撮像対象が当該ブロックであるものとして、同一時刻の撮像画像において複数の同種類の撮像対象を利用する手法を説明する。   For example, in the case of imaging the ground or the like in which blocks each having a known shape are spread as shown in FIGS. 2 and 3, a plurality of blocks can be used as imaging targets from captured images of the same time. For convenience of explanation, a method of using a plurality of imaging objects of the same type in a captured image at the same time will be described assuming that the imaging target is the block.

ブロックがA及びBのように、同一時刻の撮像画像内において2つ得られている場合には、以上の式(2)〜(8)で説明したように、HA及びHBを求めることができる。(なお、精度向上の計算は利用してもしなくてもよい。)この場合、HA及びHBにおいては、周知の平面射影変換行列における項の分解を適用すると、平行移動の項以外は同一であるので、それぞれで補正画像を生成して合成することができる。すなわち、補正画像は、ブロックAの部分と、ブロックBの部分と、個別に求めたうえで、平行移動によって合成すればよい。3つ以上の場合も同様にすればよい。 If two blocks are obtained in the captured image at the same time, such as A and B , obtain HA and HB as explained in the above equations (2) to (8). Can do. (Note that the calculation for improving accuracy may or may not be used.) In this case, in H A and H B , applying the decomposition of terms in the well-known planar projective transformation matrix, the terms other than the translation term are the same. Therefore, it is possible to generate and synthesize a corrected image for each. That is, the corrected image may be obtained by separately obtaining the block A portion and the block B portion and then combining them by parallel movement. The same applies to the case of three or more.

なお、撮像画像におけるブロック以外の箇所は、当該箇所がブロックと同一の平面上にありさえすれば、ブロックより求められた平面射影変換行列により、補正画像においてブロックと同様に正面から見た状態へと補正される。複数のブロックで個別に行列が求まっている場合、上記のように相互に平行移動の関係があるので、いずれのブロックから求まった行列を適用してもよく、各ブロックを基準に正面から見た状態へと同様に補正される。すなわち、補正画像を求める際は、いずれかのブロックで求まった1つの行列を、撮像画像の全体に適用すればよい。(なお、行列算出の際に高精度化がなされていれば、高精度化のなされた行列を適用することが好ましい。)   In addition, as long as the part other than the block in the captured image is on the same plane as the block, the corrected image is viewed from the front in the same manner as the block by the plane projection transformation matrix obtained from the block. It is corrected. When matrixes are obtained individually for multiple blocks, there is a relationship of mutual translation as described above, so the matrix obtained from any block may be applied, and viewed from the front based on each block Corrected to the state as well. That is, when obtaining a corrected image, one matrix obtained in any block may be applied to the entire captured image. (It is preferable to apply a high-precision matrix if high-precision is achieved in the matrix calculation.)

なおまた、同一時刻の撮像画像内において3つ以上のブロックが存在する場合も、上記式(7)及び式(8)の一般化として、重み付き線形和によって補正画像を生成するための行列を高精度に求めることができる。例えば、対象とするブロックの撮像対象情報をZとし、これにつき求める行列をHZとして、式(7)の代わりに以下の式(9)を利用すればよい。ここで和を取るiについては、対象とする3つ以上のブロック(Zを除く)を表しており、i=A, B, ...である。αiは重み付け係数である。 In addition, when there are three or more blocks in the captured image at the same time, as a generalization of the above equations (7) and (8), a matrix for generating a corrected image by weighted linear sum is used. It can be obtained with high accuracy. For example, assuming that the imaging target information of the target block is Z, and the matrix obtained for this is H Z , the following equation (9) may be used instead of equation (7). Here, i taking the sum represents three or more blocks (excluding Z), and i = A, B,... α i is a weighting coefficient.

また、同一時刻内の複数のブロックを扱う別の実施例として、複数の撮像対象を一つの撮像対象として拡張してもよい。   As another example of handling a plurality of blocks within the same time, a plurality of imaging targets may be expanded as one imaging target.

まず、(S1)撮像画像から単一のブロックにて行列を算出し、撮像画像に当該行列を適用して仮の俯瞰画像を生成する。次に、(S2)当該仮の俯瞰画像内の特徴点(ブロックであれば頂点など)を、後述する作成済み地図情報(あるいは、規則的に配置されていることが既知であればその情報でもよい)から、近傍に存在する特徴点と対応させる。続いて、(S3)対応関係にある特徴点全体を新たなXTとして、最初(S1)に戻り、当該特徴点全体を単一のブロックとみなして、同様の処理を繰り返す。(S3)では、特徴点間距離の差が閾値以下になるか又は所定回数の反復を終えた場合に終了すればよい。 First, (S1) a matrix is calculated from a captured image using a single block, and a temporary overhead image is generated by applying the matrix to the captured image. Next, (S2) feature points in the temporary bird's-eye view image (such as vertices in the case of blocks) are created map information (or information if it is known that they are regularly arranged). Good), it is made to correspond with the feature point which exists in the vicinity. Subsequently, the whole feature points in the (S3) correspondence as a new X T, back to the first (S1), the entire feature point is regarded as a single block, the same process is repeated. In (S3), the process may be terminated when the difference between the feature point distances is equal to or smaller than the threshold value or when a predetermined number of iterations are completed.

さらに、同一時刻内の複数のブロックを扱う別の実施例として、式(9)における反復毎に、特徴点座標を補正してもよい。例えば、特徴点座標は画素単位であるが、真値が画素単位とは限らない。そこで、特徴点座標を小数画素単位にすることで、精度向上が見込まれる。具体的には、以下の式(10)のようなランダムな摂動項X'をコスト関数に加えて、最小となるX'における行列を求める。X'は反復の回数に応じて変化させてもよい。   Furthermore, as another example of handling a plurality of blocks within the same time, the feature point coordinates may be corrected for each iteration in equation (9). For example, the feature point coordinates are in pixel units, but the true value is not necessarily in pixel units. Therefore, accuracy can be improved by setting the feature point coordinates in decimal pixel units. Specifically, a random perturbation term X ′ as in the following equation (10) is added to the cost function to obtain a matrix at X ′ that is the minimum. X ′ may be changed according to the number of iterations.

以上、同一時刻内の複数のブロック(撮像対象)を扱う各手法を説明した。一方、計算自体は以上と同様にして、異なる時刻で同一のブロックを用いて行列Hの計算精度を上げることも可能であるが、この場合、同一のブロックをトラッキングする必要がある。トラッキングの精度を高める観点からは、時間的に直近の撮像画像におけるブロック(従って、当該直近の時点の画像において空間的にも近傍に存在するブロック)を用いることが望ましい。   Heretofore, each method for handling a plurality of blocks (imaging targets) within the same time has been described. On the other hand, in the same manner as described above, it is possible to increase the calculation accuracy of the matrix H using the same block at different times, but in this case, it is necessary to track the same block. From the viewpoint of improving tracking accuracy, it is desirable to use a block in a captured image that is closest in time (and thus a block that is spatially close in the image at the most recent time).

以上、推定部4において変換係数の推定に用いられた変換式および推定された変換係数は、作成部5および測位部7へ出力される。   As described above, the conversion equation used for estimating the conversion coefficient in the estimation unit 4 and the estimated conversion coefficient are output to the creation unit 5 and the positioning unit 7.

作成部5は、推定部4から入力された変換係数を撮像部2で撮像された撮像画像に適用することで、特定の座標から俯瞰した画像へ変換し補正画像とする。図8は、当該補正画像を得る処理を説明するための図である。図8にて(1)に示す撮像部2による撮像位置から、(2)に示す俯瞰位置への変換は、例えば次のようにしてよい。   The creation unit 5 applies the conversion coefficient input from the estimation unit 4 to the captured image captured by the imaging unit 2, thereby converting the image into a bird's-eye view from specific coordinates to obtain a corrected image. FIG. 8 is a diagram for explaining processing for obtaining the corrected image. In FIG. 8, the conversion from the imaging position by the imaging unit 2 shown in (1) to the overhead position shown in (2) may be performed as follows, for example.

すなわち、まず前提として、推定部4の処理により、(1)の撮像部2の撮像位置と、平面P上における撮像対象との相対的な位置関係が、変換式及び変換係数の形で推定されている。従って、当該撮像対象上の所定点をP3とし、その座標を、水平面P上でz=0となる空間座標(x, y, z)においてP3(a, b, 0)として定義すると共に、当該空間座標(x, y, z)において(1)に示す撮像部2の位置P1(p, q, r)を求めることができる。   That is, as a premise, the relative positional relationship between the imaging position of the imaging unit 2 in (1) and the imaging target on the plane P is estimated in the form of a conversion equation and a conversion coefficient by the processing of the estimation unit 4. ing. Therefore, the predetermined point on the imaging target is defined as P3, and its coordinates are defined as P3 (a, b, 0) in spatial coordinates (x, y, z) where z = 0 on the horizontal plane P, and The position P1 (p, q, r) of the imaging unit 2 shown in (1) can be obtained at the spatial coordinates (x, y, z).

当該空間座標(x, y, z)により、俯瞰位置は(2)に示すように、所定点P3(a, b, 0)から平面Pに垂直な方向に所定距離hだけ離れた点P2(a, b, h)として定めればよい。当該俯瞰位置P2から見た補正画像への変換を実施する関係は、当該3つの点P1, P2, P3の位置関係より、平面射影変換の変換式の形で求めることができる。   With the spatial coordinates (x, y, z), as shown in (2), the overhead position is a point P2 (a distance from the predetermined point P3 (a, b, 0) by a predetermined distance h in the direction perpendicular to the plane P ( a, b, h). The relationship for performing conversion to the corrected image viewed from the overhead position P2 can be obtained in the form of a conversion formula for plane projection conversion from the positional relationship of the three points P1, P2, and P3.

なお、式(1)等で推定部4が変換行列Hを推定する際に、当該所定距離h離れた点P(a, b, h)から見た画像が補正画像として、当該変換行列Hによる変換で求まるように、基準特徴点座標XTを予め定めておいてもよい。また、撮像対象が複数種類存在する場合は、異なる種類の撮像対象から求めた変換行列Hであっても共通の距離hとなるように、各種類における基準特徴点座標XTを定めておく。 In addition, when the estimation unit 4 estimates the transformation matrix H using Equation (1) or the like, an image viewed from the point P (a, b, h) separated by the predetermined distance h is used as a corrected image, and the transformation matrix H is used. as determined by the conversion, the reference feature point coordinates X T may be determined in advance. Further, if the imaging object is a plurality of types exist, differently types even transformation matrix H determined from the imaging subject as a common distance h, previously set the reference feature point coordinates X T in each type.

なおまた、上記所定点P3は、撮像対象内の所定点としたが、例えば重心を利用してよい。撮像対象が複数存在すれば、いずれか1つ(例えば撮像画像内で面積最大のもの)における所定点とすればよい。あるいは、撮像対象内の所定点として点P3を定めるのではなく、撮像画像内の所定点(例えば中心点)として点P3を定めておいてもよい。所定距離hに関しては、地図情報を作成する一連の処理の間の各撮像画像について、共通の定数を用いる。   The predetermined point P3 is a predetermined point in the imaging target, but for example, the center of gravity may be used. If there are a plurality of imaging targets, any one (for example, one having the largest area in the captured image) may be set as a predetermined point. Alternatively, the point P3 may be determined as a predetermined point (for example, a center point) in the captured image instead of determining the point P3 as the predetermined point in the imaging target. For the predetermined distance h, a common constant is used for each captured image during a series of processes for creating map information.

作成部5はまた、記憶部に記憶されている地図情報と補正画像とを比較して、全体又は一部が一致する箇所において、補正画像と地図情報とを合成し、地図情報を更新する。一致の判断には、補正画像の部分領域(全体又は一部を「部分領域」と称することとする)を地図情報上でスキャンすることによるテンプレートマッチングや、補正画像の部分領域から抽出した特徴点によって地図情報内を探索する特徴点マッチング等の、各種の従来技術を利用できる。ここで、マッチングに用いる部分領域は、撮像対象の全体を覆う所定領域(例えば外接矩形)でも、当該所定領域の一部でも、当該所定領域の周辺を含めた領域でもよい。   The creation unit 5 also compares the map information stored in the storage unit with the corrected image, synthesizes the corrected image and the map information, and updates the map information at a place where all or part of the map information matches. The matching is determined by template matching by scanning a partial area of the corrected image (all or a part is referred to as “partial area”) on map information, or feature points extracted from the partial area of the corrected image. Various conventional techniques such as feature point matching for searching the map information can be used. Here, the partial area used for matching may be a predetermined area (for example, a circumscribed rectangle) covering the entire imaging target, a part of the predetermined area, or an area including the periphery of the predetermined area.

なお、特徴点マッチングにおける「特徴点」とは、周知のSIFT特徴量やSURF特徴量の点であり、本願発明の抽出部3にて境界と共に抽出される特徴点座標とは別の概念に属する。   The “feature point” in the feature point matching is a well-known SIFT feature amount or SURF feature amount point and belongs to a concept different from the feature point coordinates extracted together with the boundary by the extraction unit 3 of the present invention. .

なお、図9に地図情報を更新する概念的な例を示すように、ある時点tにおいて地図情報M(t)があり、新たに補正画像A(t)を合成する際に、一致箇所R1(t)(=M(t)∩A(t))にはすでに過去に求まった地図情報の内容が存在しているので、当該一致箇所R1(t)においては補正画像A(t)を内容を逐次的に上書きしてもよいし、地図情報の内容を残して上書きはしないようにしてもよい。一方、一致箇所R1(t)以外で、補正画像A(t)が地図情報M(t)の領域を逸脱する箇所R2(t)(=A(t)\R1(t))については、補正画像の内容が新たに地図情報に取り込まれ、地図情報の領域が逐次的に成長することとなる。すなわち、次の時点t+1の地図情報M(t+1)が、M(t+1)=M(t)∪A(t)として得られる。   In addition, as shown in the conceptual example of updating the map information in FIG. 9, there is map information M (t) at a certain time t, and when a corrected image A (t) is newly synthesized, a matching portion R1 ( t) (= M (t) ∩ A (t)) already contains the contents of the map information obtained in the past, so the corrected image A (t) The map information may be overwritten sequentially, or the map information may be retained and not overwritten. On the other hand, other than the coincidence portion R1 (t), correction is made for the portion R2 (t) (= A (t) \ R1 (t)) where the corrected image A (t) deviates from the area of the map information M (t). The content of the image is newly taken into the map information, and the map information area grows sequentially. That is, the map information M (t + 1) at the next time point t + 1 is obtained as M (t + 1) = M (t) ∪A (t).

なお、撮像対象が図2や図3のように規則的に配置されていることが既知である場合、該配置構造を地図情報を作成する際のいわば骨格情報として予め保持しておき、抽出された撮像対象情報の特徴点座標を同配置構造の基準特徴点座標に量子化することで、より高速かつ高精度に地図情報を作成することができる。   In addition, when it is known that the imaging target is regularly arranged as shown in FIG. 2 or FIG. 3, the arrangement structure is stored in advance as skeleton information when creating map information and extracted. By quantizing the feature point coordinates of the imaging target information into the reference feature point coordinates of the same arrangement structure, it is possible to create map information with higher speed and higher accuracy.

すなわち、例えば図3の例のように、正方形のブロックが碁盤の目状に配置されていることが既知であれば、撮像画像から求まった各矩形がどの位置のブロックであるかのみを、時系列上の一連の撮像画像上において追跡するようにすればよい。こうして、図4のように、補正画像で領域R1が得られた場合には、(1, 1)の位置のブロックB1や、(4, 4)の位置のブロックB2といったような、当該領域R1内の各ブロックをその量子化された位置(n ,m) (ここでn,mは整数)と共に識別しておく。   That is, if it is known that square blocks are arranged in a grid pattern, for example, as in the example of FIG. 3, only the position of each rectangle obtained from the captured image is the time block. The tracking may be performed on a series of captured images on the series. Thus, as shown in FIG. 4, when the region R1 is obtained in the corrected image, the region R1 such as the block B1 at the position (1, 1) or the block B2 at the position (4, 4). Each block is identified with its quantized position (n, m) (where n and m are integers).

その後、領域R2が得られた場合は、既に識別されたブロックB2等によって、当該領域R2内の各ブロックの量子化位置を識別できる。さらに、その後に領域R3が得られた場合、逐次的に識別された量子化位置の情報により、例えばブロックB3の位置が(2, 6)であることを識別可能となる。以上のようにして、識別された量子化位置に補正画像を割り当てることによって、高精度な地図情報が作成可能である。   Thereafter, when the region R2 is obtained, the quantization position of each block in the region R2 can be identified by the already identified block B2 or the like. Furthermore, when the region R3 is obtained after that, it is possible to identify that the position of the block B3 is (2, 6), for example, by the information of the quantized positions that are sequentially identified. As described above, highly accurate map information can be created by assigning a corrected image to the identified quantized position.

なお、当該量子化は、推定部4においても利用することができる。すなわち、図3及び図4の例であれば、図3より抽出された一連の矩形の頂点の全てを、一連の碁盤の目の頂点であるとして、当該全ての頂点につき一括で式(1)の計算を実施してもよい。   The quantization can also be used in the estimation unit 4. That is, in the example of FIGS. 3 and 4, assuming that all of the series of rectangular vertices extracted from FIG. 3 are the vertices of the series of grids, Equation (1) May be calculated.

以上、作成部5にて得られた補正画像は測位部7へ出力され、新たに合成された地図情報は更新された地図情報として記憶部6へ出力される。記憶部6ではこうして、最新の地図情報を更新して保持し続け、当該更新を可能とすべく、直近の過去の地図情報を作成部5の参照に供する。   As described above, the corrected image obtained by the creation unit 5 is output to the positioning unit 7, and the newly synthesized map information is output to the storage unit 6 as updated map information. In this way, the storage unit 6 continues to update and hold the latest map information, and provides the latest past map information for reference to the creation unit 5 so that the update is possible.

なお、撮像部2が撮像を開始した初期時点t=0では、地図情報は空データである。図9の記号で説明すると、当該初期時点t=0で得た補正画像A(0)は、当該空データとしての地図情報M(0)=φにその全体が取り込まれ、次の時点t=1で利用される地図データM(1)が、M(1)=A(0)として構築される。   Note that the map information is empty data at an initial time t = 0 when the imaging unit 2 starts imaging. Referring to the symbols in FIG. 9, the entire corrected image A (0) obtained at the initial time t = 0 is taken in the map information M (0) = φ as the empty data, and the next time t = The map data M (1) used in 1 is constructed as M (1) = A (0).

測位部7は、記憶部6に蓄積された地図情報と、推定部4で推定された相対位置情報と、作成部5で変換された補正画像とから、地図情報内における撮像部2の座標を測定する。具体的には、補正画像を地図情報に合成した場所を基準として、推定部4の変換式を逆に適用することにより座標を求める。図8の例であれば、地図情報が平面P上の(x, y)座標で構成されている場合に、当該求まる撮像部2の座標は(p, q)となる。   The positioning unit 7 calculates the coordinates of the imaging unit 2 in the map information from the map information accumulated in the storage unit 6, the relative position information estimated by the estimation unit 4, and the corrected image converted by the creation unit 5. taking measurement. Specifically, the coordinates are obtained by reversely applying the conversion formula of the estimation unit 4 with reference to the place where the corrected image is combined with the map information. In the example of FIG. 8, when the map information is composed of (x, y) coordinates on the plane P, the coordinates of the imaging unit 2 obtained are (p, q).

以上、本発明によれば、撮像対象を撮像部2で撮像するだけで、測位部7により撮像部2の位置を測定することが可能となる。また、測位は、撮像部2の撮像する画像を解析し、撮像部2に対する撮像対象の相対的位置の変化をもとに地図情報を生成するので、ソフトウェアで実現可能であり、GPS 等の特別なハードウェアを情報端末装置1に組み込む必要がない。   As described above, according to the present invention, the position of the imaging unit 2 can be measured by the positioning unit 7 simply by imaging the imaging target with the imaging unit 2. In addition, positioning can be realized by software because it analyzes the image captured by the imaging unit 2 and generates map information based on changes in the relative position of the imaging target with respect to the imaging unit 2. It is not necessary to incorporate simple hardware into the information terminal device 1.

さらに、地図情報は、撮像部2の撮像する画像を解析し、過去の地図情報と照合することで生成されるので、予め完全な地図情報を組み込む必要がない。合わせて、地図情報は、過去の地図情報及び事前知識(撮像対象の形状と、撮像対象が平面上に配置されていること)に基づいて生成されるので、処理負荷を小さくすることが可能となる。   Furthermore, since the map information is generated by analyzing an image captured by the imaging unit 2 and collating it with past map information, it is not necessary to incorporate complete map information in advance. In addition, the map information is generated based on past map information and prior knowledge (the shape of the imaging target and that the imaging target is arranged on a plane), so that the processing load can be reduced. Become.

なお、本発明は、コンピュータに読み込まれ実行されることにより、当該コンピュータを図1に記載の各部として機能させ、当該コンピュータを情報端末装置1として機能させるプログラムとして提供されてもよい。この場合、撮像部2の代わりの機能として、実際に撮像を行う機能の代わりに、当該コンピュータの外部機器としての撮像部2の取得する撮像画像を連続的に読み込む機能が、当該プログラムの実行により提供されてもよい。   Note that the present invention may be provided as a program that causes a computer to function as each unit illustrated in FIG. 1 and causes the computer to function as the information terminal device 1 by being read and executed by the computer. In this case, as a function of the imaging unit 2, a function of continuously reading captured images acquired by the imaging unit 2 as an external device of the computer instead of a function of actually performing imaging is performed by executing the program. May be provided.

また、本発明は、図1に示す情報端末装置1の各部のうち一部分が、ネットワーク上のサーバ等と通信することで、当該サーバ等の側において実施されるようにしてもよい。例えば、撮像部2はユーザの保有する情報端末装置1の側において実施し、撮像画像をサーバに送信することで、抽出部3以降の処理はサーバ側において実施してもよい。そして、当該サーバ側で実施された作成部5及び/又は測位部7の結果を、情報端末装置1で受信して表示するようにしてもよい。   Further, the present invention may be implemented on the server side or the like by a part of each part of the information terminal device 1 shown in FIG. 1 communicating with the server or the like on the network. For example, the imaging unit 2 may be performed on the information terminal device 1 side owned by the user, and the processing after the extraction unit 3 may be performed on the server side by transmitting the captured image to the server. Then, the result of the creation unit 5 and / or the positioning unit 7 implemented on the server side may be received and displayed by the information terminal device 1.

本発明における補足事項として、補正画像の生成の際に、平面上にあるか否かの情報を追加で取得することができる。具体的には次の通りである。撮像画像に行列Hを適用して補正画像を生成するとき、撮像対象と同一平面上にある特徴点は補正画像上にも特徴点として存在するが、撮像対象と同一平面上にない特徴点は補正画像上には特徴点として存在するとは限らないことを利用できる。   As a supplementary matter in the present invention, it is possible to additionally acquire information as to whether or not the image is on a plane when the corrected image is generated. Specifically, it is as follows. When a corrected image is generated by applying the matrix H to the captured image, feature points that are on the same plane as the imaging target exist as feature points on the corrected image, but feature points that are not on the same plane as the imaging target are It can be used that it does not necessarily exist as a feature point on the corrected image.

例えば、撮像画像から得られた全ての特徴点の座標がHによって変換されたとき、補正画像での同座標近傍に特徴点が存在するか否かを評価する。特徴点があれば、平面と判断し、特徴点がなければ、平面以外と判断する。当該特徴点があるか否かの判断の情報を、例えば色を区別して地図情報上に記載することで、地図情報を見るユーザは、平面箇所と、平面ではない箇所とを識別することが可能となる。   For example, when the coordinates of all the feature points obtained from the captured image are transformed by H, it is evaluated whether or not the feature points exist in the vicinity of the same coordinates in the corrected image. If there is a feature point, it is determined to be a plane, and if there is no feature point, it is determined to be other than a plane. Information for determining whether or not there is a feature point is described on the map information by distinguishing colors, for example, so that the user viewing the map information can distinguish between a flat part and a non-planar part It becomes.

1…情報端末装置、2…撮像部、3…抽出部、4…推定部、5…作成部、6…記憶部、7…測位部   DESCRIPTION OF SYMBOLS 1 ... Information terminal device, 2 ... Imaging part, 3 ... Extraction part, 4 ... Estimation part, 5 ... Creation part, 6 ... Memory | storage part, 7 ... Positioning part

Claims (13)

継続的に撮像を行う撮像部を有する情報端末装置であって、
前記撮像部で撮像された撮像画像より、形状及び平面上に配置されていることが既知の撮像対象を、当該形状に基づいて抽出する抽出部と、
前記抽出された撮像対象と前記撮像部との位置関係を前記既知の形状に基づいて推定する推定部と、
地図情報を保持する記憶部と、
前記推定された位置関係に基づき、前記撮像画像を、撮像対象に対する所定方向から見た補正画像へと変換すると共に、現時点で当該変換された補正画像を、当該現時点で前記保持された地図情報と合成して、前記保持される地図情報を更新する作成部と、を備えることを特徴とする情報端末装置。
An information terminal device having an imaging unit that continuously performs imaging,
An extraction unit that extracts an imaging target known to be arranged on a shape and a plane from a captured image captured by the imaging unit, based on the shape;
An estimation unit that estimates a positional relationship between the extracted imaging target and the imaging unit based on the known shape;
A storage unit for holding map information;
Based on the estimated positional relationship, the captured image is converted into a corrected image viewed from a predetermined direction with respect to the imaging target, and the converted corrected image at the present time is converted to the map information held at the current time. An information terminal device comprising: a creation unit that synthesizes and updates the held map information.
前記抽出部は、撮像対象の既知の色特徴による領域分割及び/又は撮像画像からの線分検出による領域分割により、境界を特定することによって撮像対象を抽出することを特徴とする請求項1に記載の情報端末装置。   The extraction unit extracts an imaging target by specifying a boundary by area division based on a known color feature of the imaging target and / or area division based on line segment detection from the captured image. The information terminal device described. 前記抽出部は、前記領域分割により撮像対象の境界を特定し、さらに、当該境界に前記既知の形状に基づく近似形状を適用することによって撮像対象を抽出することを特徴とする請求項2に記載の情報端末装置。   3. The extraction unit according to claim 2, wherein the extraction unit identifies a boundary of the imaging target by the region division, and further extracts an imaging target by applying an approximate shape based on the known shape to the boundary. Information terminal equipment. 前記抽出部は、前記領域分割を適用する範囲を、当該適用する現時点に対する過去時点につき前記抽出された撮像対象に基づく範囲に限定する、又は、前記情報端末装置がさらに備える前記撮像部の傾きを取得する手段によって取得された傾きに基づく範囲に限定することを特徴とする請求項2または3に記載の情報端末装置。   The extraction unit limits a range to which the region division is applied to a range based on the extracted imaging target with respect to a past time point with respect to the applied current time, or an inclination of the imaging unit further provided in the information terminal device The information terminal device according to claim 2, wherein the information terminal device is limited to a range based on the inclination acquired by the acquiring unit. 前記推定部は、平面射影変換の変換行列として、前記位置関係を推定することを特徴とする請求項1ないし4のいずれかに記載の情報端末装置。   The information terminal apparatus according to claim 1, wherein the estimation unit estimates the positional relationship as a transformation matrix for planar projective transformation. 前記抽出部は、時間的または空間的に、同一種類の撮像対象として、第一及び第二の撮像対象を抽出し、
前記推定部は、第一の撮像対象より第一の変換行列を求め、第一の撮像対象と第二の撮像対象との間の変換関係を求め、第二の撮像対象より第二の変換行列を求めるに際して、前記第一の変換行列と前記変換関係とを利用することを特徴とする請求項5に記載の情報端末装置。
The extraction unit extracts the first and second imaging objects as the same kind of imaging objects in time or space,
The estimation unit obtains a first transformation matrix from the first imaging target, obtains a transformation relationship between the first imaging subject and the second imaging subject, and obtains a second transformation matrix from the second imaging subject. 6. The information terminal device according to claim 5, wherein the first transformation matrix and the transformation relationship are used when obtaining the information.
前記抽出部は、同一種類の撮像対象として、複数の撮像対象を抽出し、
前記推定部は、当該抽出された撮像対象ごとに、位置関係を推定し、
前記作成部は、当該推定された撮像対象における位置関係ごとに、部分的な補正画像を生成すると共に、当該部分的な補正画像を当該抽出された撮像対象に渡って合成して、前記変換された補正画像を得ることを特徴とする請求項1ないし6のいずれかに記載の情報端末装置。
The extraction unit extracts a plurality of imaging targets as the same type of imaging targets,
The estimation unit estimates a positional relationship for each extracted imaging target,
The creation unit generates a partial correction image for each estimated positional relationship in the imaging target, combines the partial correction image over the extracted imaging target, and performs the conversion. 7. The information terminal device according to claim 1, wherein a corrected image is obtained.
前記撮像対象は、平面状に規則的に複数配置されていることが既知であり、
前記推定部は、当該規則性に基づいて、位置関係を推定することを特徴とする請求項1ないし7のいずれかに記載の情報端末装置。
It is known that a plurality of the imaging objects are regularly arranged in a planar shape,
The information terminal apparatus according to claim 1, wherein the estimation unit estimates a positional relationship based on the regularity.
前記作成部は、補正画像の一部又は全部を用いて、地図画像内におけるテンプレートマッチング又は特徴点マッチングを行うことで、前記合成することを特徴とする請求項1ないし8のいずれかに記載の情報端末装置。   9. The composition according to claim 1, wherein the creating unit performs the synthesis by performing template matching or feature point matching in a map image using a part or all of the corrected image. Information terminal device. 前記作成部は、前記用いる補正画像の一部として、前記抽出された撮像対象が含まれる範囲を採用することを特徴とする請求項9に記載の情報端末装置。   The information terminal device according to claim 9, wherein the creation unit employs a range including the extracted imaging target as a part of the correction image to be used. 前記撮像対象は、平面上において碁盤の目状に規則的に配置されていることが既知であり、
前記作成部は、前記補正画像において前記抽出された撮像対象を、前記碁盤の目状の配置位置へと量子化することを特徴とする請求項1ないし10のいずれかに記載の情報端末装置。
The imaging object is known to be regularly arranged in a grid pattern on a plane,
11. The information terminal device according to claim 1, wherein the creation unit quantizes the extracted imaging target in the corrected image into a grid-like arrangement position of the grid.
さらに、前記補正画像と、前記推定された位置関係と、前記地図情報と、に基づき、当該地図情報上における前記撮像部の位置を求める測位部を備えることを特徴とする請求項1ないし11のいずれかに記載の情報端末装置。   The positioning device according to claim 1, further comprising a positioning unit that determines a position of the imaging unit on the map information based on the corrected image, the estimated positional relationship, and the map information. The information terminal device according to any one of the above. コンピュータを、請求項1ないし12のいずれかに記載の情報端末装置として機能させることを特徴とするプログラム。   A program causing a computer to function as the information terminal device according to any one of claims 1 to 12.
JP2013163445A 2013-08-06 2013-08-06 Information terminal equipment and program Pending JP2015031922A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013163445A JP2015031922A (en) 2013-08-06 2013-08-06 Information terminal equipment and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013163445A JP2015031922A (en) 2013-08-06 2013-08-06 Information terminal equipment and program

Publications (1)

Publication Number Publication Date
JP2015031922A true JP2015031922A (en) 2015-02-16

Family

ID=52517256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013163445A Pending JP2015031922A (en) 2013-08-06 2013-08-06 Information terminal equipment and program

Country Status (1)

Country Link
JP (1) JP2015031922A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020507857A (en) * 2017-02-09 2020-03-12 グーグル エルエルシー Agent navigation using visual input

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020507857A (en) * 2017-02-09 2020-03-12 グーグル エルエルシー Agent navigation using visual input

Similar Documents

Publication Publication Date Title
KR102164471B1 (en) System for creating a mixed reality environment, etc.
JP6560480B2 (en) Image processing system, image processing method, and program
CN102622762B (en) Real-time camera tracking using depth maps
TWI505709B (en) System and method for determining individualized depth information in augmented reality scene
US9524436B2 (en) Augmented reality camera registration
US8335400B2 (en) Information processing method and information processing apparatus
CN108810473B (en) Method and system for realizing GPS mapping camera picture coordinate on mobile platform
CN109242961A (en) A kind of face modeling method, apparatus, electronic equipment and computer-readable medium
KR101347248B1 (en) Drawing image processing system controling a datum point based on gps information
CN109887003A (en) A kind of method and apparatus initialized for carrying out three-dimensional tracking
CN113048980B (en) Pose optimization method and device, electronic equipment and storage medium
CN107330980A (en) A kind of virtual furnishings arrangement system based on no marks thing
US20240071016A1 (en) Mixed reality system, program, mobile terminal device, and method
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
KR102464271B1 (en) Pose acquisition method, apparatus, electronic device, storage medium and program
CN109215128B (en) Object motion attitude image synthesis method and system
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
JP2021103168A (en) Augmented reality device and positioning method
JP2015031922A (en) Information terminal equipment and program
DiVerdi et al. Heads up and camera down: A vision-based tracking modality for mobile mixed reality
US20210224538A1 (en) Method for producing augmented reality image
JP6134874B1 (en) System for creating a mixed reality environment
US20180241916A1 (en) 3d space rendering system with multi-camera image depth
US11924561B2 (en) Determining a camera control point for virtual production
WO2022253043A1 (en) Facial deformation compensation method for facial depth image, and imaging apparatus and storage medium