JP2005174024A - Image forming apparatus and method - Google Patents

Image forming apparatus and method Download PDF

Info

Publication number
JP2005174024A
JP2005174024A JP2003413814A JP2003413814A JP2005174024A JP 2005174024 A JP2005174024 A JP 2005174024A JP 2003413814 A JP2003413814 A JP 2003413814A JP 2003413814 A JP2003413814 A JP 2003413814A JP 2005174024 A JP2005174024 A JP 2005174024A
Authority
JP
Japan
Prior art keywords
annotation
image
display
region
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003413814A
Other languages
Japanese (ja)
Inventor
Yukio Sakakawa
幸雄 坂川
Masahiro Suzuki
雅博 鈴木
Akihiro Katayama
昭宏 片山
Takaaki Endo
隆明 遠藤
Daisuke Kotake
大輔 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003413814A priority Critical patent/JP2005174024A/en
Publication of JP2005174024A publication Critical patent/JP2005174024A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To change a method for deciding the display position of annotation according to a relative position between an annotation object and a person who has had an experience, and so always display the annotation at proper positions. <P>SOLUTION: A real photographic image is extracted on the basis of a visual point position in a virtual space from real photographic images at a plurality of spots, and an output image is prepared on the basis of the extracted real photographic image. It is decided in which region among a plurality of regions which is set with respect to the annotation the visual point position exists, and the display method of annotation is switched on the basis of the decision result (S103). In this case, those plurality of regions include a first region including at least a portion of the regions where the object of annotation exists and a second region in the periphery of the first region. When the visual point position is present in the first region, the display position of the annotation is fixed to the predetermined position of an output image, and when the visual point position is present in the second region, the display position of the annotation in the output image is decided on the basis of the visual point position and display coordinates set in the annotation. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、実空間の撮影によって得られた画像データをもとに構築される仮想空間の画像上へのアノテーションの表示技術に関する。   The present invention relates to a technique for displaying annotations on an image in a virtual space that is constructed based on image data obtained by photographing a real space.

移動体に搭載された撮影装置によって現実空間を撮影し、撮影された実写画像データをもとに、撮影した現実空間を計算機を用いて仮想空間として表現する試みが提案されている(例えば非特許文献1、または非特許文献2などを参照)。   There has been proposed an attempt to photograph a real space with a photographing device mounted on a moving object, and to represent the photographed real space as a virtual space using a computer based on the photographed real image data (for example, non-patent) Reference 1 or non-patent reference 2).

実写画像データをもとに、撮影した現実空間を仮想空間として表現する手法としては、実写画像データから現実空間の幾何形状モデルを再現し、従来のCG技術で表現する手法が挙げられるが、モデルの正確性や写実性の点で限界がある。一方、幾何形状モデルの再現を行わずに、実写画像を用いて仮想空間を表現するImage-Based Rendering(IBR)技術が近年注目を集めている。IBR技術は実写画像に基づいて仮想空間画像を生成するので、写実的な仮想空間の表現が可能である。また、都市や町のような広大な空間の幾何形状モデルを作成するためには膨大な時間や労力が必要とされるが、IBR技術ではそのような幾何形状モデルは不要であり、幾何形状モデル作成のための時間や労力は必要とされない。   As a method for expressing the captured real space as a virtual space based on the real image data, there is a method of reproducing the geometric shape model of the real space from the real image data and expressing it with the conventional CG technology. There are limitations in terms of accuracy and realism. On the other hand, in recent years, Image-Based Rendering (IBR) technology that represents a virtual space by using a real image without reproducing a geometric model has been attracting attention. Since the IBR technique generates a virtual space image based on the photographed image, it is possible to represent the photographed virtual space. Moreover, enormous amounts of time and labor are required to create a geometric model of a vast space such as a city or town, but such a geometric model is unnecessary in IBR technology. No time or effort is needed to create it.

IBR技術を用いてウォークスルー可能な仮想空間を構築するためには、体験者の仮想空間内の位置に応じた画像の生成・呈示を行う必要がある。そのため、この種のシステムにおいては、実写画像データの各画像フレームと仮想空間内の位置を対応付けて保存しておき、体験者の仮想空間における位置と視線方向に基づいて対応する画像フレームを取得し、これを再生する。   In order to construct a virtual space that can be walk-through using the IBR technology, it is necessary to generate and present an image according to the position of the experience person in the virtual space. Therefore, in this type of system, each image frame of the live-action image data is stored in association with the position in the virtual space, and the corresponding image frame is acquired based on the position in the virtual space of the experience person and the line-of-sight direction. And play this.

このような仮想空間内のウォークスルーにおいては、体験者が各視点位置で所望の方向を見ることができるように、各視点位置に対応する画像フレームを再生時の画角よりも広い範囲をカバーするパノラマ画像で保存しておく。そして、再生時には、体験者の仮想空間内の視点位置に基づいてパノラマ画像を読出し、視線方向に基づいて部分画像をパノラマ画像から切出して表示する。仮想空間における視点位置の軌跡が撮影装置を搭載した車輌の軌跡と同一である場合、観察者はあたかも自分がその車輌に乗って走っているかのような感覚を味わうことができる。   In such a walk-through in the virtual space, the image frame corresponding to each viewpoint position covers a wider range than the angle of view at the time of playback so that the user can see the desired direction at each viewpoint position. Save as a panoramic image. At the time of reproduction, a panoramic image is read based on the viewpoint position in the virtual space of the experience person, and the partial image is cut out from the panoramic image and displayed based on the viewing direction. When the trajectory of the viewpoint position in the virtual space is the same as the trajectory of the vehicle equipped with the photographing device, the observer can feel as if he / she is running on the vehicle.

さらに、再生中の画像内のビルの上にビルの名前などのアノテーション(注釈)を合成して表示することにより、より豊かな情報を観察者に提供することができる。また実写画像上では暗くて見えにくい標識などをアノテーションとして見やすく表示することも可能である。
“移動車輌搭載カメラを用いた都市空間の電脳映像化について”(遠藤、片山、田村、廣瀬、渡辺、谷川:信学ソサイエティ、PA−3−4、pp.276−277、1997年) “移動車輌搭載カメラを用いた電脳映像都市空間の構築(2)−実写画像を用いた広域仮想空間の生成−”(廣瀬、渡辺、谷川、遠藤、片山、田村:日本バーチャルリアリティ学会第2回大会論文集、pp.67−70、1997年)
Furthermore, by combining and displaying an annotation (annotation) such as a building name on the building in the image being reproduced, richer information can be provided to the observer. It is also possible to display signs that are dark and difficult to see on a live-action image as annotations for easy viewing.
“Cyber imaging of urban spaces using mobile vehicles mounted cameras” (Endo, Katayama, Tamura, Hirose, Watanabe, Tanigawa: Shingaku Society, PA-3-4, pp.276-277, 1997) “Creation of a cyberspace urban space using a mobile vehicle camera (2) -Generation of a wide virtual space using live-action images-” (Hirose, Watanabe, Tanikawa, Endo, Katayama, Tamura: Japan Virtual Reality Society 2nd Conference papers, pp.67-70, 1997)

仮想空間をウォークスルーする体験者にアノテーションを有効に表示するために、アノテーションの対象となるオブジェクト(アノテーション対象物)と体験者の相対的な動きに合わせてアノテーションの画像内の表示位置が決まる。例えば、画像内の建築物の上にアノテーションを表示している場合、体験者の視線方向が変われば画像内の建築物の表示位置が変わり、それにあわせてアノテーションの表示位置も変わる。体験者にとってアノテーションは常にアノテーション対象物の上に存在するので、体験者は画像中のオブジェクトとアノテーションとの関連を容易に把握できる。   In order to effectively display the annotation to the experience person who walks through the virtual space, the display position of the annotation in the image is determined according to the relative movement of the object (annotation target object) to be annotated and the experience person. For example, when an annotation is displayed on a building in the image, the display position of the building in the image changes when the user's line of sight changes, and the display position of the annotation also changes accordingly. Since the annotation always exists on the annotation object for the experiencer, the experiencer can easily grasp the relationship between the object in the image and the annotation.

しかし、アノテーション対象物の物体や建築物等に近づきすぎると、アノテーションの表示位置が不適切になる場合がある。例えば、アノテーションが建物の上の方で表示されている場合、その建物に近づくとアノテーションが視界から外れたりする。さらに、体験者とアノテーション対象物が相対的に近くになると、体験者の動きに応じたアノテーションの動きが激しくなり、その動きが体験者に違和感を与えたりすることもある。さらに、アノテーション対象物が面積を有する場合、例えば体験者の位置がアノテーション対象の地域内や建築物の中などであった場合は、体験者の位置にかかわらず体験者との相対的な位置は同じになり、画像内でのアノテーションの表示する位置が不定になる。   However, when the annotation object is too close to the object, the annotation display position may become inappropriate. For example, when an annotation is displayed on the upper side of a building, the annotation goes out of sight when approaching the building. Furthermore, when the experience person and the annotation object are relatively close to each other, the movement of the annotation according to the movement of the experience person becomes intense, and the movement may give the experience person a sense of incongruity. Furthermore, if the annotation target has an area, for example, if the location of the experiencer is within the annotation target area or building, the relative position with the experience is The position where the annotation is displayed in the image becomes indefinite.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、アノテーション対象物と体験者との相対的な位置によってアノテーションの表示位置の決定方法を変更し、常に適切な位置にアノテーションを表示可能とすることにある。
また、本発明の他の目的は、アノテーション対象物と体験者との相対的な位置がはっきりしていない場合等でもアノテーション表示位置を求めることにある。
The present invention has been made in view of the above problems, and its purpose is to change the method for determining the display position of the annotation depending on the relative position between the annotation object and the user, and always set the annotation at an appropriate position. Is to be displayed.
Another object of the present invention is to obtain the annotation display position even when the relative position between the annotation object and the user is not clear.

上記の目的を達成するための本発明の一態様による画像生成方法は、
複数地点の実写画像より、仮想空間における視点位置に基づいて実写画像を抽出し、抽出された実写画像に基づいて出力画像を生成する画像生成方法であって、
アノテーションに関する複数の領域が設定された仮想空間中において、視点位置が該複数の領域のいずれに存在するかを判定する判定工程と、
前記判定工程の判定結果に基づいて前記アノテーションの表示方法を切り換える切り替え工程とを備え、
前記複数の領域は前記アノテーションの対象物の存在する領域の少なくとも一部を含む第1領域と、該第1領域の周辺の第2領域とを含み、
前記切り替え工程は、前記視点位置が前記第1領域にある場合は前記アノテーションの表示位置を出力画像の所定位置に固定する第1方法を採用し、前記視点位置が前記第2領域にある場合は、該視点位置と前記アノテーションに設定されている表示座標とに基づいて前記出力画像における該アノテーションの表示位置を決定する第2方法を採用する。
In order to achieve the above object, an image generation method according to an aspect of the present invention includes:
An image generation method for extracting a live-action image based on a viewpoint position in a virtual space from a live-action image at a plurality of points, and generating an output image based on the extracted live-action image,
A determination step of determining in which of the plurality of regions the viewpoint position exists in a virtual space in which a plurality of regions related to the annotation are set;
A switching step of switching the display method of the annotation based on the determination result of the determination step,
The plurality of regions include a first region including at least a part of a region where the object of the annotation exists, and a second region around the first region,
The switching step employs a first method in which the display position of the annotation is fixed to a predetermined position of the output image when the viewpoint position is in the first area, and when the viewpoint position is in the second area. The second method of determining the display position of the annotation in the output image based on the viewpoint position and the display coordinates set in the annotation is adopted.

本発明によれば、アノテーション対象物と体験者との相対的な位置によってアノテーションの表示位置の決定方法が変更され、常に適切な位置にアノテーションを表示することが可能となる。   According to the present invention, the method for determining the display position of the annotation is changed depending on the relative position between the annotation object and the experience person, and the annotation can always be displayed at an appropriate position.

以下、添付図面を参照しながら、本発明の好適な一実施形態を説明する。   Hereinafter, a preferred embodiment of the present invention will be described with reference to the accompanying drawings.

まず、本実施形態による仮想空間のウォークスルーシステムについて説明する。本実施形態では、例えば自動車などの移動体に搭載された複数の撮影装置によって撮影して得られた実写画像データからパノラマ画像データを生成し、このパノラマ画像データを現実空間の位置に対応する地図上の位置と対応付けて保持する。そして、体験者の仮想空間における視点位置(地図上の位置)と視線方向に応じて、保持されているパノラマ画像データから表示画像を生成することにより、仮想空間内のウォークスルーを実現する。   First, the virtual space walk-through system according to the present embodiment will be described. In the present embodiment, for example, panoramic image data is generated from real image data obtained by photographing with a plurality of photographing devices mounted on a moving body such as an automobile, and this panoramic image data is mapped to a position in the real space. Hold it in association with the upper position. Then, a walk-through in the virtual space is realized by generating a display image from the stored panoramic image data according to the viewpoint position (position on the map) and the line-of-sight direction in the virtual space of the experience person.

図1は本実施形態によるウォークスルーシステムの機能構成を説明するブロック図である。本ウォークスルーシステムを構成する画像再生装置1は、操作部10、視点位置・視線方向決定部20、地図データ保存部30、画像再生制御部40、アノテーション表示位置決定部50、アノテーションデータ保存部60、画像データ保存部70、表示部80を有する。各部の機能については、以降の説明により明らかとなろう。   FIG. 1 is a block diagram illustrating a functional configuration of the walk-through system according to the present embodiment. The image reproduction device 1 constituting the walk-through system includes an operation unit 10, a viewpoint position / gaze direction determination unit 20, a map data storage unit 30, an image reproduction control unit 40, an annotation display position determination unit 50, and an annotation data storage unit 60. The image data storage unit 70 and the display unit 80 are included. The function of each part will become clear from the following description.

図2は、本実施形態における画像再生装置1のハード構成を示すブロック図である。図2に示したハード構成は通常のパーソナルコンピュータの構成と同等である。図2において、ディスク105は画像データ保存部70を構成するものである。なおディスク105は、同時に地図データ保存部30、アノテーションデータ保存部60をも構成する。ディスク105としては、ハードディスク、CD、DVD等が挙げられる。   FIG. 2 is a block diagram showing a hardware configuration of the image reproduction apparatus 1 in the present embodiment. The hardware configuration shown in FIG. 2 is equivalent to that of a normal personal computer. In FIG. 2, a disk 105 constitutes an image data storage unit 70. The disk 105 also constitutes a map data storage unit 30 and an annotation data storage unit 60 at the same time. Examples of the disk 105 include a hard disk, a CD, and a DVD.

CPU101は、ディスク105またはROM106、または外部記憶装置(不図示)に保存され、RAM107にロードされたプログラムを実行することにより、視点位置・視線方向決定部20、画像再生制御部40、アノテーション表示位置決定部50として機能する。   The CPU 101 executes a program stored in the disk 105 or the ROM 106 or an external storage device (not shown) and loaded in the RAM 107 to thereby execute the viewpoint position / gaze direction determination unit 20, the image reproduction control unit 40, the annotation display position. It functions as the determination unit 50.

CPU101が表示コントローラ102に対して各種の表示指示を行うことにより、表示コントローラ102及びフレームバッファ103によって表示器104に所望の表示がなされる。なお、図2では表示コントローラ102としてCRTC、表示器104としてCRTを示したが、表示器としては陰極線管に限らず、液晶表示器等を用いてもよいことはもちろんである。なお、CRTC102、フレームバッファ103及びCRT104は、上述の表示部80を構成する。   When the CPU 101 gives various display instructions to the display controller 102, a desired display is made on the display device 104 by the display controller 102 and the frame buffer 103. In FIG. 2, a CRTC is shown as the display controller 102 and a CRT is shown as the display 104. However, the display is not limited to a cathode ray tube, and a liquid crystal display or the like may be used. The CRTC 102, the frame buffer 103, and the CRT 104 constitute the display unit 80 described above.

マウス108、キーボード109及びジョイスティック110は、当該画像再生装置1へのユーザの操作入力を行うためのものであり、上述の操作部10を構成する。   The mouse 108, the keyboard 109, and the joystick 110 are for performing user operation input to the image playback apparatus 1, and constitute the operation unit 10 described above.

次に、以上の構成を備えた本実施形態のウォークスルーシステムにおける、画像再生装置1の動作の概要について説明する。   Next, an outline of the operation of the image reproduction device 1 in the walk-through system of the present embodiment having the above configuration will be described.

操作部10は、視点位置の移動パラメータ、視線方向の回転パラメータを生成する。本実施形態では、視点位置・視線方向の制御にジョイスティック110を用いるものとするが、ゲームコントローラ等の他の入力装置で行ってもよいことは明らかである。ジョイスティック110は、スティックの傾斜角と回転角を独立に制御することができる。本実施形態では、ジョイスティック110のスティックを傾斜させる操作を仮想空間内における視点位置の移動に、スティックを左右に回転させる操作を仮想空間内における視線方向の回転に対応させる。   The operation unit 10 generates a viewpoint position movement parameter and a line-of-sight rotation parameter. In this embodiment, the joystick 110 is used for control of the viewpoint position and the line-of-sight direction, but it is obvious that it may be performed by another input device such as a game controller. The joystick 110 can independently control the tilt angle and the rotation angle of the stick. In the present embodiment, the operation of tilting the stick of the joystick 110 corresponds to the movement of the viewpoint position in the virtual space, and the operation of rotating the stick left and right corresponds to the rotation in the line-of-sight direction in the virtual space.

地図データ保存部30は、2次元の地図データを格納する。この地図データに基づいて地図画像を生成、表示することができる。視点位置・視線方向決定部20は、操作部10により入力された移動パラメータ、回転パラメータをもとに、地図データ保存部30に保存されている2次元地図上における観察者の視点位置、視線方向を決定する。すなわち、ウォークスルーを体験する体験者の仮想空間における視点位置及び視線方向は、この2次元地図上の位置、方向に対応する。   The map data storage unit 30 stores two-dimensional map data. A map image can be generated and displayed based on this map data. The viewpoint position / gaze direction determination unit 20 is based on the movement parameter and the rotation parameter input by the operation unit 10, and the observer's viewpoint position and gaze direction on the two-dimensional map stored in the map data storage unit 30. To decide. That is, the viewpoint position and the line-of-sight direction in the virtual space of the experience person experiencing the walk-through correspond to the position and direction on the two-dimensional map.

画像データ保存部70は、2次元地図上の各位置に対応したパノラマ画像データを格納する。なお、画像データ保存部70は画像再生装置1にローカルに存在する必要はない。例えば、ネットワーク上に画像データ保存部70を設置しておき、ネットワークを介して画像データを読み出すようにしてもよい。   The image data storage unit 70 stores panoramic image data corresponding to each position on the two-dimensional map. Note that the image data storage unit 70 does not have to exist locally in the image reproduction apparatus 1. For example, the image data storage unit 70 may be installed on the network, and the image data may be read out via the network.

画像再生制御部40は、視点位置・視線方向決定部20から、観察者の地図上での視点位置及び視線方向を受け取り、その視点位置に対応したパノラマ画像データを画像データ保存部70から読み出す。画像データ保存部70から視点位置に対応したパノラマ画像データを読み出すために、本実施形態では地図上の視点位置と画像データを対応づける対応付けデータを用いる。この対応付けデータはシステム中のどこに保存されてもよいが、本実施形態では画像データ保存部70に保存されるものとする。対応付けデータは例えば以下のデータ格納形態を有する。   The image reproduction control unit 40 receives the viewpoint position and line-of-sight direction on the map of the observer from the viewpoint position / line-of-sight direction determination unit 20, and reads panoramic image data corresponding to the viewpoint position from the image data storage unit 70. In order to read panoramic image data corresponding to the viewpoint position from the image data storage unit 70, in this embodiment, association data that associates the viewpoint position on the map with the image data is used. Although this association data may be stored anywhere in the system, it is assumed that it is stored in the image data storage unit 70 in this embodiment. The association data has, for example, the following data storage form.

すなわち、観察者の移動を撮影経路上に限定して、経路を交差点(分岐点)や曲がり角といった区分点で区切り、区分点と、2つの区分点に挟まれた道とを用いて表現する。区分点は2次元地図上に設定され、道は区分点に挟まれた線分となる。各区分点や道にはIDが割り当てられ、区分点には対応する実空間の位置で撮影されたパノラマ画像が、道には両端の区分点に割り当てられたパノラマ画像に挟まれたパノラマ画像群が割り当てられる。図3はこの様子を説明する図である。図3において、IDがC1である区分点とC2である区分点に挟まれた線分(道)にR1というIDが付与されている。そしてGPSデータ等に基づいて区分点C1とC2に対応するパノラマ画像が特定されると、区分点C1にはフレーム番号nのパノラマ画像が、区分点C2にはフレーム番号n+mのパノラマ画像が割り当てられる。区分点にパノラマ画像が割り当てられると、道R1には自動的にフレーム番号n+1からn+m−1までのパノラマ画像群が割り当てられる。   That is, the movement of the observer is limited to the photographing route, the route is divided by a dividing point such as an intersection (branch point) or a turning corner, and expressed using a dividing point and a road sandwiched between two dividing points. The division points are set on the two-dimensional map, and the road is a line segment between the division points. An ID is assigned to each division point or road, and a panoramic image group in which a panoramic image photographed at a corresponding real space position is sandwiched between the panoramic images assigned to the division points on both ends on the road. Is assigned. FIG. 3 is a diagram for explaining this situation. In FIG. 3, an ID R <b> 1 is assigned to a line segment (road) sandwiched between a segment point with ID C <b> 1 and a segment point with C <b> 2. When the panorama image corresponding to the segment points C1 and C2 is specified based on the GPS data or the like, the panorama image with the frame number n is allocated to the segment point C1, and the panorama image with the frame number n + m is allocated to the segment point C2. . When a panoramic image is assigned to a segment point, a panoramic image group with frame numbers n + 1 to n + m−1 is automatically assigned to the road R1.

また、図4に示すように、各区分点、各パノラマ画像は2次元地図上での2次元座標を属性として持つ。なお、地図上での2次元座標は、GPSデータによって得られる緯度・経度データから求められるが、コンピュータ・ビジョンを利用して画像情報から求めてもよい。或いは、両端の区分点の座標のみを求め、区分点間の道に含まれる各パノラマ画像の2次元地図上の2次元座標は補間(例えば、図3において、区分点C1とC2の間の道をm等分して、各区切り位置にm−1個のパノラマ画像(n+1〜n+m−1)を割り当てる)によって求めてもよい。以上のような対応付けデータを用いることにより、画像再生制御部40は2次元地図上の視点位置に対応した画像データを画像データ保存部70〜取得することができる。   Further, as shown in FIG. 4, each segment point and each panoramic image has a two-dimensional coordinate on the two-dimensional map as an attribute. The two-dimensional coordinates on the map are obtained from latitude / longitude data obtained from GPS data, but may be obtained from image information using a computer vision. Alternatively, only the coordinates of the segment points at both ends are obtained, and the two-dimensional coordinates on the two-dimensional map of each panoramic image included in the path between the segment points are interpolated (for example, the path between segment points C1 and C2 in FIG. 3). And m-1 panoramic images (n + 1 to n + m-1) are assigned to each delimiter position). By using the association data as described above, the image reproduction control unit 40 can acquire the image data corresponding to the viewpoint position on the two-dimensional map from the image data storage unit 70.

また、画像再生制御部40は、アノテーション表示位置決定部50に地図上の視点位置を与える。アノテーション表示位置決定部50は、受け取った視点位置情報をもとにアノテーションの表示位置を決定し、画像再生制御部40にアノテーション表示位置を与える。アノテーションの表示位置の決定方法については後述する。画像再生制御部40は、視点位置に対応したパノラマ画像より、表示部80に表示する画角にあわせて部分画像を切出して射影変換を行い、アノテーション表示位置決定部50より受けとったアノテーション表示位置に従ってアノテーション画像を合成して表示部80に表示する画像を生成する。表示部80は画像再生制御部40において生成された画像を表示する。   In addition, the image reproduction control unit 40 gives the annotation display position determination unit 50 the viewpoint position on the map. The annotation display position determination unit 50 determines the display position of the annotation based on the received viewpoint position information, and gives the annotation display position to the image reproduction control unit 40. A method for determining the display position of the annotation will be described later. The image reproduction control unit 40 cuts out a partial image from the panorama image corresponding to the viewpoint position in accordance with the angle of view displayed on the display unit 80 and performs projective transformation, and follows the annotation display position received from the annotation display position determination unit 50. An annotation image is combined to generate an image to be displayed on the display unit 80. The display unit 80 displays the image generated by the image reproduction control unit 40.

次に、アノテーション表示位置決定部50の動作について詳細に説明する。図5に示すように、本実施形態では、区分点に挟まれる道上において、パノラマ画像の正面方向は道の方向に平行、つまり撮影時の進行方向に平行であるとする。   Next, the operation of the annotation display position determination unit 50 will be described in detail. As shown in FIG. 5, in the present embodiment, on the road sandwiched between the dividing points, the front direction of the panoramic image is assumed to be parallel to the road direction, that is, parallel to the traveling direction during photographing.

本実施形態では、アノテーション対象物に関して仮想空間中に複数の領域を設定し、体験者が(視点位置が)どの領域に存在するかによってアノテーションの表示位置の決定方法を変える。本実施形態では、アノテーションの表示位置の決定方法を決めるために、各アノテーション対象物に対して、仮想空間を4つの領域(アノテーション表示モード領域)に分ける。図6は、本実施形態を説明するための一例を示す図であり、地図データによって表される地図601を示す。地図601には、公園602がある。図7では図6に示した地図上において、アノテーション対象物(公園602)に対する領域の設定例を示す図である。図7の例では、公園602がアノテーション対象物であって、星印701はそのアノテーションの2次元地図上の位置である。702は対象物のある領域、703は領域702を含み、702より広い領域である。更に領域704は領域703を含み、領域703より広い。更に、領域705は仮想空間のその他の領域である。なお、領域702,703,704,705は、それぞれ表示モード領域A、B、C、Dと呼ぶこともある。   In the present embodiment, a plurality of areas are set in the virtual space for the annotation object, and the method for determining the display position of the annotation is changed depending on which area (the viewpoint position) the experience person exists in. In the present embodiment, the virtual space is divided into four regions (annotation display mode regions) for each annotation object in order to determine a method for determining the display position of the annotation. FIG. 6 is a diagram showing an example for explaining the present embodiment, and shows a map 601 represented by map data. The map 601 includes a park 602. FIG. 7 is a diagram showing an example of setting the area for the annotation target object (park 602) on the map shown in FIG. In the example of FIG. 7, a park 602 is an annotation object, and an asterisk 701 is the position of the annotation on the two-dimensional map. Reference numeral 702 denotes a region having an object, and reference numeral 703 includes a region 702, which is a region wider than 702. Further, the region 704 includes a region 703 and is wider than the region 703. Furthermore, the area 705 is another area of the virtual space. The regions 702, 703, 704, and 705 may be referred to as display mode regions A, B, C, and D, respectively.

なお、上記の各領域の決定方法は、例えばアノテーション対象物が体験者の視野のどのぐらいを占めるかによって決定することができる。一例を挙げれば、次のような基準で決定することができる。まず、アノテーション対象物602の領域は、領域702とする。体験者が領域702の外にいて、さらに、体験者の水平視野の25%以下をアノテーション対象物が占める体験者の位置を領域705とする。また、体験者の水平視野の25%から50%をアノテーション対象物が占める体験者の位置を領域704とする。そして、体験者の水平視野の50%以上をアノテーション対象物が占める体験者の位置を領域703とする。
また、ここでは、説明のために四角い領域を例としてあげているが、この形に限るものではなく、例えば図8に示すように、アノテーション対象物からの距離で領域を決めても良いし、そのほかの領域の決め方でも良い。
In addition, the determination method of each said area | region can be determined by, for example, how much an annotation target object occupies in an experience person's visual field. For example, it can be determined according to the following criteria. First, the region of the annotation target object 602 is a region 702. An area where the experience person is outside the area 702 and the annotation object occupies 25% or less of the horizontal field of view of the experience person is defined as an area 705. Further, an area where the annotation object occupies 25% to 50% of the horizontal vision of the experience person is defined as an area 704. Then, a region 703 is defined as the location of the user who the annotation target occupies 50% or more of the horizontal field of view of the user.
In addition, here, a square area is given as an example for explanation, but it is not limited to this shape. For example, as shown in FIG. 8, the area may be determined by the distance from the annotation object, Other areas may be determined.

図9は、アノテーション表示位置決定部50の動作を説明するフローチャートである。まずステップS101において、新たな視点情報(視点位置、視線方向)を獲得する。次にステップS102において、ステップS101で獲得した視点情報から該当する視点位置情報に基づいてアノテーションを表示すべき対象物を探索する。アノテーション対象物の検索条件は、体験者の視野に入っていることとする。すなわち、ステップS102では、体験者の視野に入っているアノテーション対象物が検索される。本実施形態では、複数の対象物に対してアノテーションを表示することができ、以下では、1つ又は複数のアノテーション対象物が検索された場合の処理を説明する。   FIG. 9 is a flowchart for explaining the operation of the annotation display position determination unit 50. First, in step S101, new viewpoint information (viewpoint position, line-of-sight direction) is acquired. Next, in step S102, an object for which an annotation is to be displayed is searched based on the corresponding viewpoint position information from the viewpoint information acquired in step S101. It is assumed that the search condition for the annotation object is in the field of view of the experience person. That is, in step S102, an annotation object that is in the field of view of the experiencer is searched. In the present embodiment, annotations can be displayed for a plurality of objects, and a process when one or a plurality of annotation objects are searched will be described below.

ステップ102において、検索されたアノテーション対象物より1つ目のアノテーション対象物を決定し、ステップS103へ進む。ステップS103において、該当する視点位置に対応したパノラマ画像におけるアノテーションの表示位置を計算する。ステップS103の詳細な処理については、図10のフローチャートを参照して後述する。次に、ステップS104において終了判定を行う。ステップS102で検索されたアノテーション対象物のうち、まだステップS103の処理を終えていないアノテーション対象物が存在する場合はステップS105に進む。ステップS105において、次のアノテーション対象物を決定し、ステップS103の処理に戻る。ステップS104においてアノテーションを表示させるべき対象物すべてについてアノテーションの表示位置が決定している場合には、本処理を終了する。   In step 102, the first annotation object is determined from the searched annotation objects, and the process proceeds to step S103. In step S103, the display position of the annotation in the panoramic image corresponding to the corresponding viewpoint position is calculated. Detailed processing in step S103 will be described later with reference to the flowchart in FIG. Next, end determination is performed in step S104. If there is an annotation target object that has not been processed in step S103 among the annotation target objects searched in step S102, the process proceeds to step S105. In step S105, the next annotation object is determined, and the process returns to step S103. If the display position of the annotation has been determined for all the objects for which the annotation is to be displayed in step S104, this processing ends.

図10は、図9のステップS103のアノテーション表示位置を計算する詳細な処理の説明をするフローチャートである。ステップS111、S112とS113において、ステップS101で得られた体験者の視点位置がアノテーション対象物に対してどの表示モード領域に入っているのかを判断する。本実施形態では、体験者の視点位置が表示モード領域A〜Dのいずれの表示モード領域いるかに従って、アノテーション表示の位置決定方法が異なる。   FIG. 10 is a flowchart for explaining detailed processing for calculating the annotation display position in step S103 of FIG. In steps S111, S112, and S113, it is determined in which display mode region the viewpoint position of the experience person obtained in step S101 is included in the annotation target object. In the present embodiment, the position determination method of the annotation display differs depending on which of the display mode areas A to D is the viewpoint position of the experience person.

ステップS111において、視点位置が表示モード領域Aにあると判断した場合には、ステップS114へ進む。一方、視点位置は表示モード領域Aには無く、表示モード領域Bにあると判断された場合はステップS112からステップS115へ進む。また、視点位置が表示モード領域Cにあると判断された場合はステップS113からステップS116へ進み、視点位置が表示モード領域A〜Cのいずれにも無い(即ち表示モード領域Dにある)と判断された場合はステップS113からステップS117へ進む。ステップS114、S115、S116及びS117のいずれかにおいてアノテーション表示位置を決定すると、ステップS103のアノテーション表示位置計算処理を終えたことになるので、処理は図10のフローチャートに戻る。   If it is determined in step S111 that the viewpoint position is in the display mode area A, the process proceeds to step S114. On the other hand, when it is determined that the viewpoint position is not in the display mode area A but in the display mode area B, the process proceeds from step S112 to step S115. If it is determined that the viewpoint position is in the display mode area C, the process proceeds from step S113 to step S116, and it is determined that the viewpoint position is not in any of the display mode areas A to C (that is, in the display mode area D). If so, the process proceeds from step S113 to step S117. If the annotation display position is determined in any of steps S114, S115, S116, and S117, the annotation display position calculation process in step S103 is completed, and the process returns to the flowchart of FIG.

以下、ステップS114〜S117の各領域毎の表示位置決定処理について詳細に説明する。   Hereinafter, the display position determination process for each area in steps S114 to S117 will be described in detail.

まず、視点位置が表示モード領域Dにいる場合のアノテーション表示位置の決定処理(ステップS117)を説明する。この場合のアノテーション表示位置の計算では、アノテーション対象物と視点位置との相対的な位置関係に基づいて画像内の表示位置が決まる。この表示位置決定方法に従えば、例えば、体験者が仮想空間を見回している間、アノテーションの表示位置を画像内のアノテーション対象物の映像の上に常に表示させることができる。   First, an annotation display position determination process (step S117) when the viewpoint position is in the display mode area D will be described. In the calculation of the annotation display position in this case, the display position in the image is determined based on the relative positional relationship between the annotation object and the viewpoint position. According to this display position determination method, for example, while the experience person is looking around the virtual space, the display position of the annotation can be always displayed on the video of the annotation target in the image.

図11はステップS117におけるアノテーション表示位置決定方法を説明する図である。図11において、1202は区分点C1、1201は区分点C1に対応するパノラマ画像、1209は区分点C2、1204は道R1、1206はアノテーション対象物、1205は対象物1206のアノテーションを表示すべき地図上での位置、1207は道R1上の視点位置、1208は視点位置1207に対応するパノラマ画像、1203は視点位置1207に対応したパノラマ画像1208におけるアノテーションの表示位置(パノラマ画像の正面方向からの相対角度θ)である。   FIG. 11 is a diagram for explaining the annotation display position determination method in step S117. In FIG. 11, 1202 is a segment point C1, 1201 is a panorama image corresponding to the segment point C1, 1209 is a segment point C2, 1204 is a road R1, 1206 is an annotation object, 1205 is a map on which an annotation of the object 1206 is to be displayed. 1207 is the viewpoint position on the road R1, 1208 is the panorama image corresponding to the viewpoint position 1207, 1203 is the annotation display position in the panorama image 1208 corresponding to the viewpoint position 1207 (relative to the front direction of the panorama image) Angle θ).

簡単のために、区分点C1をxy平面の原点とし、区分点C2をx軸上の点1209に取る(すなわち道R1はx軸の一部となる)。図11において、区分点C1、区分点C2、対象物1206のアノテーションを表示したい位置1205の地図上の座標はそれぞれ(0,0)、(x2,0)、(xo,yo)である。道R1上での点1207の地図上の座標は(x,0)である。点1207に対応するパノラマ画像において、対象物1206のアノテーションを表示する水平方向の位置は、パノラマ画像の正面方向からの相対角度θ(rad)で表すと、次式で表される。 For simplicity, the segment point C1 is taken as the origin of the xy plane, and the segment point C2 is taken as a point 1209 on the x axis (that is, the road R1 becomes a part of the x axis). In FIG. 11, the coordinates on the map of the position 1205 where the annotations of the segment point C1, the segment point C2, and the object 1206 are to be displayed are (0, 0), (x 2 , 0), and (x o , yo ), respectively. is there. The coordinates on the map of the point 1207 on the road R1 are (x, 0). In the panoramic image corresponding to the point 1207, the horizontal position where the annotation of the object 1206 is displayed is expressed by the following expression when expressed by a relative angle θ (rad) from the front direction of the panoramic image.

Figure 2005174024
Figure 2005174024

即ち、視点位置が表示モード領域Dにある場合(ステップS117)は、アノテーション表示位置の(1205)の視点位置(1207)に対する相対位置を計算し、当該視点位置に対応するパノラマ画像(1208)におけるアノテーションの表示位置(パノラマ画像の正面方向からの相対角度)θを上記式(1)により求める。   That is, when the viewpoint position is in the display mode region D (step S117), the relative position of the annotation display position (1205) to the viewpoint position (1207) is calculated, and the panorama image (1208) corresponding to the viewpoint position is calculated. Annotation display position (relative angle from the front direction of the panoramic image) θ is obtained by the above equation (1).

次に、視点位置が表示モード領域Aにある場合のアノテーション表示位置の決定方法(ステップS114)を説明する。表示モード領域Aでは、視点位置は、アノテーション対象物の中と想定する。例えば、アノテーション対象である公園の敷地内や、建物の中などに視点位置がある場合である。体験者の視点位置が表示モード領域Aにある場合は、対象物のアノテーションの表示位置を、シーンを表示する画面上の所定位置に固定し、表示モード領域A内で視点位置や視線方向が変わってもアノテーションの表示位置は変わらないようにする。なお、表示モード領域Aでのアノテーションの表示位置については種々の決定方法が考えられる。例えば、仮想空間全体で一つの表示位置に決めても良いし、アノテーション対象物毎にアノテーションの固定表示位置を決めても良い。また、システムで予め定められた位置としても良いし、体験時に体験者が好みの位置に決められるようにしても良い。   Next, an annotation display position determining method (step S114) when the viewpoint position is in the display mode area A will be described. In the display mode area A, the viewpoint position is assumed to be in the annotation object. For example, this is a case where the viewpoint position is in the site of a park to be annotated or in a building. When the viewpoint position of the experience person is in the display mode area A, the display position of the annotation of the target object is fixed to a predetermined position on the screen displaying the scene, and the viewpoint position and the line-of-sight direction change in the display mode area A. However, the display position of the annotation should not change. Various methods for determining the display position of the annotation in the display mode area A are conceivable. For example, it may be determined as one display position in the entire virtual space, or a fixed display position of annotation may be determined for each annotation target. Moreover, it is good also as a position predetermined by the system, and an experience person may be made to decide a favorite position at the time of experience.

次に、視点位置が表示モード領域Bにある場合のアノテーション表示位置の決定方法(ステップS115)について説明する。表示モード領域Bはアノテーション対象物が隣接する領域であり、この領域においては、体験者の視線方向が対象物の方に向くと当該対象物が視野の全体或いは大部分を占めるようになり、対象物の反対方向に視線が向くと当該対象物が見えなくなる(視野の外に出てしまう)。   Next, a method for determining the annotation display position when the viewpoint position is in the display mode area B (step S115) will be described. The display mode area B is an area where the annotation object is adjacent. In this area, when the user's line of sight is directed toward the object, the object occupies the whole or most of the field of view. When the line of sight is directed in the opposite direction of the object, the object cannot be seen (goes out of the field of view).

図12は視点位置が表示モード領域Bにいる場合を説明する図である。1301はアノテーション対象物(例えば公園、ビル等)、1302は2次元地図上でのアノテーションの位置、1303は対象物1301に対しての表示モード領域B、1304は視点位置とその位置に対応するパノラマ画像、1304〜1313は道1314上でのパノラマ画像である。   FIG. 12 is a diagram illustrating a case where the viewpoint position is in the display mode area B. 1301 is an annotation object (for example, a park, a building, etc.), 1302 is the position of the annotation on the two-dimensional map, 1303 is a display mode area B for the object 1301, and 1304 is a viewpoint position and a panorama corresponding to the position. Images 1304 to 1313 are panoramic images on the road 1314.

図13は、表示モード領域Bに視点位置があるときのシーンの例である。1401はビル等のアノテーション対象物、1402はアノテーション対象物1401に対するアノテーションの地図上に設定された表示位置を示す。1403は対象物1401の表示するアノテーションである。1404は表示モード領域B内における一つの視点位置と対応するパノラマ画像であり、1405は表示モード領域B内のもう一つの視点位置と対応するパノラマ画像である。1406と1408は視点1404から視線方向1410で対象物1401を見たときの画像である。同様に、1407と1409は視点位置1405と視線方向1411で対象物1401を見たときの画像である。画像1406と1407では、アノテーション1403は地図上のアノテーション設定位置に対する表示位置に表示している。そのため、アノテーションは夫々の画像において半分ずつしか表示されない。それに対し、画像1408と1409では、アノテーションの表示位置は画像上の所定の位置に固定さている。図13を見て分かるように画像1408と1409でのアノテーションの表示位置の方がより有効的である。   FIG. 13 is an example of a scene when the viewpoint position is in the display mode area B. Reference numeral 1401 denotes an annotation object such as a building, and 1402 denotes a display position set on the annotation map for the annotation object 1401. 1403 is an annotation displayed on the object 1401. 1404 is a panoramic image corresponding to one viewpoint position in the display mode area B, and 1405 is a panoramic image corresponding to another viewpoint position in the display mode area B. Reference numerals 1406 and 1408 denote images when the object 1401 is viewed from the viewpoint 1404 in the line-of-sight direction 1410. Similarly, 1407 and 1409 are images when the object 1401 is viewed at the viewpoint position 1405 and the line-of-sight direction 1411. In the images 1406 and 1407, the annotation 1403 is displayed at the display position relative to the annotation setting position on the map. For this reason, only half of each annotation is displayed in each image. On the other hand, in the images 1408 and 1409, the display position of the annotation is fixed at a predetermined position on the image. As can be seen from FIG. 13, the display positions of the annotations in the images 1408 and 1409 are more effective.

従って、本実施形態では、視点位置が表示モード領域Bにいる場合のアノテーション表示位置の決定方法を以下のとおりとする。まず、視線方向がアノテーション対象物に向いていれば表示モード領域Aと同様の決定方法を採用する。つまり、対象物が視野に入っている場合、視点位置と対象物の相対位置が変わってもアノテーションの画像上の表示位置は変わらず、固定にする。そして、対象物がある程度体験者の視野から出た場合(たとえば、対象物の50%以上が視野から出た場合)、異なる表示モード領域の処理をする。例えば、視線方向が対象物に向いていない場合には、アノテーションを表示しないようにする。図13で言うと、例えば視線方向がビル1401の反対側に向いたような場合には、ビル1401のアノテーションを表示しない。   Therefore, in this embodiment, the determination method of the annotation display position when the viewpoint position is in the display mode area B is as follows. First, if the line-of-sight direction is directed to the annotation object, the same determination method as that for the display mode area A is adopted. That is, when the object is in the field of view, the display position of the annotation on the image does not change even if the viewpoint position and the relative position of the object change, and the object is fixed. When the object comes out from the visual field of the experience person to some extent (for example, when 50% or more of the object comes out of the visual field), processing of different display mode areas is performed. For example, when the line-of-sight direction does not face the object, the annotation is not displayed. In FIG. 13, for example, when the line-of-sight direction is directed to the opposite side of the building 1401, the annotation of the building 1401 is not displayed.

次に、視点位置が表示モード領域Cにある場合のアノテーション表示位置の決定方法(ステップS1106)を説明する。上述した様に、表示モード領域Dでは視点位置と対象物体の相対値が変わるとアノテーションの表示位置も変化し、表示モード領域Bではアノテーション表示位置が固定されている。表示モード領域Cはそれら表示モード領域Dと表示モード領域Bの中間にあり、表示モード領域Dから表示モード領域B(或いはその逆)へのアノテーション表示位置のスムースな移行を実現するための表示方法が表示モード領域Cにおいて実行される。   Next, a method for determining the annotation display position when the viewpoint position is in the display mode area C (step S1106) will be described. As described above, when the relative value between the viewpoint position and the target object changes in the display mode area D, the annotation display position also changes, and in the display mode area B, the annotation display position is fixed. The display mode area C is between the display mode area D and the display mode area B, and a display method for realizing a smooth transition of the annotation display position from the display mode area D to the display mode area B (or vice versa). Is executed in the display mode area C.

図14は視点位置が表示モード領域Cにいる場合を説明する図である。1501はアノテーション対象物(例えば公園、ビル等)、1502は2次元地図上でのアノテーションの位置を示す。また、1503は対象物1501に対しての表示モード領域B、1504は対象物1501に対しての表示モード領域Cを示す。1508は表示モード領域Cに入っている視点位置とその位置に対応するパノラマ画像を示し、1505〜1513は道1514上でのパノラマ画像を示している。   FIG. 14 is a diagram illustrating a case where the viewpoint position is in the display mode area C. Reference numeral 1501 denotes an annotation object (for example, a park or a building), and 1502 denotes the position of the annotation on the two-dimensional map. Reference numeral 1503 denotes a display mode area B for the object 1501, and 1504 denotes a display mode area C for the object 1501. Reference numeral 1508 denotes a viewpoint position in the display mode area C and a panoramic image corresponding to the position, and reference numerals 1505 to 1513 denote panoramic images on the road 1514.

図15は、表示モード領域D、表示モード領域Cと表示モード領域Bに視点位置がある場合の表示シーンとそれぞれのアノテーション表示を示す。1604は表示するアノテーションである。1601は視点位置が表示モード領域Dにある、例えば図14の位置1507(表示モード領域D)にあるときのアノテーションの表示状態を示す。上述した様に、表示モード領域Dでは視点と対象物の相対位置によってアノテーションの表示位置が変わる。1603は視点位置が表示モード領域B(1503)内にある、例えば位置1510の点にあり、さらに対象物1501に視線が向かっているときのアノテーションの表示例を示す。アノテーションは固定の位置で表示している。1602は視点位置が表示モード領域C、例えば位置1508にある場合のアノテーションの表示例を示す。本実施形態では、視点が表示モード領域Cにある場合のアノテーションの表示位置は、表示モード領域Dの時の表示位置と表示モード領域Bの表示位置の中間的な位置に決定する。その決定方法は、例えば線形補間による方法でも良いが、そのほかの決定方法でも良い。   FIG. 15 shows display scenes and respective annotation displays when the viewpoint positions are in the display mode region D, the display mode region C, and the display mode region B. Reference numeral 1604 denotes an annotation to be displayed. Reference numeral 1601 denotes the display state of the annotation when the viewpoint position is in the display mode area D, for example, the position 1507 (display mode area D) in FIG. As described above, in the display mode region D, the display position of the annotation changes depending on the relative position between the viewpoint and the object. 1603 shows an example of an annotation display when the viewpoint position is in the display mode region B (1503), for example, at the point of position 1510, and when the line of sight is directed toward the object 1501. Annotations are displayed at fixed positions. Reference numeral 1602 denotes a display example of the annotation when the viewpoint position is in the display mode area C, for example, the position 1508. In the present embodiment, the display position of the annotation when the viewpoint is in the display mode area C is determined to be an intermediate position between the display position in the display mode area D and the display position of the display mode area B. The determination method may be a method using linear interpolation, for example, but may be another determination method.

ここでは、線形補間によってアノテーション表示位置を決める場合を図17を参照して説明する。説明のために、表示モード領域Cにおける視点位置は位置1508にあるものとして説明する。まず、位置1508から表示モード領域Dの表示位置計算方法で表示位置を計算する。つまり、視点の位置1508とアノテーションの位置1502の相対位置に応じたパノラマ画像上のアノテーション表示位置を、例えば上述の式(1)を用いて算出する。次に、表示モード領域Bにおける固定の表示位置(切り出し範囲の画像における所定位置)を取得する。そして、表示モード領域Cの視点位置1508でのアノテーションの表示位置は、表示モード領域Dから表示モード領域Cに入る直前の視点位置1507の2次元地図上の位置((x1507,y1507))とそのときの表示位置Hd、表示モード領域Cから表示モード領域Bに入った直後の視点位置1510の2次元地図上の位置((x1510,y1510))とそのときの表示位置Hb、及び表示モード領域Cの視点位置1508の2次元地図上の視点位置((x1508,y1508))から、次式(2)により算出される。 Here, the case where the annotation display position is determined by linear interpolation will be described with reference to FIG. For explanation, it is assumed that the viewpoint position in the display mode area C is at the position 1508. First, the display position is calculated from the position 1508 by the display position calculation method for the display mode area D. That is, the annotation display position on the panoramic image corresponding to the relative position between the viewpoint position 1508 and the annotation position 1502 is calculated using, for example, the above-described equation (1). Next, a fixed display position in the display mode area B (a predetermined position in the image of the cutout range) is acquired. The annotation display position at the viewpoint position 1508 of the display mode area C is the position on the two-dimensional map of the viewpoint position 1507 immediately before entering the display mode area C from the display mode area D ((x 1507 , y 1507 )). And the display position Hd at that time, the position on the two-dimensional map ((x 1510 , y 1510 )) of the viewpoint position 1510 immediately after entering the display mode area B from the display mode area C, the display position Hb at that time, and From the viewpoint position ((x 1508 , y 1508 )) on the two-dimensional map of the viewpoint position 1508 of the display mode area C, it is calculated by the following equation (2).

Figure 2005174024
Figure 2005174024

なお、アノテーション表示の高さ方向の位置は、位置1507におけるアノテーション表示位置の高さVdと、位置1510におけるアノテーション表示位置の高さVbを用いて、水平方向位置(Hc、式(2))と同様に以下の式(3)により求めることができる。なお、図17ではHcとVcで決まるパノラマ表示位置が(Hd,Vd)と(Hb,Vb)を結ぶ破線上より外れた位置に示したが、式(2)、(3)を用いて算出された位置(Hc,Vc)は破線上となる。但し、図17に示した破線の傾きは視線方向によりHbの位置が変わるので、視線方向により変化することになる。   The position in the height direction of the annotation display is the horizontal position (Hc, expression (2)) using the height Vd of the annotation display position at the position 1507 and the height Vb of the annotation display position at the position 1510. Similarly, it can be obtained by the following equation (3). In FIG. 17, the panorama display position determined by Hc and Vc is shown at a position off the broken line connecting (Hd, Vd) and (Hb, Vb), but calculated using equations (2) and (3). The set position (Hc, Vc) is on the broken line. However, the inclination of the broken line shown in FIG. 17 changes depending on the line of sight because the position of Hb changes depending on the line of sight.

Figure 2005174024
Figure 2005174024

上記では、表示モード領域Dと表示モード領域Bでの表示位置から表示モード領域Cでの表示位置を線形的に計算する際に2次元地図上でのパノラマ画像の距離を利用したが、パノラマ画像の枚数によって線形的に表示位置を算出しても良い。例えば、位置1508から位置1507までのパノラマ画像の枚数と、位置1508から位置1510までのパノラマ画像の枚数に基づいて表示位置を算出する。   In the above description, when the display position in the display mode area C is linearly calculated from the display positions in the display mode area D and the display mode area B, the panoramic image distance on the two-dimensional map is used. The display position may be calculated linearly according to the number of images. For example, the display position is calculated based on the number of panoramic images from position 1508 to position 1507 and the number of panoramic images from position 1508 to position 1510.

図16は、画像再生制御部40におけるアノテーション合成の処理を説明する図である。ここでは、視点位置が表示モード領域Dにあると仮定する。アノテーション表示位置決定部50はアノテーション表示位置θを決定する。画像再生制御部40は視線方向と画角αに応じてパノラマ画像を切出す。そして、切出したパノラマ画像上に、アノテーションデータ保存部60から読み出されたアノテーション画像が合成され、表示画像が生成される。パノラマ画像を透視投影画像に変換する斜影変換はパノラマ画像に対してのみ行われる。視点位置が他の領域にある場合は同様に、切り出したパノラマ画像の上に、固定の位置や線形補間により計算された位置にアノテーション画像が合成される。   FIG. 16 is a diagram for explaining annotation composition processing in the image reproduction control unit 40. Here, it is assumed that the viewpoint position is in the display mode region D. The annotation display position determination unit 50 determines the annotation display position θ. The image reproduction control unit 40 cuts out a panoramic image according to the line-of-sight direction and the angle of view α. Then, the annotation image read from the annotation data storage unit 60 is synthesized on the extracted panoramic image, and a display image is generated. The oblique conversion for converting the panorama image into the perspective projection image is performed only on the panorama image. Similarly, when the viewpoint position is in another area, the annotation image is synthesized on the cut-out panoramic image at a fixed position or a position calculated by linear interpolation.

以上のように、上記実施形態によれば、アノテーションを表示したい対象物位置と観察者の視点位置の2次元地図上での相対位置によってアノテーション表示モードを切り換えることで、観察者の視点が対象物から遠い位置にいても、対象物の中にいても観察者に対象物のアノテーションを分かりやすく表示することが可能になる。   As described above, according to the above-described embodiment, the viewpoint of the observer is determined by switching the annotation display mode according to the relative position on the two-dimensional map between the position of the object on which the annotation is to be displayed and the viewpoint position of the observer. It is possible to display the annotation of the object in an easy-to-understand manner for the observer even if it is far from the object or in the object.

なお、本発明は、複数の機器(例えばホストコンピュータ,インタフェイス機器,リーダ,プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機,ファクシミリ装置など)に適用してもよい。   Note that the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), or a device (for example, a copier, a facsimile device, etc.) including a single device. You may apply to.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。   Another object of the present invention is to supply a storage medium storing software program codes for implementing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本実施形態におけるウォークスルーシステムの機能構成を説明するブロック図である。It is a block diagram explaining the functional structure of the walk through system in this embodiment. 本実施形態における画像再生装置1のハード構成を示す図である。It is a figure which shows the hardware constitutions of the image reproduction apparatus 1 in this embodiment. 本実施形態における仮想空間の表現方法を説明する図である。It is a figure explaining the representation method of virtual space in this embodiment. 区分点、道の属性の一例を示す図である。It is a figure which shows an example of the attribute of a division point and a road. パノラマ画像と道の方向の対応を説明する図である。It is a figure explaining a response | compatibility with a panoramic image and the direction of a road. 仮想環境の2次元地図の一例を示す図である。It is a figure which shows an example of the two-dimensional map of a virtual environment. アノテーション対象物を中心とした仮想環境の複数の領域を地図上に示した図である。It is the figure which showed on the map the several area | region of the virtual environment centering on the annotation target object. アノテーション表示モード領域を対象物からの距離によって決められた一例を示す図である。It is a figure which shows an example in which the annotation display mode area | region was determined by the distance from a target object. アノテーション表示位置決定部50の動作を説明するフローチャートである。5 is a flowchart for explaining the operation of an annotation display position determination unit 50. アノテーション表示モード領域によって、アノテーション表示位置の決定方法を説明するフローチャートである。It is a flowchart explaining the determination method of an annotation display position with an annotation display mode area. 観察者の視点位置がアノテーション表示モード領域Dにいる場合のアノテーション表示位置決定方法を示す図である。10 is a diagram illustrating an annotation display position determination method when an observer's viewpoint position is in an annotation display mode area D. FIG. 観察者の視点位置がアノテーション表示モード領域Bにいる場合のアノテーション表示位置決定方法を説明する図である。It is a figure explaining the annotation display position determination method in case an observer's viewpoint position exists in the annotation display mode area | region B. FIG. 観察者の視点位置がアノテーション表示モード領域Bにいる場合のアノテーション表示位置決定方法を説明する図である。It is a figure explaining the annotation display position determination method in case an observer's viewpoint position exists in the annotation display mode area | region B. FIG. 観察者の視点位置がアノテーション表示モード領域Cにいる場合のアノテーション表示位置の利点を説明する図である。It is a figure explaining the advantage of an annotation display position in case an observer's viewpoint position exists in annotation display mode field C. 観察者の視点位置がアノテーション表示モード領域D、領域Cと領域Bにいる時の表示シーンとそれぞれのアノテーション表示を示す図である。It is a figure which shows a display scene when an observer's viewpoint position exists in annotation display mode area | region D, the area | region C, and the area | region B, and each annotation display. 画像再生制御部40における観察者の視点位置がアノテーション表示モード領域Dにいる時のアノテーション合成の処理を説明する図である。FIG. 10 is a diagram for explaining annotation synthesis processing when the viewpoint position of the observer is in the annotation display mode region D in the image reproduction control unit 40. 領域Cに視点位置がある場合のアノテーション表示位置の決定方法を説明する図である。It is a figure explaining the determination method of the annotation display position when there exists a viewpoint position in the area | region C. FIG.

Claims (9)

複数地点の実写画像より、仮想空間における視点位置に基づいて実写画像を抽出し、抽出された実写画像に基づいて出力画像を生成する画像生成方法であって、
アノテーションに関する複数の領域が設定された仮想空間中において、視点位置が該複数の領域のいずれに存在するかを判定する判定工程と、
前記判定工程の判定結果に基づいて前記アノテーションの表示方法を切り換える切り替え工程とを備え、
前記複数の領域は前記アノテーションの対象物の存在する領域の少なくとも一部を含む第1領域と、該第1領域の周辺の第2領域とを含み、
前記切り替え工程は、前記視点位置が前記第1領域にある場合は前記アノテーションの表示位置を出力画像の所定位置に固定する第1方法を採用し、前記視点位置が前記第2領域にある場合は、該視点位置と前記アノテーションに設定されている表示座標とに基づいて前記出力画像における該アノテーションの表示位置を決定する第2方法を採用することを特徴とする画像出力方法。
An image generation method for extracting a live-action image based on a viewpoint position in a virtual space from a live-action image at a plurality of points, and generating an output image based on the extracted live-action image,
A determination step of determining in which of the plurality of regions the viewpoint position exists in a virtual space in which a plurality of regions related to the annotation are set;
A switching step of switching the display method of the annotation based on the determination result of the determination step,
The plurality of regions include a first region including at least a part of a region where the object of the annotation exists, and a second region around the first region,
The switching step employs a first method in which the display position of the annotation is fixed to a predetermined position of the output image when the viewpoint position is in the first area, and when the viewpoint position is in the second area. An image output method that employs a second method of determining a display position of the annotation in the output image based on the viewpoint position and display coordinates set in the annotation.
前記複数の領域は、前記第1領域の周辺に隣接した第3領域を含み、
前記切り替え工程は、前記視点位置が前記第3領域に存在する場合は、前記第1方法に従った前記アノテーションの表示を視線方向に基づいてオン/オフさせる第3方法を採用することを特徴とする請求項1に記載の画像出力方法。
The plurality of regions include a third region adjacent to the periphery of the first region,
The switching step employs a third method of turning on / off the display of the annotation according to the first method based on a line-of-sight direction when the viewpoint position exists in the third region. The image output method according to claim 1.
前記複数の領域は、前記第2領域と前記第3領域の間の第4領域を含み、
前記切り換え工程は、前記視点位置が前記第4領域に存在する場合は、該第4領域と該第2領域の境界位置において前記第2方法を用いて決定される画像上のアノテーションの表示位置と、前記第1方法における画像上の前記所定位置との間に該アノテーションの表示位置を決定する第4方法を採用することを特徴とする請求項1又は2に記載の画像出力方法。
The plurality of regions include a fourth region between the second region and the third region,
In the switching step, when the viewpoint position exists in the fourth area, the display position of the annotation on the image determined using the second method at the boundary position between the fourth area and the second area; The image output method according to claim 1, wherein a fourth method for determining a display position of the annotation between the predetermined position on the image in the first method is adopted.
前記第4方法は、前記第2領域から前記第4領域を経て前記第3領域へと侵入する経路上を前記視点位置が移動する場合、前記経路が前記第2領域へ侵入する近傍において前記第2方法を用いて決定される画像上のアノテーションの表示位置と、前記第3方法にける該画像上の前記所定位置の間を結ぶ線分上であって、該経路の前記第2領域への侵入位置と該経路の前記第3領域への侵入位置と該経路上の現在の視点位置とに基づいて該アノテーションの表示位置を決定することを特徴とする請求項3に記載の画像出力方法。   In the fourth method, when the viewpoint position moves on a path from the second area to the third area via the fourth area, the fourth method is in the vicinity where the path enters the second area. On a line segment connecting the display position of the annotation on the image determined using the two methods and the predetermined position on the image in the third method, and the route to the second region of the route 4. The image output method according to claim 3, wherein the display position of the annotation is determined based on an intrusion position, an intrusion position of the route into the third area, and a current viewpoint position on the route. 前記実写画像はパノラマ画像であり、
前記視点位置に基づいて対応するパノラマ画像を選択し、視線方向に基づいて該パノラマ画像から部分画像を切り出す切り出し工程を更に備え、
前記第2方法は、前記パラノラマ画像において前記アノテーションの表示位置を決定することを特徴とする請求項1に記載の画像出力方法。
The live-action image is a panoramic image,
Selecting a corresponding panoramic image based on the viewpoint position, and further comprising a clipping step of cutting out a partial image from the panoramic image based on the line-of-sight direction;
The image output method according to claim 1, wherein the second method determines a display position of the annotation in the paranorama image.
前記複数の領域は、2次元地図上において設定されることを特徴とする請求項1に記載の画像出力方法。   The image output method according to claim 1, wherein the plurality of regions are set on a two-dimensional map. 複数地点の実写画像より、仮想空間における視点位置に基づいて実写画像を抽出し、抽出された実写画像に基づいて出力画像を生成する画像生成装置であって、
アノテーションに関する複数の領域が設定された仮想空間中において、視点位置が該複数の領域のいずれに存在するかを判定する判定手段と、
前記判定手段の判定結果に基づいて前記アノテーションの表示方法を切り換える切り替え手段とを備え、
前記複数の領域は前記アノテーションの対象物の存在する領域の少なくとも一部を含む第1領域と、該第1領域の周辺の第2領域とを含み、
前記切り替え手段は、前記視点位置が前記第1領域にある場合は前記アノテーションの表示位置を出力画像の所定位置に固定する第1方法を採用し、前記視点位置が前記第2領域にある場合は、該視点位置と前記アノテーションに設定されている表示座標とに基づいて前記出力画像における該アノテーションの表示位置を決定する第2方法を採用することを特徴とする画像出力装置。
An image generation device that extracts a live-action image based on a viewpoint position in a virtual space, and generates an output image based on the extracted live-action image, from a live-action image at a plurality of points,
Determination means for determining in which of the plurality of regions the viewpoint position exists in a virtual space in which a plurality of regions related to the annotation are set;
Switching means for switching the display method of the annotation based on the determination result of the determination means,
The plurality of regions include a first region including at least a part of a region where the object of the annotation exists, and a second region around the first region,
The switching means employs a first method for fixing the display position of the annotation to a predetermined position of the output image when the viewpoint position is in the first area, and when the viewpoint position is in the second area. An image output apparatus adopting a second method for determining a display position of the annotation in the output image based on the viewpoint position and display coordinates set in the annotation.
請求項1乃至6のいずれかに記載の画像出力方法をコンピュータに実行させるための制御プログラム。   A control program for causing a computer to execute the image output method according to claim 1. 請求項1乃至6のいずれかに記載の画像出力方法をコンピュータに実行させるための制御プログラムを格納した記憶媒体。   A storage medium storing a control program for causing a computer to execute the image output method according to claim 1.
JP2003413814A 2003-12-11 2003-12-11 Image forming apparatus and method Withdrawn JP2005174024A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003413814A JP2005174024A (en) 2003-12-11 2003-12-11 Image forming apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003413814A JP2005174024A (en) 2003-12-11 2003-12-11 Image forming apparatus and method

Publications (1)

Publication Number Publication Date
JP2005174024A true JP2005174024A (en) 2005-06-30

Family

ID=34733839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003413814A Withdrawn JP2005174024A (en) 2003-12-11 2003-12-11 Image forming apparatus and method

Country Status (1)

Country Link
JP (1) JP2005174024A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011524571A (en) * 2008-06-12 2011-09-01 マイクロソフト コーポレーション 3D content integration built into the device
JP2011215412A (en) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd Map image processing device, map image processing method, and map image processing program
JP2013084273A (en) * 2012-10-15 2013-05-09 Olympus Corp Image display device, image display method, and program for image display
JP5288214B2 (en) * 2007-12-18 2013-09-11 ソニー株式会社 Data processing apparatus, data processing method, and program
JP2014222446A (en) * 2013-05-14 2014-11-27 大日本印刷株式会社 Video output device, video output method, and program
JP2015069444A (en) * 2013-09-30 2015-04-13 大日本印刷株式会社 Video output device, video output method, and program
JP2015069445A (en) * 2013-09-30 2015-04-13 大日本印刷株式会社 Video output device, video output method, and program
KR101814604B1 (en) * 2011-08-30 2018-01-04 삼성전자주식회사 Digital photographing apparatus and control method thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5288214B2 (en) * 2007-12-18 2013-09-11 ソニー株式会社 Data processing apparatus, data processing method, and program
JP2011524571A (en) * 2008-06-12 2011-09-01 マイクロソフト コーポレーション 3D content integration built into the device
JP2011215412A (en) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd Map image processing device, map image processing method, and map image processing program
KR101814604B1 (en) * 2011-08-30 2018-01-04 삼성전자주식회사 Digital photographing apparatus and control method thereof
JP2013084273A (en) * 2012-10-15 2013-05-09 Olympus Corp Image display device, image display method, and program for image display
JP2014222446A (en) * 2013-05-14 2014-11-27 大日本印刷株式会社 Video output device, video output method, and program
JP2015069444A (en) * 2013-09-30 2015-04-13 大日本印刷株式会社 Video output device, video output method, and program
JP2015069445A (en) * 2013-09-30 2015-04-13 大日本印刷株式会社 Video output device, video output method, and program

Similar Documents

Publication Publication Date Title
US7626596B2 (en) Image reproducing method and apparatus for displaying annotations on a real image in virtual space
US7411594B2 (en) Information processing apparatus and method
JP5861499B2 (en) Movie presentation device
US20110211040A1 (en) System and method for creating interactive panoramic walk-through applications
KR20170007102A (en) Device and method for generating and displaying three-dimentional map
US7388982B2 (en) Image processing method and apparatus for generating panoramic image
JP2003216982A (en) Device and method for providing information, storage medium, and computer program
JP2004234455A (en) Information processing method and image reproducing apparatus
WO2019208702A1 (en) Free viewpoint image generation method, free viewpoint image display method, free viewpoint image generation device, and display device
US11252398B2 (en) Creating cinematic video from multi-view capture data
JP2020160944A (en) Inspection work support device, inspection work support method, and inspection work support program
JP2005174024A (en) Image forming apparatus and method
JP2015108992A (en) Additional information display system
JP6635573B2 (en) Image processing system, image processing method, and program
JP2009015583A (en) Information processing unit and information processing method
JP4078080B2 (en) Information processing apparatus and method
JP2004062755A (en) Image providing device and image processing method
JP6663491B2 (en) Image processing apparatus, image processing program, and recording medium
JP3840113B2 (en) Image reproduction apparatus and information processing method
JP2013098816A (en) Moving picture display apparatus
KR20090132317A (en) Method and system for providing additional information based on video images
JP3295672B2 (en) Information processing device having operation history output function
JP3482071B2 (en) Virtual space type database search method and search device
US20210297649A1 (en) Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
JPH11185051A (en) Animation creating device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070306