JP2005174024A - Image forming apparatus and method - Google Patents
Image forming apparatus and method Download PDFInfo
- Publication number
- JP2005174024A JP2005174024A JP2003413814A JP2003413814A JP2005174024A JP 2005174024 A JP2005174024 A JP 2005174024A JP 2003413814 A JP2003413814 A JP 2003413814A JP 2003413814 A JP2003413814 A JP 2003413814A JP 2005174024 A JP2005174024 A JP 2005174024A
- Authority
- JP
- Japan
- Prior art keywords
- annotation
- image
- display
- region
- viewpoint position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 239000000284 extract Substances 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 8
- 230000008859 change Effects 0.000 abstract description 6
- 238000013500 data storage Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 102100029968 Calreticulin Human genes 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 101100326671 Homo sapiens CALR gene Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Studio Circuits (AREA)
Abstract
Description
本発明は、実空間の撮影によって得られた画像データをもとに構築される仮想空間の画像上へのアノテーションの表示技術に関する。 The present invention relates to a technique for displaying annotations on an image in a virtual space that is constructed based on image data obtained by photographing a real space.
移動体に搭載された撮影装置によって現実空間を撮影し、撮影された実写画像データをもとに、撮影した現実空間を計算機を用いて仮想空間として表現する試みが提案されている(例えば非特許文献1、または非特許文献2などを参照)。
There has been proposed an attempt to photograph a real space with a photographing device mounted on a moving object, and to represent the photographed real space as a virtual space using a computer based on the photographed real image data (for example, non-patent)
実写画像データをもとに、撮影した現実空間を仮想空間として表現する手法としては、実写画像データから現実空間の幾何形状モデルを再現し、従来のCG技術で表現する手法が挙げられるが、モデルの正確性や写実性の点で限界がある。一方、幾何形状モデルの再現を行わずに、実写画像を用いて仮想空間を表現するImage-Based Rendering(IBR)技術が近年注目を集めている。IBR技術は実写画像に基づいて仮想空間画像を生成するので、写実的な仮想空間の表現が可能である。また、都市や町のような広大な空間の幾何形状モデルを作成するためには膨大な時間や労力が必要とされるが、IBR技術ではそのような幾何形状モデルは不要であり、幾何形状モデル作成のための時間や労力は必要とされない。 As a method for expressing the captured real space as a virtual space based on the real image data, there is a method of reproducing the geometric shape model of the real space from the real image data and expressing it with the conventional CG technology. There are limitations in terms of accuracy and realism. On the other hand, in recent years, Image-Based Rendering (IBR) technology that represents a virtual space by using a real image without reproducing a geometric model has been attracting attention. Since the IBR technique generates a virtual space image based on the photographed image, it is possible to represent the photographed virtual space. Moreover, enormous amounts of time and labor are required to create a geometric model of a vast space such as a city or town, but such a geometric model is unnecessary in IBR technology. No time or effort is needed to create it.
IBR技術を用いてウォークスルー可能な仮想空間を構築するためには、体験者の仮想空間内の位置に応じた画像の生成・呈示を行う必要がある。そのため、この種のシステムにおいては、実写画像データの各画像フレームと仮想空間内の位置を対応付けて保存しておき、体験者の仮想空間における位置と視線方向に基づいて対応する画像フレームを取得し、これを再生する。 In order to construct a virtual space that can be walk-through using the IBR technology, it is necessary to generate and present an image according to the position of the experience person in the virtual space. Therefore, in this type of system, each image frame of the live-action image data is stored in association with the position in the virtual space, and the corresponding image frame is acquired based on the position in the virtual space of the experience person and the line-of-sight direction. And play this.
このような仮想空間内のウォークスルーにおいては、体験者が各視点位置で所望の方向を見ることができるように、各視点位置に対応する画像フレームを再生時の画角よりも広い範囲をカバーするパノラマ画像で保存しておく。そして、再生時には、体験者の仮想空間内の視点位置に基づいてパノラマ画像を読出し、視線方向に基づいて部分画像をパノラマ画像から切出して表示する。仮想空間における視点位置の軌跡が撮影装置を搭載した車輌の軌跡と同一である場合、観察者はあたかも自分がその車輌に乗って走っているかのような感覚を味わうことができる。 In such a walk-through in the virtual space, the image frame corresponding to each viewpoint position covers a wider range than the angle of view at the time of playback so that the user can see the desired direction at each viewpoint position. Save as a panoramic image. At the time of reproduction, a panoramic image is read based on the viewpoint position in the virtual space of the experience person, and the partial image is cut out from the panoramic image and displayed based on the viewing direction. When the trajectory of the viewpoint position in the virtual space is the same as the trajectory of the vehicle equipped with the photographing device, the observer can feel as if he / she is running on the vehicle.
さらに、再生中の画像内のビルの上にビルの名前などのアノテーション(注釈)を合成して表示することにより、より豊かな情報を観察者に提供することができる。また実写画像上では暗くて見えにくい標識などをアノテーションとして見やすく表示することも可能である。
仮想空間をウォークスルーする体験者にアノテーションを有効に表示するために、アノテーションの対象となるオブジェクト(アノテーション対象物)と体験者の相対的な動きに合わせてアノテーションの画像内の表示位置が決まる。例えば、画像内の建築物の上にアノテーションを表示している場合、体験者の視線方向が変われば画像内の建築物の表示位置が変わり、それにあわせてアノテーションの表示位置も変わる。体験者にとってアノテーションは常にアノテーション対象物の上に存在するので、体験者は画像中のオブジェクトとアノテーションとの関連を容易に把握できる。 In order to effectively display the annotation to the experience person who walks through the virtual space, the display position of the annotation in the image is determined according to the relative movement of the object (annotation target object) to be annotated and the experience person. For example, when an annotation is displayed on a building in the image, the display position of the building in the image changes when the user's line of sight changes, and the display position of the annotation also changes accordingly. Since the annotation always exists on the annotation object for the experiencer, the experiencer can easily grasp the relationship between the object in the image and the annotation.
しかし、アノテーション対象物の物体や建築物等に近づきすぎると、アノテーションの表示位置が不適切になる場合がある。例えば、アノテーションが建物の上の方で表示されている場合、その建物に近づくとアノテーションが視界から外れたりする。さらに、体験者とアノテーション対象物が相対的に近くになると、体験者の動きに応じたアノテーションの動きが激しくなり、その動きが体験者に違和感を与えたりすることもある。さらに、アノテーション対象物が面積を有する場合、例えば体験者の位置がアノテーション対象の地域内や建築物の中などであった場合は、体験者の位置にかかわらず体験者との相対的な位置は同じになり、画像内でのアノテーションの表示する位置が不定になる。 However, when the annotation object is too close to the object, the annotation display position may become inappropriate. For example, when an annotation is displayed on the upper side of a building, the annotation goes out of sight when approaching the building. Furthermore, when the experience person and the annotation object are relatively close to each other, the movement of the annotation according to the movement of the experience person becomes intense, and the movement may give the experience person a sense of incongruity. Furthermore, if the annotation target has an area, for example, if the location of the experiencer is within the annotation target area or building, the relative position with the experience is The position where the annotation is displayed in the image becomes indefinite.
本発明は、上記の課題に鑑みてなされたものであり、その目的は、アノテーション対象物と体験者との相対的な位置によってアノテーションの表示位置の決定方法を変更し、常に適切な位置にアノテーションを表示可能とすることにある。
また、本発明の他の目的は、アノテーション対象物と体験者との相対的な位置がはっきりしていない場合等でもアノテーション表示位置を求めることにある。
The present invention has been made in view of the above problems, and its purpose is to change the method for determining the display position of the annotation depending on the relative position between the annotation object and the user, and always set the annotation at an appropriate position. Is to be displayed.
Another object of the present invention is to obtain the annotation display position even when the relative position between the annotation object and the user is not clear.
上記の目的を達成するための本発明の一態様による画像生成方法は、
複数地点の実写画像より、仮想空間における視点位置に基づいて実写画像を抽出し、抽出された実写画像に基づいて出力画像を生成する画像生成方法であって、
アノテーションに関する複数の領域が設定された仮想空間中において、視点位置が該複数の領域のいずれに存在するかを判定する判定工程と、
前記判定工程の判定結果に基づいて前記アノテーションの表示方法を切り換える切り替え工程とを備え、
前記複数の領域は前記アノテーションの対象物の存在する領域の少なくとも一部を含む第1領域と、該第1領域の周辺の第2領域とを含み、
前記切り替え工程は、前記視点位置が前記第1領域にある場合は前記アノテーションの表示位置を出力画像の所定位置に固定する第1方法を採用し、前記視点位置が前記第2領域にある場合は、該視点位置と前記アノテーションに設定されている表示座標とに基づいて前記出力画像における該アノテーションの表示位置を決定する第2方法を採用する。
In order to achieve the above object, an image generation method according to an aspect of the present invention includes:
An image generation method for extracting a live-action image based on a viewpoint position in a virtual space from a live-action image at a plurality of points, and generating an output image based on the extracted live-action image,
A determination step of determining in which of the plurality of regions the viewpoint position exists in a virtual space in which a plurality of regions related to the annotation are set;
A switching step of switching the display method of the annotation based on the determination result of the determination step,
The plurality of regions include a first region including at least a part of a region where the object of the annotation exists, and a second region around the first region,
The switching step employs a first method in which the display position of the annotation is fixed to a predetermined position of the output image when the viewpoint position is in the first area, and when the viewpoint position is in the second area. The second method of determining the display position of the annotation in the output image based on the viewpoint position and the display coordinates set in the annotation is adopted.
本発明によれば、アノテーション対象物と体験者との相対的な位置によってアノテーションの表示位置の決定方法が変更され、常に適切な位置にアノテーションを表示することが可能となる。 According to the present invention, the method for determining the display position of the annotation is changed depending on the relative position between the annotation object and the experience person, and the annotation can always be displayed at an appropriate position.
以下、添付図面を参照しながら、本発明の好適な一実施形態を説明する。 Hereinafter, a preferred embodiment of the present invention will be described with reference to the accompanying drawings.
まず、本実施形態による仮想空間のウォークスルーシステムについて説明する。本実施形態では、例えば自動車などの移動体に搭載された複数の撮影装置によって撮影して得られた実写画像データからパノラマ画像データを生成し、このパノラマ画像データを現実空間の位置に対応する地図上の位置と対応付けて保持する。そして、体験者の仮想空間における視点位置(地図上の位置)と視線方向に応じて、保持されているパノラマ画像データから表示画像を生成することにより、仮想空間内のウォークスルーを実現する。 First, the virtual space walk-through system according to the present embodiment will be described. In the present embodiment, for example, panoramic image data is generated from real image data obtained by photographing with a plurality of photographing devices mounted on a moving body such as an automobile, and this panoramic image data is mapped to a position in the real space. Hold it in association with the upper position. Then, a walk-through in the virtual space is realized by generating a display image from the stored panoramic image data according to the viewpoint position (position on the map) and the line-of-sight direction in the virtual space of the experience person.
図1は本実施形態によるウォークスルーシステムの機能構成を説明するブロック図である。本ウォークスルーシステムを構成する画像再生装置1は、操作部10、視点位置・視線方向決定部20、地図データ保存部30、画像再生制御部40、アノテーション表示位置決定部50、アノテーションデータ保存部60、画像データ保存部70、表示部80を有する。各部の機能については、以降の説明により明らかとなろう。
FIG. 1 is a block diagram illustrating a functional configuration of the walk-through system according to the present embodiment. The
図2は、本実施形態における画像再生装置1のハード構成を示すブロック図である。図2に示したハード構成は通常のパーソナルコンピュータの構成と同等である。図2において、ディスク105は画像データ保存部70を構成するものである。なおディスク105は、同時に地図データ保存部30、アノテーションデータ保存部60をも構成する。ディスク105としては、ハードディスク、CD、DVD等が挙げられる。
FIG. 2 is a block diagram showing a hardware configuration of the
CPU101は、ディスク105またはROM106、または外部記憶装置(不図示)に保存され、RAM107にロードされたプログラムを実行することにより、視点位置・視線方向決定部20、画像再生制御部40、アノテーション表示位置決定部50として機能する。
The
CPU101が表示コントローラ102に対して各種の表示指示を行うことにより、表示コントローラ102及びフレームバッファ103によって表示器104に所望の表示がなされる。なお、図2では表示コントローラ102としてCRTC、表示器104としてCRTを示したが、表示器としては陰極線管に限らず、液晶表示器等を用いてもよいことはもちろんである。なお、CRTC102、フレームバッファ103及びCRT104は、上述の表示部80を構成する。
When the
マウス108、キーボード109及びジョイスティック110は、当該画像再生装置1へのユーザの操作入力を行うためのものであり、上述の操作部10を構成する。
The
次に、以上の構成を備えた本実施形態のウォークスルーシステムにおける、画像再生装置1の動作の概要について説明する。
Next, an outline of the operation of the
操作部10は、視点位置の移動パラメータ、視線方向の回転パラメータを生成する。本実施形態では、視点位置・視線方向の制御にジョイスティック110を用いるものとするが、ゲームコントローラ等の他の入力装置で行ってもよいことは明らかである。ジョイスティック110は、スティックの傾斜角と回転角を独立に制御することができる。本実施形態では、ジョイスティック110のスティックを傾斜させる操作を仮想空間内における視点位置の移動に、スティックを左右に回転させる操作を仮想空間内における視線方向の回転に対応させる。
The
地図データ保存部30は、2次元の地図データを格納する。この地図データに基づいて地図画像を生成、表示することができる。視点位置・視線方向決定部20は、操作部10により入力された移動パラメータ、回転パラメータをもとに、地図データ保存部30に保存されている2次元地図上における観察者の視点位置、視線方向を決定する。すなわち、ウォークスルーを体験する体験者の仮想空間における視点位置及び視線方向は、この2次元地図上の位置、方向に対応する。
The map
画像データ保存部70は、2次元地図上の各位置に対応したパノラマ画像データを格納する。なお、画像データ保存部70は画像再生装置1にローカルに存在する必要はない。例えば、ネットワーク上に画像データ保存部70を設置しておき、ネットワークを介して画像データを読み出すようにしてもよい。
The image
画像再生制御部40は、視点位置・視線方向決定部20から、観察者の地図上での視点位置及び視線方向を受け取り、その視点位置に対応したパノラマ画像データを画像データ保存部70から読み出す。画像データ保存部70から視点位置に対応したパノラマ画像データを読み出すために、本実施形態では地図上の視点位置と画像データを対応づける対応付けデータを用いる。この対応付けデータはシステム中のどこに保存されてもよいが、本実施形態では画像データ保存部70に保存されるものとする。対応付けデータは例えば以下のデータ格納形態を有する。
The image
すなわち、観察者の移動を撮影経路上に限定して、経路を交差点(分岐点)や曲がり角といった区分点で区切り、区分点と、2つの区分点に挟まれた道とを用いて表現する。区分点は2次元地図上に設定され、道は区分点に挟まれた線分となる。各区分点や道にはIDが割り当てられ、区分点には対応する実空間の位置で撮影されたパノラマ画像が、道には両端の区分点に割り当てられたパノラマ画像に挟まれたパノラマ画像群が割り当てられる。図3はこの様子を説明する図である。図3において、IDがC1である区分点とC2である区分点に挟まれた線分(道)にR1というIDが付与されている。そしてGPSデータ等に基づいて区分点C1とC2に対応するパノラマ画像が特定されると、区分点C1にはフレーム番号nのパノラマ画像が、区分点C2にはフレーム番号n+mのパノラマ画像が割り当てられる。区分点にパノラマ画像が割り当てられると、道R1には自動的にフレーム番号n+1からn+m−1までのパノラマ画像群が割り当てられる。 That is, the movement of the observer is limited to the photographing route, the route is divided by a dividing point such as an intersection (branch point) or a turning corner, and expressed using a dividing point and a road sandwiched between two dividing points. The division points are set on the two-dimensional map, and the road is a line segment between the division points. An ID is assigned to each division point or road, and a panoramic image group in which a panoramic image photographed at a corresponding real space position is sandwiched between the panoramic images assigned to the division points on both ends on the road. Is assigned. FIG. 3 is a diagram for explaining this situation. In FIG. 3, an ID R <b> 1 is assigned to a line segment (road) sandwiched between a segment point with ID C <b> 1 and a segment point with C <b> 2. When the panorama image corresponding to the segment points C1 and C2 is specified based on the GPS data or the like, the panorama image with the frame number n is allocated to the segment point C1, and the panorama image with the frame number n + m is allocated to the segment point C2. . When a panoramic image is assigned to a segment point, a panoramic image group with frame numbers n + 1 to n + m−1 is automatically assigned to the road R1.
また、図4に示すように、各区分点、各パノラマ画像は2次元地図上での2次元座標を属性として持つ。なお、地図上での2次元座標は、GPSデータによって得られる緯度・経度データから求められるが、コンピュータ・ビジョンを利用して画像情報から求めてもよい。或いは、両端の区分点の座標のみを求め、区分点間の道に含まれる各パノラマ画像の2次元地図上の2次元座標は補間(例えば、図3において、区分点C1とC2の間の道をm等分して、各区切り位置にm−1個のパノラマ画像(n+1〜n+m−1)を割り当てる)によって求めてもよい。以上のような対応付けデータを用いることにより、画像再生制御部40は2次元地図上の視点位置に対応した画像データを画像データ保存部70〜取得することができる。
Further, as shown in FIG. 4, each segment point and each panoramic image has a two-dimensional coordinate on the two-dimensional map as an attribute. The two-dimensional coordinates on the map are obtained from latitude / longitude data obtained from GPS data, but may be obtained from image information using a computer vision. Alternatively, only the coordinates of the segment points at both ends are obtained, and the two-dimensional coordinates on the two-dimensional map of each panoramic image included in the path between the segment points are interpolated (for example, the path between segment points C1 and C2 in FIG. 3). And m-1 panoramic images (n + 1 to n + m-1) are assigned to each delimiter position). By using the association data as described above, the image
また、画像再生制御部40は、アノテーション表示位置決定部50に地図上の視点位置を与える。アノテーション表示位置決定部50は、受け取った視点位置情報をもとにアノテーションの表示位置を決定し、画像再生制御部40にアノテーション表示位置を与える。アノテーションの表示位置の決定方法については後述する。画像再生制御部40は、視点位置に対応したパノラマ画像より、表示部80に表示する画角にあわせて部分画像を切出して射影変換を行い、アノテーション表示位置決定部50より受けとったアノテーション表示位置に従ってアノテーション画像を合成して表示部80に表示する画像を生成する。表示部80は画像再生制御部40において生成された画像を表示する。
In addition, the image
次に、アノテーション表示位置決定部50の動作について詳細に説明する。図5に示すように、本実施形態では、区分点に挟まれる道上において、パノラマ画像の正面方向は道の方向に平行、つまり撮影時の進行方向に平行であるとする。
Next, the operation of the annotation display
本実施形態では、アノテーション対象物に関して仮想空間中に複数の領域を設定し、体験者が(視点位置が)どの領域に存在するかによってアノテーションの表示位置の決定方法を変える。本実施形態では、アノテーションの表示位置の決定方法を決めるために、各アノテーション対象物に対して、仮想空間を4つの領域(アノテーション表示モード領域)に分ける。図6は、本実施形態を説明するための一例を示す図であり、地図データによって表される地図601を示す。地図601には、公園602がある。図7では図6に示した地図上において、アノテーション対象物(公園602)に対する領域の設定例を示す図である。図7の例では、公園602がアノテーション対象物であって、星印701はそのアノテーションの2次元地図上の位置である。702は対象物のある領域、703は領域702を含み、702より広い領域である。更に領域704は領域703を含み、領域703より広い。更に、領域705は仮想空間のその他の領域である。なお、領域702,703,704,705は、それぞれ表示モード領域A、B、C、Dと呼ぶこともある。
In the present embodiment, a plurality of areas are set in the virtual space for the annotation object, and the method for determining the display position of the annotation is changed depending on which area (the viewpoint position) the experience person exists in. In the present embodiment, the virtual space is divided into four regions (annotation display mode regions) for each annotation object in order to determine a method for determining the display position of the annotation. FIG. 6 is a diagram showing an example for explaining the present embodiment, and shows a
なお、上記の各領域の決定方法は、例えばアノテーション対象物が体験者の視野のどのぐらいを占めるかによって決定することができる。一例を挙げれば、次のような基準で決定することができる。まず、アノテーション対象物602の領域は、領域702とする。体験者が領域702の外にいて、さらに、体験者の水平視野の25%以下をアノテーション対象物が占める体験者の位置を領域705とする。また、体験者の水平視野の25%から50%をアノテーション対象物が占める体験者の位置を領域704とする。そして、体験者の水平視野の50%以上をアノテーション対象物が占める体験者の位置を領域703とする。
また、ここでは、説明のために四角い領域を例としてあげているが、この形に限るものではなく、例えば図8に示すように、アノテーション対象物からの距離で領域を決めても良いし、そのほかの領域の決め方でも良い。
In addition, the determination method of each said area | region can be determined by, for example, how much an annotation target object occupies in an experience person's visual field. For example, it can be determined according to the following criteria. First, the region of the
In addition, here, a square area is given as an example for explanation, but it is not limited to this shape. For example, as shown in FIG. 8, the area may be determined by the distance from the annotation object, Other areas may be determined.
図9は、アノテーション表示位置決定部50の動作を説明するフローチャートである。まずステップS101において、新たな視点情報(視点位置、視線方向)を獲得する。次にステップS102において、ステップS101で獲得した視点情報から該当する視点位置情報に基づいてアノテーションを表示すべき対象物を探索する。アノテーション対象物の検索条件は、体験者の視野に入っていることとする。すなわち、ステップS102では、体験者の視野に入っているアノテーション対象物が検索される。本実施形態では、複数の対象物に対してアノテーションを表示することができ、以下では、1つ又は複数のアノテーション対象物が検索された場合の処理を説明する。
FIG. 9 is a flowchart for explaining the operation of the annotation display
ステップ102において、検索されたアノテーション対象物より1つ目のアノテーション対象物を決定し、ステップS103へ進む。ステップS103において、該当する視点位置に対応したパノラマ画像におけるアノテーションの表示位置を計算する。ステップS103の詳細な処理については、図10のフローチャートを参照して後述する。次に、ステップS104において終了判定を行う。ステップS102で検索されたアノテーション対象物のうち、まだステップS103の処理を終えていないアノテーション対象物が存在する場合はステップS105に進む。ステップS105において、次のアノテーション対象物を決定し、ステップS103の処理に戻る。ステップS104においてアノテーションを表示させるべき対象物すべてについてアノテーションの表示位置が決定している場合には、本処理を終了する。
In
図10は、図9のステップS103のアノテーション表示位置を計算する詳細な処理の説明をするフローチャートである。ステップS111、S112とS113において、ステップS101で得られた体験者の視点位置がアノテーション対象物に対してどの表示モード領域に入っているのかを判断する。本実施形態では、体験者の視点位置が表示モード領域A〜Dのいずれの表示モード領域いるかに従って、アノテーション表示の位置決定方法が異なる。 FIG. 10 is a flowchart for explaining detailed processing for calculating the annotation display position in step S103 of FIG. In steps S111, S112, and S113, it is determined in which display mode region the viewpoint position of the experience person obtained in step S101 is included in the annotation target object. In the present embodiment, the position determination method of the annotation display differs depending on which of the display mode areas A to D is the viewpoint position of the experience person.
ステップS111において、視点位置が表示モード領域Aにあると判断した場合には、ステップS114へ進む。一方、視点位置は表示モード領域Aには無く、表示モード領域Bにあると判断された場合はステップS112からステップS115へ進む。また、視点位置が表示モード領域Cにあると判断された場合はステップS113からステップS116へ進み、視点位置が表示モード領域A〜Cのいずれにも無い(即ち表示モード領域Dにある)と判断された場合はステップS113からステップS117へ進む。ステップS114、S115、S116及びS117のいずれかにおいてアノテーション表示位置を決定すると、ステップS103のアノテーション表示位置計算処理を終えたことになるので、処理は図10のフローチャートに戻る。 If it is determined in step S111 that the viewpoint position is in the display mode area A, the process proceeds to step S114. On the other hand, when it is determined that the viewpoint position is not in the display mode area A but in the display mode area B, the process proceeds from step S112 to step S115. If it is determined that the viewpoint position is in the display mode area C, the process proceeds from step S113 to step S116, and it is determined that the viewpoint position is not in any of the display mode areas A to C (that is, in the display mode area D). If so, the process proceeds from step S113 to step S117. If the annotation display position is determined in any of steps S114, S115, S116, and S117, the annotation display position calculation process in step S103 is completed, and the process returns to the flowchart of FIG.
以下、ステップS114〜S117の各領域毎の表示位置決定処理について詳細に説明する。 Hereinafter, the display position determination process for each area in steps S114 to S117 will be described in detail.
まず、視点位置が表示モード領域Dにいる場合のアノテーション表示位置の決定処理(ステップS117)を説明する。この場合のアノテーション表示位置の計算では、アノテーション対象物と視点位置との相対的な位置関係に基づいて画像内の表示位置が決まる。この表示位置決定方法に従えば、例えば、体験者が仮想空間を見回している間、アノテーションの表示位置を画像内のアノテーション対象物の映像の上に常に表示させることができる。 First, an annotation display position determination process (step S117) when the viewpoint position is in the display mode area D will be described. In the calculation of the annotation display position in this case, the display position in the image is determined based on the relative positional relationship between the annotation object and the viewpoint position. According to this display position determination method, for example, while the experience person is looking around the virtual space, the display position of the annotation can be always displayed on the video of the annotation target in the image.
図11はステップS117におけるアノテーション表示位置決定方法を説明する図である。図11において、1202は区分点C1、1201は区分点C1に対応するパノラマ画像、1209は区分点C2、1204は道R1、1206はアノテーション対象物、1205は対象物1206のアノテーションを表示すべき地図上での位置、1207は道R1上の視点位置、1208は視点位置1207に対応するパノラマ画像、1203は視点位置1207に対応したパノラマ画像1208におけるアノテーションの表示位置(パノラマ画像の正面方向からの相対角度θ)である。
FIG. 11 is a diagram for explaining the annotation display position determination method in step S117. In FIG. 11, 1202 is a segment point C1, 1201 is a panorama image corresponding to the segment point C1, 1209 is a segment point C2, 1204 is a road R1, 1206 is an annotation object, 1205 is a map on which an annotation of the
簡単のために、区分点C1をxy平面の原点とし、区分点C2をx軸上の点1209に取る(すなわち道R1はx軸の一部となる)。図11において、区分点C1、区分点C2、対象物1206のアノテーションを表示したい位置1205の地図上の座標はそれぞれ(0,0)、(x2,0)、(xo,yo)である。道R1上での点1207の地図上の座標は(x,0)である。点1207に対応するパノラマ画像において、対象物1206のアノテーションを表示する水平方向の位置は、パノラマ画像の正面方向からの相対角度θ(rad)で表すと、次式で表される。
For simplicity, the segment point C1 is taken as the origin of the xy plane, and the segment point C2 is taken as a point 1209 on the x axis (that is, the road R1 becomes a part of the x axis). In FIG. 11, the coordinates on the map of the
即ち、視点位置が表示モード領域Dにある場合(ステップS117)は、アノテーション表示位置の(1205)の視点位置(1207)に対する相対位置を計算し、当該視点位置に対応するパノラマ画像(1208)におけるアノテーションの表示位置(パノラマ画像の正面方向からの相対角度)θを上記式(1)により求める。 That is, when the viewpoint position is in the display mode region D (step S117), the relative position of the annotation display position (1205) to the viewpoint position (1207) is calculated, and the panorama image (1208) corresponding to the viewpoint position is calculated. Annotation display position (relative angle from the front direction of the panoramic image) θ is obtained by the above equation (1).
次に、視点位置が表示モード領域Aにある場合のアノテーション表示位置の決定方法(ステップS114)を説明する。表示モード領域Aでは、視点位置は、アノテーション対象物の中と想定する。例えば、アノテーション対象である公園の敷地内や、建物の中などに視点位置がある場合である。体験者の視点位置が表示モード領域Aにある場合は、対象物のアノテーションの表示位置を、シーンを表示する画面上の所定位置に固定し、表示モード領域A内で視点位置や視線方向が変わってもアノテーションの表示位置は変わらないようにする。なお、表示モード領域Aでのアノテーションの表示位置については種々の決定方法が考えられる。例えば、仮想空間全体で一つの表示位置に決めても良いし、アノテーション対象物毎にアノテーションの固定表示位置を決めても良い。また、システムで予め定められた位置としても良いし、体験時に体験者が好みの位置に決められるようにしても良い。 Next, an annotation display position determining method (step S114) when the viewpoint position is in the display mode area A will be described. In the display mode area A, the viewpoint position is assumed to be in the annotation object. For example, this is a case where the viewpoint position is in the site of a park to be annotated or in a building. When the viewpoint position of the experience person is in the display mode area A, the display position of the annotation of the target object is fixed to a predetermined position on the screen displaying the scene, and the viewpoint position and the line-of-sight direction change in the display mode area A. However, the display position of the annotation should not change. Various methods for determining the display position of the annotation in the display mode area A are conceivable. For example, it may be determined as one display position in the entire virtual space, or a fixed display position of annotation may be determined for each annotation target. Moreover, it is good also as a position predetermined by the system, and an experience person may be made to decide a favorite position at the time of experience.
次に、視点位置が表示モード領域Bにある場合のアノテーション表示位置の決定方法(ステップS115)について説明する。表示モード領域Bはアノテーション対象物が隣接する領域であり、この領域においては、体験者の視線方向が対象物の方に向くと当該対象物が視野の全体或いは大部分を占めるようになり、対象物の反対方向に視線が向くと当該対象物が見えなくなる(視野の外に出てしまう)。 Next, a method for determining the annotation display position when the viewpoint position is in the display mode area B (step S115) will be described. The display mode area B is an area where the annotation object is adjacent. In this area, when the user's line of sight is directed toward the object, the object occupies the whole or most of the field of view. When the line of sight is directed in the opposite direction of the object, the object cannot be seen (goes out of the field of view).
図12は視点位置が表示モード領域Bにいる場合を説明する図である。1301はアノテーション対象物(例えば公園、ビル等)、1302は2次元地図上でのアノテーションの位置、1303は対象物1301に対しての表示モード領域B、1304は視点位置とその位置に対応するパノラマ画像、1304〜1313は道1314上でのパノラマ画像である。
FIG. 12 is a diagram illustrating a case where the viewpoint position is in the display mode area B. 1301 is an annotation object (for example, a park, a building, etc.), 1302 is the position of the annotation on the two-dimensional map, 1303 is a display mode area B for the
図13は、表示モード領域Bに視点位置があるときのシーンの例である。1401はビル等のアノテーション対象物、1402はアノテーション対象物1401に対するアノテーションの地図上に設定された表示位置を示す。1403は対象物1401の表示するアノテーションである。1404は表示モード領域B内における一つの視点位置と対応するパノラマ画像であり、1405は表示モード領域B内のもう一つの視点位置と対応するパノラマ画像である。1406と1408は視点1404から視線方向1410で対象物1401を見たときの画像である。同様に、1407と1409は視点位置1405と視線方向1411で対象物1401を見たときの画像である。画像1406と1407では、アノテーション1403は地図上のアノテーション設定位置に対する表示位置に表示している。そのため、アノテーションは夫々の画像において半分ずつしか表示されない。それに対し、画像1408と1409では、アノテーションの表示位置は画像上の所定の位置に固定さている。図13を見て分かるように画像1408と1409でのアノテーションの表示位置の方がより有効的である。
FIG. 13 is an example of a scene when the viewpoint position is in the display mode area B. Reference numeral 1401 denotes an annotation object such as a building, and 1402 denotes a display position set on the annotation map for the
従って、本実施形態では、視点位置が表示モード領域Bにいる場合のアノテーション表示位置の決定方法を以下のとおりとする。まず、視線方向がアノテーション対象物に向いていれば表示モード領域Aと同様の決定方法を採用する。つまり、対象物が視野に入っている場合、視点位置と対象物の相対位置が変わってもアノテーションの画像上の表示位置は変わらず、固定にする。そして、対象物がある程度体験者の視野から出た場合(たとえば、対象物の50%以上が視野から出た場合)、異なる表示モード領域の処理をする。例えば、視線方向が対象物に向いていない場合には、アノテーションを表示しないようにする。図13で言うと、例えば視線方向がビル1401の反対側に向いたような場合には、ビル1401のアノテーションを表示しない。
Therefore, in this embodiment, the determination method of the annotation display position when the viewpoint position is in the display mode area B is as follows. First, if the line-of-sight direction is directed to the annotation object, the same determination method as that for the display mode area A is adopted. That is, when the object is in the field of view, the display position of the annotation on the image does not change even if the viewpoint position and the relative position of the object change, and the object is fixed. When the object comes out from the visual field of the experience person to some extent (for example, when 50% or more of the object comes out of the visual field), processing of different display mode areas is performed. For example, when the line-of-sight direction does not face the object, the annotation is not displayed. In FIG. 13, for example, when the line-of-sight direction is directed to the opposite side of the
次に、視点位置が表示モード領域Cにある場合のアノテーション表示位置の決定方法(ステップS1106)を説明する。上述した様に、表示モード領域Dでは視点位置と対象物体の相対値が変わるとアノテーションの表示位置も変化し、表示モード領域Bではアノテーション表示位置が固定されている。表示モード領域Cはそれら表示モード領域Dと表示モード領域Bの中間にあり、表示モード領域Dから表示モード領域B(或いはその逆)へのアノテーション表示位置のスムースな移行を実現するための表示方法が表示モード領域Cにおいて実行される。 Next, a method for determining the annotation display position when the viewpoint position is in the display mode area C (step S1106) will be described. As described above, when the relative value between the viewpoint position and the target object changes in the display mode area D, the annotation display position also changes, and in the display mode area B, the annotation display position is fixed. The display mode area C is between the display mode area D and the display mode area B, and a display method for realizing a smooth transition of the annotation display position from the display mode area D to the display mode area B (or vice versa). Is executed in the display mode area C.
図14は視点位置が表示モード領域Cにいる場合を説明する図である。1501はアノテーション対象物(例えば公園、ビル等)、1502は2次元地図上でのアノテーションの位置を示す。また、1503は対象物1501に対しての表示モード領域B、1504は対象物1501に対しての表示モード領域Cを示す。1508は表示モード領域Cに入っている視点位置とその位置に対応するパノラマ画像を示し、1505〜1513は道1514上でのパノラマ画像を示している。
FIG. 14 is a diagram illustrating a case where the viewpoint position is in the display mode area C. Reference numeral 1501 denotes an annotation object (for example, a park or a building), and 1502 denotes the position of the annotation on the two-dimensional map.
図15は、表示モード領域D、表示モード領域Cと表示モード領域Bに視点位置がある場合の表示シーンとそれぞれのアノテーション表示を示す。1604は表示するアノテーションである。1601は視点位置が表示モード領域Dにある、例えば図14の位置1507(表示モード領域D)にあるときのアノテーションの表示状態を示す。上述した様に、表示モード領域Dでは視点と対象物の相対位置によってアノテーションの表示位置が変わる。1603は視点位置が表示モード領域B(1503)内にある、例えば位置1510の点にあり、さらに対象物1501に視線が向かっているときのアノテーションの表示例を示す。アノテーションは固定の位置で表示している。1602は視点位置が表示モード領域C、例えば位置1508にある場合のアノテーションの表示例を示す。本実施形態では、視点が表示モード領域Cにある場合のアノテーションの表示位置は、表示モード領域Dの時の表示位置と表示モード領域Bの表示位置の中間的な位置に決定する。その決定方法は、例えば線形補間による方法でも良いが、そのほかの決定方法でも良い。
FIG. 15 shows display scenes and respective annotation displays when the viewpoint positions are in the display mode region D, the display mode region C, and the display mode region B. Reference numeral 1604 denotes an annotation to be displayed.
ここでは、線形補間によってアノテーション表示位置を決める場合を図17を参照して説明する。説明のために、表示モード領域Cにおける視点位置は位置1508にあるものとして説明する。まず、位置1508から表示モード領域Dの表示位置計算方法で表示位置を計算する。つまり、視点の位置1508とアノテーションの位置1502の相対位置に応じたパノラマ画像上のアノテーション表示位置を、例えば上述の式(1)を用いて算出する。次に、表示モード領域Bにおける固定の表示位置(切り出し範囲の画像における所定位置)を取得する。そして、表示モード領域Cの視点位置1508でのアノテーションの表示位置は、表示モード領域Dから表示モード領域Cに入る直前の視点位置1507の2次元地図上の位置((x1507,y1507))とそのときの表示位置Hd、表示モード領域Cから表示モード領域Bに入った直後の視点位置1510の2次元地図上の位置((x1510,y1510))とそのときの表示位置Hb、及び表示モード領域Cの視点位置1508の2次元地図上の視点位置((x1508,y1508))から、次式(2)により算出される。
Here, the case where the annotation display position is determined by linear interpolation will be described with reference to FIG. For explanation, it is assumed that the viewpoint position in the display mode area C is at the
なお、アノテーション表示の高さ方向の位置は、位置1507におけるアノテーション表示位置の高さVdと、位置1510におけるアノテーション表示位置の高さVbを用いて、水平方向位置(Hc、式(2))と同様に以下の式(3)により求めることができる。なお、図17ではHcとVcで決まるパノラマ表示位置が(Hd,Vd)と(Hb,Vb)を結ぶ破線上より外れた位置に示したが、式(2)、(3)を用いて算出された位置(Hc,Vc)は破線上となる。但し、図17に示した破線の傾きは視線方向によりHbの位置が変わるので、視線方向により変化することになる。
The position in the height direction of the annotation display is the horizontal position (Hc, expression (2)) using the height Vd of the annotation display position at the
上記では、表示モード領域Dと表示モード領域Bでの表示位置から表示モード領域Cでの表示位置を線形的に計算する際に2次元地図上でのパノラマ画像の距離を利用したが、パノラマ画像の枚数によって線形的に表示位置を算出しても良い。例えば、位置1508から位置1507までのパノラマ画像の枚数と、位置1508から位置1510までのパノラマ画像の枚数に基づいて表示位置を算出する。
In the above description, when the display position in the display mode area C is linearly calculated from the display positions in the display mode area D and the display mode area B, the panoramic image distance on the two-dimensional map is used. The display position may be calculated linearly according to the number of images. For example, the display position is calculated based on the number of panoramic images from
図16は、画像再生制御部40におけるアノテーション合成の処理を説明する図である。ここでは、視点位置が表示モード領域Dにあると仮定する。アノテーション表示位置決定部50はアノテーション表示位置θを決定する。画像再生制御部40は視線方向と画角αに応じてパノラマ画像を切出す。そして、切出したパノラマ画像上に、アノテーションデータ保存部60から読み出されたアノテーション画像が合成され、表示画像が生成される。パノラマ画像を透視投影画像に変換する斜影変換はパノラマ画像に対してのみ行われる。視点位置が他の領域にある場合は同様に、切り出したパノラマ画像の上に、固定の位置や線形補間により計算された位置にアノテーション画像が合成される。
FIG. 16 is a diagram for explaining annotation composition processing in the image
以上のように、上記実施形態によれば、アノテーションを表示したい対象物位置と観察者の視点位置の2次元地図上での相対位置によってアノテーション表示モードを切り換えることで、観察者の視点が対象物から遠い位置にいても、対象物の中にいても観察者に対象物のアノテーションを分かりやすく表示することが可能になる。 As described above, according to the above-described embodiment, the viewpoint of the observer is determined by switching the annotation display mode according to the relative position on the two-dimensional map between the position of the object on which the annotation is to be displayed and the viewpoint position of the observer. It is possible to display the annotation of the object in an easy-to-understand manner for the observer even if it is far from the object or in the object.
なお、本発明は、複数の機器(例えばホストコンピュータ,インタフェイス機器,リーダ,プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機,ファクシミリ装置など)に適用してもよい。 Note that the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), or a device (for example, a copier, a facsimile device, etc.) including a single device. You may apply to.
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。 Another object of the present invention is to supply a storage medium storing software program codes for implementing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。 As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
Claims (9)
アノテーションに関する複数の領域が設定された仮想空間中において、視点位置が該複数の領域のいずれに存在するかを判定する判定工程と、
前記判定工程の判定結果に基づいて前記アノテーションの表示方法を切り換える切り替え工程とを備え、
前記複数の領域は前記アノテーションの対象物の存在する領域の少なくとも一部を含む第1領域と、該第1領域の周辺の第2領域とを含み、
前記切り替え工程は、前記視点位置が前記第1領域にある場合は前記アノテーションの表示位置を出力画像の所定位置に固定する第1方法を採用し、前記視点位置が前記第2領域にある場合は、該視点位置と前記アノテーションに設定されている表示座標とに基づいて前記出力画像における該アノテーションの表示位置を決定する第2方法を採用することを特徴とする画像出力方法。 An image generation method for extracting a live-action image based on a viewpoint position in a virtual space from a live-action image at a plurality of points, and generating an output image based on the extracted live-action image,
A determination step of determining in which of the plurality of regions the viewpoint position exists in a virtual space in which a plurality of regions related to the annotation are set;
A switching step of switching the display method of the annotation based on the determination result of the determination step,
The plurality of regions include a first region including at least a part of a region where the object of the annotation exists, and a second region around the first region,
The switching step employs a first method in which the display position of the annotation is fixed to a predetermined position of the output image when the viewpoint position is in the first area, and when the viewpoint position is in the second area. An image output method that employs a second method of determining a display position of the annotation in the output image based on the viewpoint position and display coordinates set in the annotation.
前記切り替え工程は、前記視点位置が前記第3領域に存在する場合は、前記第1方法に従った前記アノテーションの表示を視線方向に基づいてオン/オフさせる第3方法を採用することを特徴とする請求項1に記載の画像出力方法。 The plurality of regions include a third region adjacent to the periphery of the first region,
The switching step employs a third method of turning on / off the display of the annotation according to the first method based on a line-of-sight direction when the viewpoint position exists in the third region. The image output method according to claim 1.
前記切り換え工程は、前記視点位置が前記第4領域に存在する場合は、該第4領域と該第2領域の境界位置において前記第2方法を用いて決定される画像上のアノテーションの表示位置と、前記第1方法における画像上の前記所定位置との間に該アノテーションの表示位置を決定する第4方法を採用することを特徴とする請求項1又は2に記載の画像出力方法。 The plurality of regions include a fourth region between the second region and the third region,
In the switching step, when the viewpoint position exists in the fourth area, the display position of the annotation on the image determined using the second method at the boundary position between the fourth area and the second area; The image output method according to claim 1, wherein a fourth method for determining a display position of the annotation between the predetermined position on the image in the first method is adopted.
前記視点位置に基づいて対応するパノラマ画像を選択し、視線方向に基づいて該パノラマ画像から部分画像を切り出す切り出し工程を更に備え、
前記第2方法は、前記パラノラマ画像において前記アノテーションの表示位置を決定することを特徴とする請求項1に記載の画像出力方法。 The live-action image is a panoramic image,
Selecting a corresponding panoramic image based on the viewpoint position, and further comprising a clipping step of cutting out a partial image from the panoramic image based on the line-of-sight direction;
The image output method according to claim 1, wherein the second method determines a display position of the annotation in the paranorama image.
アノテーションに関する複数の領域が設定された仮想空間中において、視点位置が該複数の領域のいずれに存在するかを判定する判定手段と、
前記判定手段の判定結果に基づいて前記アノテーションの表示方法を切り換える切り替え手段とを備え、
前記複数の領域は前記アノテーションの対象物の存在する領域の少なくとも一部を含む第1領域と、該第1領域の周辺の第2領域とを含み、
前記切り替え手段は、前記視点位置が前記第1領域にある場合は前記アノテーションの表示位置を出力画像の所定位置に固定する第1方法を採用し、前記視点位置が前記第2領域にある場合は、該視点位置と前記アノテーションに設定されている表示座標とに基づいて前記出力画像における該アノテーションの表示位置を決定する第2方法を採用することを特徴とする画像出力装置。 An image generation device that extracts a live-action image based on a viewpoint position in a virtual space, and generates an output image based on the extracted live-action image, from a live-action image at a plurality of points,
Determination means for determining in which of the plurality of regions the viewpoint position exists in a virtual space in which a plurality of regions related to the annotation are set;
Switching means for switching the display method of the annotation based on the determination result of the determination means,
The plurality of regions include a first region including at least a part of a region where the object of the annotation exists, and a second region around the first region,
The switching means employs a first method for fixing the display position of the annotation to a predetermined position of the output image when the viewpoint position is in the first area, and when the viewpoint position is in the second area. An image output apparatus adopting a second method for determining a display position of the annotation in the output image based on the viewpoint position and display coordinates set in the annotation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003413814A JP2005174024A (en) | 2003-12-11 | 2003-12-11 | Image forming apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003413814A JP2005174024A (en) | 2003-12-11 | 2003-12-11 | Image forming apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005174024A true JP2005174024A (en) | 2005-06-30 |
Family
ID=34733839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003413814A Withdrawn JP2005174024A (en) | 2003-12-11 | 2003-12-11 | Image forming apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005174024A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011524571A (en) * | 2008-06-12 | 2011-09-01 | マイクロソフト コーポレーション | 3D content integration built into the device |
JP2011215412A (en) * | 2010-03-31 | 2011-10-27 | Zenrin Datacom Co Ltd | Map image processing device, map image processing method, and map image processing program |
JP2013084273A (en) * | 2012-10-15 | 2013-05-09 | Olympus Corp | Image display device, image display method, and program for image display |
JP5288214B2 (en) * | 2007-12-18 | 2013-09-11 | ソニー株式会社 | Data processing apparatus, data processing method, and program |
JP2014222446A (en) * | 2013-05-14 | 2014-11-27 | 大日本印刷株式会社 | Video output device, video output method, and program |
JP2015069445A (en) * | 2013-09-30 | 2015-04-13 | 大日本印刷株式会社 | Video output device, video output method, and program |
JP2015069444A (en) * | 2013-09-30 | 2015-04-13 | 大日本印刷株式会社 | Video output device, video output method, and program |
KR101814604B1 (en) * | 2011-08-30 | 2018-01-04 | 삼성전자주식회사 | Digital photographing apparatus and control method thereof |
-
2003
- 2003-12-11 JP JP2003413814A patent/JP2005174024A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5288214B2 (en) * | 2007-12-18 | 2013-09-11 | ソニー株式会社 | Data processing apparatus, data processing method, and program |
JP2011524571A (en) * | 2008-06-12 | 2011-09-01 | マイクロソフト コーポレーション | 3D content integration built into the device |
JP2011215412A (en) * | 2010-03-31 | 2011-10-27 | Zenrin Datacom Co Ltd | Map image processing device, map image processing method, and map image processing program |
KR101814604B1 (en) * | 2011-08-30 | 2018-01-04 | 삼성전자주식회사 | Digital photographing apparatus and control method thereof |
JP2013084273A (en) * | 2012-10-15 | 2013-05-09 | Olympus Corp | Image display device, image display method, and program for image display |
JP2014222446A (en) * | 2013-05-14 | 2014-11-27 | 大日本印刷株式会社 | Video output device, video output method, and program |
JP2015069445A (en) * | 2013-09-30 | 2015-04-13 | 大日本印刷株式会社 | Video output device, video output method, and program |
JP2015069444A (en) * | 2013-09-30 | 2015-04-13 | 大日本印刷株式会社 | Video output device, video output method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7626596B2 (en) | Image reproducing method and apparatus for displaying annotations on a real image in virtual space | |
US7411594B2 (en) | Information processing apparatus and method | |
JP3472273B2 (en) | Image reproducing apparatus, image processing apparatus and method | |
US20110211040A1 (en) | System and method for creating interactive panoramic walk-through applications | |
KR20170007102A (en) | Device and method for generating and displaying three-dimentional map | |
US7388982B2 (en) | Image processing method and apparatus for generating panoramic image | |
JP2003216982A (en) | Device and method for providing information, storage medium, and computer program | |
JP7167134B2 (en) | Free-viewpoint image generation method, free-viewpoint image display method, free-viewpoint image generation device, and display device | |
JP2013183249A (en) | Moving image display device | |
JP2004234455A (en) | Information processing method and image reproducing apparatus | |
JP2005174024A (en) | Image forming apparatus and method | |
JP6635573B2 (en) | Image processing system, image processing method, and program | |
JP2009015583A (en) | Information processing unit and information processing method | |
JP4078080B2 (en) | Information processing apparatus and method | |
JP2004062755A (en) | Image providing device and image processing method | |
JP6663491B2 (en) | Image processing apparatus, image processing program, and recording medium | |
JP3840113B2 (en) | Image reproduction apparatus and information processing method | |
JP2013098816A (en) | Moving picture display apparatus | |
JP2004310686A (en) | Image processing method and device | |
KR20090132317A (en) | Method and system for providing additional information based on video images | |
JP3295672B2 (en) | Information processing device having operation history output function | |
JPH11185051A (en) | Animation creating device | |
JP3432213B2 (en) | Image reproducing apparatus and method | |
JP3482071B2 (en) | Virtual space type database search method and search device | |
US20210297649A1 (en) | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070306 |